JP2013109325A - Map creation method using group of intelligent robots and device for the same - Google Patents
Map creation method using group of intelligent robots and device for the same Download PDFInfo
- Publication number
- JP2013109325A JP2013109325A JP2012220206A JP2012220206A JP2013109325A JP 2013109325 A JP2013109325 A JP 2013109325A JP 2012220206 A JP2012220206 A JP 2012220206A JP 2012220206 A JP2012220206 A JP 2012220206A JP 2013109325 A JP2013109325 A JP 2013109325A
- Authority
- JP
- Japan
- Prior art keywords
- map
- robot
- map construction
- local information
- intelligent robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
Abstract
【課題】各ロボットからの情報を融合して環境地図全体を生成できる装置を提供する。
【解決手段】地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出204、検出された相対位置に基づいて各ロボット別の探索区域を分割206、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得208した後、これらの情報を融合して環境地図全体を生成210するようにすることで、インフォーマルな環境で地図の作成のための探索範囲を縮小して探索時間が過度にかかるのを効果的に抑制でき、選択的なマッチングを通じて各ロボットから獲得したローカル情報202の併合時間を低減できる。
【選択図】図2An apparatus capable of generating an entire environment map by fusing information from each robot is provided.
A relative position between robots autonomously traveling in a search range where a map is to be created is detected, a search area for each robot is divided based on the detected relative position, and a map is generated from each robot. After acquiring 208 each local information for the search area used for the search, the information is merged to generate 210 the entire environment map, so that the search range for creating the map in the informal environment It is possible to effectively suppress the search time from being excessively reduced, and to reduce the merging time of the local information 202 acquired from each robot through selective matching.
[Selection] Figure 2
Description
本発明は、群集の知能ロボットを用いて地図を構築する技法に関し、更に詳しくは、地図を作成しようとする区域全体(領域全体)を多数の各ロボット別の探索区域にそれぞれ分割し、各探索区域から獲得したローカル情報を用いて環境地図全体を生成するのに適した群集の知能ロボットを用いた地図構築方法及びその装置に関する。 The present invention relates to a technique for constructing a map using intelligent robots of a crowd. More specifically, the present invention divides an entire area (entire area) for which a map is to be created into a plurality of search areas for each robot. The present invention relates to a map construction method and apparatus using a crowd intelligent robot suitable for generating an entire environmental map using local information acquired from an area.
周知のように、自律移動ロボットのような移動体の最も基本的な機能は、移動体が所望する目標地点まで衝突なしに移動できなければならないということにあり、このような機能は自律移動ロボットの位置測定技術及びマップ(地図)の構成技術により行われる。 As is well known, the most basic function of a mobile object such as an autonomous mobile robot is that the mobile object must be able to move to a desired target point without a collision. Such a function is an autonomous mobile robot. The position measurement technique and the map construction technique are used.
ここで、マップの構成と移動体自身の位置を認識する方法としては、例えば、SLAM(Simultaneous Localization And Mapping)アルゴリズムを利用することが知られている。 Here, as a method for recognizing the map configuration and the position of the moving body, it is known to use, for example, a SLAM (Simultaneous Localization And Mapping) algorithm.
このようにSLAMアルゴリズムを利用する従来の典型的な技術においては、2次元のフォーマルな環境内で位置を認識し、環境を認識する研究が主流をなしており、このような従来技術は実際の製品への適用も始まっているのが現状である。 As described above, in the conventional typical technique using the SLAM algorithm, research for recognizing a position in a two-dimensional formal environment and recognizing the environment has become the mainstream. Currently, it has been applied to products.
しかし、SLAMアルゴリズムを用いて移動体の位置と周囲環境を認識する従来技術はフォマールな環境に限られているため、インフォーマルな環境に適用する場合、その範囲が広く、膨大であり、多くの探索時間がかかるという問題がある。 However, since the conventional technology for recognizing the position of the moving body and the surrounding environment using the SLAM algorithm is limited to a formal environment, when applied to an informal environment, the range is wide and enormous. There is a problem that it takes a long time to search.
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成するようにすることにある。 Therefore, the present invention has been made in view of the above circumstances, and an object of the present invention is to detect a relative position between robots that autonomously travel in a search range where a map is to be created, and based on the detected relative position. The search area for each robot is divided and local information on the search area used for map generation is obtained from each robot, and then the information is merged to generate the entire environment map. It is in.
本発明は、一観点によって、各ロボット間の相対距離を測定して前記各ロボット間の相対位置を検出する過程と、検出された相対位置に基づいて各ロボット別の探索区域を分割する過程と、分割された各探索区域情報を対応する前記各ロボットに伝送する過程と、前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得する過程と、獲得された各ローカル情報を融合して環境地図全体を生成する過程とを含む群集の知能ロボットを用いた地図構築方法を提供する。 According to one aspect of the present invention, a process of measuring a relative distance between robots to detect a relative position between the robots, a process of dividing a search area for each robot based on the detected relative positions, A process of transmitting each divided search area information to each corresponding robot, a process of acquiring local information used for generating a map from each robot, and each acquired local information. A map construction method using intelligent robots of the crowd including the process of generating the entire environmental map.
本発明は、他の観点によって、各ロボット間の相対位置を検出して共有する相対位置獲得ブロックと、前記検出された相対位置に基づいて各ロボット別の探索区域を分割する探索区域分割ブロックと、前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得するローカル情報収集ブロックと、獲得された各ローカル情報を融合して環境地図全体を生成する統合環境地図生成ブロックとを含む群集の知能ロボットを用いた地図構築装置を提供する。 According to another aspect, the present invention provides a relative position acquisition block that detects and shares a relative position between robots, and a search area division block that divides a search area for each robot based on the detected relative position. A crowd including a local information collection block for acquiring local information used for generating a map from each robot, and an integrated environment map generation block for generating an entire environment map by fusing each acquired local information A map construction device using an intelligent robot is provided.
本発明によれば、地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成するようにすることによって、インフォーマルな環境で地図の作成のための探索範囲を縮小して探索時間が過度にかかるのを効果的に抑制でき、選択的なマッチングを通じて各ロボットから獲得したローカル情報の併合時間を低減できるという効果を奏する。 According to the present invention, the relative position between the robots autonomously traveling in the search range for which a map is to be created is detected, the search area for each robot is divided based on the detected relative position, and the map is obtained from each robot. The search range for creating maps in informal environments is obtained by acquiring local information for each search area used to generate the map and then fusing the information to generate the entire environment map. It is possible to effectively suppress the search time from being reduced and reduce the merge time of local information acquired from each robot through selective matching.
本発明の技術の要旨は、フォーマルな環境でSLAMアルゴリズムを用いて移動体の位置と周囲環境を認識する前述した従来技術とは異なり、地図を作成しようとする探索範囲(探索領域)を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図(マップ)の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成することにあり、本発明はこのような技術的手段を通じて目的とするところを実現することによって、従来方式の問題を効果的に改善できる。 The gist of the technology of the present invention is that, unlike the above-described conventional technology for recognizing the position of the moving body and the surrounding environment using the SLAM algorithm in a formal environment, the vehicle travels autonomously in the search range (search area) to be created. The relative position between each robot is detected, the search area for each robot is divided based on the detected relative position, and local information on the search area used for generating a map (map) from each robot is respectively obtained. After acquisition, this information is merged to generate the entire environmental map, and the present invention effectively improves the problems of the conventional method by realizing the target through such technical means. it can.
ここで、分割された各探索区域のローカル情報を併合して環境地図全体を作成することは、例えば、SLAMアルゴリズムを用いて実行され得る。 Here, the creation of the entire environment map by merging the local information of the divided search areas can be performed using, for example, a SLAM algorithm.
なお、下記の本発明を説明するにおいて公知の機能又は構成などに関する具体的な説明が本発明の要旨を不要に曖昧にするおそれがあると判断される場合には、その詳細な説明を省略する。そして、後述する用語は、本発明での機能を考慮して定義されたものであって、これはユーザ、運用者などの意図又は慣例などによって変わり得るのはもちろんである。従って、その定義は、本明細書の全般にわたって記述される技術思想に基づいてなされるべきである。 In the following description of the present invention, when it is determined that there is a possibility that specific descriptions regarding known functions or configurations may unnecessarily obscure the gist of the present invention, detailed description thereof will be omitted. . The terms to be described later are defined in consideration of the functions of the present invention, and it is needless to say that the terms may be changed depending on the intention or practice of the user or the operator. Therefore, the definition should be made based on the technical idea described throughout the present specification.
以下、添付する図面を参照して本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明によって探索範囲を多数の各ロボット別の探索区間に分割した後、各ロボットから獲得されるローカル情報を用いて環境地図全体を生成する例を説明する概念図である。 FIG. 1 is a conceptual diagram illustrating an example in which an entire environment map is generated using local information acquired from each robot after the search range is divided into a number of search sections for each robot according to the present invention.
図1を参照すれば、概念図では探索範囲(探索領域)の環境地図全体を作成(生成)する1つのロボット111と全体の探索範囲に群集の知能を有する4つのロボット112〜115が備えられており、ロボット111は各ロボット112〜115間の相対距離を測定して各ロボット間の相対位置を検出し、このように検出された状態位置に基づいて各ロボット別に探索区間を分割する。ここで、各ロボットは探索範囲の走行中に獲得するローカル情報(例えば、超音波、赤外線、レーザ、カメラ、オドメトリ(odometry)など)を無線伝送する無線通信手段が備えられた移動体と定義され得る。そして、超音波、赤外線、レーザ、カメラ、オドメトリなどのセンサ情報は、通称して映像データと定義(表現)され得る。 Referring to FIG. 1, the conceptual diagram includes one robot 111 that creates (generates) an entire environment map in a search range (search region) and four robots 112 to 115 that have crowd intelligence in the entire search range. The robot 111 measures the relative distance between the robots 112 to 115 to detect the relative position between the robots, and divides the search section for each robot based on the state position thus detected. Here, each robot is defined as a mobile body provided with wireless communication means for wirelessly transmitting local information (for example, ultrasonic waves, infrared rays, lasers, cameras, odometry, etc.) acquired during traveling in the search range. obtain. And sensor information such as ultrasonic waves, infrared rays, lasers, cameras, odometry, etc. can be commonly defined (represented) as video data.
例えば、ロボット112には探索区間121が割り当てられ、ロボット113には探索区間122が割り当てられ、ロボット114には探索区間123が割り当てられ、ロボット115には探索区間124が割り当てられることができ、各ロボット112〜115は自身に割り当てられた探索区間を探索して獲得するローカル情報をロボット111に無線伝送するようになる。ここで、各ロボット112〜115が獲得してロボット111に無線伝送するローカル情報は、例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなどを含むことができる。
For example, a
このとき、探索範囲の地図の作成に参加するロボットの数は、探索時間が過度にかかるのを防止できるように、探索範囲の広さに比例して増減させることが好ましい。 At this time, it is preferable to increase or decrease the number of robots participating in the creation of the search range map in proportion to the size of the search range so as to prevent excessive search time.
図2は、本発明による群集の知能ロボットを用いた地図構築装置のブロック構成図であって、インターフェースブロック202、相対位置獲得ブロック204、探索区域分割ブロック206、ローカル情報収集ブロック208及び統合環境地図生成ブロック210などを含むことができ、統合環境地図生成ブロック210は、特徴点抽出ブロック2102、併合マッチングブロック2104及び地図作成ブロック2106などを含むことができる。
FIG. 2 is a block diagram of the map construction apparatus using the intelligent robot of the crowd according to the present invention, and includes an
図2を参照すれば、相対位置獲得ブロック204は、インターフェースブロック202を通じて各ロボット112〜115との無線データの送受信を行ってロボット111を基準に各ロボット112〜115の相対距離を測定し、この測定された相対距離による各ロボット間の相対位置(各ロボット間の相対距離に基づいて生成した相対的な座標値)を検出(認識)して共有する機能を提供できるが、この際に検出される各ロボット間の相対位置情報は探索区域分割ブロック206に伝達される。
Referring to FIG. 2, the relative
ここで、各ロボット間の相対距離は、例えば、ネットワーク基盤のWPAN又はWLAN信号を用いたRTT(Round Trip Time)技法の1つであるTWR(Two Way Ranging)技法を用いて測定され得る。 Here, the relative distance between each robot can be measured using, for example, a TWR (Two Way Ranging) technique which is one of RTT (Round Trip Time) techniques using a network-based WPAN or WLAN signal.
次に、探索区域分割ブロック206は、相対位置獲得ブロック204から伝達された相対位置に基づいて探索範囲全体を各ロボット別の探索区域に分割、一例として、図3に示すように、探索範囲全体320に環境地図全体の作成のための1つのロボット311と4つの群集知能ロボット312〜315が属している場合と仮定するとき、ロボット312には探索区域321が分割され(割り当てられ)、ロボット313には探索区域322が分割され(割り当てられ)、ロボット314には探索区域323が分割され(割り当てられ)、ロボット315には探索区域324が分割され得る(割り当てられ得る)。
Next, the search
ここで、探索区間は該当ロボットの位置から相対的に近い領域に指定され、隣接する探索区域同士は一定領域だけオーバーラップされるように指定され得るが、これは作成地図の精度を増進させるためである。即ち、図3において、参照符号OL1はロボット312とロボット313の探索区間がオーバーラップされる重複領域を、参照符号OL2はロボット313とロボット314の探索区間がオーバーラップされる重複領域を、参照符号OL3はロボット314とロボット315の探索区間がオーバーラップされる重複領域をそれぞれ示す。
Here, the search section may be specified as an area relatively close to the position of the corresponding robot, and adjacent search areas may be specified to overlap each other by a certain area, but this is to improve the accuracy of the created map. It is. That is, in FIG. 3, reference numeral OL1 indicates an overlapping area where the search sections of the robot 312 and
また、探索区域分割ブロック206は、各ロボットが自身に割り当てられた探索区域を探索できるように、各ロボットに対してそれぞれ割り当てたそれぞれの探索区域情報をインターフェースブロック202を通じて該当する各ロボットに無線伝送でき、各ロボット別の探索区間情報をローカル情報収集ブロック208に伝達できる。
The search
そして、ローカル情報収集ブロック208は、各ロボット112〜115から地図の生成のために用いられるローカル情報(例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなど)をそれぞれ獲得、即ち、各ロボット112〜115が自身にそれぞれ割り当てられた探索区域での走行を通じて獲得したローカル情報をインターフェースブロック202を通じて収集して各ロボット別の区分子情報及び探索区間情報と共に統合環境地図生成ブロック210に伝達するなどの機能を提供できる。
The local
次に、統合環境地図生成ブロック210は、例えば、SLAMアルゴリズムの実行を通じてローカル情報収集ブロック208から伝達される各ロボット別のローカル情報を併合して環境地図全体を生成するなどの機能を提供できるものであって、このために特徴点抽出ブロック2102、併合マッチングブロック2104及び地図作成ブロック2106などを含むことができる。
Next, the integrated environment
まず、特徴点抽出ブロック2102は、例えば分離と結合(split and merge)アルゴリズム及び/又はSIRF(Scale Invarant Feature Transform)アルゴリズムを利用することによって、各ローカル情報から特徴点(例えば、直線、曲線、特定パターンなど)を抽出する機能を提供できるが、ここで抽出される特徴点は、ランドマーク又は特定パターンに対する特徴点を意味し得る。 First, the feature point extraction block 2102 uses, for example, a split and merge algorithm and / or a SIRF (Scale Invariant Feature Transform) algorithm to extract feature points (for example, straight lines, curves, identifications) from each local information. The feature points extracted here may mean landmarks or feature points with respect to a specific pattern.
次に、併合マッチングブロック2104は、ローカル情報が近くのロボットの情報であるかを判断、即ち、各ロボット別の探索区間情報と各ロボット別のローカル情報間のマッチングを通じて、図3に一例として示すように、重複領域OL1、OL2、OL3に該当する映像情報であるかを判断し、重複領域に該当する映像情報であると判断されるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合させるなどの機能を提供する。ここで、マッチング作業を通じて互いに一致する部分の特徴点を併合させることは、地図の作成における計算量を低減させるためである。即ち、併合マッチングブロック2104は、マッチング作業を通じて同じ情報に対する映像情報の存否を確認した後、同じ情報であるとき、これを1つに併合させ、そうでない場合、併合対象から除外させる。 Next, the merge matching block 2104 determines whether the local information is information of a nearby robot, that is, through matching between the search section information for each robot and the local information for each robot, as shown in FIG. As described above, it is determined whether the video information corresponds to the overlap areas OL1, OL2, OL3. When the video information is determined to be the video information corresponding to the overlap area, matching between the corresponding robots is performed. Provides functions such as merging feature points. Here, merging the feature points of the portions that match each other through the matching operation is to reduce the amount of calculation in creating the map. That is, the merge matching block 2104, after confirming the presence or absence of video information for the same information through the matching operation, merges the same information into one, otherwise excludes it from the merge target.
最後に、地図作成ブロック2106は、特徴点抽出ブロック2102を通じて抽出された特徴点及び併合マッチングブロック2104を通じて併合された特徴点を用いて各ロボットが獲得したローカル情報を融合することで、探索範囲に対する環境地図全体を作成するなどの機能を提供できる。 Finally, the map creation block 2106 combines the local information acquired by each robot using the feature points extracted through the feature point extraction block 2102 and the feature points merged through the merge matching block 2104, so that Functions such as creating the entire environmental map can be provided.
次に、前述したような構成を有する地図構築装置を通じて群集の知能ロボットを用いて環境地図全体を作成する一連の過程について説明する。 Next, a series of processes for creating the entire environmental map using the crowd intelligent robots through the map construction apparatus having the above-described configuration will be described.
図4は、本発明によって群集の知能ロボットを用いて地図を構築する主要過程を示す順序図である。 FIG. 4 is a flowchart illustrating a main process for constructing a map using an intelligent robot of a crowd according to the present invention.
図4を参照すれば、相対位置獲得ブロック204ではインターフェースブロック202を通じて各ロボット112〜115との無線データの送受信を行ってロボット111を基準に各ロボット112〜115の相対距離を測定し、この測定された相対距離による各ロボット間の相対位置(各ロボット間の相対距離に基づいて生成した相対的な座標値)を検出して探索区間分割ブロック206に伝達する(段階402)。ここで、各ロボット間の相対距離は、例えばネットワーク基盤のWPAN又はWLAN信号を用いたRTT技法の1つであるTWR技法を用いて測定され得る。
Referring to FIG. 4, the relative position acquisition block 204 transmits / receives wireless data to / from the robots 112 to 115 through the
これに応答して、探索区域分割ブロック206では検出された各ロボット間の相対位置に基づいて探索範囲全体を各ロボット別の探索区域に分割する(段階404)。一例として、図3に示すように、全体の探索範囲320に環境地図全体の作成のための1つのロボット311と4つの群集知能ロボット312〜315が属している場合と仮定するとき、ロボット312には探索区域321を分割し(割り当て)、ロボット313には探索区域322を分割し(割り当て)、ロボット314には探索区域323を分割し(割り当て)、ロボット315には探索区域324を分割(割り当て)できる。ここで、探索区間は該当ロボットの位置から相対的に近い領域に指定され、隣接する探索区域同士は一定領域だけオーバーラップされるように指定され得る。
In response to this, the search
次に、探索区域分割ブロック206では各ロボットに対してそれぞれ割り当てたそれぞれの探索区域情報をインターフェースブロック202を通じて該当する各ロボットに無線伝送し(段階406)、その結果、各ロボットは自身に割り当てられた探索区間を走行しながら、ローカル情報を収集するようになる。
Next, in the search
即ち、探索範囲にある各ロボットは自身に割り当てられた探索区間を走行しながら、ローカル情報(例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなど)を収集し、この収集されたローカル情報を環境地図全体を作成するロボットに無線伝送するが、このような各ロボット別のローカル情報はインターフェースブロック202を通じてローカル情報収集ブロック208に受信(ローカル情報の獲得)される(段階408)。
That is, each robot in the search range collects local information (for example, ultrasonic information, infrared information, laser information, camera information, odometry, etc.) while traveling in the search section assigned to itself, and this collected The local information is wirelessly transmitted to the robot that creates the entire environment map. Such local information for each robot is received by the local
そして、ローカル情報収集ブロック208では各ロボットから獲得したローカル情報を各ロボット別の区分子情報及び探索区間情報と共に統合環境地図生成ブロック210に伝達するが、まず特徴点抽出ブロック2102では各ローカル情報から特徴点(例えば、直線、曲線、特定パターンなど)を抽出するが(段階410)、このような特徴点の抽出は、例えば、分離と結合アルゴリズム及び/又はSIRFアルゴリズムを用いて実行され得る。
In the local
次に、併合マッチングブロック2104ではローカル情報が近くのロボットの情報であるかを判断、即ち、各ロボット別の探索区間情報と各ロボット別のローカル情報間のマッチングを通じて、図3に一例として示すように、重複領域OL1、OL2、OL3に該当する映像情報であるかを判断するが(段階412)、ここでの判断結果、ローカル情報が近くのロボットの情報(重複領域の映像情報)でないと判断されれば、該当情報を併合対象から除外させる(段階414)。 Next, the merge matching block 2104 determines whether the local information is information on a nearby robot, that is, through matching between the search section information for each robot and the local information for each robot, as shown in FIG. Then, it is determined whether the video information corresponds to the overlapping areas OL1, OL2, OL3 (step 412). However, as a result of the determination, it is determined that the local information is not the information of the nearby robot (video information of the overlapping area). If so, the corresponding information is excluded from the merge target (step 414).
前記段階(412)での判断結果、ローカル情報が近くのロボットの情報(重複領域の映像情報)であると判断されれば、併合マッチングブロック2104では該当ロボット間のローカル情報マッチングを行って互いに一致する部分の特徴点を併合させる併合マッチングを行う(段階416)。即ち、併合マッチングブロック2104は、マッチング作業を通じて同じ情報に対する映像情報の存否を確認した後、同じ情報であるとき、これを1つに併合させ、そうでない場合、併合対象から除外させる。 If it is determined in the step (412) that the local information is information on a nearby robot (video information of the overlapping area), the merge matching block 2104 performs local information matching between the robots to match each other. Merge matching is performed to merge the feature points of the part to be merged (step 416). That is, the merge matching block 2104, after confirming the presence or absence of video information for the same information through the matching operation, merges the same information into one, otherwise excludes it from the merge target.
次に、地図作成ブロック2106では抽出された特徴点及び併合された特徴点を用いて各ロボットが獲得したローカル情報を融合することで、探索範囲に対する環境地図全体を作成する(段階418)。 Next, the map creation block 2106 creates the entire environment map for the search range by fusing the local information acquired by each robot using the extracted feature points and the merged feature points (step 418).
以上の説明では、本発明の好適な実施形態を提示して説明したが、本発明は必ずしもこれに限定されるものではなく、本発明の属する技術分野において通常の知識を有する者であれば、本発明の技術的思想から逸脱しない範囲内で様々な置換、変形及び変更が可能であることが容易に分かる。 In the above description, a preferred embodiment of the present invention has been presented and described. However, the present invention is not necessarily limited thereto, and any person having ordinary knowledge in the technical field to which the present invention belongs can be used. It can be easily understood that various substitutions, modifications and changes can be made without departing from the technical idea of the present invention.
202 インターフェースブロック
204 相対位置獲得ブロック
206 探索区間分割ブロック
208 ローカル情報収集ブロック
210 統合環境地図生成ブロック
2102 特徴点抽出ブロック
2104 併合マッチングブロック
2106 地図作成ブロック
202 Interface block 204 Relative position acquisition block 206 Search
Claims (20)
検出された相対位置に基づいて各ロボット別の探索区域を分割する過程と、
分割された各探索区域情報を対応する前記各ロボットに伝送する過程と、
前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得する過程と、
獲得された各ローカル情報を融合して環境地図全体を生成する過程と
を含む群集の知能ロボットを用いた地図構築方法。 Measuring the relative distance between each robot to detect the relative position between each robot;
Dividing the search area for each robot based on the detected relative position;
Transmitting the divided search area information to the corresponding robots;
Obtaining local information used for generating a map from each robot;
A method of constructing a map using intelligent robots of the crowd, including a process of generating an entire environmental map by fusing each acquired local information.
TWR技法を通じて測定されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。 The relative distance is
The map construction method using the intelligent robot of the crowd according to claim 1, wherein the map construction is measured through a TWR technique.
前記各ロボット間の相対距離に基づいて生成した相対的な座標値であることを特徴とする請求項2に記載の群集の知能ロボットを用いた地図構築方法。 The relative position is
The map construction method using the intelligent robot of the crowd according to claim 2, wherein the coordinate values are generated based on a relative distance between the robots.
隣接する区域同士がオーバーラップ指定されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。 Each of the divided search areas is
The map construction method using the intelligent robot of the crowd according to claim 1, wherein adjacent areas are designated to overlap.
超音波、赤外線、レーザ、カメラ、オドメトリを含むことを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。 The local information is
The map construction method using the intelligent robot of the crowd according to claim 1, comprising ultrasonic waves, infrared rays, lasers, cameras, and odometry.
各ローカル情報から特徴点を抽出する過程と、
前記各ローカル情報が近くのロボットのローカル情報であるかをチェックする過程と、
前記近くのロボットの情報であるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合する過程と、
抽出された特徴点及び併合された特徴点を用いて前記環境地図全体を作成する過程と
を含むことを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。 The process of generating the entire environmental map is as follows:
A process of extracting feature points from each local information;
Checking whether each local information is local information of a nearby robot;
When it is information of the nearby robot, the process of performing matching between the corresponding robots and merging the feature points of the matching parts,
The map construction method using the intelligent robot according to claim 1, further comprising: creating the entire environment map using the extracted feature points and the merged feature points.
分離と結合アルゴリズムを通じて行われることを特徴とする請求項6に記載の群集の知能ロボットを用いた地図構築方法。 The feature points are extracted as follows:
The map construction method using the intelligent robot of the crowd according to claim 6, wherein the map construction is performed through a separation and combination algorithm.
SIRFアルゴリズムを通じて行われることを特徴とする請求項6に記載の群集の知能ロボットを用いた地図構築方法。 The feature points are extracted as follows:
The map construction method using the intelligent robot of the crowd according to claim 6, wherein the map construction is performed through a SIRF algorithm.
ランドマーク又は特定パターンに対する特徴点であることを特徴とする請求項7又は8に記載の群集の知能ロボットを用いた地図構築方法。 The feature points are
The map construction method using the intelligent robot of the crowd according to claim 7 or 8, wherein the map is a feature point with respect to a landmark or a specific pattern.
SLAMアルゴリズムを用いて作成されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。 The entire environmental map is
The map construction method using the intelligent robot according to claim 1, wherein the map construction method is created using a SLAM algorithm.
前記検出された相対位置に基づいて各ロボット別の探索区域を分割する探索区域分割ブロックと、
前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得するローカル情報収集ブロックと、
獲得された各ローカル情報を融合して環境地図全体を生成する統合環境地図生成ブロックと
を備える群集の知能ロボットを用いた地図構築装置。 A relative position acquisition block that detects and shares the relative position between each robot;
A search area dividing block that divides the search area for each robot based on the detected relative position;
A local information collection block for acquiring local information used for generating a map from each robot;
A map construction apparatus using an intelligent robot of a crowd comprising: an integrated environment map generation block that generates an entire environment map by fusing each acquired local information.
TWR技法を通じて測定される相対距離を通じて前記相対位置を検出することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。 The relative position acquisition block is:
The map construction apparatus using the intelligent robot of the crowd according to claim 11, wherein the relative position is detected through a relative distance measured through a TWR technique.
前記各ロボット間の相対距離に基づいて生成した相対的な座標値であることを特徴とする請求項12に記載の群集の知能ロボットを用いた地図構築装置。 The relative position is
The map construction apparatus using the intelligent robot of the crowd according to claim 12, wherein the coordinate values are generated based on a relative distance between the robots.
隣接する区域同士がオーバーラップされるように、前記各探索区域を指定することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。 The search area division block is:
The map construction apparatus using the intelligent robot according to claim 11, wherein the search areas are specified so that adjacent areas overlap each other.
超音波、赤外線、レーザ、カメラ、オドメトリを含むことを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。 The local information is
The map construction apparatus using the intelligent robot of the crowd according to claim 11, comprising an ultrasonic wave, an infrared ray, a laser, a camera, and odometry.
前記各ローカル情報から特徴点を抽出する特徴点抽出ブロックと、
ローカル情報が近くのロボットの情報であるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合する併合マッチングブロックと、
抽出された特徴点及び併合された特徴点を用いて前記環境地図全体を作成する地図作成ブロックと
を備えることを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。 The integrated environment map generation block includes:
A feature point extraction block for extracting feature points from the local information;
When the local information is information on nearby robots, a matching matching block that performs matching between the corresponding robots and merges feature points of parts that match each other, and
The map construction apparatus using the intelligent robot according to claim 11, further comprising: a map creation block that creates the entire environment map using the extracted feature points and the merged feature points.
分離と結合アルゴリズムを通じて前記特徴点を抽出することを特徴とする請求項16に記載の群集の知能ロボットを用いた地図構築装置。 The feature point extraction block includes:
The map construction apparatus using the intelligent robot of the crowd according to claim 16, wherein the feature points are extracted through a separation and combination algorithm.
SIRFアルゴリズムを通じて前記特徴点を抽出することを特徴とする請求項16に記載の群集の知能ロボットを用いた地図構築装置。 The feature point extraction block includes:
The map construction apparatus using the crowd intelligent robot according to claim 16, wherein the feature points are extracted through an SIRF algorithm.
ランドマーク又は特定パターンに対する特徴点であることを特徴とする請求項17又は18に記載の群集の知能ロボットを用いた地図構築装置。 The feature points are
The map construction apparatus using the intelligent robot of the crowd according to claim 17 or 18, wherein the map construction apparatus is a feature point with respect to a landmark or a specific pattern.
SLAMアルゴリズムを用いて前記環境地図全体を生成することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。 The integrated environment map generation block includes:
The map construction apparatus using the intelligent robot according to claim 11, wherein the entire environment map is generated using a SLAM algorithm.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2011-0122262 | 2011-11-22 | ||
| KR1020110122262A KR20130056586A (en) | 2011-11-22 | 2011-11-22 | Method and apparatus for building map by using collective intelligent robots |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013109325A true JP2013109325A (en) | 2013-06-06 |
Family
ID=48664576
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012220206A Withdrawn JP2013109325A (en) | 2011-11-22 | 2012-10-02 | Map creation method using group of intelligent robots and device for the same |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2013109325A (en) |
| KR (1) | KR20130056586A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105729474A (en) * | 2016-04-26 | 2016-07-06 | 昆山易捷联控制系统研发科技有限公司 | Intelligent carrying robot |
| CN106339001A (en) * | 2015-07-09 | 2017-01-18 | 松下电器(美国)知识产权公司 | Map Production Method, Mobile Robot, And Map Production System |
| JP2018206038A (en) * | 2017-06-02 | 2018-12-27 | 株式会社Ihi | Point group data processing device, mobile robot, mobile robot system, and point group data processing method |
| WO2019199112A1 (en) * | 2018-04-13 | 2019-10-17 | (주)랜도르아키텍쳐 | Autonomous work system and method, and computer-readable recording medium |
| JP2020042013A (en) * | 2018-09-12 | 2020-03-19 | 百度在線網絡技術(北京)有限公司 | Distance measuring method based on laser radar system, distance measuring device based on laser radar system, and computer-readable storage medium |
| CN111813102A (en) * | 2020-06-06 | 2020-10-23 | 浙江中力机械有限公司 | Distributed autonomous robot environment map construction method |
| JP2021157283A (en) * | 2020-03-25 | 2021-10-07 | Tis株式会社 | Programs, autonomous mobile device management devices, management methods and management systems |
| CN114383611A (en) * | 2021-12-30 | 2022-04-22 | 华南智能机器人创新研究院 | A multi-machine collaborative laser SLAM method, device and system for a mobile robot |
| JP2024532299A (en) * | 2021-08-24 | 2024-09-05 | グーグル エルエルシー | System and method for generating a three-dimensional map of an indoor space - Patents.com |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101616345B1 (en) | 2013-07-12 | 2016-04-28 | 인하대학교 산학협력단 | Complex scaffold comprising nanofiber with nanoparticle to drug-delivery for artificial skin and filler, and method for preparing the same |
| KR101505129B1 (en) * | 2013-08-19 | 2015-03-23 | 부경대학교 산학협력단 | Method for location recognization using system for location recognization and mapping using laser scanner |
| KR101976241B1 (en) * | 2016-01-22 | 2019-08-28 | 경희대학교 산학협력단 | Map building system and its method based on multi-robot localization |
| AU2017256477A1 (en) | 2016-04-25 | 2018-12-13 | Lg Electronics Inc. | Mobile robot, system for multiple mobile robots, and map learning method of mobile robot |
| KR102596752B1 (en) * | 2016-10-05 | 2023-11-01 | 엘지전자 주식회사 | Airport robot and airport robot system |
| KR102198187B1 (en) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | Moving robot |
| KR102177164B1 (en) | 2019-05-28 | 2020-11-11 | 경북대학교 산학협력단 | modular unit mobile robot system and automatic combination method therefor |
| KR102808022B1 (en) * | 2020-04-14 | 2025-05-19 | 한국전자통신연구원 | Multi-agent based personal and robot collaboration system and method |
| CN112617672B (en) * | 2020-12-16 | 2022-11-04 | 美的集团股份有限公司 | Sweeping method and device of sweeping robot |
| KR20230079670A (en) | 2021-11-29 | 2023-06-07 | 전진택 | Path tracking device and method for agricultural self-driving robot. |
| KR102692853B1 (en) * | 2021-12-17 | 2024-08-06 | 주식회사 케이티 | System for generation of indoor map, autonomous robot and method for creating indoor map using multi-robot |
| KR20240053162A (en) | 2022-10-17 | 2024-04-24 | 국립금오공과대학교 산학협력단 | Grid Map Merging with Spectra-based PSO for Multi-Robot SLAM |
| KR102914554B1 (en) * | 2023-07-11 | 2026-01-19 | 코가로보틱스 주식회사 | Decentralized robot controlling apparatus |
| KR20250077995A (en) | 2023-11-24 | 2025-06-02 | 윤남일 | Driving control system for robots for green houses |
| KR20250119929A (en) | 2024-02-01 | 2025-08-08 | 엘아이지넥스원 주식회사 | System of equal division and optimal allocation of search area for group robots |
-
2011
- 2011-11-22 KR KR1020110122262A patent/KR20130056586A/en not_active Withdrawn
-
2012
- 2012-10-02 JP JP2012220206A patent/JP2013109325A/en not_active Withdrawn
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106339001B (en) * | 2015-07-09 | 2021-01-08 | 松下电器(美国)知识产权公司 | Map generation method, mobile robot, and map generation system |
| CN106339001A (en) * | 2015-07-09 | 2017-01-18 | 松下电器(美国)知识产权公司 | Map Production Method, Mobile Robot, And Map Production System |
| JP2017021791A (en) * | 2015-07-09 | 2017-01-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Map generation method, mobile robot, and map generation system |
| CN105729474A (en) * | 2016-04-26 | 2016-07-06 | 昆山易捷联控制系统研发科技有限公司 | Intelligent carrying robot |
| JP2018206038A (en) * | 2017-06-02 | 2018-12-27 | 株式会社Ihi | Point group data processing device, mobile robot, mobile robot system, and point group data processing method |
| JP7032062B2 (en) | 2017-06-02 | 2022-03-08 | 株式会社Ihi | Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method |
| US11820001B2 (en) | 2018-04-13 | 2023-11-21 | Landor Architecture, Inc. | Autonomous working system, method and computer readable recording medium |
| WO2019199112A1 (en) * | 2018-04-13 | 2019-10-17 | (주)랜도르아키텍쳐 | Autonomous work system and method, and computer-readable recording medium |
| US12304058B2 (en) | 2018-04-13 | 2025-05-20 | Landor Architecture, Inc. | Autonomous working system, method and computer readable recording medium |
| JP2020042013A (en) * | 2018-09-12 | 2020-03-19 | 百度在線網絡技術(北京)有限公司 | Distance measuring method based on laser radar system, distance measuring device based on laser radar system, and computer-readable storage medium |
| US11656356B2 (en) | 2018-09-12 | 2023-05-23 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Ranging method based on laser radar system, device and readable storage medium |
| JP2021157283A (en) * | 2020-03-25 | 2021-10-07 | Tis株式会社 | Programs, autonomous mobile device management devices, management methods and management systems |
| JP7466144B2 (en) | 2020-03-25 | 2024-04-12 | Tis株式会社 | PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM |
| CN111813102A (en) * | 2020-06-06 | 2020-10-23 | 浙江中力机械有限公司 | Distributed autonomous robot environment map construction method |
| CN111813102B (en) * | 2020-06-06 | 2023-11-21 | 浙江中力机械股份有限公司 | A method for constructing environment maps for distributed autonomous robots |
| JP2024532299A (en) * | 2021-08-24 | 2024-09-05 | グーグル エルエルシー | System and method for generating a three-dimensional map of an indoor space - Patents.com |
| JP7713588B2 (en) | 2021-08-24 | 2025-07-25 | グーグル エルエルシー | System and method for generating a three-dimensional map of an indoor space - Patents.com |
| CN114383611A (en) * | 2021-12-30 | 2022-04-22 | 华南智能机器人创新研究院 | A multi-machine collaborative laser SLAM method, device and system for a mobile robot |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20130056586A (en) | 2013-05-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2013109325A (en) | Map creation method using group of intelligent robots and device for the same | |
| Zhao et al. | BIM-based indoor mobile robot initialization for construction automation using object detection | |
| EP3136128B1 (en) | Trajectory matching using peripheral signal | |
| KR101439921B1 (en) | Slam system for mobile robot based on vision sensor data and motion sensor data fusion | |
| KR101739996B1 (en) | Moving robot and simultaneous localization and map-buliding method thereof | |
| US12222457B2 (en) | LIDAR system design to mitigate LIDAR cross-talk | |
| Wang et al. | Keyframe based large-scale indoor localisation using geomagnetic field and motion pattern | |
| CN109084784B (en) | Method for building digital maps for automated vehicles | |
| TWI772743B (en) | Information processing device and mobile robot | |
| CN103781685A (en) | Autonomous driving control system for vehicle | |
| EP3205127B1 (en) | A method of setting up a tracking system | |
| US11898869B2 (en) | Multi-agent map generation | |
| Azghadi et al. | An adaptive indoor localization approach using wifi rssi fingerprinting with slam-enabled robotic platform and deep neural networks | |
| Jametoni et al. | A study on autonomous drone positioning method | |
| CN110988795A (en) | Mark-free navigation AGV global initial positioning method integrating WIFI positioning | |
| JP5765163B2 (en) | Self-position estimation apparatus, method, and program | |
| Godil et al. | 3D ground-truth systems for object/human recognition and tracking | |
| JP2019074374A (en) | Position orientating system and position orientating method | |
| CN116734829A (en) | Edge-assisted non-line-of-sight pose estimation method and system for mine monorail crane robot | |
| KR20090047639A (en) | Apparatus and method for obtaining position of artificial marker | |
| KR102068688B1 (en) | location recognition system of multi-robot | |
| US20210263531A1 (en) | Mapping and simultaneous localisation of an object in an interior environment | |
| Lee et al. | Indoor localization method based on sequential motion tracking using topological path map | |
| US11726487B1 (en) | Method for robotic devices to identify doorways using machine learning | |
| Hong et al. | An Indoor Location-Tracking Using Wireless Sensor Networks Cooperated with Relative Distance Finger Printing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150917 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20160303 |