[go: up one dir, main page]

JP2007149088A - 移動ロボットの自己位置認識方法及び装置 - Google Patents

移動ロボットの自己位置認識方法及び装置 Download PDF

Info

Publication number
JP2007149088A
JP2007149088A JP2006314318A JP2006314318A JP2007149088A JP 2007149088 A JP2007149088 A JP 2007149088A JP 2006314318 A JP2006314318 A JP 2006314318A JP 2006314318 A JP2006314318 A JP 2006314318A JP 2007149088 A JP2007149088 A JP 2007149088A
Authority
JP
Japan
Prior art keywords
mobile robot
distance
fixed
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006314318A
Other languages
English (en)
Inventor
Hyoung-Ki Lee
李 炯 機
Hyeon Myeong
鉉 明
Ki-Wan Choi
基 浣 崔
Yong-Beom Lee
李 榮 範
Seok-Won Bang
方 錫 元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007149088A publication Critical patent/JP2007149088A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/661Docking at a base station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/226Communication links with the remote-control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/242Means based on the reflection of waves generated by the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】 デッドレコニング及び距離センシングを用いて移動ロボットの位置を認識する方法及び装置を提供する。
【解決手段】 移動ロボットの運動によって変化する状態量を感知するデッドレコニング段階と、前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する段階と、前記変化する状態量及び前記計算された絶対位置を用いて、現在前記移動ロボットの最適位置を推定する段階と、前記決定された現在最適位置が所定の有効領域内に属するかを判断する段階と、前記判断結果に従って前記決定された現在最適位置を校正する段階とからなる移動ロボットの位置認識方法。
【選択図】 図4

Description

本発明は、位置認識技術に関し、より詳しくは、デッドレコニング及び距離センシングを用いて移動ロボットの位置を認識する方法及び装置に関する。
一般に、ロボットは、産業用に開発して工場自動化の一環として使用されたり、人間が耐えれない極限の環境で人間に代わって作業を行うのに使用されてきた。このようなロボット工学分野は、近来に最先端の宇宙開発産業に使用されて発展を繰り返し、最近には人間親和型家庭用ロボットの開発にまで至った。さらに、ロボットは医療用機器に代わって人間生体内に投入されることによって、既存の医療用機器では治療不可であった微細な人間生体組織の治療にまで用いられる。このような著しいロボット工学の発展は、インターネットによる情報革命と、これに引き続き盛んになっている生命工学分野に代わって新しく登場する最先端分野として注目を集めている。
この中、前記家庭用ロボットは、産業用ロボットに限られてきた既存の重工業中心のロボット工学分野を軽工業中心のロボット工学分野にまで拡大させた主役であって、最も基本的に想起されるものとして掃除用ロボットがその例として挙げられる。このような前記掃除用ロボットは、普通、移動のための駆動手段と、掃除のための掃除手段、そして全方向障害物を感知するための監視手段などで構成されている。
一般に、前記駆動手段は、駆動力を発揮するための駆動モータと、前記駆動モータにより駆動される無限軌道または所定直径の輪と、駆動を制御するための駆動制御回路などで構成されている。そして、前記掃除手段は、ほこりなどを集塵して除去するための集塵器などと、集塵行動を制御するための集塵制御回路などで構成されている。また、前記監視手段は、全方向障害物を捕捉するための監視用カメラと、前記監視用カメラに捕捉される映像をユーザに伝送するための伝送装置で構成されている。
このように、従来の掃除ロボット1は図1に示すように、制限された領域2内で前記監視手段を用いて障害物が現れれば他の方向に転換する方式で移動する。従って、重複して掃除される部分や全く掃除されていない部分が存在し、その移動経路も非常に非効率的であることが分かる。
従って、最近の掃除ロボット3は図2に示すように、自己位置をいずれかの手段によって計算し、掃除する対象領域2を把握した後、最適の経路に移動することによって掃除時間及びエネルギ消費を減少させる。
このように、最近の掃除ロボットを始めとする一定領域内を移動するロボット装置においては、このように自己位置を正確に把握する技術、すなわち精密なローカライゼーションが必須的である。また、このような移動ロボットにおいては、ユーザが任意に前記移動ロボットを持ち上げて運搬する場合(いわゆる「キッドナッピング」という)が頻繁に発生し得るため、この場合に自己位置を再設定することができる方法も必要である。
韓国公開特許第2005−63538号公報
本発明は、一定の領域内を移動する移動ロボットの自己位置をより正確に把握する方法及び装置を提供することにその目的がある。
特に、キッドナッピングのような例外的な状況が発生しても移動ロボットの位置を再設定することができるようにする。
本発明は、以上で言及した目的に制限されず、言及していないさらなる目的は下記にて当業者に明確に理解できる。
前記目的を達成するために、本発明の一実施形態による移動ロボットの位置認識方法は、移動ロボットの運動によって変化する状態量を感知するデッドレコニング段階と、前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する段階と、前記変化する状態量及び前記計算された絶対位置を用いて現在前記移動ロボットの最適位置を推定する段階と、前記決定された現在最適位置が所定の有効領域内に属するかを判断する段階と、前記判断結果に従って前記決定された現在最適位置を校正する段階とを含む。
前記目的を達成するために、本発明の一実施形態による移動ロボットの位置認識装置は、移動ロボットの運動によって変化する状態量を感知するデッドレコニング手段と、前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する距離計算部と、前記変化する状態量及び前記計算された絶対位置を用いて、現在前記移動ロボットの最適位置を推定する状態予測部と、前記決定された現在最適位置が所定の有効領域内に属するかを判断するリロケーション判断部と、前記判断結果に従って前記決定された現在最適位置を校正する補助センサとを含む。
前記移動ロボットは、距離センサの距離測定誤差、信号の未到達、キッドナッピングなどに強く、実際家庭環境で安定的に動作することができる。また、随時にリロケーション要否をチェックすることによって誤差が一定以上に発生する余地を減少させる。
以下、添付する図面を参照して本発明の好ましい実施形態を詳細に説明する。本発明の利点及び特徴、そしてそれらを達成する方法は、添付する図面と共に詳細に後述する実施形態を参照すれば明確になる。しかし、本発明は以下に開示する実施形態に限定されず、相異なる多様な形態で具現でき、単に本実施形態は本発明の開示を完全なものにし、本発明の属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供するものであって、本発明は請求項の範疇によってのみ定義される。明細書の全体にわたって同じ参照符号は同じ構成要素を示す。
本発明は、移動ロボットの正確な自己位置測定のためにデッドレコニング及び距離センシングをすべて使用し、必要な場合は他のセンシング技法も補助的に使用する。また、カルマンフィルタを用いて測定値と予測値の差を補正して誤差を減らす技法も共に使用する。
前記デッドレコニングは、移動ロボットの運動によって変化される状態を感知するものであって、走行輪の回転方向、速度などを感知するエンコーダ、慣性質量の動きを把握して物体の運動速度、加速度などを感知するジャイロスコープなどによって具現できる。
前記距離センシングのためには空間上に固定されている基準物体ないしビーコンが必要であるが、これは壁面に付着されていたり、人が移動させておいたアクセサリ形態になり得る。移動ロボットは、充電式バッテリを使用するのが一般的であるので、前記基準物体は充電ステーションであることが好ましい。本発明では前記基準物体が充電ステーションであることにして説明する。
図3は、本発明の一実施形態による移動ロボット100及び充電ステーション200の概略を示す図面である。
移動ロボット100には走行が可能になるように走行輪101,102が備えられており、中心部分に送受信部110が備えられている。そして、充電ステーション200には2つの送受信部210,220が所定の距離を置いて備えられている。移動ロボット100の送受信部110と充電ステーション200の第1の送受信部210の間、そして前記送受信部110と充電ステーション200の第2の送受信部220の間にはそれぞれ信号を発信したり受信することができる。その結果、相互間の距離(r、r)を計算することができる。
図4は、本発明の一実施形態による移動ロボット100の構成を示すブロック図である。前記移動ロボット100は、送受信部110、距離計算部120、状態予測部130、走行部140、エンコーダ150、リロケーション判断部160、及び補助センサ170を含んで構成することができる。
送受信部110は、充電ステーション200に装着された送受信部210,220とUWB(ウルトラワイドバンド)信号を送受信する。しかし、当業者にはIR(赤外線)信号、RF(無線周波数)信号、超音波などによっても本発明を具現できることが理解できる。UWBは他のセンサに比べて距離測定正確度が高く、家具や壁などの障害物を透過することができるため、近来室内距離測定センサとして注目を集めている。
距離計算部120は、送受信部110によって送信された信号及び受信された信号のタイミングを用いて移動ロボット100と充電ステーション200との距離を計算する。本発明で距離計算部120は、一例として充電ステーション200に備えられた2つのUWB信号センサを用いるものとして説明する。
図5は、UWB信号を送信して受信する過程を示す図面である。まず、送信機側は特定強度(電圧)を有するUWBパルス4を受信機側に伝送する。これにより、受信機側では所定の時間(T)が経過した後に前記UWBパルス4から少し歪んだ信号5を受信するようになる。
前記送信側で伝送されるUWBパルス4の波形は図6に示す例のように表すことができ、前記受信側で受信されるUWB信号5の波形は図7に示す例のように表すことができる。図6に比べて図7では少しノイズが含まれていることが分かる。
図8は、移動ロボット100と充電ステーション200の間にUWB信号を送受信することによって移動ロボット100と充電ステーション200の間の距離を求める方法を説明するための図面である。
移動ロボット100が最初にUWBパルス4aを充電ステーション200に伝送すると、充電ステーション200は少し歪んだUWB信号5aを受信するようになる。ところが、UWBパルス4aの伝送時点からUWB信号5aの最大振幅が現れる時点までの時間(ロックドパスに従う場合)はτprop+τoff,1と表示し、前記伝送時点からUWB信号5aが入力される時点までの時間(ダイレクトパスに従う場合)はτoff,1と表示する。そして、前記最大振幅が現れる時点から充電ステーション200が移動ロボット100にUWBパルス4bを伝送する時点までの時間はTと表示する。
移動ロボット100が充電ステーション200からUWB信号5bを受信したとき、最初のUWBパルス4a伝送時から前記受信されたUWB信号5bの最大振幅が現れる時点までの時間はτroundと表示する。また、移動ロボット100がUWB信号5bを受信した時点から最大振幅が現れる時点までの時間はτoff,2と表示する。
このような場合、移動ロボット100の送受信機110と充電ステーション200の送受信機210,220のうち1つの送受信機間にUWBパルスを伝達するのにかかる有効時間(τprop)は、下記(式1)のように表すことができる。
Figure 2007149088
前記有効時間と電波の速度(30万km/s)を掛ければ送受信機110と送受信機210,220の間の距離を計算することができる。
図4に戻り、走行部140は移動ロボット100が移動できるように動力を提供する。走行部140は一般に複数の輪と方向制御装置を含むが、移動ロボット100の移動が可能であれば他の公知の走行手段からなっても構わない。
エンコーダ150は走行部140に含まれる走行輪の回転速度を感知する。これによって、移動ロボット100の以前位置と現在位置の間の位置変化及び方向変化を測定する。エンコーダ150は一般にロボットの位置移動または方向変化指令を下し、ロボットがこれに従って動くとき、その動きを制御する目的で設置される。エンコーダ150を使用すれば動いた距離及び方向を積分して現在のロボットの絶対位置が分かる。もし積分誤差がなければ、エンコーダ150だけでもロボットのローカライゼーションが可能であるが、走行距離計と同様に短期間には比較的に正確であるが、誤差のサンプリング時ごとに誤差が累積されるという短所がある。
一方、前記エンコーダ150のようにジャイロスコープを使用してもよい。前記ジャイロスコープは回転する物体の角速度を測定することによって、方向角測定性能を向上させることができる。
状態予測部130は、距離計算部120から計算された距離情報とエンコーダ150から計算された距離及び方向角情報を用いて移動ロボット100の現在位置及び方向角を算出する。
言い換えれば、前記エンコーダ150から得られる移動ロボット100の移動情報と前記距離計算部120から得られる前記移動ロボット100の絶対位置情報を用いて、現在前記移動ロボット100の最適位置をカルマンフィルタを通じて推定することができる。これに追加された補助センサ170を使用して家内環境から特徴点を抽出し、この特徴点の位置を基準座標にして移動ロボット100の最適位置を求めることもできる。言い換えれば、状態予測部130がカルマンフィルタを適用ことにおいて、エンコーダ130及び距離計算部120からの入力のみ用いることができるが、それに追加して補助センサ170からの入力をさらに用いることもできる。前記補助センサ170は超音波センサ、IRセンサ、カメラ、その他当業界に知られている他のセンシング手段で具現できる。
図9は、状態予測部130の細部構成要素を示す図面であって、システム予測部131、観測予測部132、更新部133及び状態格納部134を含んで構成することができる。ここで、Xは予測しようとする状態変数であり、Zは観測値である。
システム予測部131は、既存の状態値
Figure 2007149088
及びエンコーダ130から提供された全方向移動距離(U(k))を受信してシステム推定値
Figure 2007149088
を出力する。ここで、kは特定時点を意味するカウント値であって、次の時点では1が増加する値である。
観測予測部132は、システム推定値
Figure 2007149088
を観測予測値の表現である
Figure 2007149088
に変換する。一方、距離計算部120は差分器135に前記
Figure 2007149088
を実際に測定して求めた値である
Figure 2007149088
を提供し、差分器135は
Figure 2007149088
を差分した結果を更新部133に提供する。
更新部133はカルマンゲインを用いて前記提供された差分結果が最少になる方向に最終状態値
Figure 2007149088
を計算する。このように更新過程は、少し複雑な計算過程を経るが、その過程は当業者には十分に知られているので具体的な説明は省略する。
図10を参照して、前記図9におけるシステム予測及び観測予測過程をより詳細に説明する。充電ステーション200の中心を原点として2次元座標系(x−y)を想定する。これにより、移動ロボット100の位置は前記原点を基準としてx(k)、y(k)で表すことができる。移動ロボット100の送受信機110と充電ステーション200の第1の送受信機210との距離はr、前記送受信機110と充電ステーション200の第2の送受信機220との距離はrと表示する。そして、充電ステーション200上で第1の送受信機210と第2の送受信機220の間の距離はWと表示する。
また、U(k)は特定時間の間に移動ロボット100が全方向に移動した距離を表し、U(k)及びU(k)はそれぞれ前記特定時間の間に左側輪101の移動距離及び右側輪102の移動距離を表す。従って、U(k)は前記U(k)及びU(k)の和で計算できる。前記輪101,102間の距離はDと表示される。
移動ロボット100が向かう方向角、すなわち移動ロボットの絶対角度は図示のように
Figure 2007149088
と表示し、充電ステーション200の中心部に対するロボットの相対角度はθ(k)と表示する。
前記のようなnotationを使用して、システム予測過程及び観測予測過程を説明すると下記の通りである。
システム予測部131で計算し出力される状態値
Figure 2007149088
は、下記(式2)のように表すことができる。
Figure 2007149088
次に、距離計算部120によって出力される
Figure 2007149088
は、下記(式3)によって求めることができる。(式3)によれば、
Figure 2007149088
を求めるためのすべての値は測定によって求めることができる値であることが分かる。
Figure 2007149088
一方、観測予測部132で出力される値
Figure 2007149088
は、下記(式4)によって計算できる。(式4)は(式3)と類似するが、(式3)は実際測定された値によって求められる過程であるのに対し、(式4)は現在状態値に推定された値から計算される過程であるという点で差がある。
Figure 2007149088
推定された値である
Figure 2007149088
と測定された値である
Figure 2007149088
は、差分器135で差分されて更新部133に入力され、最終的に現在状態で最適に推定された状態値
Figure 2007149088
を求めることができるようになる。
状態格納部134は、最適に計算された状態値
Figure 2007149088
を格納しておき、以後に要請がある場合、またシステム予測部131に提供するようになる。このときは、前記
Figure 2007149088
になる。
以上、図9の説明では、図3のように充電ステーション200に2つの送受信部210,220が備えられた場合を例に挙げた。しかし、充電ステーション200が1つの送受信部のみ備えた場合も状態予測部130における動作(カルマンフィルタ適用過程)を行うことができる。但し、この場合は距離計算部120からの入力Z(k)は(式3)のようにr(k)及びΘ(k)からなるのではなく、r(k)のみからなる。
一方、ベクトルZ(k)を構成することにおいて、距離計算部120からの入力だけでなく、補助センサ170からの入力を追加することもできる。すなわち、補助センサ170から算出される観測値をベクトルZ(k)に追加に含ませて(ベクトルZ(k)の次元が増加される)、以後は前記と同様の過程を経て最適の状態値
Figure 2007149088
を求めることができる。
より具体的な例として、超音波などの近接障害物感知センサを使用する場合、SLAM(Simultaneous Localization And Map−building)を具現することができる。SLAMはロボットが自己位置と特徴点の位置を同時に検知することができる方式であって、ロボットが室内で初めて運行する場合にも特徴点のマップを自ら自動に生成し、自己位置も同時に見出す方式である。このSLAMを具現するためには、以下のようにカルマンフィルタを応用することができる。まず予測しようとする状態変数を下記(式5)のように定義する。これは(式2)の
Figure 2007149088
を、特徴点の位置を含むように拡大したものである。ここで、p、p、…pは予測しようとする特徴点のx、y座標値である。
Figure 2007149088
ここで、ヤコビアン
Figure 2007149088
は(式2)のFを変数Xに対して線形化した数式である。図9のシステム予測部131における動作を前記(式5)で表現することができる。次に、図9の観測予測部132を説明する。このブロックの出力値Z(k)は下記(式6)のようにさらに定義される。
Figure 2007149088
ここで、
Figure 2007149088
はi番目特徴点を観測した観測座標値であって、
Figure 2007149088
と表現される。ここで、関数Hは状態変数X(k)と観測値
Figure 2007149088
を連結する関数である。
Figure 2007149088
は通常超音波センサなどによって測定してコーナポイントの座標値になる。以上を用いて図9のようにカルマンフィルタを設計すればロボットの自己位置と周辺環境の特徴点座標が同時に計算できる。
一方、このような状態予測部130の動作によって最適の状態値が計算される一般的な場合は関係ないが、前述したキッドナッピング、センサ雑音、環境変化による認識誤動作などのような例外的な状況が発生する場合、前記状態予測部130によって計算された結果は大きな誤差を生じる。
本発明ではこのような例外状況にもかかわらず信頼度の高いローカライゼーションを行って移動ロボット100が誤動作しないようにするために、誤差が大きいことによるリロケーションが必要であるか否かを判断する基準を提示する。
図11を参照すれば、送受信部110と第1の送受信部210との距離rと、送受信部110と第2の送受信部220との距離rはいずれも一定のエラー帯域E及びEを有することができる。前記E及びEは実験的に決定できる。ところが、第1の送受信部210を基準としてrにエラー帯域Eを反映して円を描き、第2の送受信部220を基準としてrにエラー帯域Eを反映して円を描けば、ほぼ送受信部110周辺に菱形の交差領域190(以下、「有効領域」と定義する)が現れるようになる。状態予測部130によって推定された現在位置が現在前記領域190内に属すれば、前記現在位置は信頼できるが、そうでなければ、他の知らない理由によって現在位置を誤って推定したことと判断することができる。
図4のリロケーション判断部160はこのような判断基準に従って、現在状態値による位置が前記有効領域190内にあるか否かを判断する。前記E及びEを同値(2μ)とすれば、前記判断は下記(式7)によって行うことができる。
Figure 2007149088
また、E及びEが異なる場合であれば、左辺のμと右辺のμは互いに異なる値にならなければならない。
一方、リロケーション判断のためには、図11のように充電ステーションに2つの送受信部210,220を備えることがより好ましいが、1つの送受信部は充電ステーションに備え、もう1つはアクセサリ形態で製作して壁面に固定したり、ユーザが自在に移動させて所望する位置に置くこともできる。
また、1つの送受信部だけでもリロケーション判断をすることができる。図12は1つの送受信部によってリロケーション判断をする例を示す。
1つの送受信部215は、移動ロボット100に備えられた送受信部110との信号送受信を通じて相互間の距離(r)を計算することができる。このとき、有効領域195は下記(式8)のように表示される。
Figure 2007149088
状態予測部130によって計算された移動ロボット100の位置x(k)、y(k)が前記(式8)を満たせば、前記計算された位置は信頼できるものと判断することができる。なお、図12の実施形態は、図11のように2つの送受信部を使用する場合に比べて有効領域195が少し大きくなる。しかし、リロケーション判断がセンサーフュージョンによって自己位置を求めた後、これを補正する用途として使用されるという点で図12のように1つの送受信部だけでもリロケーション判断が行われる。リロケーション判断部160は前記判断結果、状態予測部130から出力される現在状態値による現在位置が前記有効領域内に属する場合は、前記現在状態値を状態格納部134に格納するようにする。
しかし、そうでない場合は、状態予測部130でカルマンフィルタを適用して計算した結果が信頼し難いため、リロケーション部180に別のセンシング過程を通じて正確な現在位置を求めるようにする必要がある。前記リロケーション部180はこのような例外的な場合にのみ使用されるので、その求める過程が少し複雑で時間がかかっても相対的に正確な結果を出すことができるものを選択することが好ましい。
このために、リロケーション部180は近接障害物感知センサ、遠距離センサ、カメラなどの補助センサ170及び/または距離計算部120を使用することができる。
以下、図13ないし図15は、リロケーション部180で行われるリロケーション過程をより詳しく示すフローチャートである。
図13は、リロケーション部180が近接障害物感知センサを使用する場合の動作フローを示す図面である。まず、移動ロボット100はある地点を中心に同一半径に沿って進行する(S11)。もし途中で障害物が検出されれば(S12)、予め定義された候補位置を抽出する(S13)。その次には図11のように、充電ステーション200との距離センシングを通じて(S14)、有効領域を決定する(S15)。前記抽出された候補のうち前記決定された有効領域内に属するものを設定する(S16)。前記設定された候補が唯一であれば(S17の例)終了し、そうでなければ再センシングをするために再び徘徊する(S18)。
図14は、リロケーション部180にレーザーセンサを使用する場合の動作フローを示す図面である。これはレーザーなどの光源をいずれかの方向に照射した後、その輪郭線を抽出して、特定の位置を見出す技術である。まず、移動ロボット100はいずれかの方向に光源を照射する(S21)。そして、照射された光源の輪郭線を抽出する(S22)。前記抽出された輪郭線を予め作成されたマップとマッチングする(S23)。その後、マッチングされた候補位置を抽出する(S24)。以後の過程は図13の説明と重複するので省略する。前記レーザーセンサ代りに本発明で既に使用した電波を用いた距離センサを使用することもできる。
図15は、リロケーション部180にカメラを使用する場合の動作フローを示す図面である。これはカメラを用いていずれかの方向の映像を撮影した後、その特徴を分析することによって特定の位置を見出す技術である。まず、移動ロボット100はカメラを用いていずれかの方向への映像を撮影し、撮影した映像を受信する(S31)。そして、撮影した映像の特徴を検出する(S32)。前記検出された特徴を予め作成されたマップとマッチングする(S33)。その後、マッチングされた候補位置を抽出する(S34)。以後の過程は図13の説明と重複するので省略する。
図4または図9の各構成要素は、ソフトウェアまたはFPGA(フィールドプログラマブルゲートアレイ)やASIC(アプリケーションスペシフィックインテグレイテッドサーキット)のようなハードウェアを意味する。しかし、前記構成要素はソフトウェアまたはハードウェアに限定される意味ではなく、アドレシングすることができる格納媒体にあるように構成することができ、あるいは1つまたはそれ以上のプロセッサを実行させるように構成することもできる。前記構成要素中から提供される機能はさらに細分化された構成要素によって具現することができ、複数の構成要素を合せて特定の機能を行う1つの構成要素で具現することもできる。
以上、添付する図面を参照して本発明の実施形態を説明しましたが、本発明の属する技術分野における通常の知識を有する者は、本発明がその技術的思想や必須的な特徴を変更せずに他の具体的な形態で実施できることを理解することができる。従って、以上で記述した実施形態はすべての面で例示的なものであって、限定的なものではないことを理解しなければならない。
従来の掃除ロボットの移動軌跡を示す図である。 最近の掃除ロボットの移動軌跡を示す図である。 本発明の一実施形態による移動ロボット及び充電ステーションの概略を示す図である。 本発明の一実施形態による移動ロボットの構成を示すブロック図である。 UWB信号を送信して受信する過程を示す図である。 送信側で伝送されるUWBパルスの波形の例を示す図である。 受信側で受信されるUWB信号の波形の例を示す図である。 UWB信号を用いて移動ロボットと充電ステーションの間の距離を求める方法を説明するための図である。 状態予測部の細部構成要素を示す図である。 システム予測及び観測予測のための各種パラメータを示す図である。 本発明の一実施形態による有効領域を示す図である。 本発明の他の実施形態による有効領域を示す図である。 補助センサとして近接障害物感知センサを使用する場合の動作フローを示す図面。 補助センサとしてレーザーセンサを使用する場合の動作フローを示す図である。 補助センサとしてカメラを使用する場合の動作フローを示す図である。
符号の説明
100 移動ロボット
101、102 走行輪
110 送受信部
120 距離計算部
130 状態予測部
131 システム予測部
132 観測予測部
133 更新部
134 状態格納部
140 走行部
150 エンコーダ
160 リロケーション判断部
170 補助センサ
180 リロケーション部
200 充電ステーション
210 第1の送受信部
220 第2の送受信部

Claims (31)

  1. (a)移動ロボットの運動によって変化する状態量を感知するデッドレコニング段階と、
    (b)前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する段階と、
    (c)前記変化する状態量及び前記計算された絶対位置をカルマンフィルタの入力として、現在前記移動ロボットの最適位置を推定する段階と、を含むことを特徴とする移動ロボットの位置認識方法。
  2. 前記(a)段階は、エンコーダ及び/またはジャイロスコープによって行われることを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  3. 前記1つ以上の固定位置は、前記移動ロボットの充電ステーション内に備えられることを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  4. 前記1つ以上の固定位置は、充電ステーション内に備えられる固定位置及びそれ以外の空間上に位置する固定位置を含むことを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  5. 前記(b)段階は、前記移動ロボットに備えられた送受信部と1つ以上の固定位置にそれぞれ備えられた送受信部の間に電波を送受信することによってなされることを特徴とする請求項3または請求項4に記載の移動ロボットの位置認識方法。
  6. 前記電波は、UWB信号であることを特徴とする請求項5に記載の移動ロボットの位置認識方法。
  7. 前記(c)段階は、前記変化する状態量及び前記計算された絶対位置を入力としたカルマンフィルタ演算によって現在状態値を計算する段階を含むことを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  8. 前記(c)段階は、前記変化する状態量、前記計算された絶対位置及び補助センサによって感知された位置情報を入力としたカルマンフィルタ演算によって現在状態値を計算する段階を含むことを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  9. 前記補助センサは、近接障害物感知センサ、レーザーセンサ、距離センサ、及びカメラのうち少なくとも1つを含むことを特徴とする請求項8に記載の移動ロボットの位置認識方法。
  10. 前記補助センサは、近接障害物感知センサを用いて前記移動ロボットの特徴点を求める段階をさらに含み、前記補助センサによって感知された位置情報は前記特徴点のx、y座標値であることを特徴とする請求項8に記載の移動ロボットの位置認識方法。
  11. (a)少なくとも1つ以上のセンサを用いて移動ロボットの絶対位置を推定する段階と、
    (b)前記推定された絶対位置が少なくとも1つ以上の固定された送受信部から受信される信号によって計算される有効領域内に属するかを判断する段階と、
    (c)前記推定された絶対位置が前記有効領域内に属しないものと判断された場合、リロケーションを行う段階と、を含むことを特徴とする移動ロボットの位置認識方法。
  12. 前記有効領域は、2つ以上の固定された送受信部のうち第1の位置に備えられた第1の送受信部を基準として半径rにエラー帯域Eを反映して円を描き、前記2つ以上の固定位置のうち第2の位置に備えられた第2の送受信部を基準として半径rにエラー帯域Eを反映して円を描くときに交差する領域であり、
    前記rは前記移動ロボットと前記第1の送受信部との距離を、前記rは前記移動ロボットと前記第2の送受信部との距離を表すことを特徴とする請求項11に記載の移動ロボットの位置認識方法。
  13. 前記有効領域は、下記2つの式を同時に満たし、
    Figure 2007149088
    前記μはE/2であり、前記x(k)はkである状態で前記移動ロボットのx軸方向位置を、y(k)はkである状態で前記移動ロボットのy軸方向位置を、前記Wは第1の送受信部と第2の送受信部との距離をそれぞれ表すことを特徴とする請求項12に記載の移動ロボットの位置認識方法。
  14. 前記有効領域は、1つの固定された送受信部を基準として半径rにエラー帯域Eを反映して円を描いたときに該当する領域であり、前記rは前記移動ロボットと前記送受信部との距離であることを特徴とする請求項11に記載の移動ロボットの位置認識方法。
  15. 前記有効領域は下記式を満たし、
    Figure 2007149088
    前記μはE/2であり、前記x(k)はkである状態で前記移動ロボットのx軸方向位置を、y(k)はkである状態で前記移動ロボットのy軸方向位置をそれぞれ表すことを特徴とする請求項14に記載の移動ロボットの位置認識方法。
  16. 前記(c)段階は、別の補助センサを用いて前記移動ロボットの現在位置を求める段階を含むことを特徴とする請求項11に記載の移動ロボットの位置認識方法。
  17. 前記補助センサは、近接障害物感知センサ、レーザーセンサ、距離センサ、及びカメラのうち少なくとも1つを含むことを特徴とする請求項16に記載の移動ロボットの位置認識方法。
  18. (a)移動ロボットの運動によって変化する状態量を感知するデッドレコニング段階と、
    (b)前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する段階と、
    (c)前記変化する状態量及び前記計算された絶対位置を用いて、現在前記移動ロボットの最適位置を推定する段階と、
    (d)前記決定された現在最適位置が所定の有効領域内に属するかを判断する段階と、
    (e)前記判断結果に従って前記決定された現在最適位置を矯正する段階と、を含むことを特徴とする移動ロボットの位置認識方法。
  19. 移動ロボットの運動によって変化する状態量を感知するデッドレコニング手段と、
    前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する距離計算部と、
    前記変化する状態量及び前記計算された絶対位置をカルマンフィルタの入力として、現在前記移動ロボットの最適位置を推定する状態予測部と、を含むことを特徴とする移動ロボットの位置認識装置。
  20. 前記デッドレコニング手段は、エンコーダ及びジャイロスコープのうち少なくとも1つを含むことを特徴とする請求項19に記載の移動ロボットの位置認識装置。
  21. 前記1つ以上の固定位置は、前記移動ロボットの充電ステーション内に備えられることを特徴とする請求項19に記載の移動ロボットの位置認識装置。
  22. 前記1つ以上の固定位置は、充電ステーション内に備えられる固定位置及びその以外の空間上に位置する固定位置を含むことを特徴とする請求項19に記載の移動ロボットの位置認識装置。
  23. 前記距離計算部は、前記移動ロボットに備えられた送受信部と1つ以上の固定位置にそれぞれ備えられた送受信部の間に電波を送受信することを特徴とする請求項21または請求項22に記載の移動ロボットの位置認識装置。
  24. 前記状態予測部は、前記変化する状態量及び前記計算された絶対位置を入力としたカルマンフィルタ演算によって現在状態値を計算するが、前記kは特定時点を表すカウントであることを特徴とする請求項19に記載の移動ロボットの位置認識装置。
  25. 前記状態予測部は、前記変化する状態量、前記計算された絶対位置及び補助センサによって感知された位置情報を入力としたカルマンフィルタ演算によって現在状態値を計算するが、前記kは特定時点を表すカウントであることを特徴とする請求項19に記載の移動ロボットの位置認識装置。
  26. 少なくとも1つ以上のセンサを用いて移動ロボットの絶対位置を推定する手段と、
    前記推定された絶対位置が少なくとも1つ以上の固定された送受信部から受信される信号によって計算される有効領域内に属するかを判断するリロケーション判断部と、
    前記推定された絶対位置が前記有効領域内に属しないものと判断された場合、リロケーションを行うリロケーション部と、を含むことを特徴とする移動ロボットの位置認識装置。
  27. 前記有効領域は、2つ以上の固定された送受信部のうち第1の位置に備えられた第1の送受信部を基準として半径rにエラー帯域Eを反映して円を描き、前記2つ以上の固定位置のうち第2の位置に備えられた第2の送受信部を基準として半径rにエラー帯域Eを反映して円を描くときに交差される領域であり、
    前記rは前記移動ロボットと前記第1の送受信部との距離を、前記rは前記移動ロボットと前記第2の送受信部との距離を表すことを特徴とする請求項26に記載の移動ロボットの位置認識装置。
  28. 前記有効領域は、1つの固定された送受信部を基準として半径rにエラー帯域Eを反映して円を描いたときに該当する領域であり、前記rは前記移動ロボットと前記送受信部との距離であることを特徴とする請求項26に記載の移動ロボットの位置認識装置。
  29. 前記リロケーション部は、別の補助センサを用いて前記移動ロボットの現在位置を求める段階を含むことを特徴とする請求項26に記載の移動ロボットの位置認識装置。
  30. 前記補助センサは、近接障害物感知センサ、レーザーセンサ、距離センサ、及びカメラのうち少なくとも1つを含むことを特徴とする請求項29に記載の移動ロボットの位置認識装置。
  31. 移動ロボットの運動によって変化する状態量を感知するデッドレコニング手段と、
    前記移動ロボットと少なくとも1つ以上の固定位置との距離をセンシングして前記移動ロボットの絶対位置を計算する距離計算部と、
    前記変化する状態量及び前記計算された絶対位置を用いて、現在前記移動ロボットの最適位置を推定する状態予測部と、
    前記決定された現在最適位置が所定の有効領域内に属するかを判断するリロケーション判断部と、
    前記判断結果に従って前記決定された現在最適位置を矯正するリロケーション部と、を含むことを特徴とする移動ロボットの位置認識装置。
JP2006314318A 2005-11-23 2006-11-21 移動ロボットの自己位置認識方法及び装置 Withdrawn JP2007149088A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20050112556 2005-11-23

Publications (1)

Publication Number Publication Date
JP2007149088A true JP2007149088A (ja) 2007-06-14

Family

ID=38054546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006314318A Withdrawn JP2007149088A (ja) 2005-11-23 2006-11-21 移動ロボットの自己位置認識方法及び装置

Country Status (3)

Country Link
US (1) US9058039B2 (ja)
JP (1) JP2007149088A (ja)
KR (1) KR100834761B1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294104A (ja) * 2008-06-05 2009-12-17 Nissan Motor Co Ltd 位置推定装置
JP2010061484A (ja) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd 移動体および移動体の位置推定誤り状態からの復帰方法
JP2015508202A (ja) * 2012-02-08 2015-03-16 ロブアート ゲーエムベーハーROBART GmbH 自己位置推定を自動的に実行する方法
JP2016161988A (ja) * 2015-02-26 2016-09-05 本田技研工業株式会社 移動体の制御装置
KR101913332B1 (ko) * 2011-12-23 2018-10-31 삼성전자주식회사 이동 장치 및 이동 장치의 위치 인식 방법
WO2018225852A1 (ja) * 2017-06-08 2018-12-13 東芝ライフスタイル株式会社 自律型電気掃除装置
JP2021516512A (ja) * 2018-03-20 2021-07-01 アミクロ セミコンダクター カンパニー リミテッドAmicro Semiconductor Co.,Ltd. ロボットによるインテリジェントなペット監視方法
US11137768B2 (en) 2018-03-14 2021-10-05 Toyota Jidosha Kabushiki Kaisha Position estimation system, position detection method, and program
JP2021536637A (ja) * 2018-09-06 2021-12-27 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. 複数の自律走行移動ロボット
DE102021122432A1 (de) 2020-09-03 2022-03-03 Honda Motor Co., Ltd. Eigenposition-Schätzverfahren
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11662742B2 (en) 2019-03-25 2023-05-30 Honda Motor Co., Ltd. Self-position estimation method
JP2023552937A (ja) * 2020-12-14 2023-12-20 京▲東▼科技信息技▲術▼有限公司 誘導制御方法および機器、充電パイル、ならびにロボット
US11874666B2 (en) 2018-04-20 2024-01-16 Honda Motor Co., Ltd. Self-location estimation method

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134998A (ja) * 2005-11-10 2007-05-31 Sony Corp 電子機器及びその制御方法
KR100772175B1 (ko) * 2006-10-23 2007-11-01 한국전자통신연구원 네트워크 로봇 시스템 및 네트워크 로봇 시스템에서의 통신방법
KR100835906B1 (ko) * 2007-05-03 2008-06-09 고려대학교 산학협력단 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치
KR100883520B1 (ko) * 2007-07-23 2009-02-13 한국전자통신연구원 실내 환경지도 작성 시스템 및 방법
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법
KR101409987B1 (ko) * 2007-12-11 2014-06-23 삼성전자주식회사 이동 로봇의 자세 보정 방법 및 장치
KR101214143B1 (ko) 2008-12-22 2012-12-20 한국전자통신연구원 이동체의 위치 및 방향 인식 장치 및 그 방법
KR101553653B1 (ko) * 2009-01-07 2015-09-16 삼성전자 주식회사 로봇의 슬립 감지 장치 및 방법
KR101100827B1 (ko) * 2009-11-30 2012-01-02 한국생산기술연구원 도로주행 로봇의 자기 위치 인식방법
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
KR101038504B1 (ko) * 2010-11-02 2011-06-01 엘아이지넥스원 주식회사 복수의 센서를 이용해 위치를 추정하는 방법 및 장치
KR101311100B1 (ko) 2011-08-27 2013-09-25 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
CN103284653B (zh) * 2012-03-02 2017-07-14 恩斯迈电子(深圳)有限公司 清洁机器人及其控制方法
KR101406175B1 (ko) * 2012-10-09 2014-06-13 조선대학교산학협력단 이동로봇의 위치추정과 지도 작성 장치 및 방법
KR101365291B1 (ko) * 2012-11-30 2014-02-19 충남대학교산학협력단 오브젝트의 위치 추정 방법 및 장치
KR101390776B1 (ko) * 2013-03-14 2014-04-30 인하대학교 산학협력단 퍼지 확장 칼만 필터를 이용한 위치인식 장치, 방법 및 이동로봇
JP6233706B2 (ja) 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
KR102118769B1 (ko) 2013-04-15 2020-06-03 에이비 엘렉트로룩스 로봇 진공 청소기
WO2014169944A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner with protruding sidebrush
US10209080B2 (en) 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
KR102099495B1 (ko) 2013-12-19 2020-04-09 에이비 엘렉트로룩스 로봇 청소 장치가 장애물에 올라가는 것의 감지
KR102159206B1 (ko) 2013-12-19 2020-09-23 에이비 엘렉트로룩스 회전 사이드 브러시의 적응형 속도 제어
WO2015090399A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
US10231591B2 (en) 2013-12-20 2019-03-19 Aktiebolaget Electrolux Dust container
EP3167341B1 (en) * 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
WO2016037635A1 (en) 2014-09-08 2016-03-17 Aktiebolaget Electrolux Robotic vacuum cleaner
KR102271782B1 (ko) 2014-09-08 2021-06-30 에이비 엘렉트로룩스 로봇 진공 청소기
CN106998980B (zh) 2014-12-10 2021-12-17 伊莱克斯公司 使用激光传感器检测地板类型
EP3229983B1 (en) 2014-12-12 2019-02-20 Aktiebolaget Electrolux Side brush and robotic cleaner
CN107003669B (zh) 2014-12-16 2023-01-31 伊莱克斯公司 用于机器人清洁设备的基于经验的路标
CN106998984B (zh) 2014-12-16 2021-07-27 伊莱克斯公司 用于机器人清洁设备的清洁方法
KR102404258B1 (ko) * 2015-02-06 2022-06-02 삼성전자주식회사 로봇충전복귀장치 및 그 복귀방법
CN104898659B (zh) * 2015-03-11 2017-08-11 北京理工大学 一种基于模型预测的人机协同控制方法
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
KR102343513B1 (ko) 2015-04-17 2021-12-28 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
KR102393921B1 (ko) 2015-05-12 2022-05-04 삼성전자주식회사 로봇 및 그의 제어 방법
CN107636548B (zh) * 2015-05-12 2021-08-13 三星电子株式会社 机器人及其控制方法
CN107920709A (zh) 2015-09-03 2018-04-17 伊莱克斯公司 机器人清洁设备系统
SE539613C2 (en) * 2016-01-11 2017-10-17 Husqvarna Ab Self-propelled robotic tool navigation
KR101775114B1 (ko) * 2016-01-25 2017-09-05 충북대학교 산학협력단 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
US11169533B2 (en) 2016-03-15 2021-11-09 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
WO2017173553A1 (en) 2016-04-08 2017-10-12 A&K Robotics Inc. Autoscrubber convertible between manual and autonomous operation
CN105856229A (zh) * 2016-05-05 2016-08-17 上海慧流云计算科技有限公司 室内定位方法、装置及扫地机器人
US11122953B2 (en) 2016-05-11 2021-09-21 Aktiebolaget Electrolux Robotic cleaning device
CN106323278B (zh) * 2016-08-04 2019-03-15 河海大学常州校区 一种用于救援的传感网络抗失效定位切换控制方法及系统
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
KR20200058400A (ko) 2017-09-26 2020-05-27 에이비 엘렉트로룩스 로봇 청소 장치의 이동 제어
CN108036789B (zh) * 2017-11-29 2020-01-31 安徽省一一通信息科技有限公司 一种野外机器人航迹推算方法
CN111971150A (zh) 2018-04-20 2020-11-20 柯惠Lp公司 手术机器人手推车放置的系统和方法
CN108613671A (zh) * 2018-04-25 2018-10-02 东南大学 一种基于uwb定位和航迹定位的智能割草机定位装置及方法
KR102100477B1 (ko) * 2018-05-04 2020-04-13 엘지전자 주식회사 복수의 자율주행 이동 로봇
US10549186B2 (en) * 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
KR102238352B1 (ko) * 2018-08-05 2021-04-09 엘지전자 주식회사 스테이션 장치 및 이동 로봇 시스템
CN108801269B (zh) * 2018-08-29 2021-11-12 山东大学 一种室内云机器人导航系统及方法
WO2020050565A1 (en) 2018-09-06 2020-03-12 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
CN111380510B (zh) * 2018-12-29 2022-04-15 深圳市优必选科技有限公司 重定位方法及装置、机器人
KR102267690B1 (ko) 2019-02-20 2021-06-22 엘지전자 주식회사 복수의 자율주행 이동 로봇
US10616723B1 (en) * 2019-07-16 2020-04-07 Eagle Technology, Llc System for mapping building interior with PDR and ranging and related methods
KR20220102058A (ko) 2021-01-12 2022-07-19 삼성전자주식회사 로봇 및 그 제어 방법
CN115246118A (zh) * 2021-04-25 2022-10-28 广东博智林机器人有限公司 一种机器人定位方法、装置、机器人及存储介质
US12000945B2 (en) * 2021-05-28 2024-06-04 Nec Corporation Visual and RF sensor fusion for multi-agent tracking
KR20250086422A (ko) 2023-12-06 2025-06-13 현대위아 주식회사 이동장치 좌표계 교정 장치 및 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8313338D0 (en) 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle control
JPH0313611A (ja) * 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
JPH0527832A (ja) 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH06138940A (ja) * 1992-10-27 1994-05-20 Matsushita Electric Works Ltd 自律移動ロボット
JPH06139498A (ja) * 1992-10-30 1994-05-20 Mitsubishi Electric Corp 障害物回避装置
FR2699713B1 (fr) * 1992-12-17 1995-03-24 Hubert Thomas Procédé et dispositif de contrôle à distance d'un engin sous marin inhabité.
JPH11295412A (ja) 1998-04-09 1999-10-29 Minolta Co Ltd 移動体の位置認識装置
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
US6763057B1 (en) * 1999-12-09 2004-07-13 Time Domain Corporation Vector modulation system and method for wideband impulse radio communications
US6763282B2 (en) * 2001-06-04 2004-07-13 Time Domain Corp. Method and system for controlling a robot
US6836701B2 (en) * 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
KR100561855B1 (ko) * 2002-12-30 2006-03-16 삼성전자주식회사 로봇용 로컬라이제이션 시스템
KR100459411B1 (ko) * 2002-12-31 2004-12-03 엘지전자 주식회사 로봇 청소기 및 그의 청소 영역 주행방법
KR100548272B1 (ko) 2003-07-23 2006-02-02 엘지전자 주식회사 이동로봇의 위치검출장치 및 방법
KR100565227B1 (ko) 2003-12-22 2006-03-30 엘지전자 주식회사 이동로봇의 위치인식장치 및 방법
US7239277B2 (en) * 2004-04-12 2007-07-03 Time Domain Corporation Method and system for extensible position location
KR100600487B1 (ko) * 2004-10-12 2006-07-13 삼성광주전자 주식회사 로봇 청소기의 좌표보정방법 및 이를 이용한 로봇 청소기시스템

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294104A (ja) * 2008-06-05 2009-12-17 Nissan Motor Co Ltd 位置推定装置
JP2010061484A (ja) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd 移動体および移動体の位置推定誤り状態からの復帰方法
KR101913332B1 (ko) * 2011-12-23 2018-10-31 삼성전자주식회사 이동 장치 및 이동 장치의 위치 인식 방법
JP2015508202A (ja) * 2012-02-08 2015-03-16 ロブアート ゲーエムベーハーROBART GmbH 自己位置推定を自動的に実行する方法
US9527212B2 (en) 2012-02-08 2016-12-27 RobArt GmbH Method for automatically triggering a self-positioning process
JP2016161988A (ja) * 2015-02-26 2016-09-05 本田技研工業株式会社 移動体の制御装置
GB2577008A (en) * 2017-06-08 2020-03-11 Toshiba Lifestyle Products & Services Corp Autonomous electrical cleaning apparatus
JP2018202038A (ja) * 2017-06-08 2018-12-27 東芝ライフスタイル株式会社 自律型電気掃除装置
JP7264584B2 (ja) 2017-06-08 2023-04-25 東芝ライフスタイル株式会社 自律型電気掃除装置
WO2018225852A1 (ja) * 2017-06-08 2018-12-13 東芝ライフスタイル株式会社 自律型電気掃除装置
US11137768B2 (en) 2018-03-14 2021-10-05 Toyota Jidosha Kabushiki Kaisha Position estimation system, position detection method, and program
JP2021516512A (ja) * 2018-03-20 2021-07-01 アミクロ セミコンダクター カンパニー リミテッドAmicro Semiconductor Co.,Ltd. ロボットによるインテリジェントなペット監視方法
JP7074873B2 (ja) 2018-03-20 2022-05-24 珠海一微半導体股▲ふん▼有限公司 ロボットによるインテリジェントなペット監視方法
US11874666B2 (en) 2018-04-20 2024-01-16 Honda Motor Co., Ltd. Self-location estimation method
JP2021536637A (ja) * 2018-09-06 2021-12-27 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. 複数の自律走行移動ロボット
US11906979B2 (en) 2018-09-06 2024-02-20 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
JP7165259B2 (ja) 2018-09-06 2022-11-02 エルジー エレクトロニクス インコーポレイティド 複数の自律走行移動ロボット
US11662742B2 (en) 2019-03-25 2023-05-30 Honda Motor Co., Ltd. Self-position estimation method
DE102021122432A1 (de) 2020-09-03 2022-03-03 Honda Motor Co., Ltd. Eigenposition-Schätzverfahren
US12164305B2 (en) 2020-09-03 2024-12-10 Honda Motor Co., Ltd. Self-position estimation method
JP2023552937A (ja) * 2020-12-14 2023-12-20 京▲東▼科技信息技▲術▼有限公司 誘導制御方法および機器、充電パイル、ならびにロボット
JP7759352B2 (ja) 2020-12-14 2025-10-23 京▲東▼科技信息技▲術▼有限公司 誘導を行うための制御方法および制御機器、充電パイル、ならびにロボット

Also Published As

Publication number Publication date
US20070118248A1 (en) 2007-05-24
KR100834761B1 (ko) 2008-06-05
KR20070054557A (ko) 2007-05-29
US9058039B2 (en) 2015-06-16

Similar Documents

Publication Publication Date Title
JP2007149088A (ja) 移動ロボットの自己位置認識方法及び装置
KR100561855B1 (ko) 로봇용 로컬라이제이션 시스템
CN107462892B (zh) 基于多超声传感器的移动机器人同步定位与地图构建方法
KR100486737B1 (ko) 청소로봇의 청소궤적 생성·추종방법 및 장치
US20070271011A1 (en) Indoor map building apparatus, method, and medium for mobile robot
CN201573208U (zh) 实现室内服务机器人同时定位和地图创建的装置及机器人
US8068935B2 (en) Human-guided mapping method for mobile robot
US10860033B2 (en) Movable object and method for controlling the same
CN207164586U (zh) 一种扫地机器人导航系统
Kwok et al. Map-based multiple model tracking of a moving object
KR100928964B1 (ko) 이동로봇의 도킹스테이션 귀환방법 및 장치
Fox et al. Controlling synchro-drive robots with the dynamic window approach to collision avoidance
CN107357297A (zh) 一种扫地机器人导航系统及其导航方法
JP2007310866A (ja) 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
US20100324773A1 (en) Method and apparatus for relocating mobile robot
CN111465908B (zh) 一种分段式自主充电对接方法及移动设备、充电站
EP3611589B1 (en) Method for controlling motion of robot based on map prediction
JP2010511957A (ja) 周辺の環境変化に迅速に適応し、環境マップを作成することができる移動体の環境マップ作成装置及びその方法
KR101241411B1 (ko) 이동 로봇의 실내 지도 작성 장치 및 방법
CN113475977A (zh) 机器人路径规划方法、装置及机器人
JP2018185767A (ja) 環境整備ロボットおよびその制御プログラム
JP2009223757A (ja) 自律移動体、その制御システム、自己位置推定方法
JP2011056123A (ja) 掃除ロボット及びそれを用いた掃除方法
Aman et al. A sensor fusion methodology for obstacle avoidance robot
JP2022541736A (ja) 移動ロボット及びその制御方法

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090501