JP2015141580A - Mobile device - Google Patents
Mobile device Download PDFInfo
- Publication number
- JP2015141580A JP2015141580A JP2014014263A JP2014014263A JP2015141580A JP 2015141580 A JP2015141580 A JP 2015141580A JP 2014014263 A JP2014014263 A JP 2014014263A JP 2014014263 A JP2014014263 A JP 2014014263A JP 2015141580 A JP2015141580 A JP 2015141580A
- Authority
- JP
- Japan
- Prior art keywords
- self
- landmark
- position estimation
- detection area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は移動装置に関し、特に、作業環境内を自律移動する移動装置に関する。 The present invention relates to a mobile device, and more particularly to a mobile device that autonomously moves within a work environment.
2種類の自己位置推定を常時実行し、2つの推定結果を融合することにより自己位置の推定を行う移動装置が知られている(例えば特許文献1を参照)。特許文献1に記載の移動装置は、カメラ部によって撮像した画像データおよび距離センサによって取得したレンジデータの双方を用いて自己位置の推定を行うものである。さらに、特許文献1に記載の移動装置は、周囲環境を応じて画像データによる自己位置推定およびレンジデータによる自己位置推定の信頼度を決定し、決定した信頼度を反映して2つの自己位置推定手段の結果を統合して最終的な自己位置を決定するものである。 2. Description of the Related Art A mobile device that performs two types of self-position estimation at all times and performs self-position estimation by fusing two estimation results is known (see, for example, Patent Document 1). The moving device described in Patent Document 1 estimates a self-position using both image data captured by a camera unit and range data acquired by a distance sensor. Furthermore, the mobile device described in Patent Document 1 determines the reliability of self-position estimation based on image data and self-position estimation based on range data according to the surrounding environment, and reflects the determined reliability to determine two self-position estimations. The result of means is integrated to determine the final self-position.
特許文献1に記載の移動装置は、カメラ部によって撮像した画像データを用いた自己位置推定、および距離センサによって取得したレンジデータを用いた自己位置推定の、2種類の自己位置推定を常時実行している。そのため、自己位置推定を1種類のみ実行する場合と比べて、計算処理による負荷が高くなり、CPU(Central Processing Unit)等の計算処理部の消費電力が増大するという問題があった。 The mobile device described in Patent Document 1 always executes two types of self-position estimation, ie self-position estimation using image data captured by a camera unit and self-position estimation using range data acquired by a distance sensor. ing. Therefore, compared to the case where only one type of self-position estimation is performed, there is a problem that the load due to the calculation process increases and the power consumption of a calculation processing unit such as a CPU (Central Processing Unit) increases.
本発明は、このような問題を解決するためになされたものであり、自己位置推定時の消費電力が少ない移動装置を提供することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to provide a mobile device that consumes less power at the time of self-position estimation.
本発明の移動装置は、
作業環境内を自律移動する移動装置であって、
前記作業環境の地図情報を格納した地図記憶部と、
前記作業環境内に存在する物体との距離を計測してレンジデータを生成する距離センサと、
前記作業環境内に存在する物体を撮像した画像データを生成するカメラ部と、
前記レンジデータを前記地図情報に含まれる形状データと照合することによって、当該移動装置の自己位置を推定する第1自己位置推定手段と、
前記画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および前記地図情報に含まれる前記作業環境におけるランドマークの位置情報を用いた演算によって、当該移動装置の自己位置を推定する第2自己位置推定手段と、
前記第2自己位置推定手段により所望の推定精度でランドマークを検出可能な検出エリア情報を格納した検出エリア記憶部と、
前記第1自己位置推定手段により推定された自己位置と前記検出エリア情報とを照合した結果に基づいて、前記第2自己位置推定手段による自己位置推定の実行可否を決定する制御手段と、
を備える。
The mobile device of the present invention
A mobile device that moves autonomously in a work environment,
A map storage unit storing map information of the work environment;
A distance sensor that measures the distance to an object present in the work environment and generates range data;
A camera unit for generating image data obtained by imaging an object existing in the work environment;
First self-position estimation means for estimating the self-position of the mobile device by collating the range data with the shape data included in the map information;
By detecting the landmark from the image data and calculating the position of the detected landmark on the image and the position information of the landmark in the work environment included in the map information, the position of the mobile device is determined. Second self-position estimating means for estimating;
A detection area storage unit storing detection area information capable of detecting a landmark with a desired estimation accuracy by the second self-position estimation unit;
Control means for determining whether or not to execute self-position estimation by the second self-position estimation means based on a result of collating the self-position estimated by the first self-position estimation means and the detection area information;
Is provided.
本発明によれば、自己位置推定時の消費電力が少ない移動装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the mobile device with little power consumption at the time of self-position estimation can be provided.
[実施の形態1]
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施の形態にかかる自律移動ロボット100の構成を示す図である。
自律移動ロボット100は、地図記憶部101と、距離センサ102と、カメラ部110と、レンジデータ自己位置推定部103と、ランドマーク自己位置推定部104と、検出エリア記憶部105と、制御部106と、を備える。
[Embodiment 1]
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an autonomous
The autonomous
図2は、自律移動ロボット100が動作する様子を示す図である。自律移動ロボット100は、距離センサ102およびカメラ部110の2つのセンサによって外界の情報を取得する。自律移動ロボット100は、カメラ部110によって取得された画像データおよび距離センサ102によって取得されたレンジデータのそれぞれに基づいて自己位置推定を行いながら、作業環境内を自律移動する。
FIG. 2 is a diagram illustrating how the autonomous
地図記憶部101は、作業環境の地図情報を格納している。地図情報には、作業環境内に存在する物体の形状データが含まれる。地図情報としては、グリッドマップとランドマーク位置姿勢情報とが地図記憶部101に格納されている。グリッドマップは、作業環境を格子状の領域に区切り、各領域に壁や空きスペースなどの属性を持たせた地図である。ランドマーク位置姿勢情報は、作業環境内のある位置において、ランドマークがどのような見え方をするかを示すテンプレート画像である。
The
距離センサ102は、作業環境内に存在する物体との距離を計測してレンジデータを生成する。距離センサ102は、面として距離が測定できるものが好ましく、例えば、レーザーレンジファインダーを用いることができる。
The
カメラ部110は、作業環境内に存在する物体を撮像した画像データを生成する。
カメラ部110は、2台のカメラ111aおよび111bを有する。カメラ111aおよび111bはそれぞれ、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を備えており、外界を撮像して得たデジタル画像データをランドマーク自己位置推定部104に出力する。カメラ部110は、カメラを2台用いたステレオカメラに限定されるものではなく、カメラを1台用いた単眼カメラであってもよい。
The
The
レンジデータ自己位置推定部103(第1自己位置推定手段)は、レンジデータを地図情報に含まれる形状データと照合することによって、自律移動ロボット100の自己位置を推定する。
The range data self-position estimation unit 103 (first self-position estimation means) estimates the self-position of the autonomous
ランドマーク自己位置推定部104(第2自己位置推定手段)は、画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および地図情報に含まれる作業環境におけるランドマークの位置情報を用いた演算によって、当該自律移動ロボット100の自己位置を推定する。
The landmark self-position estimating unit 104 (second self-position estimating means) detects the landmark from the image data, and the position of the landmark in the work environment included in the position information on the image of the detected landmark and the map information. The self-position of the autonomous
ランドマークとは、自律移動ロボット100が移動する環境に固定された基準点であり、作業環境に元々存在している壁面などの自然特徴のほか、人工的に作業環境に配置した標識を用いてもよい。作業環境内に存在するランドマークの位置およびランドマークの形状を示す情報は、地図情報として予め地図記憶部101に格納されている。具体例を示すと、ランドマークの様々な見え方を示すテンプレート画像を地図記憶部101に格納しておき、これらのテンプレート画像と撮像された画像データとの相関検出、パターンマッチング等によってランドマークを検出することができる。
A landmark is a reference point that is fixed in an environment in which the autonomous
ランドマーク自己位置推定部104は、画像データ上でのランドマーク位置を用いて、カメラ座標系でのランドマークの三次元位置を算出する。ここで、カメラ座標系とは、カメラ部110に固定された座標系である。なお、カメラ座標系でのランドマークの三次元位置の算出は、例えば、2つのカメラ111aおよび111bによって撮影された2つの画像のステレオ視によって、ランドマークまでの距離を獲得することにより算出できる。
The landmark self-
ランドマーク自己位置推定部104は、ステレオ視により算出されたランドマークのカメラ座標系での位置、および作業環境に固定された座標系(以下、世界座標系と呼ぶ)でのランドマーク位置を用いて、世界座標系でのロボット位置を算出する。なお、ランドマークの世界座標系での位置は、地図情報として予め地図記憶部101に格納された情報である。
The landmark self-
検出エリア記憶部105は、ランドマーク自己位置推定部104により所望の推定精度でランドマークを検出可能な検出エリア情報を格納している。
カメラ部110がランドマークを認識するときには、カメラの画角にランドマークが入っていれば必ず検出されるわけではない。レンズの歪曲収差の影響や、イメージセンサの画素数とランドマークの大きさとの関係などから、精度よくランドマークが検出できる範囲はカメラの画角よりも狭い領域となる。所望の推定精度でランドマークを検出可能な領域を予め計測しておき、この領域を検出エリアとして検出エリア記憶部105に保持しておく。
The detection
When the
図3は、検出エリアの概念を説明する図である。検出エリアは、自律移動ロボット100に固定されたカメラ座標系を基準として表される。検出エリアは、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な領域をいう。
図3では、ランドマーク210の認識精度を計測するための基準線220が格子状に設けられており、ランドマーク210を様々な場所に移動させて、カメラ部110により距離測定を行う。このとき、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な領域を検出エリアとする。図3では、カメラ111aおよび111bの画角を破線201aおよび201b、カメラ部110がステレオ視できる画角を一点鎖線202、検出エリアを太い二点鎖線203で示している。
FIG. 3 is a diagram for explaining the concept of the detection area. The detection area is represented with reference to a camera coordinate system fixed to the autonomous
In FIG. 3, a
制御部106は、レンジデータ自己位置推定部103により推定された自己位置と検出エリア情報とを照合した結果に基づいて、ランドマーク自己位置推定部104による自己位置推定の実行可否を決定する。制御部106は、レンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する。
The
図4は、検出エリア情報を作成する方法を示すフローチャートである。
離れた2点の正確な位置を計測できるような計測環境を用意する(ST401)。図3に示すように、計測環境としては、等間隔で基準線220が引かれた方眼紙や、平面内の移動量がわかるXYステージなどが用いられる。
FIG. 4 is a flowchart showing a method for creating detection area information.
A measurement environment is prepared so that the accurate positions of two distant points can be measured (ST401). As shown in FIG. 3, as the measurement environment, graph paper with
次に、カメラ部110を計測環境の特定の点に設置する(ST402)。そして、計測環境中の任意の点にランドマーク210を設置する(ST403)。ランドマーク210を設置した後、計測環境中の基準線220を用いて、カメラ部110からみたランドマーク210の位置を計測する(ST404)。
Next, the
次に、ランドマーク自己位置推定部104は、カメラ部110が取得した画像を用いて、ステレオ視によりカメラ座標系におけるランドマーク210の位置を算出する(ST405)。
次に、基準線220を用いて計測されたランドマーク210の位置(計測位置)と、カメラ部110が取得した画像を用いてステレオ視により算出されたランドマーク210の位置(算出位置)の差が閾値以下であるか判定する(ST406)。
Next, landmark self-
Next, the difference between the position (measurement position) of the
計測位置と算出位置との差が閾値以下と判定した場合(ST406 YES)、検出エリア記憶部105は計測位置を記憶する(ST407)。計測位置と算出位置との差が閾値より大きいと判定した場合(ST406 NO)、検出エリア記憶部105は計測位置を記憶せずに、ランドマーク210の位置を変えて(ST403)、ランドマーク210位置の計測を再度行う(ST404)。計測位置と算出位置との差が閾値以下となる計測位置の情報が、検出エリア情報となる。
なお、検出エリアの計測において、ランドマーク210のカメラ部110に対する角度を変えて、複数回ランドマーク位置のステレオ視による算出を行ってもよい。
When it is determined that the difference between the measurement position and the calculation position is equal to or less than the threshold (YES in ST406), the detection
In measurement of the detection area, the angle of the
図5は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を示すフローチャートである。図6は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を概念的に示す図である。
図5および図6を用いて、制御部106が、レンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する方法について説明する。
FIG. 5 is a flowchart showing processing in which the
A method in which the
まず、制御部106は、レンジデータ自己位置推定部103により推定された自己位置(第1自己位置推定値)と、第1自己位置推定値の信頼度を取得する(ST501)。図6では、第1自己位置推定値とその信頼度から算出される、自律移動ロボット100が存在する確率が高いエリアを破線の円610で示す。
次に、制御部106は、検出エリア記憶部105に格納された検出エリア情報を第1自己位置推定値基準に変換する(ST502)。
First,
Next,
次に、制御部106は、第1自己位置推定値基準に変換された検出エリア601を、第1自己位置推定値の信頼度に応じて膨張させる(ST503)。その後、制御部106は、レンジデータ自己位置推定部103により推定されたランドマーク所在情報を、膨張後の検出エリア602と比較する(ST504)。そして、制御部106は、膨張後の検出エリア602にランドマーク210が含まれるか判定する(ST505)。
Next,
制御部106は、膨張後の検出エリア602にランドマーク210が含まれると判定した場合(ST505 YES)、ランドマーク自己位置推定部104に自己位置推定の実行を命令する(ST506)。これにより、ランドマーク自己位置推定部104による自己位置推定値(第2自己位置推定値)が算出される。一方、制御部106は、膨張後の検出エリア602にランドマーク210が含まれないと判定した場合(ST505 NO)、ランドマーク自己位置推定部104に自己位置推定の停止を命令する(ST507)。
When
なお、上述した本実施の形態にかかる自律移動ロボット100のうちカメラ部110および距離センサ102を除く他の構成要素は、プログラムを実行するCPU(Central Processing Unit)を有するコンピュータシステムにより構成することが可能である。具体的には、CPUが内部に備える又はCPUの外部に接続されるROM又はフラッシュメモリ等の記憶部に、レンジデータ自己位置推定部103、ランドマーク自己位置推定部104、および制御部106が行う処理をコンピュータシステムに実行させるための1又は複数のプログラムを格納しておき、当該プログラムをCPUで実行することとすればよい。また、地図記憶部101および検出エリア記憶部105は、コンピュータシステムが備えるハードディスクやフラッシュメモリ等の不揮発性の記憶部とすればよい。
In the autonomous
本実施の形態にかかる自律移動ロボット100は、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な検出エリア内に位置する場合のみ、レンジデータ自己位置推定部103とランドマーク自己位置推定部104の双方による自己位置推定を行う。検出エリア外に位置する場合には、ランドマーク自己位置推定部104による自己位置推定を停止し、レンジデータ自己位置推定部103による自己位置推定のみを行う。
The autonomous
この構成により、自律移動ロボット100は、所望の推定精度でランドマーク210を検出できない場合は、ランドマーク自己位置推定部104による自己位置推定を停止する。よって、本実施の形態によれば、自己位置推定時の消費電力が少ない自律移動ロボットを提供できる。
With this configuration, the autonomous
図7は、自律移動ロボット100におけるレンジデータ自己位置推定部103およびランドマーク自己位置推定部104の消費電力を示す図である。図7では、ランドマーク自己位置推定部104による自己位置推定を常に行う場合の消費電力は破線で示されている。それに対して、ランドマーク自己位置推定部104による自己位置推定を検出エリア内でのみ行う場合の消費電力は、図7中の実線のように表される。図7から、ランドマーク自己位置推定部104による自己位置推定が停止している間の消費電力は小さくなっていることがわかる。
FIG. 7 is a diagram illustrating the power consumption of the range data self-
[実施の形態2]
実施の形態2にかかる自律移動ロボット300について説明する。
自律移動ロボット300は、実施の形態1にかかる自律移動ロボット100と同様に、地図記憶部101と、距離センサ102と、カメラ部110と、レンジデータ自己位置推定部103と、ランドマーク自己位置推定部104と、検出エリア記憶部105と、制御部と、を備える。
[Embodiment 2]
An autonomous
Similar to the autonomous
実施の形態1にかかる自律移動ロボット100では、検出エリアはカメラ座標系を基準としたエリアとして検出エリア記憶部105に記憶されている。実施の形態2にかかる自律移動ロボット300は、地図記憶部101が格納する地図情報に検出エリアが含まれている点が、実施の形態1にかかる自律移動ロボット100とは異なる。
In the autonomous
図8は、地図情報中のランドマーク210に対応する検出エリアを示す図である。図8では、検出エリアは、二点鎖線に囲まれた領域810として表されている。自律移動ロボット300のカメラ部110が、検出エリア(領域810)内に位置する場合に、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出できる。
FIG. 8 is a diagram showing a detection area corresponding to the
図9は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を示すフローチャートである。
まず、制御部106は、レンジデータ自己位置推定部103により推定された自己位置(第1自己位置推定値)と、第1自己位置推定値の信頼度を取得する(ST701)。
FIG. 9 is a flowchart illustrating a process in which the
First,
次に、制御部106は、信頼度を考慮した第1自己位置推定値を、地図情報に含まれた検出エリアと比較する(ST702)。図10は、検出エリアが含まれた地図情報の一例を示す図である。そして、制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれるか判定する(ST703)。信頼度を考慮した第1自己位置推定値は、自律移動ロボットが存在する確率が高いエリアであり、図10では破線610で囲まれる領域で示される。
Next,
制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれると判定した場合(ST703 YES)、ランドマーク自己位置推定部104に自己位置推定の実行を命令する(ST704)これにより、ランドマーク自己位置推定部104による自己位置推定値(第2自己位置推定値)が算出される。一方、制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれると判定した場合(ST703 NO)、ランドマーク自己位置推定部104に自己位置推定の停止を命令する(ST705)
When it is determined that the first self-position estimation value considering the reliability is included in the detection area (YES in ST703),
[その他の実施の形態]
図11は、その他の実施の形態にかかる自律移動ロボット900の構成を示すブロック図である。
実施の形態1および2では、制御部106は、計算負荷の高いランドマーク自己位置推定部104による自己位置推定処理を、期待できる推定精度が低い場合は停止する。その他の実施の形態にかかる自律移動ロボット900は、実施の形態1および2にかかる自律移動ロボット100と比べて、制御部106が、カメラ部110の電源のオンとオフの制御を行える点が異なっている。
[Other embodiments]
FIG. 11 is a block diagram showing a configuration of an autonomous
In the first and second embodiments, the
さらに、自律移動ロボット900では、ランドマーク自己位置推定部104による自己位置推定処理の実行と停止に合わせて、カメラ部110の電源のオンとオフを行うことにより、カメラ部110における電力消費も低減することができる。これにより、自己位置推定時の消費電力をより低減することができる。
Further, in the autonomous
実施の形態1および2では、第1自己位置推定手段として、距離センサ102により取得されたレンジデータを用いた自己位置推定を挙げたが、他の自己位置推定手段を用いてもよい。例えば、車輪オドメトリによる自己位置推定を用いてもよい。
In Embodiments 1 and 2, the self-position estimation using the range data acquired by the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、本発明は自律移動ロボットに限定されるものではなく、距離センサ102およびカメラ部110の2つのセンサによって外界の情報を取得して、これら2つのセンサによって取得した画像データおよびレンジデータのそれぞれに基づいて自己位置推定を行いながら、作業環境内を自律移動する移動装置について適用することができる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the present invention is not limited to an autonomous mobile robot, and information on the outside world is acquired by two sensors, the
100、300、900 自律移動ロボット
101 地図記憶部
102 距離センサ
103 レンジデータ自己位置推定部
104 ランドマーク自己位置推定部
105 検出エリア記憶部
106 制御部
110 カメラ部
111a、111b カメラ
210 ランドマーク
220 基準線
601 第1自己位置推定値基準に変換された検出エリア
602 膨張後の検出エリア
610 自律移動ロボットが存在する確率が高いエリア
810 地図情報に含まれる検出エリア
100, 300, 900 Autonomous
Claims (1)
前記作業環境の地図情報を格納した地図記憶部と、
前記作業環境内に存在する物体との距離を計測してレンジデータを生成する距離センサと、
前記作業環境内に存在する物体を撮像した画像データを生成するカメラ部と、
前記レンジデータを前記地図情報に含まれる形状データと照合することによって、当該移動装置の自己位置を推定する第1自己位置推定手段と、
前記画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および前記地図情報に含まれる前記作業環境におけるランドマークの位置情報を用いた演算によって、当該移動装置の自己位置を推定する第2自己位置推定手段と、
前記第2自己位置推定手段により所望の推定精度でランドマークを検出可能な検出エリア情報を格納した検出エリア記憶部と、
前記第1自己位置推定手段により推定された自己位置と前記検出エリア情報とを照合した結果に基づいて、前記第2自己位置推定手段による自己位置推定の実行可否を決定する制御手段と、
を備える移動装置。 A mobile device that moves autonomously in a work environment,
A map storage unit storing map information of the work environment;
A distance sensor that measures the distance to an object present in the work environment and generates range data;
A camera unit for generating image data obtained by imaging an object existing in the work environment;
First self-position estimation means for estimating the self-position of the mobile device by collating the range data with the shape data included in the map information;
By detecting the landmark from the image data and calculating the position of the detected landmark on the image and the position information of the landmark in the work environment included in the map information, the position of the mobile device is determined. Second self-position estimating means for estimating;
A detection area storage unit storing detection area information capable of detecting a landmark with a desired estimation accuracy by the second self-position estimation unit;
Control means for determining whether or not to execute self-position estimation by the second self-position estimation means based on a result of collating the self-position estimated by the first self-position estimation means and the detection area information;
A mobile device comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014014263A JP2015141580A (en) | 2014-01-29 | 2014-01-29 | Mobile device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014014263A JP2015141580A (en) | 2014-01-29 | 2014-01-29 | Mobile device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015141580A true JP2015141580A (en) | 2015-08-03 |
Family
ID=53771878
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014014263A Pending JP2015141580A (en) | 2014-01-29 | 2014-01-29 | Mobile device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015141580A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018142316A (en) * | 2017-02-28 | 2018-09-13 | トヨタ自動車株式会社 | Observable grid-based autonomous environment exploration |
| WO2019180765A1 (en) * | 2018-03-19 | 2019-09-26 | 本田技研工業株式会社 | Autonomous traveling work machine |
| US10444764B2 (en) | 2016-05-25 | 2019-10-15 | Murata Machinery, Ltd. | Self-position estimating apparatus and self-position estimating method |
| WO2020049945A1 (en) * | 2018-09-04 | 2020-03-12 | ソニー株式会社 | Self-localization device, information processing device, and self-localization method |
| US11768503B2 (en) | 2020-02-25 | 2023-09-26 | Mitsubishi Heavy Industries, Ltd. | Position estimation device, control device, industrial vehicle, logistics support system, position estimation method, and program |
| US12461526B2 (en) | 2021-12-28 | 2025-11-04 | Honda Motor Co., Ltd. | Autonomous mobile body control device, autonomous mobile body, and autonomous mobile body control method |
-
2014
- 2014-01-29 JP JP2014014263A patent/JP2015141580A/en active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10444764B2 (en) | 2016-05-25 | 2019-10-15 | Murata Machinery, Ltd. | Self-position estimating apparatus and self-position estimating method |
| JP2018142316A (en) * | 2017-02-28 | 2018-09-13 | トヨタ自動車株式会社 | Observable grid-based autonomous environment exploration |
| WO2019180765A1 (en) * | 2018-03-19 | 2019-09-26 | 本田技研工業株式会社 | Autonomous traveling work machine |
| JPWO2019180765A1 (en) * | 2018-03-19 | 2020-12-10 | 本田技研工業株式会社 | Autonomous traveling work machine |
| JP7003224B2 (en) | 2018-03-19 | 2022-01-20 | 本田技研工業株式会社 | Autonomous traveling work machine |
| WO2020049945A1 (en) * | 2018-09-04 | 2020-03-12 | ソニー株式会社 | Self-localization device, information processing device, and self-localization method |
| US11768503B2 (en) | 2020-02-25 | 2023-09-26 | Mitsubishi Heavy Industries, Ltd. | Position estimation device, control device, industrial vehicle, logistics support system, position estimation method, and program |
| US12461526B2 (en) | 2021-12-28 | 2025-11-04 | Honda Motor Co., Ltd. | Autonomous mobile body control device, autonomous mobile body, and autonomous mobile body control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10880541B2 (en) | Stereo correspondence and depth sensors | |
| JP4984650B2 (en) | Mobile device and self-position estimation method of mobile device | |
| US9135710B2 (en) | Depth map stereo correspondence techniques | |
| KR102041664B1 (en) | Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner | |
| CN112771573A (en) | Depth estimation method and device based on speckle images and face recognition system | |
| US10277889B2 (en) | Method and system for depth estimation based upon object magnification | |
| JP2015141580A (en) | Mobile device | |
| JP6201148B2 (en) | CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM | |
| KR102455632B1 (en) | Mehtod and apparatus for stereo matching | |
| WO2015073548A2 (en) | Point-to-point measurements using a handheld device | |
| JP2015056057A (en) | Method of estimating posture and robot | |
| KR20110122022A (en) | Map generating device and method | |
| US11029399B2 (en) | System and method for calibrating light intensity | |
| JP6698430B2 (en) | Measuring device, measuring method and program | |
| KR101280392B1 (en) | Apparatus for managing map of mobile robot based on slam and method thereof | |
| JP2015206768A (en) | Foreground region extraction device, foreground region extraction method, and program | |
| US20170091945A1 (en) | Point and sensor estimation from images | |
| JP6477340B2 (en) | Road boundary detection device, self-position estimation device, and road boundary detection method | |
| KR102555269B1 (en) | Posture estimation fusion method and system using omnidirectional image sensor and inertial measurement sensor | |
| JP7214057B1 (en) | DATA PROCESSING DEVICE, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
| JP5765163B2 (en) | Self-position estimation apparatus, method, and program | |
| JP2019160147A (en) | Own position detecting apparatus | |
| KR101502071B1 (en) | Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same | |
| KR101364047B1 (en) | Method for estimating location based on object recognition using kalman filter | |
| EP4134774B1 (en) | Information processing apparatus, moving body, method for controlling information processing apparatus, and program |