[go: up one dir, main page]

JP2015141580A - Mobile device - Google Patents

Mobile device Download PDF

Info

Publication number
JP2015141580A
JP2015141580A JP2014014263A JP2014014263A JP2015141580A JP 2015141580 A JP2015141580 A JP 2015141580A JP 2014014263 A JP2014014263 A JP 2014014263A JP 2014014263 A JP2014014263 A JP 2014014263A JP 2015141580 A JP2015141580 A JP 2015141580A
Authority
JP
Japan
Prior art keywords
self
landmark
position estimation
detection area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014014263A
Other languages
Japanese (ja)
Inventor
健光 森
Takemitsu Mori
健光 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014014263A priority Critical patent/JP2015141580A/en
Publication of JP2015141580A publication Critical patent/JP2015141580A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mobile device which requires a small amount of power consumption during self-position estimation.SOLUTION: A mobile device comprises: a map storage part 101 for storing map information; a distance sensor 102 for creating range data; a camera part 110 for creating image data; first self-position estimation means for estimating a self-position by collating the range data to shape data included in the map information; second self-position estimation means for estimating the self-position by detecting a landmark from the image data, and using the positional information on the image of the detected landmark, and the positional information of the landmark included in the map information; a detection area storage part 105 for storing detection area information where the landmark can be detected with desired estimation accuracy by the second self-position estimation means; and a control part 106 for deciding whether self-position estimation can be performed or not by the second self-position estimation means based on a result collating the self-position estimated by the first self-position estimation means and the detection area information.

Description

本発明は移動装置に関し、特に、作業環境内を自律移動する移動装置に関する。   The present invention relates to a mobile device, and more particularly to a mobile device that autonomously moves within a work environment.

2種類の自己位置推定を常時実行し、2つの推定結果を融合することにより自己位置の推定を行う移動装置が知られている(例えば特許文献1を参照)。特許文献1に記載の移動装置は、カメラ部によって撮像した画像データおよび距離センサによって取得したレンジデータの双方を用いて自己位置の推定を行うものである。さらに、特許文献1に記載の移動装置は、周囲環境を応じて画像データによる自己位置推定およびレンジデータによる自己位置推定の信頼度を決定し、決定した信頼度を反映して2つの自己位置推定手段の結果を統合して最終的な自己位置を決定するものである。   2. Description of the Related Art A mobile device that performs two types of self-position estimation at all times and performs self-position estimation by fusing two estimation results is known (see, for example, Patent Document 1). The moving device described in Patent Document 1 estimates a self-position using both image data captured by a camera unit and range data acquired by a distance sensor. Furthermore, the mobile device described in Patent Document 1 determines the reliability of self-position estimation based on image data and self-position estimation based on range data according to the surrounding environment, and reflects the determined reliability to determine two self-position estimations. The result of means is integrated to determine the final self-position.

特開2007−322138号公報JP 2007-322138 A

特許文献1に記載の移動装置は、カメラ部によって撮像した画像データを用いた自己位置推定、および距離センサによって取得したレンジデータを用いた自己位置推定の、2種類の自己位置推定を常時実行している。そのため、自己位置推定を1種類のみ実行する場合と比べて、計算処理による負荷が高くなり、CPU(Central Processing Unit)等の計算処理部の消費電力が増大するという問題があった。   The mobile device described in Patent Document 1 always executes two types of self-position estimation, ie self-position estimation using image data captured by a camera unit and self-position estimation using range data acquired by a distance sensor. ing. Therefore, compared to the case where only one type of self-position estimation is performed, there is a problem that the load due to the calculation process increases and the power consumption of a calculation processing unit such as a CPU (Central Processing Unit) increases.

本発明は、このような問題を解決するためになされたものであり、自己位置推定時の消費電力が少ない移動装置を提供することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a mobile device that consumes less power at the time of self-position estimation.

本発明の移動装置は、
作業環境内を自律移動する移動装置であって、
前記作業環境の地図情報を格納した地図記憶部と、
前記作業環境内に存在する物体との距離を計測してレンジデータを生成する距離センサと、
前記作業環境内に存在する物体を撮像した画像データを生成するカメラ部と、
前記レンジデータを前記地図情報に含まれる形状データと照合することによって、当該移動装置の自己位置を推定する第1自己位置推定手段と、
前記画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および前記地図情報に含まれる前記作業環境におけるランドマークの位置情報を用いた演算によって、当該移動装置の自己位置を推定する第2自己位置推定手段と、
前記第2自己位置推定手段により所望の推定精度でランドマークを検出可能な検出エリア情報を格納した検出エリア記憶部と、
前記第1自己位置推定手段により推定された自己位置と前記検出エリア情報とを照合した結果に基づいて、前記第2自己位置推定手段による自己位置推定の実行可否を決定する制御手段と、
を備える。
The mobile device of the present invention
A mobile device that moves autonomously in a work environment,
A map storage unit storing map information of the work environment;
A distance sensor that measures the distance to an object present in the work environment and generates range data;
A camera unit for generating image data obtained by imaging an object existing in the work environment;
First self-position estimation means for estimating the self-position of the mobile device by collating the range data with the shape data included in the map information;
By detecting the landmark from the image data and calculating the position of the detected landmark on the image and the position information of the landmark in the work environment included in the map information, the position of the mobile device is determined. Second self-position estimating means for estimating;
A detection area storage unit storing detection area information capable of detecting a landmark with a desired estimation accuracy by the second self-position estimation unit;
Control means for determining whether or not to execute self-position estimation by the second self-position estimation means based on a result of collating the self-position estimated by the first self-position estimation means and the detection area information;
Is provided.

本発明によれば、自己位置推定時の消費電力が少ない移動装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the mobile device with little power consumption at the time of self-position estimation can be provided.

実施の形態1にかかる自律移動ロボットの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an autonomous mobile robot according to a first embodiment. 実施の形態1にかかる自律移動ロボットが動作する様子を示す図である。It is a figure which shows a mode that the autonomous mobile robot concerning Embodiment 1 operate | moves. 実施の形態1にかかる検出エリアの概念を説明する図である。It is a figure explaining the concept of the detection area concerning Embodiment 1. FIG. 実施の形態1にかかる検出エリアを計測する方法を示すフローチャートである。3 is a flowchart showing a method for measuring a detection area according to the first embodiment; 実施の形態1にかかる自律移動ロボットにおいて、制御部がレンジデータ自己位置推定部とランドマーク自己位置推定部とを制御する処理を示すフローチャートである。4 is a flowchart illustrating processing in which the control unit controls the range data self-position estimation unit and the landmark self-position estimation unit in the autonomous mobile robot according to the first embodiment. 実施の形態1にかかる自律移動ロボットにおいて、制御部がレンジデータ自己位置推定部とランドマーク自己位置推定部とを制御する処理を概念的に示す図である。In the autonomous mobile robot concerning Embodiment 1, it is a figure which shows notionally the process in which a control part controls a range data self-position estimation part and a landmark self-position estimation part. 実施の形態1にかかる自律移動ロボットの消費電力を示す図である。It is a figure which shows the power consumption of the autonomous mobile robot concerning Embodiment 1. FIG. 実施の形態2にかかる自律移動ロボットにおいて、地図情報中のランドマークに対応する検出エリアを示す図の図である。In the autonomous mobile robot concerning Embodiment 2, it is a figure which shows the detection area corresponding to the landmark in map information. 実施の形態2にかかる自律移動ロボットにおいて、制御部がレンジデータ自己位置推定部とランドマーク自己位置推定部とを制御する処理を示すフローチャートである。9 is a flowchart illustrating a process in which a control unit controls a range data self-position estimation unit and a landmark self-position estimation unit in the autonomous mobile robot according to the second embodiment. 実施の形態2にかかる自律移動ロボットにおいて、制御部がレンジデータ自己位置推定部とランドマーク自己位置推定部とを制御する処理を概念的に示す図である。In the autonomous mobile robot concerning Embodiment 2, it is a figure which shows notionally the process in which a control part controls a range data self-position estimation part and a landmark self-position estimation part. その他の実施の形態にかかる自律移動ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous mobile robot concerning other embodiment.

[実施の形態1]
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施の形態にかかる自律移動ロボット100の構成を示す図である。
自律移動ロボット100は、地図記憶部101と、距離センサ102と、カメラ部110と、レンジデータ自己位置推定部103と、ランドマーク自己位置推定部104と、検出エリア記憶部105と、制御部106と、を備える。
[Embodiment 1]
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an autonomous mobile robot 100 according to the present embodiment.
The autonomous mobile robot 100 includes a map storage unit 101, a distance sensor 102, a camera unit 110, a range data self-position estimation unit 103, a landmark self-position estimation unit 104, a detection area storage unit 105, and a control unit 106. And comprising.

図2は、自律移動ロボット100が動作する様子を示す図である。自律移動ロボット100は、距離センサ102およびカメラ部110の2つのセンサによって外界の情報を取得する。自律移動ロボット100は、カメラ部110によって取得された画像データおよび距離センサ102によって取得されたレンジデータのそれぞれに基づいて自己位置推定を行いながら、作業環境内を自律移動する。   FIG. 2 is a diagram illustrating how the autonomous mobile robot 100 operates. The autonomous mobile robot 100 acquires information on the outside world using two sensors, the distance sensor 102 and the camera unit 110. The autonomous mobile robot 100 autonomously moves within the work environment while performing self-position estimation based on each of the image data acquired by the camera unit 110 and the range data acquired by the distance sensor 102.

地図記憶部101は、作業環境の地図情報を格納している。地図情報には、作業環境内に存在する物体の形状データが含まれる。地図情報としては、グリッドマップとランドマーク位置姿勢情報とが地図記憶部101に格納されている。グリッドマップは、作業環境を格子状の領域に区切り、各領域に壁や空きスペースなどの属性を持たせた地図である。ランドマーク位置姿勢情報は、作業環境内のある位置において、ランドマークがどのような見え方をするかを示すテンプレート画像である。   The map storage unit 101 stores map information of the work environment. The map information includes shape data of objects existing in the work environment. As map information, a grid map and landmark position and orientation information are stored in the map storage unit 101. The grid map is a map in which the work environment is divided into grid-like areas and each area has attributes such as walls and empty spaces. The landmark position / posture information is a template image indicating how the landmark looks at a certain position in the work environment.

距離センサ102は、作業環境内に存在する物体との距離を計測してレンジデータを生成する。距離センサ102は、面として距離が測定できるものが好ましく、例えば、レーザーレンジファインダーを用いることができる。   The distance sensor 102 measures the distance to an object existing in the work environment and generates range data. The distance sensor 102 is preferably capable of measuring a distance as a surface, and for example, a laser range finder can be used.

カメラ部110は、作業環境内に存在する物体を撮像した画像データを生成する。
カメラ部110は、2台のカメラ111aおよび111bを有する。カメラ111aおよび111bはそれぞれ、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を備えており、外界を撮像して得たデジタル画像データをランドマーク自己位置推定部104に出力する。カメラ部110は、カメラを2台用いたステレオカメラに限定されるものではなく、カメラを1台用いた単眼カメラであってもよい。
The camera unit 110 generates image data obtained by imaging an object existing in the work environment.
The camera unit 110 includes two cameras 111a and 111b. Each of the cameras 111 a and 111 b includes an image sensor such as a CCD image sensor or a CMOS image sensor, and outputs digital image data obtained by imaging the outside world to the landmark self-position estimation unit 104. The camera unit 110 is not limited to a stereo camera using two cameras, and may be a monocular camera using one camera.

レンジデータ自己位置推定部103(第1自己位置推定手段)は、レンジデータを地図情報に含まれる形状データと照合することによって、自律移動ロボット100の自己位置を推定する。   The range data self-position estimation unit 103 (first self-position estimation means) estimates the self-position of the autonomous mobile robot 100 by collating the range data with the shape data included in the map information.

ランドマーク自己位置推定部104(第2自己位置推定手段)は、画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および地図情報に含まれる作業環境におけるランドマークの位置情報を用いた演算によって、当該自律移動ロボット100の自己位置を推定する。   The landmark self-position estimating unit 104 (second self-position estimating means) detects the landmark from the image data, and the position of the landmark in the work environment included in the position information on the image of the detected landmark and the map information. The self-position of the autonomous mobile robot 100 is estimated by calculation using information.

ランドマークとは、自律移動ロボット100が移動する環境に固定された基準点であり、作業環境に元々存在している壁面などの自然特徴のほか、人工的に作業環境に配置した標識を用いてもよい。作業環境内に存在するランドマークの位置およびランドマークの形状を示す情報は、地図情報として予め地図記憶部101に格納されている。具体例を示すと、ランドマークの様々な見え方を示すテンプレート画像を地図記憶部101に格納しておき、これらのテンプレート画像と撮像された画像データとの相関検出、パターンマッチング等によってランドマークを検出することができる。   A landmark is a reference point that is fixed in an environment in which the autonomous mobile robot 100 moves. In addition to natural features such as walls that originally exist in the work environment, landmarks are artificially placed in the work environment. Also good. Information indicating the position of the landmark and the shape of the landmark present in the work environment is stored in advance in the map storage unit 101 as map information. As a specific example, template images showing various appearances of landmarks are stored in the map storage unit 101, and landmarks are detected by correlation detection, pattern matching, etc. between these template images and captured image data. Can be detected.

ランドマーク自己位置推定部104は、画像データ上でのランドマーク位置を用いて、カメラ座標系でのランドマークの三次元位置を算出する。ここで、カメラ座標系とは、カメラ部110に固定された座標系である。なお、カメラ座標系でのランドマークの三次元位置の算出は、例えば、2つのカメラ111aおよび111bによって撮影された2つの画像のステレオ視によって、ランドマークまでの距離を獲得することにより算出できる。   The landmark self-position estimation unit 104 calculates the three-dimensional position of the landmark in the camera coordinate system using the landmark position on the image data. Here, the camera coordinate system is a coordinate system fixed to the camera unit 110. Note that the three-dimensional position of the landmark in the camera coordinate system can be calculated by acquiring the distance to the landmark by, for example, stereo viewing of two images taken by the two cameras 111a and 111b.

ランドマーク自己位置推定部104は、ステレオ視により算出されたランドマークのカメラ座標系での位置、および作業環境に固定された座標系(以下、世界座標系と呼ぶ)でのランドマーク位置を用いて、世界座標系でのロボット位置を算出する。なお、ランドマークの世界座標系での位置は、地図情報として予め地図記憶部101に格納された情報である。   The landmark self-position estimation unit 104 uses the position of the landmark calculated in stereo view in the camera coordinate system and the landmark position in a coordinate system fixed to the work environment (hereinafter referred to as the world coordinate system). The robot position in the world coordinate system is calculated. Note that the position of the landmark in the world coordinate system is information stored in advance in the map storage unit 101 as map information.

検出エリア記憶部105は、ランドマーク自己位置推定部104により所望の推定精度でランドマークを検出可能な検出エリア情報を格納している。
カメラ部110がランドマークを認識するときには、カメラの画角にランドマークが入っていれば必ず検出されるわけではない。レンズの歪曲収差の影響や、イメージセンサの画素数とランドマークの大きさとの関係などから、精度よくランドマークが検出できる範囲はカメラの画角よりも狭い領域となる。所望の推定精度でランドマークを検出可能な領域を予め計測しておき、この領域を検出エリアとして検出エリア記憶部105に保持しておく。
The detection area storage unit 105 stores detection area information by which the landmark self-position estimation unit 104 can detect a landmark with a desired estimation accuracy.
When the camera unit 110 recognizes a landmark, it is not always detected if the landmark is included in the angle of view of the camera. Due to the influence of lens distortion and the relationship between the number of pixels of the image sensor and the size of the landmark, the range in which the landmark can be detected accurately is a region narrower than the angle of view of the camera. An area where a landmark can be detected with a desired estimation accuracy is measured in advance, and this area is stored in the detection area storage unit 105 as a detection area.

図3は、検出エリアの概念を説明する図である。検出エリアは、自律移動ロボット100に固定されたカメラ座標系を基準として表される。検出エリアは、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な領域をいう。
図3では、ランドマーク210の認識精度を計測するための基準線220が格子状に設けられており、ランドマーク210を様々な場所に移動させて、カメラ部110により距離測定を行う。このとき、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な領域を検出エリアとする。図3では、カメラ111aおよび111bの画角を破線201aおよび201b、カメラ部110がステレオ視できる画角を一点鎖線202、検出エリアを太い二点鎖線203で示している。
FIG. 3 is a diagram for explaining the concept of the detection area. The detection area is represented with reference to a camera coordinate system fixed to the autonomous mobile robot 100. The detection area is an area in which the landmark 210 can be detected by the landmark self-position estimation unit 104 with desired estimation accuracy.
In FIG. 3, a reference line 220 for measuring the recognition accuracy of the landmark 210 is provided in a lattice shape, and the distance is measured by the camera unit 110 by moving the landmark 210 to various places. At this time, an area in which the landmark 210 can be detected with desired estimation accuracy by the landmark self-position estimation unit 104 is set as a detection area. In FIG. 3, the angle of view of the cameras 111a and 111b is indicated by broken lines 201a and 201b, the angle of view at which the camera unit 110 can be viewed in stereo is indicated by a one-dot chain line 202, and the detection area is indicated by a thick two-dot chain line 203.

制御部106は、レンジデータ自己位置推定部103により推定された自己位置と検出エリア情報とを照合した結果に基づいて、ランドマーク自己位置推定部104による自己位置推定の実行可否を決定する。制御部106は、レンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する。   The control unit 106 determines whether or not the landmark self-position estimation unit 104 can execute self-position estimation based on the result of collating the self-position estimated by the range data self-position estimation unit 103 with the detection area information. The control unit 106 controls the range data self-position estimation unit 103 and the landmark self-position estimation unit 104.

図4は、検出エリア情報を作成する方法を示すフローチャートである。
離れた2点の正確な位置を計測できるような計測環境を用意する(ST401)。図3に示すように、計測環境としては、等間隔で基準線220が引かれた方眼紙や、平面内の移動量がわかるXYステージなどが用いられる。
FIG. 4 is a flowchart showing a method for creating detection area information.
A measurement environment is prepared so that the accurate positions of two distant points can be measured (ST401). As shown in FIG. 3, as the measurement environment, graph paper with reference lines 220 drawn at equal intervals, an XY stage that understands the amount of movement in a plane, and the like are used.

次に、カメラ部110を計測環境の特定の点に設置する(ST402)。そして、計測環境中の任意の点にランドマーク210を設置する(ST403)。ランドマーク210を設置した後、計測環境中の基準線220を用いて、カメラ部110からみたランドマーク210の位置を計測する(ST404)。   Next, the camera unit 110 is installed at a specific point in the measurement environment (ST402). Then, the landmark 210 is set at an arbitrary point in the measurement environment (ST403). After installing the landmark 210, the position of the landmark 210 viewed from the camera unit 110 is measured using the reference line 220 in the measurement environment (ST404).

次に、ランドマーク自己位置推定部104は、カメラ部110が取得した画像を用いて、ステレオ視によりカメラ座標系におけるランドマーク210の位置を算出する(ST405)。
次に、基準線220を用いて計測されたランドマーク210の位置(計測位置)と、カメラ部110が取得した画像を用いてステレオ視により算出されたランドマーク210の位置(算出位置)の差が閾値以下であるか判定する(ST406)。
Next, landmark self-position estimating section 104 calculates the position of landmark 210 in the camera coordinate system by stereo viewing using the image acquired by camera section 110 (ST405).
Next, the difference between the position (measurement position) of the landmark 210 measured using the reference line 220 and the position (calculation position) of the landmark 210 calculated by stereo viewing using the image acquired by the camera unit 110. Is less than or equal to the threshold value (ST406).

計測位置と算出位置との差が閾値以下と判定した場合(ST406 YES)、検出エリア記憶部105は計測位置を記憶する(ST407)。計測位置と算出位置との差が閾値より大きいと判定した場合(ST406 NO)、検出エリア記憶部105は計測位置を記憶せずに、ランドマーク210の位置を変えて(ST403)、ランドマーク210位置の計測を再度行う(ST404)。計測位置と算出位置との差が閾値以下となる計測位置の情報が、検出エリア情報となる。
なお、検出エリアの計測において、ランドマーク210のカメラ部110に対する角度を変えて、複数回ランドマーク位置のステレオ視による算出を行ってもよい。
When it is determined that the difference between the measurement position and the calculation position is equal to or less than the threshold (YES in ST406), the detection area storage unit 105 stores the measurement position (ST407). If it is determined that the difference between the measured position and the calculated position is greater than the threshold (NO in ST406), the detection area storage unit 105 does not store the measured position, changes the position of the landmark 210 (ST403), and changes the landmark 210. The position is measured again (ST404). Information on the measurement position where the difference between the measurement position and the calculated position is less than or equal to the threshold value is detection area information.
In measurement of the detection area, the angle of the landmark 210 with respect to the camera unit 110 may be changed, and the landmark position may be calculated by stereo viewing multiple times.

図5は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を示すフローチャートである。図6は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を概念的に示す図である。
図5および図6を用いて、制御部106が、レンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する方法について説明する。
FIG. 5 is a flowchart showing processing in which the control unit 106 controls the range data self-position estimation unit 103 and the landmark self-position estimation unit 104. FIG. 6 is a diagram conceptually illustrating a process in which the control unit 106 controls the range data self-position estimation unit 103 and the landmark self-position estimation unit 104.
A method in which the control unit 106 controls the range data self-position estimation unit 103 and the landmark self-position estimation unit 104 will be described with reference to FIGS. 5 and 6.

まず、制御部106は、レンジデータ自己位置推定部103により推定された自己位置(第1自己位置推定値)と、第1自己位置推定値の信頼度を取得する(ST501)。図6では、第1自己位置推定値とその信頼度から算出される、自律移動ロボット100が存在する確率が高いエリアを破線の円610で示す。
次に、制御部106は、検出エリア記憶部105に格納された検出エリア情報を第1自己位置推定値基準に変換する(ST502)。
First, control section 106 acquires the self-position (first self-position estimation value) estimated by range data self-position estimation section 103 and the reliability of the first self-position estimation value (ST501). In FIG. 6, an area with a high probability that the autonomous mobile robot 100 exists, which is calculated from the first self-position estimation value and its reliability, is indicated by a broken-line circle 610.
Next, control unit 106 converts the detection area information stored in detection area storage unit 105 into a first self-position estimate reference (ST502).

次に、制御部106は、第1自己位置推定値基準に変換された検出エリア601を、第1自己位置推定値の信頼度に応じて膨張させる(ST503)。その後、制御部106は、レンジデータ自己位置推定部103により推定されたランドマーク所在情報を、膨張後の検出エリア602と比較する(ST504)。そして、制御部106は、膨張後の検出エリア602にランドマーク210が含まれるか判定する(ST505)。   Next, control section 106 expands detection area 601 converted into the first self-position estimation value reference according to the reliability of the first self-position estimation value (ST503). Thereafter, control unit 106 compares the landmark location information estimated by range data self-position estimation unit 103 with detection area 602 after expansion (ST504). Then, control unit 106 determines whether or not landmark 210 is included in detection area 602 after the expansion (ST505).

制御部106は、膨張後の検出エリア602にランドマーク210が含まれると判定した場合(ST505 YES)、ランドマーク自己位置推定部104に自己位置推定の実行を命令する(ST506)。これにより、ランドマーク自己位置推定部104による自己位置推定値(第2自己位置推定値)が算出される。一方、制御部106は、膨張後の検出エリア602にランドマーク210が含まれないと判定した場合(ST505 NO)、ランドマーク自己位置推定部104に自己位置推定の停止を命令する(ST507)。   When control unit 106 determines that landmark 210 is included in detection area 602 after expansion (YES in ST505), it instructs landmark self-position estimation unit 104 to execute self-position estimation (ST506). Thereby, the self-position estimation value (second self-position estimation value) by the landmark self-position estimation unit 104 is calculated. On the other hand, when it is determined that the landmark 210 is not included in the detection area 602 after expansion (NO in ST505), the control unit 106 instructs the landmark self-position estimation unit 104 to stop self-position estimation (ST507).

なお、上述した本実施の形態にかかる自律移動ロボット100のうちカメラ部110および距離センサ102を除く他の構成要素は、プログラムを実行するCPU(Central Processing Unit)を有するコンピュータシステムにより構成することが可能である。具体的には、CPUが内部に備える又はCPUの外部に接続されるROM又はフラッシュメモリ等の記憶部に、レンジデータ自己位置推定部103、ランドマーク自己位置推定部104、および制御部106が行う処理をコンピュータシステムに実行させるための1又は複数のプログラムを格納しておき、当該プログラムをCPUで実行することとすればよい。また、地図記憶部101および検出エリア記憶部105は、コンピュータシステムが備えるハードディスクやフラッシュメモリ等の不揮発性の記憶部とすればよい。   In the autonomous mobile robot 100 according to the present embodiment described above, the other components other than the camera unit 110 and the distance sensor 102 may be configured by a computer system having a CPU (Central Processing Unit) that executes a program. Is possible. Specifically, the range data self-position estimating unit 103, the landmark self-position estimating unit 104, and the control unit 106 are performed in a storage unit such as a ROM or a flash memory provided in the CPU or connected to the outside of the CPU. One or a plurality of programs for causing the computer system to execute the process may be stored, and the programs may be executed by the CPU. The map storage unit 101 and the detection area storage unit 105 may be non-volatile storage units such as a hard disk and a flash memory provided in the computer system.

本実施の形態にかかる自律移動ロボット100は、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出可能な検出エリア内に位置する場合のみ、レンジデータ自己位置推定部103とランドマーク自己位置推定部104の双方による自己位置推定を行う。検出エリア外に位置する場合には、ランドマーク自己位置推定部104による自己位置推定を停止し、レンジデータ自己位置推定部103による自己位置推定のみを行う。   The autonomous mobile robot 100 according to the present embodiment and the range data self-position estimating unit 103 and the land data only when the landmark self-position estimating unit 104 is located within a detection area where the landmark 210 can be detected with a desired estimation accuracy. The mark self-position estimation unit 104 performs self-position estimation. If it is located outside the detection area, the self-position estimation by the landmark self-position estimation unit 104 is stopped, and only the self-position estimation by the range data self-position estimation unit 103 is performed.

この構成により、自律移動ロボット100は、所望の推定精度でランドマーク210を検出できない場合は、ランドマーク自己位置推定部104による自己位置推定を停止する。よって、本実施の形態によれば、自己位置推定時の消費電力が少ない自律移動ロボットを提供できる。   With this configuration, the autonomous mobile robot 100 stops the self-position estimation by the landmark self-position estimation unit 104 when the landmark 210 cannot be detected with the desired estimation accuracy. Therefore, according to the present embodiment, it is possible to provide an autonomous mobile robot that consumes less power at the time of self-position estimation.

図7は、自律移動ロボット100におけるレンジデータ自己位置推定部103およびランドマーク自己位置推定部104の消費電力を示す図である。図7では、ランドマーク自己位置推定部104による自己位置推定を常に行う場合の消費電力は破線で示されている。それに対して、ランドマーク自己位置推定部104による自己位置推定を検出エリア内でのみ行う場合の消費電力は、図7中の実線のように表される。図7から、ランドマーク自己位置推定部104による自己位置推定が停止している間の消費電力は小さくなっていることがわかる。   FIG. 7 is a diagram illustrating the power consumption of the range data self-position estimation unit 103 and the landmark self-position estimation unit 104 in the autonomous mobile robot 100. In FIG. 7, the power consumption when the self-position estimation by the landmark self-position estimation unit 104 is always performed is indicated by a broken line. On the other hand, the power consumption when the self-position estimation by the landmark self-position estimation unit 104 is performed only within the detection area is represented as a solid line in FIG. From FIG. 7, it can be seen that the power consumption is reduced while the self-position estimation by the landmark self-position estimation unit 104 is stopped.

[実施の形態2]
実施の形態2にかかる自律移動ロボット300について説明する。
自律移動ロボット300は、実施の形態1にかかる自律移動ロボット100と同様に、地図記憶部101と、距離センサ102と、カメラ部110と、レンジデータ自己位置推定部103と、ランドマーク自己位置推定部104と、検出エリア記憶部105と、制御部と、を備える。
[Embodiment 2]
An autonomous mobile robot 300 according to the second embodiment will be described.
Similar to the autonomous mobile robot 100 according to the first embodiment, the autonomous mobile robot 300 includes a map storage unit 101, a distance sensor 102, a camera unit 110, a range data self-position estimation unit 103, and a landmark self-position estimation. Unit 104, detection area storage unit 105, and control unit.

実施の形態1にかかる自律移動ロボット100では、検出エリアはカメラ座標系を基準としたエリアとして検出エリア記憶部105に記憶されている。実施の形態2にかかる自律移動ロボット300は、地図記憶部101が格納する地図情報に検出エリアが含まれている点が、実施の形態1にかかる自律移動ロボット100とは異なる。   In the autonomous mobile robot 100 according to the first embodiment, the detection area is stored in the detection area storage unit 105 as an area based on the camera coordinate system. The autonomous mobile robot 300 according to the second embodiment is different from the autonomous mobile robot 100 according to the first embodiment in that the map information stored in the map storage unit 101 includes a detection area.

図8は、地図情報中のランドマーク210に対応する検出エリアを示す図である。図8では、検出エリアは、二点鎖線に囲まれた領域810として表されている。自律移動ロボット300のカメラ部110が、検出エリア(領域810)内に位置する場合に、ランドマーク自己位置推定部104により所望の推定精度でランドマーク210を検出できる。   FIG. 8 is a diagram showing a detection area corresponding to the landmark 210 in the map information. In FIG. 8, the detection area is represented as a region 810 surrounded by a two-dot chain line. When the camera unit 110 of the autonomous mobile robot 300 is located within the detection area (area 810), the landmark self-position estimation unit 104 can detect the landmark 210 with desired estimation accuracy.

図9は、制御部106がレンジデータ自己位置推定部103とランドマーク自己位置推定部104とを制御する処理を示すフローチャートである。
まず、制御部106は、レンジデータ自己位置推定部103により推定された自己位置(第1自己位置推定値)と、第1自己位置推定値の信頼度を取得する(ST701)。
FIG. 9 is a flowchart illustrating a process in which the control unit 106 controls the range data self-position estimation unit 103 and the landmark self-position estimation unit 104.
First, control section 106 acquires the self position (first self position estimated value) estimated by range data self position estimating section 103 and the reliability of the first self position estimated value (ST701).

次に、制御部106は、信頼度を考慮した第1自己位置推定値を、地図情報に含まれた検出エリアと比較する(ST702)。図10は、検出エリアが含まれた地図情報の一例を示す図である。そして、制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれるか判定する(ST703)。信頼度を考慮した第1自己位置推定値は、自律移動ロボットが存在する確率が高いエリアであり、図10では破線610で囲まれる領域で示される。   Next, control section 106 compares the first self-position estimation value considering the reliability with the detection area included in the map information (ST702). FIG. 10 is a diagram illustrating an example of map information including a detection area. Then, control unit 106 determines whether or not the first self-position estimation value considering the reliability is included in the detection area (ST703). The first self-position estimation value considering the reliability is an area where the probability that an autonomous mobile robot is present is high, and is indicated by an area surrounded by a broken line 610 in FIG.

制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれると判定した場合(ST703 YES)、ランドマーク自己位置推定部104に自己位置推定の実行を命令する(ST704)これにより、ランドマーク自己位置推定部104による自己位置推定値(第2自己位置推定値)が算出される。一方、制御部106は、信頼度を考慮した第1自己位置推定値が検出エリアに含まれると判定した場合(ST703 NO)、ランドマーク自己位置推定部104に自己位置推定の停止を命令する(ST705)   When it is determined that the first self-position estimation value considering the reliability is included in the detection area (YES in ST703), control section 106 commands landmark self-position estimation section 104 to execute self-position estimation (ST704). Thereby, the self-position estimation value (second self-position estimation value) by the landmark self-position estimation unit 104 is calculated. On the other hand, when it is determined that the first self-position estimation value considering the reliability is included in the detection area (NO in ST703), the control unit 106 instructs the landmark self-position estimation unit 104 to stop the self-position estimation ( ST705)

[その他の実施の形態]
図11は、その他の実施の形態にかかる自律移動ロボット900の構成を示すブロック図である。
実施の形態1および2では、制御部106は、計算負荷の高いランドマーク自己位置推定部104による自己位置推定処理を、期待できる推定精度が低い場合は停止する。その他の実施の形態にかかる自律移動ロボット900は、実施の形態1および2にかかる自律移動ロボット100と比べて、制御部106が、カメラ部110の電源のオンとオフの制御を行える点が異なっている。
[Other embodiments]
FIG. 11 is a block diagram showing a configuration of an autonomous mobile robot 900 according to another embodiment.
In the first and second embodiments, the control unit 106 stops the self-position estimation processing by the landmark self-position estimation unit 104 having a high calculation load when the expected estimation accuracy is low. Autonomous mobile robot 900 according to other embodiments is different from autonomous mobile robot 100 according to the first and second embodiments in that control unit 106 can control power on and off of camera unit 110. ing.

さらに、自律移動ロボット900では、ランドマーク自己位置推定部104による自己位置推定処理の実行と停止に合わせて、カメラ部110の電源のオンとオフを行うことにより、カメラ部110における電力消費も低減することができる。これにより、自己位置推定時の消費電力をより低減することができる。   Further, in the autonomous mobile robot 900, the power consumption of the camera unit 110 is also reduced by turning on and off the power of the camera unit 110 in accordance with the execution and stop of the self-position estimation process by the landmark self-position estimation unit 104. can do. Thereby, the power consumption at the time of self-position estimation can be reduced more.

実施の形態1および2では、第1自己位置推定手段として、距離センサ102により取得されたレンジデータを用いた自己位置推定を挙げたが、他の自己位置推定手段を用いてもよい。例えば、車輪オドメトリによる自己位置推定を用いてもよい。   In Embodiments 1 and 2, the self-position estimation using the range data acquired by the distance sensor 102 is given as the first self-position estimation means, but other self-position estimation means may be used. For example, self-position estimation by wheel odometry may be used.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、本発明は自律移動ロボットに限定されるものではなく、距離センサ102およびカメラ部110の2つのセンサによって外界の情報を取得して、これら2つのセンサによって取得した画像データおよびレンジデータのそれぞれに基づいて自己位置推定を行いながら、作業環境内を自律移動する移動装置について適用することができる。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the present invention is not limited to an autonomous mobile robot, and information on the outside world is acquired by two sensors, the distance sensor 102 and the camera unit 110, and image data and range data acquired by these two sensors, respectively. The present invention can be applied to a mobile device that autonomously moves in the work environment while performing self-position estimation based on the above.

100、300、900 自律移動ロボット
101 地図記憶部
102 距離センサ
103 レンジデータ自己位置推定部
104 ランドマーク自己位置推定部
105 検出エリア記憶部
106 制御部
110 カメラ部
111a、111b カメラ
210 ランドマーク
220 基準線
601 第1自己位置推定値基準に変換された検出エリア
602 膨張後の検出エリア
610 自律移動ロボットが存在する確率が高いエリア
810 地図情報に含まれる検出エリア
100, 300, 900 Autonomous mobile robot 101 Map storage unit 102 Distance sensor 103 Range data self-position estimation unit 104 Landmark self-position estimation unit 105 Detection area storage unit 106 Control unit 110 Camera unit 111a, 111b Camera 210 Landmark 220 Reference line 601 Detection area 602 converted to first self-position estimation value reference Detection area 610 after expansion Area 810 where there is a high probability that an autonomous mobile robot exists 810 Detection area included in map information

Claims (1)

作業環境内を自律移動する移動装置であって、
前記作業環境の地図情報を格納した地図記憶部と、
前記作業環境内に存在する物体との距離を計測してレンジデータを生成する距離センサと、
前記作業環境内に存在する物体を撮像した画像データを生成するカメラ部と、
前記レンジデータを前記地図情報に含まれる形状データと照合することによって、当該移動装置の自己位置を推定する第1自己位置推定手段と、
前記画像データからランドマークを検出し、検出したランドマークの画像上での位置情報および前記地図情報に含まれる前記作業環境におけるランドマークの位置情報を用いた演算によって、当該移動装置の自己位置を推定する第2自己位置推定手段と、
前記第2自己位置推定手段により所望の推定精度でランドマークを検出可能な検出エリア情報を格納した検出エリア記憶部と、
前記第1自己位置推定手段により推定された自己位置と前記検出エリア情報とを照合した結果に基づいて、前記第2自己位置推定手段による自己位置推定の実行可否を決定する制御手段と、
を備える移動装置。
A mobile device that moves autonomously in a work environment,
A map storage unit storing map information of the work environment;
A distance sensor that measures the distance to an object present in the work environment and generates range data;
A camera unit for generating image data obtained by imaging an object existing in the work environment;
First self-position estimation means for estimating the self-position of the mobile device by collating the range data with the shape data included in the map information;
By detecting the landmark from the image data and calculating the position of the detected landmark on the image and the position information of the landmark in the work environment included in the map information, the position of the mobile device is determined. Second self-position estimating means for estimating;
A detection area storage unit storing detection area information capable of detecting a landmark with a desired estimation accuracy by the second self-position estimation unit;
Control means for determining whether or not to execute self-position estimation by the second self-position estimation means based on a result of collating the self-position estimated by the first self-position estimation means and the detection area information;
A mobile device comprising:
JP2014014263A 2014-01-29 2014-01-29 Mobile device Pending JP2015141580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014014263A JP2015141580A (en) 2014-01-29 2014-01-29 Mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014263A JP2015141580A (en) 2014-01-29 2014-01-29 Mobile device

Publications (1)

Publication Number Publication Date
JP2015141580A true JP2015141580A (en) 2015-08-03

Family

ID=53771878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014263A Pending JP2015141580A (en) 2014-01-29 2014-01-29 Mobile device

Country Status (1)

Country Link
JP (1) JP2015141580A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142316A (en) * 2017-02-28 2018-09-13 トヨタ自動車株式会社 Observable grid-based autonomous environment exploration
WO2019180765A1 (en) * 2018-03-19 2019-09-26 本田技研工業株式会社 Autonomous traveling work machine
US10444764B2 (en) 2016-05-25 2019-10-15 Murata Machinery, Ltd. Self-position estimating apparatus and self-position estimating method
WO2020049945A1 (en) * 2018-09-04 2020-03-12 ソニー株式会社 Self-localization device, information processing device, and self-localization method
US11768503B2 (en) 2020-02-25 2023-09-26 Mitsubishi Heavy Industries, Ltd. Position estimation device, control device, industrial vehicle, logistics support system, position estimation method, and program
US12461526B2 (en) 2021-12-28 2025-11-04 Honda Motor Co., Ltd. Autonomous mobile body control device, autonomous mobile body, and autonomous mobile body control method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444764B2 (en) 2016-05-25 2019-10-15 Murata Machinery, Ltd. Self-position estimating apparatus and self-position estimating method
JP2018142316A (en) * 2017-02-28 2018-09-13 トヨタ自動車株式会社 Observable grid-based autonomous environment exploration
WO2019180765A1 (en) * 2018-03-19 2019-09-26 本田技研工業株式会社 Autonomous traveling work machine
JPWO2019180765A1 (en) * 2018-03-19 2020-12-10 本田技研工業株式会社 Autonomous traveling work machine
JP7003224B2 (en) 2018-03-19 2022-01-20 本田技研工業株式会社 Autonomous traveling work machine
WO2020049945A1 (en) * 2018-09-04 2020-03-12 ソニー株式会社 Self-localization device, information processing device, and self-localization method
US11768503B2 (en) 2020-02-25 2023-09-26 Mitsubishi Heavy Industries, Ltd. Position estimation device, control device, industrial vehicle, logistics support system, position estimation method, and program
US12461526B2 (en) 2021-12-28 2025-11-04 Honda Motor Co., Ltd. Autonomous mobile body control device, autonomous mobile body, and autonomous mobile body control method

Similar Documents

Publication Publication Date Title
US10880541B2 (en) Stereo correspondence and depth sensors
JP4984650B2 (en) Mobile device and self-position estimation method of mobile device
US9135710B2 (en) Depth map stereo correspondence techniques
KR102041664B1 (en) Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner
CN112771573A (en) Depth estimation method and device based on speckle images and face recognition system
US10277889B2 (en) Method and system for depth estimation based upon object magnification
JP2015141580A (en) Mobile device
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
KR102455632B1 (en) Mehtod and apparatus for stereo matching
WO2015073548A2 (en) Point-to-point measurements using a handheld device
JP2015056057A (en) Method of estimating posture and robot
KR20110122022A (en) Map generating device and method
US11029399B2 (en) System and method for calibrating light intensity
JP6698430B2 (en) Measuring device, measuring method and program
KR101280392B1 (en) Apparatus for managing map of mobile robot based on slam and method thereof
JP2015206768A (en) Foreground region extraction device, foreground region extraction method, and program
US20170091945A1 (en) Point and sensor estimation from images
JP6477340B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method
KR102555269B1 (en) Posture estimation fusion method and system using omnidirectional image sensor and inertial measurement sensor
JP7214057B1 (en) DATA PROCESSING DEVICE, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
JP5765163B2 (en) Self-position estimation apparatus, method, and program
JP2019160147A (en) Own position detecting apparatus
KR101502071B1 (en) Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same
KR101364047B1 (en) Method for estimating location based on object recognition using kalman filter
EP4134774B1 (en) Information processing apparatus, moving body, method for controlling information processing apparatus, and program