JP2009109219A - Obstacle position recognition method for mobile unit and mobile unit - Google Patents
Obstacle position recognition method for mobile unit and mobile unit Download PDFInfo
- Publication number
- JP2009109219A JP2009109219A JP2007278924A JP2007278924A JP2009109219A JP 2009109219 A JP2009109219 A JP 2009109219A JP 2007278924 A JP2007278924 A JP 2007278924A JP 2007278924 A JP2007278924 A JP 2007278924A JP 2009109219 A JP2009109219 A JP 2009109219A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- laser scanner
- dimensional laser
- moving
- coordinate value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000005259 measurement Methods 0.000 claims abstract description 66
- 230000005484 gravity Effects 0.000 claims abstract description 17
- 230000001133 acceleration Effects 0.000 claims abstract description 13
- 238000006243 chemical reaction Methods 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、移動面上を移動する移動体に係り、特に、移動面上の障害物を避けて移動面上を移動するために、二次元方向に走査される測定光を用いて障害物の位置認識を行う技術に関するものである。 The present invention relates to a moving body that moves on a moving surface, and in particular, in order to move on the moving surface while avoiding an obstacle on the moving surface, the obstacle is detected using measurement light scanned in a two-dimensional direction. The present invention relates to a technology for performing position recognition.
従来より、無人の監視区域等において監視作業を行う自立走行型のロボット(移動体)が知られている。この種のロボットは、例えば、GPS(全地球測位システム)により得た自らの位置を地図情報と照らし合わせながら、目的に応じたパターンで監視区域の移動面上における自立走行を行う。その際、地図情報に存在しない不測の障害物が移動面に存在した場合に、これとの干渉を避けてロボットが自立走行できるように、ロボットには外界センサが搭載される。 Conventionally, a self-traveling robot (moving body) that performs monitoring work in an unattended monitoring area or the like is known. This type of robot, for example, performs autonomous running on the moving surface of the monitoring area in a pattern according to the purpose while comparing its position obtained by GPS (Global Positioning System) with map information. At that time, when an unexpected obstacle that does not exist in the map information exists on the moving surface, an external sensor is mounted on the robot so that the robot can run independently while avoiding interference with the obstacle.
この外界センサとしてポピュラーなものの一つとして、二次元スキャン方式のレーザスキャナがある。この二次元スキャン方式のレーザスキャナは、レーザによる測定光(測距光)を二次元方向(主走査方向、副走査方向)に走査させてロボットの進行方向前方に向けて照射し、移動面上に障害物が存在した場合にその障害物からの反射光を受光して、位相差法や時間差法等により障害物の位置や形状を認識するものである。 One of the popular external sensors is a two-dimensional scanning laser scanner. This two-dimensional scan type laser scanner scans measurement light (ranging light) by a laser in a two-dimensional direction (main scanning direction, sub-scanning direction), and irradiates the moving direction forward of the robot. When an obstacle is present, the reflected light from the obstacle is received, and the position and shape of the obstacle are recognized by a phase difference method, a time difference method, or the like.
したがって、二次元スキャン方式のレーザスキャナでは、ポリゴンミラー等で主走査方向に走査させた測定光を、ガルバノミラー等によってさらに副走査方向に走査させる必要がある。そのために、二次元スキャン方式のレーザスキャナには、主副の各走査方向についてミラーの回転駆動源を設ける必要があり、レーザスキャナの大型化とコストの高騰が避けられない。 Therefore, in the two-dimensional scan type laser scanner, it is necessary to further scan the measurement light scanned in the main scanning direction by a polygon mirror or the like in the sub scanning direction by a galvano mirror or the like. Therefore, a two-dimensional scanning laser scanner needs to be provided with a mirror rotation drive source in each of the main and sub scanning directions, and the increase in the size and cost of the laser scanner is inevitable.
そこで、上空の航空機からのレーザ走査により地形の航空測量を行う際に、測定光の出力源における走査を航空機の進行方向と異なる方向(例えば進行方向と直交する方向)への一次元走査に止め、進行方向については航空機自体の移動によってレーザ光を実質的に走査させることで、測定光の二次元走査を実現することが提案されている(例えば特許文献1)。
しかしながら、上述した従来技術は、移動体である航空機の進行方向を、測定光の二次元走査の一走査方向とするものであることから、本発明の対象とする自立走行型のロボットにおける外界センサのような、進行方向が測定光の走査方向と一致しない分野では、利用することができない。 However, since the above-described conventional technology is such that the moving direction of the aircraft as the moving body is one scanning direction of the two-dimensional scanning of the measurement light, the external sensor in the self-running robot that is the subject of the present invention. In such a field where the traveling direction does not coincide with the scanning direction of the measurement light, it cannot be used.
本発明は前記事情に鑑みなされたもので、本発明の目的は、移動体が移動面上を移動する際に、小型で低コストの一次元レーザスキャナを用いて、移動体の移動方向とは異なる二次元方向に測定光を走査させ、障害物を位置認識することができる移動体の障害物位置認識方法と移動体を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to use a small and low-cost one-dimensional laser scanner as the moving body moves on the moving surface, and the moving direction of the moving body. An object of the present invention is to provide an obstacle position recognition method for a moving body and a moving body that can scan the measurement light in different two-dimensional directions to recognize the position of the obstacle.
上記目的を達成するため、請求項1に記載した本発明の移動体の障害物位置認識方法は、移動面上を移動する移動体上から前記移動面上の障害物を位置認識する方法であって、前記移動体上の一次元レーザスキャナから、前記移動体の移動方向と交わる第1の方向に走査された測定光を出力させ、前記移動面に対する前記移動体の姿勢、又は、前記移動体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、前記移動体の移動方向と交わり前記第1の方向と直交する第2の方向に前記測定光を走査させ、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角の変化を、前記一次元レーザスキャナに対する相対位置が固定された前記移動体上の角速度センサにより検出することで、前記第2の方向への前記測定光の走査角度を検出し、前記測定光の照射対象からの反射光を前記一次元レーザスキャナにより受光させ、前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記第2の方向への前記測定光の前記検出した走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出し、前記割り出した前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出し、前記割り出した前記障害物のグローバル座標系における座標値群に基づいて、前記障害物の位置認識を行うようにしたことを特徴とする。 In order to achieve the above object, the obstacle position recognition method for a moving object according to the first aspect of the present invention is a method for recognizing the position of an obstacle on the moving surface from a moving object moving on the moving surface. The measurement light scanned in the first direction intersecting the moving direction of the moving body is output from the one-dimensional laser scanner on the moving body, and the posture of the moving body with respect to the moving surface, or the moving body By changing the attitude of the one-dimensional laser scanner with respect to the moving surface and changing at least the elevation angle or the depression angle of the one-dimensional laser scanner with respect to the moving surface, the first direction intersects with the moving direction of the moving body and is orthogonal to the first direction. The measurement light is scanned in the direction of 2, and a change in at least the elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is fixed relative to the one-dimensional laser scanner. By detecting the scanning angle of the measurement light in the second direction by detecting it with an angular velocity sensor on the moving body, the reflected light from the irradiation object of the measurement light is received by the one-dimensional laser scanner. The reflected light received by the one-dimensional laser scanner, the known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the measurement light in the second direction. Based on the detected scanning angle, a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner is determined, and a coordinate value group of the calculated obstacle in the local coordinate system; and A coordinate value group in the global coordinate system of the obstacle is determined based on a known coordinate value in the global coordinate system of the one-dimensional laser scanner; Based on the coordinate value group in the global coordinate system of the obstacle indexing, characterized in that to perform the position recognition of the obstacle.
また、上記目的を達成するため、請求項4に記載した本発明の移動体は、移動面上の障害物を避けて該移動面上を移動するために、互いに直交する第1の方向及び第2の方向に走査される測定光を用いた前記障害物の位置認識を行う移動体であって、本体と、前記本体を前記移動面上で前記第1の方向及び前記第2の方向と交わる方向に移動させる移動手段と、前記本体に設けられ、前記測定光を出力して前記第1の方向に走査させると共に、前記測定光の照射対象からの反射光を受光する一次元レーザスキャナと、前記移動面に対する前記本体の姿勢、又は、前記本体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させる姿勢変化手段と、前記一次元レーザスキャナに対する相対位置を固定して前記本体に設けられ、前記一次元レーザスキャナの前記移動面に対する少なくとも仰角又は俯角の変化を検出する角速度センサと、前記角速度センサの検出結果に基づいて、前記第2の方向への前記測定光の走査角度を検出する走査角度検出手段と、前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記走査角度検出手段により検出された前記第2の方向への前記測定光の走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出すローカル座標系座標値割出手段と、前記ローカル座標系座標値割出手段により割り出された前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出すグローバル座標系座標値割出手段とを備えており、前記グローバル座標系座標値取得手段により割り出された前記障害物の前記グローバル座標系における座標値群に基づいて、前記障害物を位置認識することを特徴とする。 In order to achieve the above object, the moving body of the present invention described in claim 4 avoids an obstacle on the moving surface and moves on the moving surface in a first direction and a first direction orthogonal to each other. A moving body for recognizing the position of the obstacle using measurement light scanned in the direction of 2, the main body and the main body crossing the first direction and the second direction on the moving surface A moving means for moving in a direction; a one-dimensional laser scanner provided in the main body, for outputting the measurement light to scan in the first direction, and for receiving reflected light from an irradiation target of the measurement light; Attitude changing means for changing the attitude of the main body relative to the moving surface or the attitude of the one-dimensional laser scanner relative to the main body to change at least the elevation angle or depression angle of the one-dimensional laser scanner relative to the moving surface; Based on a detection result of the angular velocity sensor, an angular velocity sensor that is provided in the main body with a fixed relative position with respect to the laser scanner and detects at least a change in elevation angle or depression angle with respect to the moving surface of the one-dimensional laser scanner. Scanning angle detecting means for detecting a scanning angle of the measuring light in the direction of 2; the reflected light received by the one-dimensional laser scanner; and the measuring light from the one-dimensional laser scanner in the first direction The obstacle in the local coordinate system based on the position of the one-dimensional laser scanner based on a known scanning angle and a scanning angle of the measurement light in the second direction detected by the scanning angle detection means Local coordinate system coordinate value indexing means for determining a coordinate value group of the object, and the local coordinate system coordinate value indexing means A global coordinate system coordinate value for determining a coordinate value group in the global coordinate system of the obstacle based on a coordinate value group in the local coordinate system of the harmful object and a known coordinate value in the global coordinate system of the one-dimensional laser scanner Indexing means, and recognizing the position of the obstacle based on a coordinate value group in the global coordinate system of the obstacle determined by the global coordinate system coordinate value acquisition means. .
請求項1に記載した本発明の移動体の障害物位置認識方法と、請求項4に記載した本発明の移動体とによれば、移動面に対する移動体の姿勢、又は、移動体に対する一次元レーザスキャナの姿勢を変化させて、移動面に対する一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、移動体の移動方向と交わり第1の方向と直交する第2の方向への測定光の走査が実現されるので、第2の方向に測定光を走査させるための構成をレーザスキャナ自身に持たせる必要がない。
According to the obstacle position recognition method of the moving object of the present invention described in
しかも、第2の方向に関する測定光の走査角度は、一次元レーザスキャナに対する相対位置が固定された角速度センサの出力によって検出されるので、第2の方向に測定光を走査させるための構成だけでなく、第2の方向に関する測定光の走査角度を検出するための構成についても、レーザスキャナ自身に持たせる必要がない。 In addition, since the scanning angle of the measuring light in the second direction is detected by the output of the angular velocity sensor whose relative position with respect to the one-dimensional laser scanner is fixed, only the configuration for scanning the measuring light in the second direction is used. In addition, it is not necessary for the laser scanner itself to have a configuration for detecting the scanning angle of the measurement light in the second direction.
このため、移動体の移動方向と交わる第1の方向及び第2の方向の二次元方向に測定光を走査させて行う移動面上の障害物の位置認識を、二次元レーザスキャナでなく、小型でかつ低コストな一次元レーザスキャナを用いて実現することができる。 For this reason, the position recognition of the obstacle on the moving surface performed by scanning the measurement light in the two-dimensional direction of the first direction and the second direction intersecting the moving direction of the moving body is not a two-dimensional laser scanner but a small size. And a low-cost one-dimensional laser scanner.
以下、本発明の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は本発明による障害物位置認識方法を適用した移動体の一実施形態に係る移動ロボットを示す概略構成図である。 FIG. 1 is a schematic configuration diagram showing a mobile robot according to an embodiment of a moving body to which an obstacle position recognition method according to the present invention is applied.
そして、図1中引用符号Aで示す移動面上を移動する本実施形態の移動ロボット1(請求項中の移動体に相当)は、直方体状の本体3と、この本体3の下部に前後左右の走行輪アーム7を介してそれぞれ接続された、4つの移動用走行輪5と、本体3上に設置された雲台9,11と、雲台9上に設置された外界センサ13及び内界センサ15と、雲台11上に設置された監視用カメラ17と、本体3に搭載された各種制御用のコントローラユニット19とを有している。
A mobile robot 1 (corresponding to a mobile body in the claims) of the present embodiment that moves on the moving surface indicated by reference symbol A in FIG. The four traveling wheels 5 connected to each other via the
前記各移動用走行輪5は、例えばアウタロータ式のインホイールモータ51(図9参照)を内蔵しており、このインホイールモータ51は、回転角度量を示すエンコーダ信号を出力するロータリエンコーダ51b(図9参照)を内蔵している。各移動用走行輪5のインホイールモータ51は、後述するコントローラユニット19により個別に駆動制御される。
Each of the traveling wheels 5 for movement incorporates, for example, an outer rotor type in-wheel motor 51 (see FIG. 9). The in-
前記各走行輪アーム7は、本実施形態では2つのアーム部71,73をロータリアクチュエータ75により相互に連結して構成されており、一方のアーム部71は移動用走行輪5に枢着され、他方のアーム部73はロータリアクチュエータ77を介して本体3に連結されている。
In the present embodiment, each
そして、各ロータリアクチュエータ75,77は、例えばDCサーボモータ等の高トルク型モータによって構成されており、回転角度量を示すエンコーダ信号を出力するロータリエンコーダ75a,77a(図5、図9参照)を内蔵している。各ロータリアクチュエータ75,77は、図1に示すホームポジションにおける屈伸形状を含む、目標とする移動ロボット1(乃至本体3)の姿勢に合わせた形状に走行輪アーム7が屈伸するように、後述するコントローラユニット19により個別に駆動制御される。
Each of the
尚、本実施形態では、各走行輪アーム7のロータリアクチュエータ75,77が請求項中のアクチュエータに相当し、また、各移動用走行輪5と各走行輪アーム7とを含んで、請求項中の移動手段が構成されている。
In the present embodiment, the
前記雲台9は、移動ロボット1の進行方向F(請求項中の移動方向に相当)における本体3の前方上部に固定して配置されており、この雲台9上に、図2に拡大斜視図で示すように、移動ロボット1の左右方向に間隔を置いて、2台の前記外界センサ13(請求項中の一次元レーザスキャナに相当)が設置されている。
The pan head 9 is fixedly arranged on the front upper part of the
各外界センサ13は、レーザ光源とポリゴンミラー、ポリゴンミラーの回転用モータ、及び、フォトダイオードを内蔵している。この外界センサ13は、ポリゴンミラーによりレーザ光源からの測定光を移動ロボット1の左右方向(請求項中の第1の方向に相当)に走査させて移動ロボット1の前方に出力する。各外界センサ13において、測定光が照射された照射対象からの反射光は、外界センサ13のポリゴンミラーによってフォトダイオードに向けて反射され、フォトダイオードにより受光される。
Each
そして、フォトダイオードの出力信号から得られる測距値とポリゴンミラーの角度値に、そのタイミングにおける移動ロボット1の左右方向における測定光の走査角度データを関連づけた内容の信号が、各外界センサ13から測定信号として出力される。
Then, each
各外界センサ13が測定信号を出力している間、図1に示す移動ロボット1の本体3は、ロータリアクチュエータ75,77の駆動による各走行輪アーム7の屈伸によって、移動ロボット1の本体3の上面が移動面Aに対して平行に位置する図1のホームポジションを中心として、チルト方向の上下に揺動される。
While each
したがって、例えば上述したホームポジションから図3の説明図に示すようなチルト方向下方に移動ロボット1の本体3が揺動することで、各外界センサ13が出力する、移動ロボット1の左右方向に走査された測定光は、移動ロボット1の上下方向(請求項中の第2の方向に相当)に走査されることになる。このため、各外界センサ13が出力する測定信号は結局、測定光の照射対象の三次元形状に応じたものとなる。
Therefore, for example, when the
前記内界センサ15は、雲台9上の2つの外界センサ13,13の中間箇所に設置されており、ジャイロスコープ151(請求項中の角速度センサに相当、図5参照)と加速度センサ153とを内蔵している(図5、図9参照)。ジャイロスコープ151としては、例えば、MEMS(Micro Electro Mechanical Systems)技術を用いた超小型の機械式(振動型)角速度センサや、FOG(Fiber Optic Gyro)による光学式角速度センサを用いることができる。また、加速度センサ153にも、MEMS技術を用いた歪ゲージや光学式センサを用いることができる。
The
図1に示す前記雲台11は、不図示の伸縮用モータにより伸縮可能に構成されており、かつ、前記監視用カメラ17をパン、チルト可能に支持するものである。
The
前記監視用カメラ17は、昼夜間を通して対応できるように、通常のカメラと赤外線カメラとをユニット化して構成されている。
The
前記コントローラユニット19は、図4に移動ロボット1の電気的な概略構成のブロック図で示すように、GPS(全地球測位システム)受信機191と、デジタルマップデータベース193と、ミッション情報データベース195と、外界認識処理用コンピュータ197と、走行制御処理用コンピュータ199と、これらの電源Bとを有している。
The
前記GPS受信機191は、移動ロボット1のグローバル座標系における座標値を取得し既知とするために用いられる。このGPS受信機191は、複数のGPS衛星(図示せず)からの信号を受信して自らの位置データを割り出す従来公知のものである。但し、本実施形態の移動ロボット1では、鉛直座標軸方向の座標値を、標高ではなく移動面Aを基準とした座標値とするために、GPS受信機191で割り出し得る位置データのうち緯度データと経度データのみを利用し、標高データは利用しない。
The
前記デジタルマップデータベース193には、予め航空測量等で取得された移動面A上の地図情報が、緯度、経度、標高の三方位データとリンクさせて、デジタルデータとして格納されている。前記ミッション情報データベース195は、移動ロボット1の巡回すべき経路のデータや、各種発生条件(When/Where)に対する実行命令の内容のデータ等が格納されている。
In the
前記外界認識処理用コンピュータ197は、図5にブロック図で示すように、CPU197a、RAM197b、ROM197c、及び、不揮発性メモリNVMを内蔵する本体197Aと、キーボード197B及びモニタ197Cとを有している。
As shown in the block diagram of FIG. 5, the outside world
前記キーボード197Bは、外界認識処理用コンピュータ197で実行させる処理のメニューを選択する場合等に操作されるもので、前記モニタ197Cは、キーボード197Bの操作による処理メニューの選択時等に、それに必要な画面やキーボード197Bによる入力、選択内容を表示するためのものである。
The
また、前記本体197AのCPU197aには、RAM197b及びROM197cや、キーボード197B及びモニタ197C、不揮発性メモリNVMの他、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bと、内界センサ15のジャイロスコープ151及び加速度センサ153とが接続されている。さらに、CPU197aには、インタフェースI/Fを介して走行制御処理用コンピュータ199が接続されている。
The
尚、スペースの都合により、図5中では、ロータリアクチュエータ75,77のロータリエンコーダ75b,77bを、1つの走行輪アーム7の分だけ代表して記載しており、CPU197aに接続されている他の走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bは、図5中での記載を省略している。
For convenience of space, in FIG. 5, the
前記RAM197bは、各種データ記憶用のデータエリア及び各種処理作業に用いるワークエリアを有しており、前記ROM199cには、CPU197aに各種処理動作を行わせるための制御プログラムが格納されている。前記不揮発性メモリNVMには、後述する処理によって割り出されるキャリブレーションデータが格納される。
The
次に、ROM197cに格納された制御プログラムにしたがってCPU197aが実行する処理を、図6乃至図8のフローチャートを参照して説明する。
Next, processing executed by the
外界認識処理用コンピュータ197が起動しプログラムがスタートすると、CPU197aは、まず、図6に示すように、キーボード197Bの操作によりキャリブレーション処理メニューを選択する割り込み入力が発生したか否かを確認する(ステップS1)。割り込み入力が発生した場合は(ステップS1でY)、キャリブレーション処理を実行し、割り込み入力が発生していない場合は(ステップS1でN)、外界認識処理を実行する(ステップS5)。ステップS3又はステップS5の処理が終了したならば、ステップS1にリターンする。
When the external
そして、ステップS3のキャリブレーション処理では、図7のフローチャートに示すように、まず、移動面Aのスキャニングを行う(ステップS31)。 In the calibration process in step S3, as shown in the flowchart of FIG. 7, first, the moving surface A is scanned (step S31).
このスキャニングにおいては、各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号を、インタフェースI/Fを介して走行制御処理用コンピュータ199に出力する。これに呼応して、走行制御処理用コンピュータ199の後述する制御により移動ロボット1の本体3が、図1のホームポジションからチルト方向の最下方のキャリブレーションポジションまで揺動される。これにより、雲台9上の2つの外界センサ13から、測定光が照射された範囲の移動面Aからの反射光に応じた測定信号が、周期的にそれぞれ出力される。
In this scanning, a drive command signal for the
そこで、ステップS31のスキャニングにおける移動ロボット1の揺動中に各外界センサ13から周期的にそれぞれ出力された測定信号と、この測定信号の出力周期における内界センサ15のジャイロスコープ151及び加速度センサ153の出力信号と、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号とを取り込む(ステップS33)。
Therefore, the measurement signal periodically output from each
そして、取り込んだ各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号に基づいて、各外界センサ13,13の移動面Aからの高さをそれぞれ割り出す(ステップS35)。
Then, based on the encoder signals from the
また、取り込んだ各外界センサ13の測定信号及びジャイロスコープ151の出力信号と、ステップS35で割り出した各外界センサ13,13の移動面Aからの高さとに基づいて、各外界センサ13を座標軸の中心としたローカル座標系における、測定光が照射された範囲の移動面Aの座標値群を割り出す。
Further, based on the measurement signal of each
そして、割り出した移動面Aのローカル座標系における座標値群に、例えばICP(Iteractive Closet Point )アルゴリズムを適用する等して、各外界センサ13を座標軸の中心とする移動面Aの座標値群を、互いの配置の違いによるずれがなくなるように、1つの座標値群に合成する。この合成により、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置に配置された、仮想的な単一の外界センサの位置を座標中心とするローカル座標系における移動面Aの座標値群を割り出す(ステップS37)。
Then, by applying an ICP (Iteractive Closet Point) algorithm, for example, to the coordinate value group in the local coordinate system of the determined moving surface A, the coordinate value group of the moving surface A having each
さらに、取り込んだ各外界センサ13の測定信号と、内界センサ15の加速度センサ153の出力信号とに基づいて、移動面Aと直交する鉛直座標軸と、地球の重力方向に延在する鉛直軸とを割り出し、割り出した鉛直座標軸の鉛直軸に対するずれ角を割り出す(ステップS39)。
Further, based on the measurement signal of each
そして、ステップS39で割り出した鉛直座標軸の鉛直軸に対するずれ角に基づいて、ステップS37で求めた合成後の移動面Aのローカル座標系における座標値群を、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置を座標軸の中心とし、かつ、鉛直座標軸の延在方向と重力方向とが一致する、重力方向基準のローカル座標系(請求項中の変換後ローカル座標系に相当)における移動面Aの座標値群に変換するのに必要な、キャリブレーションデータを割り出し、不揮発性メモリNVMに格納して(ステップS41)、キャリブレーション処理を終了する。
Then, based on the deviation angle of the vertical coordinate axis determined in step S39 with respect to the vertical axis, the coordinate value group in the local coordinate system of the combined moving surface A obtained in step S37 is converted into two external worlds in the left-right direction of the
一方、図6のステップS5における外界認識処理では、図8のフローチャートに示すように、まず、走行制御処理用コンピュータ199からのスキャニング指令信号が、インタフェースI/Fを介して入力されているか否かを確認し(ステップS51)、入力されていない場合は(ステップS51でN)、外界認識処理を終了する。
On the other hand, in the external environment recognition process in step S5 of FIG. 6, as shown in the flowchart of FIG. 8, first, whether or not a scanning command signal from the travel
一方、走行制御処理用コンピュータ199からのスキャニング指令信号が、インタフェースI/Fを介して入力されている場合は(ステップS51でY)、各外界センサ13から周期的にそれぞれ出力された測定信号と、この測定信号の出力周期における内界センサ15のジャイロスコープ151の出力信号と、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号とを取り込む(ステップS53)。
On the other hand, when the scanning command signal from the travel
そして、取り込んだ各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号に基づいて、各外界センサ13,13の移動面Aからの高さをそれぞれ割り出す(ステップS55)。
Then, based on the encoder signals from the
また、ステップS53で取り込んだ各外界センサ13の測定信号及びジャイロスコープ151の出力信号と、ステップS55で割り出した各外界センサ13,13の移動面Aからの高さとに基づいて、各外界センサ13を座標軸の中心としたローカル座標系における、測定光が照射された範囲の移動面Aの座標値群を割り出し、これを、ステップS37と同様にして1つの座標値群に合成する(ステップS57)。
Further, based on the measurement signal of each
さらに、ステップS57で割り出した合成後の移動面Aのローカル座標系における座標値群と、不揮発性メモリNVMに格納されたキャリブレーションデータとを、インタフェースI/Fを介して走行制御処理用コンピュータ199に出力して(ステップS59)、外界認識処理を終了する。
Further, the coordinate value group in the local coordinate system of the combined moving surface A determined in step S57 and the calibration data stored in the nonvolatile memory NVM are used for the travel
以上の説明からも明らかなように、本実施形態の移動ロボット1では、図7のフローチャートにおけるステップS37や、図8のフローチャートにおけるステップS57が、請求項中の走査角度検出手段やローカル座標系座標値割出手段に対応する処理となっており、図7中のステップS39が、請求項中のずれ角割出手段に対応する処理となっており、図7中のステップS41が、請求項中のキャリブレーションデータ割出手段に対応する処理となっている。
As is clear from the above description, in the
前記走行制御処理用コンピュータ199は、図9にブロック図で示すように、CPU199a、RAM199b、ROM199c、及び、不揮発性メモリNVMを内蔵する本体199Aと、キーボード199B及びモニタ199Cとを有している。
As shown in the block diagram of FIG. 9, the travel
前記キーボード199Bは、走行制御処理用コンピュータ199で実行させる処理のメニューを選択する場合等に操作されるもので、前記モニタ199Cは、キーボード199Bの操作による処理メニューの選択時等に、それに必要な画面やキーボード199Bによる入力、選択内容を表示するためのものである。
The
また、前記本体199AのCPU199aには、RAM199b及びROM199cや、キーボード199B及びモニタ199C、不揮発性メモリNVMの他、各移動用走行輪5のインホイールモータ51のドライバ51aやロータリエンコーダ51b、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77b、内界センサ15の加速度センサ153、GPS受信機191、デジタルマップデータベース193、及び、ミッション情報データベース195が接続されている。さらに、CPU199aには、インタフェースI/Fを介して外界認識処理用コンピュータ197が接続されている。
The
尚、スペースの都合により、図9中では、インホイールモータ51のドライバ51aやロータリエンコーダ51bを、1つの移動用走行輪5の分だけ代表して記載しており、CPU199aに接続されている他の移動用走行輪5のインホイールモータ51のドライバ51aやロータリエンコーダ51bは、図9中での記載を省略している。
For convenience of space, in FIG. 9, the
同様の理由で、図9中では、ロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77bを、1つの走行輪アーム7の分だけ代表して記載しており、CPU199aに接続されている他の走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77bは、図9中での記載を省略している。
For the same reason, in FIG. 9, the
前記RAM199bは、各種データ記憶用のデータエリア及び各種処理作業に用いるワークエリアを有しており、前記ROM199cには、CPU199aに各種処理動作を行わせるための制御プログラムが格納されている。
The
前記不揮発性メモリNVMには、グローバル座標系における移動面Aの座標値群のデータが格納される。また、不揮発性メモリNVMには、GPS受信機191の設置箇所と、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置との相対位置関係を、グローバル座標系における座標値差で示す相対位置データも格納される。この相対位置データは、GPS受信機191により取得される移動ロボット1のグローバル座標系における座標値から、2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置のグローバル座標系における座標値を割り出し既知とするために用いられる。
The nonvolatile memory NVM stores data of coordinate value groups of the moving plane A in the global coordinate system. Further, the nonvolatile memory NVM has a relative positional relationship between the installation location of the
次に、ROM199cに格納された制御プログラムに従いCPU199aが行う、移動面A上の障害物の位置認識に関する処理を、図10のフローチャートを参照して説明する。
Next, processing relating to the position recognition of the obstacle on the moving surface A, which is performed by the
走行制御処理用コンピュータ199が起動しプログラムがスタートすると、CPU199aは、まず、各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号が、インタフェースI/Fを介して外界認識処理用コンピュータ197から入力されたか否かを確認する(ステップS71)。
When the traveling
各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号が入力された場合は(ステップS71でY)、各移動用走行輪5のインホイールモータ51のドライバ51aに対する駆動信号の出力を停止させて移動ロボット1を停止させると共に、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号を出力して、移動ロボット1の本体3を、図1のホームポジションからチルト方向の最下方のキャリブレーションポジションまで揺動させた後(ステップS73)、ステップS71にリターンする。
When a drive command signal is input to the
一方、駆動指令信号が外界認識処理用コンピュータ197から入力されていない場合は(ステップS71でN)、GPS受信機191から出力される緯度、経度のデータと、各走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bからのエンコーダ信号とから、グローバル座標系における移動ロボット1の座標値を割り出す(ステップS75)。
On the other hand, if the drive command signal is not input from the external recognition processing computer 197 (N in step S71), the latitude and longitude data output from the
そして、割り出したグローバル座標系における座標値の周辺に関する、グローバル座標系における移動面Aの座標値群のデータが、不揮発性メモリNVMに格納されているか否かを確認し(ステップS77)、格納されていない場合は(ステップS77でN)、インタフェースI/Fを介して外界認識処理用コンピュータ197にスキャニング指令信号を出力する(ステップS79)。
Then, it is confirmed whether or not the coordinate value group data of the moving surface A in the global coordinate system related to the periphery of the coordinate value in the calculated global coordinate system is stored in the nonvolatile memory NVM (step S77). If not (N in Step S77), a scanning command signal is output to the outside
さらに、各移動用走行輪5のインホイールモータ51のドライバ51aに対する駆動信号の出力を停止させて移動ロボット1を停止させると共に、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号を出力して、移動ロボット1の本体3を、図1のホームポジションからチルト方向の下方に所定角度揺動させた後(ステップS81)、外界認識処理用コンピュータ197からの、合成後の移動面Aのローカル座標系における座標値群とキャリブレーションデータとが、インタフェースI/Fを介して入力されるのを待機する(ステップS83)。
Further, the output of the drive signal to the
合成後の移動面Aのローカル座標系における座標値群とキャリブレーションデータとが、外界認識処理用コンピュータ197からインタフェースI/Fを介して入力されたならば(ステップS83でY)、入力されたキャリブレーションデータを用いて、入力された合成後の移動面Aのローカル座標系における座標値群を、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系における移動面Aの座標値群に変換する(ステップS85)。
If the coordinate value group in the local coordinate system of the combined moving surface A and the calibration data are input from the outside
そして、変換した重力方向基準のローカル座標系における移動面Aの座標値群を、不揮発性メモリNVMに格納された相対位置データを用いて、GPS受信機191を座標軸の中心とする、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系の座標値群に変換し、さらにこれを、GPS受信機191で受信された緯度、経度のデータと、各走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bからのエンコーダ信号とから割り出される、グローバル座標系における移動ロボット1の座標値に基づいて、グローバル座標系における移動面Aの座標値群に変換する(ステップS87)。
Then, using the relative position data stored in the nonvolatile memory NVM, the coordinate value group of the moving surface A in the converted local coordinate system of the gravity direction is used, and the vertical coordinate axis direction with the
そして、変換したグローバル座標系における移動面Aの座標値群を、不揮発性メモリNVMに格納した後(ステップS89)、ステップS71にリターンする。 Then, after storing the converted coordinate value group of the moving plane A in the global coordinate system in the nonvolatile memory NVM (step S89), the process returns to step S71.
また、ステップS77において、ステップS75で割り出したグローバル座標系における座標値の周辺に関する、グローバル座標系における移動面Aの座標値群のデータが、不揮発性メモリNVMに格納されている場合(Y)は、その格納されているデータの座標値群と、この座標値群に対応する場所に関するデジタルマップデータベース193の地図情報のデジタルデータとを照合し、鉛直座標軸方向の座標値に大きな相違があるか否か等によって、移動面A上に障害物があるか否かを判断する(ステップS91)。
In step S77, when the coordinate value group data of the moving plane A in the global coordinate system related to the periphery of the coordinate value in the global coordinate system determined in step S75 is stored in the nonvolatile memory NVM (Y). The coordinate value group of the stored data is collated with the digital data of the map information of the
移動面A上に障害物があると判断した場合は(ステップS91でY)、あると判断した障害物を回避させるための移動ロボット1の移動パターンを解析し、各移動用走行輪5のインホイールモータ51のドライバ51aや各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに、駆動信号をそれぞれ出力して、解析した移動パターンに応じた動作を移動ロボット1(の各移動用走行輪5のインホイールモータ51や、各走行輪アーム7のロータリアクチュエータ75,77)に実行させる(ステップS93)。
If it is determined that there is an obstacle on the moving surface A (Y in step S91), the movement pattern of the
一方、移動面A上に障害物があると判断しなかった場合は(ステップS91でN)、グローバル座標系における移動ロボット1の座標値付近の地図情報のデジタルデータをデジタルマップデータベース193から読み出し、これと、ミッション情報データベース195に格納されたデータの示す巡回経路や各種発生条件に対する実行命令とに基づいて、各移動用走行輪5のインホイールモータ51のドライバ51aや各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号をそれぞれ出力して、ミッション情報データベース195に格納されたデータの示す巡回経路や各種発生条件に対する実行命令に応じた動作を移動ロボット1(の各移動用走行輪5のインホイールモータ51や、各走行輪アーム7のロータリアクチュエータ75,77)に実行させる(ステップS95)。
On the other hand, if it is not determined that there is an obstacle on the moving surface A (N in step S91), digital data of map information near the coordinate value of the
そして、ステップS93やステップS95において、移動ロボット1にそれぞれの動作を実行させたならば、ステップS71にリターンする。
In step S93 or step S95, if the
以上の説明からも明らかなように、本実施形態においては、図10のフローチャートにおけるステップS73及びステップS81が、請求項中の姿勢変化手段に対応する処理となっており、図10中のステップS85及びステップS87が、請求項中のローカル座標系座標値変換手段に対応する処理部分を除いたグローバル座標系座標値割出手段に対応する処理となっている。 As is apparent from the above description, in this embodiment, step S73 and step S81 in the flowchart of FIG. 10 are processing corresponding to the posture changing means in the claims, and step S85 in FIG. And step S87 is a process corresponding to the global coordinate system coordinate value indexing means excluding the processing part corresponding to the local coordinate system coordinate value conversion means in the claims.
尚、外界認識処理用コンピュータ197や走行制御処理用コンピュータ199は、ROMに格納された制御プログラムをCPUが実行することで上記の処理の全てを行うものであってもよく、一部の処理をDSP(Digital Signal Processor)により実行するものであってもよい。
Note that the outside world
上述のように構成された本実施形態の移動ロボット1では、移動ロボット1の運用を開始するに当たって、外界認識処理用コンピュータ197のキーボード197Bの操作によりキャリブレーション処理メニューを選択すると、走行制御処理用コンピュータ199の制御により移動ロボット1の本体3がチルト方向に揺動されつつ2つの外界センサ13から、移動ロボット1の左右方向に走査される測定光が出力される。
In the
そして、各外界センサ13が測定光の照射対象である移動面Aからの反射光をそれぞれ受光して、測定信号をそれぞれ出力すると、外界認識処理用コンピュータ197において、各外界センサ13を座標軸の中心とする2つのローカル座標系を合成したローカル座標系における移動面Aの座標値群が割り出され、この合成後のローカル座標系の鉛直座標軸と、内界センサ15の加速度センサ153の出力信号から割り出される地球の重力方向に延在する鉛直軸とのずれ角が割り出される。
When each
さらに、この割り出されたずれ角に基づいて、合成後のローカル座標系の鉛直座標軸の方向を地球の重力方向に一致させた、重力方向基準のローカル座標系における移動面Aの座標値群に変換するのに必要なキャリブレーションデータが、外界認識処理用コンピュータ197において割り出されて、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納される。
Further, based on the calculated deviation angle, the coordinate value group of the moving surface A in the local coordinate system based on the gravitational direction is obtained by matching the direction of the vertical coordinate axis of the combined local coordinate system with the gravity direction of the earth. Calibration data necessary for conversion is calculated by the
キャリブレーションデータが割り出されると、以後は、走行制御処理用コンピュータ199の制御により移動ロボット1が、グローバル座標系における移動面Aの座標値群のデータが走行制御処理用コンピュータ199の不揮発性メモリNVMに格納されていない場所に移動することで、走行制御処理用コンピュータ199の制御により移動ロボット1の本体3がチルト方向に揺動されつつ、移動ロボット1の左右方向に走査される測定光が2つの外界センサ13からそれぞれ出力される。
Once the calibration data has been determined, the
そして、各外界センサ13が測定光の照射対象である移動面Aからの反射光をそれぞれ受光して、測定信号をそれぞれ出力すると、外界認識処理用コンピュータ197において、各外界センサ13を座標軸の中心とする2つのローカル座標系を合成したローカル座標系における移動面Aの座標値群が割り出され、この合成後のローカル座標系における移動面Aの座標値群が、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納されたキャリブレーションデータと共に、走行制御処理用コンピュータ199に出力される。
When each
これに呼応して走行制御処理用コンピュータ199では、外界認識処理用コンピュータ197から入力されたキャリブレーションデータを用いて、合成後のローカル座標系における移動面Aの座標値群が、グローバル座標系と同じ、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系における移動面Aの座標値群に変換され、さらに、グローバル座標系における移動面Aの座標値群に変換されて、走行制御処理用コンピュータ199の不揮発性メモリNVMに格納される。
In response to this, the travel
そして、走行制御処理用コンピュータ199において、グローバル座標系における移動ロボット1の座標値の周辺に関する、不揮発性メモリNVMに格納されたグローバル座標系における移動面Aの座標値群と、デジタルマップデータベース193の地図情報のデジタルデータとの照合により、移動ロボット1の周辺の移動面A上に障害物があるか否かが判断される。
In the travel
障害物があると判断されると、走行制御処理用コンピュータ199の制御により移動ロボット1が、各走行輪アーム7を適宜個別に屈伸させて、各移動用走行輪5のインホイールモータ51の回転により、その障害物を回避させるように移動する。
When it is determined that there is an obstacle, the
このように、本実施形態の移動ロボット1によれば、移動ロボット1の本体3をチルト方向に揺動させることで、移動ロボット1の左右方向のみに測定光を走査させる一次元レーザスキャナとしての外界センサ13を用いて、移動ロボット1の進行方向Fとは異なる移動ロボット1の上下左右の二次元方向に測定光を走査させることができるので、小型で低コストの外界センサ13を用いて、移動面A上の障害物の位置認識を行うことができる。
Thus, according to the
尚、本実施形態では、2つの外界センサ13,13を用い、それらがそれぞれ受光した移動面Aからの反射光を用いて割り出した、各外界センサ13を座標軸の中心とするローカル座標系における移動面Aの座標値群を、例えばICP(Iteractive Closet Point )アルゴリズムを適用する等して、互いの配置の違いによるずれがなくなるように、1つの座標値群に合成する場合について説明した。
In the present embodiment, two
しかし、単一の外界センサ13を用い、その外界センサ13が受光した移動面Aからの反射光を用いて割り出した、その外界センサ13を座標軸の中心とする単一の、ローカル座標系における移動面Aの座標値群を、キャリブレーションデータを用いて、重力方向基準のローカル座標系における移動面Aの座標値群に変換し、これを、グローバル座標系における移動面Aの座標値群にさらに変換する構成としてもよい。
However, a single
但し、本実施形態の移動ロボット1のように、2つの外界センサ13,13を用いて割り出した、各外界センサ13を座標軸の中心とするローカル座標系における移動面Aの座標値群を、1つの座標値群に合成する構成とすれば、移動面Aの座標値群を広範囲に取得でき、あるいは、精度よく取得できるというメリットがある。
However, as in the
また、本実施形態の移動ロボット1では、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納されるキャリブレーションデータを、移動ロボット1の本体3をチルト方向に揺動させながら外界センサ13からの測定光を平らな移動面Aに照射して、その反射光から割り出されるローカル座標系の鉛直座標軸と、加速度センサ153の出力から検出される地球の重力方向に延在する鉛直軸とのずれ角を割り出し、このずれ角に基づいて割り出すものとした。
In the
しかし、キャリブレーションデータを予め別途割り出しておき、前もって外界認識処理用コンピュータ197の不揮発性メモリNVMに格納しておいて、ローカル座標系における移動面Aの座標値群をグローバル座標系における移動面Aの座標値群に変換する際に利用する構成としてもよい。
However, the calibration data is separately determined in advance and stored in advance in the non-volatile memory NVM of the
ちなみに、移動ロボット1が移動する移動面Aが、地球の重力方向に対して鉛直に延在する、つまり、地球の水平方向に延在することが保証されているのであれば、ローカル座標系における移動面Aの座標値群をグローバル座標系における移動面Aの座標値群に変換する際に、キャリブレーションデータを利用する必要がないことは明らかである。
By the way, if it is guaranteed that the moving surface A on which the
さらに、本実施形態の移動ロボット1では、前後左右の各移動用走行輪5を本体3に接続する各走行輪アーム7が、2つのアーム部71,73と2つのロータリアクチュエータ75,77とにより構成されていて、各走行輪アーム7を適宜個別に屈伸させることで、移動ロボット1の本体3がチルト方向に揺動される構成について説明した。
Furthermore, in the
しかし、例えば進退可能なロッドを有するエアシリンダを用いて本体3と各移動用走行輪5とを接続し、各エアシリンダのロッドを適宜個別に進退させることによって移動ロボット1の本体3がチルト方向に揺動される構成とする等、本体3の姿勢を変化させることで移動ロボット1の本体3の姿勢をチルト方向に変化させる場合の構成は、本実施形態で説明した屈伸式の走行輪アーム7に限らず任意である。
However, for example, the
また、本実施形態の移動ロボット1では、雲台9を移動ロボット1の本体3の前方上部に固定して配置するものとしたが、例えば雲台9をチルト方向に揺動可能に構成して、雲台9のチルト方向への揺動により、移動ロボット1の左右方向のみに測定光を走査させる一次元レーザスキャナとしての外界センサ13を用いて、移動ロボット1の進行方向Fとは異なる移動ロボット1の上下左右の二次元方向に測定光を走査させることができるように構成してもよい。
Further, in the
即ち、移動ロボット1の本体3の姿勢をチルト方向に変化させるための構成は、本実施形態で説明した移動ロボット1の本体3自身をチルト方向に揺動させるものに限らず任意である。
In other words, the configuration for changing the posture of the
その場合には、雲台9をチルト方向に揺動させるための構成(例えば、走行制御処理用コンピュータ199の制御により駆動されるステッピングモータ等)が、請求項中の姿勢変化手段に相当することになる。 In that case, the configuration for swinging the pan head 9 in the tilt direction (for example, a stepping motor driven by the control of the travel control processing computer 199) corresponds to the posture changing means in the claims. become.
そして、本発明は、本実施形態で説明した走行輪により移動する移動体に限らず、例えばクローラにより移動する移動体や歩行運動により移動する移動体等、移動面Aに対する姿勢を変化させることのできる移動体である限り、広く適用可能であることは言うまでもない。 The present invention is not limited to the moving body that is moved by the traveling wheel described in the present embodiment, but can change the posture with respect to the moving surface A, such as a moving body that moves by a crawler or a moving body that moves by walking motion. Needless to say, the present invention is widely applicable as long as it is a movable body.
1 移動ロボット(移動体)
3 本体
5 移動用走行輪(移動手段)
7 走行輪アーム(移動手段)
75,77 ロータリアクチュエータ(アクチュエータ)
13 外界センサ(一次元レーザスキャナ)
151 ジャイロスコープ(角速度センサ)
153 加速度センサ
197 外界認識処理用コンピュータ(走査角度検出手段、ローカル座標系座標値割出手段、グローバル座標系座標値割出手段、ずれ角割出手段、キャリブレーションデータ割出手段)
199 走行制御処理用コンピュータ(姿勢変化手段、グローバル座標系座標値割出手段)
A 移動面
F 進行方向(移動方向)
1 Mobile robot (moving body)
3 Body 5 Traveling wheel for movement (moving means)
7 Traveling wheel arm (moving means)
75, 77 Rotary actuator (actuator)
13 External sensor (one-dimensional laser scanner)
151 Gyroscope (Angular velocity sensor)
153
199 Computer for travel control processing (posture changing means, global coordinate system coordinate value indexing means)
A Moving surface F Traveling direction (moving direction)
Claims (6)
前記移動体上の一次元レーザスキャナから、前記移動体の移動方向と交わる第1の方向に走査された測定光を出力させ、
前記移動面に対する前記移動体の姿勢、又は、前記移動体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、前記移動体の移動方向と交わり前記第1の方向と直交する第2の方向に前記測定光を走査させ、
前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角の変化を、前記一次元レーザスキャナに対する相対位置が固定された前記移動体上の角速度センサにより検出することで、前記第2の方向への前記測定光の走査角度を検出し、
前記測定光の照射対象からの反射光を前記一次元レーザスキャナにより受光させ、
前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記第2の方向への前記測定光の前記検出した走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出し、
前記割り出した前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出し、
前記割り出した前記障害物のグローバル座標系における座標値群に基づいて、前記障害物の位置認識を行うようにした、
ことを特徴とする移動体の障害物位置認識方法。 A method for recognizing an obstacle on a moving surface from a moving body that moves on a moving surface,
From the one-dimensional laser scanner on the moving body, output measurement light scanned in a first direction intersecting the moving direction of the moving body,
By changing the attitude of the moving body with respect to the moving surface or the attitude of the one-dimensional laser scanner with respect to the moving body, the at least the elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is changed. Scanning the measurement light in a second direction intersecting the body movement direction and perpendicular to the first direction;
A change in at least an elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is detected by an angular velocity sensor on the moving body in which a relative position with respect to the one-dimensional laser scanner is fixed. Detecting a scanning angle of the measuring light;
The reflected light from the measurement light irradiation target is received by the one-dimensional laser scanner,
The reflected light received by the one-dimensional laser scanner, a known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the detection of the measurement light in the second direction Based on the scanned angle, a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner is determined,
A coordinate value group in the global coordinate system of the obstacle is determined based on a coordinate value group in the local coordinate system of the obstacle and the known coordinate value in the global coordinate system of the one-dimensional laser scanner,
Based on the coordinate value group in the global coordinate system of the calculated obstacle, the position of the obstacle is recognized.
An obstacle position recognition method for a moving object.
本体と、
前記本体を前記移動面上で前記第1の方向及び前記第2の方向と交わる方向に移動させる移動手段と、
前記本体に設けられ、前記測定光を出力して前記第1の方向に走査させると共に、前記測定光の照射対象からの反射光を受光する一次元レーザスキャナと、
前記移動面に対する前記本体の姿勢、又は、前記本体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させる姿勢変化手段と、
前記一次元レーザスキャナに対する相対位置を固定して前記本体に設けられ、前記一次元レーザスキャナの前記移動面に対する少なくとも仰角又は俯角の変化を検出する角速度センサと、
前記角速度センサの検出結果に基づいて、前記第2の方向への前記測定光の走査角度を検出する走査角度検出手段と、
前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記走査角度検出手段により検出された前記第2の方向への前記測定光の走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出すローカル座標系座標値割出手段と、
前記ローカル座標系座標値割出手段により割り出された前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出すグローバル座標系座標値割出手段とを備えており、
前記グローバル座標系座標値取得手段により割り出された前記障害物の前記グローバル座標系における座標値群に基づいて、前記障害物を位置認識する、
ことを特徴とする移動体。 A moving body for recognizing the position of the obstacle using measurement light scanned in a first direction and a second direction orthogonal to each other in order to avoid the obstacle on the moving surface and move on the moving surface Because
The body,
Moving means for moving the body in the direction intersecting the first direction and the second direction on the moving surface;
A one-dimensional laser scanner that is provided in the main body, outputs the measurement light, scans in the first direction, and receives reflected light from an irradiation target of the measurement light;
Posture changing means for changing at least the elevation angle or depression angle of the one-dimensional laser scanner relative to the moving surface by changing the posture of the main body relative to the moving surface or the posture of the one-dimensional laser scanner relative to the main body;
An angular velocity sensor that is provided in the main body with a fixed relative position with respect to the one-dimensional laser scanner and detects a change in at least an elevation angle or depression angle with respect to the moving surface of the one-dimensional laser scanner;
A scanning angle detection means for detecting a scanning angle of the measurement light in the second direction based on a detection result of the angular velocity sensor;
The reflected light received by the one-dimensional laser scanner, the known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the second detected by the scanning angle detection means Local coordinate system coordinate value indexing means for determining a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner based on the scanning angle of the measurement light in the direction;
Based on the coordinate value group in the local coordinate system of the obstacle determined by the local coordinate system coordinate value indexing means, and the known coordinate value in the global coordinate system of the one-dimensional laser scanner, the obstacle A global coordinate system coordinate value indexing means for determining a coordinate value group in the global coordinate system of
Recognizing the position of the obstacle based on a coordinate value group in the global coordinate system of the obstacle determined by the global coordinate system coordinate value acquisition means;
A moving object characterized by that.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007278924A JP2009109219A (en) | 2007-10-26 | 2007-10-26 | Obstacle position recognition method for mobile unit and mobile unit |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007278924A JP2009109219A (en) | 2007-10-26 | 2007-10-26 | Obstacle position recognition method for mobile unit and mobile unit |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009109219A true JP2009109219A (en) | 2009-05-21 |
Family
ID=40777863
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007278924A Pending JP2009109219A (en) | 2007-10-26 | 2007-10-26 | Obstacle position recognition method for mobile unit and mobile unit |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009109219A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011100366A (en) * | 2009-11-09 | 2011-05-19 | Yoshitatsu Kogyo:Kk | Portable alarm device |
| JP2014041117A (en) * | 2012-07-27 | 2014-03-06 | Kyushu Univ | Method for measuring position of underground excavation, device for measuring position of underground excavation, and excavation system for non-open-cut method |
| JP2014215296A (en) * | 2013-04-26 | 2014-11-17 | ジック アーゲー | Laser scanner for traveling object navigation |
| JP2015086590A (en) * | 2013-10-31 | 2015-05-07 | 三菱電機株式会社 | Road marking coating equipment |
| CN116766266A (en) * | 2023-08-17 | 2023-09-19 | 北京中勘迈普科技有限公司 | Industrial park and indoor intelligent 3D laser scanning robot |
| JP2023133088A (en) * | 2022-03-11 | 2023-09-22 | 南京航空航天大学 | Mobile flexible measuring system and method for complex large parts |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS57102782A (en) * | 1980-12-12 | 1982-06-25 | Mitsubishi Heavy Ind Ltd | Travelling device |
| JPH0875848A (en) * | 1994-09-02 | 1996-03-22 | Caterpillar Inc | Method and device for tracking body |
| JP2001219782A (en) * | 2000-02-14 | 2001-08-14 | Hino Motors Ltd | Headlight optical axis angle adjustment device |
| JP2001221652A (en) * | 1999-10-29 | 2001-08-17 | Visteon Technol Llc | Inertial guide apparatus and method for navigation system for car |
| JP2002166387A (en) * | 2000-11-28 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | Robot visual sense device |
| JP2003066144A (en) * | 2001-08-23 | 2003-03-05 | Omron Corp | Object detection apparatus and method |
| JP2005090846A (en) * | 2003-09-17 | 2005-04-07 | Mitsubishi Heavy Ind Ltd | Shooting system |
| JP2005310043A (en) * | 2004-04-26 | 2005-11-04 | Mitsubishi Heavy Ind Ltd | Obstacle avoiding method for moving object and moving object thereof |
| WO2006051603A1 (en) * | 2004-11-12 | 2006-05-18 | Mitsubishi Denki Kabushiki Kaisha | Axial deviation angle estimating method and device |
| JP2006276023A (en) * | 2006-04-05 | 2006-10-12 | Omron Corp | Object detection apparatus and method |
-
2007
- 2007-10-26 JP JP2007278924A patent/JP2009109219A/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS57102782A (en) * | 1980-12-12 | 1982-06-25 | Mitsubishi Heavy Ind Ltd | Travelling device |
| JPH0875848A (en) * | 1994-09-02 | 1996-03-22 | Caterpillar Inc | Method and device for tracking body |
| JP2001221652A (en) * | 1999-10-29 | 2001-08-17 | Visteon Technol Llc | Inertial guide apparatus and method for navigation system for car |
| JP2001219782A (en) * | 2000-02-14 | 2001-08-14 | Hino Motors Ltd | Headlight optical axis angle adjustment device |
| JP2002166387A (en) * | 2000-11-28 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | Robot visual sense device |
| JP2003066144A (en) * | 2001-08-23 | 2003-03-05 | Omron Corp | Object detection apparatus and method |
| JP2005090846A (en) * | 2003-09-17 | 2005-04-07 | Mitsubishi Heavy Ind Ltd | Shooting system |
| JP2005310043A (en) * | 2004-04-26 | 2005-11-04 | Mitsubishi Heavy Ind Ltd | Obstacle avoiding method for moving object and moving object thereof |
| WO2006051603A1 (en) * | 2004-11-12 | 2006-05-18 | Mitsubishi Denki Kabushiki Kaisha | Axial deviation angle estimating method and device |
| JP2006276023A (en) * | 2006-04-05 | 2006-10-12 | Omron Corp | Object detection apparatus and method |
Non-Patent Citations (2)
| Title |
|---|
| HARTMUT SURMANN, ET AL.: ""An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of in", ROBOTICS AND AUTONOMOUS SYSTEMS, vol. Vol.45, No.3-4, JPN6012050453, 2003, pages 181 - 198, ISSN: 0002339056 * |
| 上田達朗、外4名: ""無限回転機構を用いた3次元測域センサ"", ロボティクス・メカトロニクス講演会講演概要集, JPN6012050454, 2006, pages 2 - 1, ISSN: 0002339057 * |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011100366A (en) * | 2009-11-09 | 2011-05-19 | Yoshitatsu Kogyo:Kk | Portable alarm device |
| JP2014041117A (en) * | 2012-07-27 | 2014-03-06 | Kyushu Univ | Method for measuring position of underground excavation, device for measuring position of underground excavation, and excavation system for non-open-cut method |
| JP2014215296A (en) * | 2013-04-26 | 2014-11-17 | ジック アーゲー | Laser scanner for traveling object navigation |
| JP2015086590A (en) * | 2013-10-31 | 2015-05-07 | 三菱電機株式会社 | Road marking coating equipment |
| JP2023133088A (en) * | 2022-03-11 | 2023-09-22 | 南京航空航天大学 | Mobile flexible measuring system and method for complex large parts |
| CN116766266A (en) * | 2023-08-17 | 2023-09-19 | 北京中勘迈普科技有限公司 | Industrial park and indoor intelligent 3D laser scanning robot |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7607000B2 (en) | Long-range steerable LIDAR system | |
| AU2019204204B2 (en) | Vehicle with multiple light detection and ranging devices (LIDARS) | |
| JP6693765B2 (en) | Flight object tracking method and flight object guidance system | |
| EP3840919B1 (en) | Mobile construction robot | |
| JP6691721B2 (en) | Flight planning method and flight guidance system | |
| JP5510081B2 (en) | Obstacle avoidance support device, obstacle avoidance support method, and moving object | |
| CN108427123B (en) | LIDAR device and method for operating a LIDAR device | |
| JP5105596B2 (en) | Travel route determination map creation device and travel route determination map creation method for autonomous mobile body | |
| KR101515496B1 (en) | Simulation system for autonomous vehicle for applying obstacle information in virtual reality | |
| KR100901311B1 (en) | Autonomous platform | |
| JP2009109219A (en) | Obstacle position recognition method for mobile unit and mobile unit | |
| JP2011096170A (en) | Autonomous mobile device and control method therefor | |
| CN110914704A (en) | Sensor adjustment based on vehicle motion | |
| JP2006239844A (en) | Obstacle avoidance device, obstacle avoidance method, obstacle avoidance program, and mobile robot device | |
| KR20140144921A (en) | Simulation system for autonomous vehicle using virtual reality | |
| JP2019203822A (en) | Surveying device | |
| JP5429986B2 (en) | Mobile robot remote environment recognition apparatus and method | |
| JP7035411B2 (en) | Crane operation support device | |
| CN115435772B (en) | Method, device, electronic device and readable storage medium for establishing local map | |
| JP2009136987A (en) | Mobile robot and floor surface shape data correction method | |
| JP2017227463A (en) | Position and attitude determination device | |
| US20220291383A1 (en) | A lidar device, system, and control methods of the same | |
| JP6910023B2 (en) | How to control unmanned moving objects | |
| JP2022530246A (en) | Simultaneous execution of self-position estimation and environmental map creation | |
| CN108801253A (en) | Robot builds figure positioning system and robot |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090630 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100729 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120920 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120925 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130205 |