[go: up one dir, main page]

JP2009109219A - Obstacle position recognition method for mobile unit and mobile unit - Google Patents

Obstacle position recognition method for mobile unit and mobile unit Download PDF

Info

Publication number
JP2009109219A
JP2009109219A JP2007278924A JP2007278924A JP2009109219A JP 2009109219 A JP2009109219 A JP 2009109219A JP 2007278924 A JP2007278924 A JP 2007278924A JP 2007278924 A JP2007278924 A JP 2007278924A JP 2009109219 A JP2009109219 A JP 2009109219A
Authority
JP
Japan
Prior art keywords
coordinate system
laser scanner
dimensional laser
moving
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007278924A
Other languages
Japanese (ja)
Inventor
Munehiko Maeda
宗彦 前田
Toshihiro Hayashi
俊寛 林
Hajime Sakano
肇 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007278924A priority Critical patent/JP2009109219A/en
Publication of JP2009109219A publication Critical patent/JP2009109219A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize the position of an obstacle by scanning the measurement light in two dimensional directions different from the moving direction of a mobile unit, using a small-sized, low-cost one-dimensional laser scanner. <P>SOLUTION: Arms 71, 73 of a traveling wheel arm 7 connecting a main unit 3 and a traveling wheel 5 of a mobile robot 1 moving on a mobile surface A are bent and stretched appropriately and independently by the rotation of a rotary actuator 75 to oscillate the main unit 3 in a tilt direction, thereby scanning the measurement light, which is output from an external sensor 13 for recognizing obstacles on the mobile surface A and is scanned in the lateral direction of the mobile robot 1, in the vertical direction as well. From a deviation angle between the direction of a vertical coordinate axis in the local coordinate system of the coordinate value group of the mobile surface A which is calculated from reflected light from the mobile surface A received by the external sensor 13 by oscillating the main unit 3 downward in the tilt direction and a gravity direction calculated from the output of an acceleration sensor 153, calibration data for coordinate value conversion from the local coordinate system to the global coordinate system are obtained. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、移動面上を移動する移動体に係り、特に、移動面上の障害物を避けて移動面上を移動するために、二次元方向に走査される測定光を用いて障害物の位置認識を行う技術に関するものである。   The present invention relates to a moving body that moves on a moving surface, and in particular, in order to move on the moving surface while avoiding an obstacle on the moving surface, the obstacle is detected using measurement light scanned in a two-dimensional direction. The present invention relates to a technology for performing position recognition.

従来より、無人の監視区域等において監視作業を行う自立走行型のロボット(移動体)が知られている。この種のロボットは、例えば、GPS(全地球測位システム)により得た自らの位置を地図情報と照らし合わせながら、目的に応じたパターンで監視区域の移動面上における自立走行を行う。その際、地図情報に存在しない不測の障害物が移動面に存在した場合に、これとの干渉を避けてロボットが自立走行できるように、ロボットには外界センサが搭載される。   Conventionally, a self-traveling robot (moving body) that performs monitoring work in an unattended monitoring area or the like is known. This type of robot, for example, performs autonomous running on the moving surface of the monitoring area in a pattern according to the purpose while comparing its position obtained by GPS (Global Positioning System) with map information. At that time, when an unexpected obstacle that does not exist in the map information exists on the moving surface, an external sensor is mounted on the robot so that the robot can run independently while avoiding interference with the obstacle.

この外界センサとしてポピュラーなものの一つとして、二次元スキャン方式のレーザスキャナがある。この二次元スキャン方式のレーザスキャナは、レーザによる測定光(測距光)を二次元方向(主走査方向、副走査方向)に走査させてロボットの進行方向前方に向けて照射し、移動面上に障害物が存在した場合にその障害物からの反射光を受光して、位相差法や時間差法等により障害物の位置や形状を認識するものである。   One of the popular external sensors is a two-dimensional scanning laser scanner. This two-dimensional scan type laser scanner scans measurement light (ranging light) by a laser in a two-dimensional direction (main scanning direction, sub-scanning direction), and irradiates the moving direction forward of the robot. When an obstacle is present, the reflected light from the obstacle is received, and the position and shape of the obstacle are recognized by a phase difference method, a time difference method, or the like.

したがって、二次元スキャン方式のレーザスキャナでは、ポリゴンミラー等で主走査方向に走査させた測定光を、ガルバノミラー等によってさらに副走査方向に走査させる必要がある。そのために、二次元スキャン方式のレーザスキャナには、主副の各走査方向についてミラーの回転駆動源を設ける必要があり、レーザスキャナの大型化とコストの高騰が避けられない。   Therefore, in the two-dimensional scan type laser scanner, it is necessary to further scan the measurement light scanned in the main scanning direction by a polygon mirror or the like in the sub scanning direction by a galvano mirror or the like. Therefore, a two-dimensional scanning laser scanner needs to be provided with a mirror rotation drive source in each of the main and sub scanning directions, and the increase in the size and cost of the laser scanner is inevitable.

そこで、上空の航空機からのレーザ走査により地形の航空測量を行う際に、測定光の出力源における走査を航空機の進行方向と異なる方向(例えば進行方向と直交する方向)への一次元走査に止め、進行方向については航空機自体の移動によってレーザ光を実質的に走査させることで、測定光の二次元走査を実現することが提案されている(例えば特許文献1)。
特開平8−145668号公報
Therefore, when topographic aerial survey is performed by laser scanning from an aircraft in the sky, scanning at the measurement light output source is limited to one-dimensional scanning in a direction different from the traveling direction of the aircraft (for example, a direction orthogonal to the traveling direction). In regard to the traveling direction, it has been proposed to realize two-dimensional scanning of measurement light by substantially scanning laser light by moving the aircraft itself (for example, Patent Document 1).
JP-A-8-145668

しかしながら、上述した従来技術は、移動体である航空機の進行方向を、測定光の二次元走査の一走査方向とするものであることから、本発明の対象とする自立走行型のロボットにおける外界センサのような、進行方向が測定光の走査方向と一致しない分野では、利用することができない。   However, since the above-described conventional technology is such that the moving direction of the aircraft as the moving body is one scanning direction of the two-dimensional scanning of the measurement light, the external sensor in the self-running robot that is the subject of the present invention. In such a field where the traveling direction does not coincide with the scanning direction of the measurement light, it cannot be used.

本発明は前記事情に鑑みなされたもので、本発明の目的は、移動体が移動面上を移動する際に、小型で低コストの一次元レーザスキャナを用いて、移動体の移動方向とは異なる二次元方向に測定光を走査させ、障害物を位置認識することができる移動体の障害物位置認識方法と移動体を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to use a small and low-cost one-dimensional laser scanner as the moving body moves on the moving surface, and the moving direction of the moving body. An object of the present invention is to provide an obstacle position recognition method for a moving body and a moving body that can scan the measurement light in different two-dimensional directions to recognize the position of the obstacle.

上記目的を達成するため、請求項1に記載した本発明の移動体の障害物位置認識方法は、移動面上を移動する移動体上から前記移動面上の障害物を位置認識する方法であって、前記移動体上の一次元レーザスキャナから、前記移動体の移動方向と交わる第1の方向に走査された測定光を出力させ、前記移動面に対する前記移動体の姿勢、又は、前記移動体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、前記移動体の移動方向と交わり前記第1の方向と直交する第2の方向に前記測定光を走査させ、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角の変化を、前記一次元レーザスキャナに対する相対位置が固定された前記移動体上の角速度センサにより検出することで、前記第2の方向への前記測定光の走査角度を検出し、前記測定光の照射対象からの反射光を前記一次元レーザスキャナにより受光させ、前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記第2の方向への前記測定光の前記検出した走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出し、前記割り出した前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出し、前記割り出した前記障害物のグローバル座標系における座標値群に基づいて、前記障害物の位置認識を行うようにしたことを特徴とする。   In order to achieve the above object, the obstacle position recognition method for a moving object according to the first aspect of the present invention is a method for recognizing the position of an obstacle on the moving surface from a moving object moving on the moving surface. The measurement light scanned in the first direction intersecting the moving direction of the moving body is output from the one-dimensional laser scanner on the moving body, and the posture of the moving body with respect to the moving surface, or the moving body By changing the attitude of the one-dimensional laser scanner with respect to the moving surface and changing at least the elevation angle or the depression angle of the one-dimensional laser scanner with respect to the moving surface, the first direction intersects with the moving direction of the moving body and is orthogonal to the first direction. The measurement light is scanned in the direction of 2, and a change in at least the elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is fixed relative to the one-dimensional laser scanner. By detecting the scanning angle of the measurement light in the second direction by detecting it with an angular velocity sensor on the moving body, the reflected light from the irradiation object of the measurement light is received by the one-dimensional laser scanner. The reflected light received by the one-dimensional laser scanner, the known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the measurement light in the second direction. Based on the detected scanning angle, a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner is determined, and a coordinate value group of the calculated obstacle in the local coordinate system; and A coordinate value group in the global coordinate system of the obstacle is determined based on a known coordinate value in the global coordinate system of the one-dimensional laser scanner; Based on the coordinate value group in the global coordinate system of the obstacle indexing, characterized in that to perform the position recognition of the obstacle.

また、上記目的を達成するため、請求項4に記載した本発明の移動体は、移動面上の障害物を避けて該移動面上を移動するために、互いに直交する第1の方向及び第2の方向に走査される測定光を用いた前記障害物の位置認識を行う移動体であって、本体と、前記本体を前記移動面上で前記第1の方向及び前記第2の方向と交わる方向に移動させる移動手段と、前記本体に設けられ、前記測定光を出力して前記第1の方向に走査させると共に、前記測定光の照射対象からの反射光を受光する一次元レーザスキャナと、前記移動面に対する前記本体の姿勢、又は、前記本体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させる姿勢変化手段と、前記一次元レーザスキャナに対する相対位置を固定して前記本体に設けられ、前記一次元レーザスキャナの前記移動面に対する少なくとも仰角又は俯角の変化を検出する角速度センサと、前記角速度センサの検出結果に基づいて、前記第2の方向への前記測定光の走査角度を検出する走査角度検出手段と、前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記走査角度検出手段により検出された前記第2の方向への前記測定光の走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出すローカル座標系座標値割出手段と、前記ローカル座標系座標値割出手段により割り出された前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出すグローバル座標系座標値割出手段とを備えており、前記グローバル座標系座標値取得手段により割り出された前記障害物の前記グローバル座標系における座標値群に基づいて、前記障害物を位置認識することを特徴とする。   In order to achieve the above object, the moving body of the present invention described in claim 4 avoids an obstacle on the moving surface and moves on the moving surface in a first direction and a first direction orthogonal to each other. A moving body for recognizing the position of the obstacle using measurement light scanned in the direction of 2, the main body and the main body crossing the first direction and the second direction on the moving surface A moving means for moving in a direction; a one-dimensional laser scanner provided in the main body, for outputting the measurement light to scan in the first direction, and for receiving reflected light from an irradiation target of the measurement light; Attitude changing means for changing the attitude of the main body relative to the moving surface or the attitude of the one-dimensional laser scanner relative to the main body to change at least the elevation angle or depression angle of the one-dimensional laser scanner relative to the moving surface; Based on a detection result of the angular velocity sensor, an angular velocity sensor that is provided in the main body with a fixed relative position with respect to the laser scanner and detects at least a change in elevation angle or depression angle with respect to the moving surface of the one-dimensional laser scanner. Scanning angle detecting means for detecting a scanning angle of the measuring light in the direction of 2; the reflected light received by the one-dimensional laser scanner; and the measuring light from the one-dimensional laser scanner in the first direction The obstacle in the local coordinate system based on the position of the one-dimensional laser scanner based on a known scanning angle and a scanning angle of the measurement light in the second direction detected by the scanning angle detection means Local coordinate system coordinate value indexing means for determining a coordinate value group of the object, and the local coordinate system coordinate value indexing means A global coordinate system coordinate value for determining a coordinate value group in the global coordinate system of the obstacle based on a coordinate value group in the local coordinate system of the harmful object and a known coordinate value in the global coordinate system of the one-dimensional laser scanner Indexing means, and recognizing the position of the obstacle based on a coordinate value group in the global coordinate system of the obstacle determined by the global coordinate system coordinate value acquisition means. .

請求項1に記載した本発明の移動体の障害物位置認識方法と、請求項4に記載した本発明の移動体とによれば、移動面に対する移動体の姿勢、又は、移動体に対する一次元レーザスキャナの姿勢を変化させて、移動面に対する一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、移動体の移動方向と交わり第1の方向と直交する第2の方向への測定光の走査が実現されるので、第2の方向に測定光を走査させるための構成をレーザスキャナ自身に持たせる必要がない。   According to the obstacle position recognition method of the moving object of the present invention described in claim 1 and the moving object of the present invention described in claim 4, the posture of the moving object with respect to the moving surface, or one-dimensional with respect to the moving object. By changing the attitude of the laser scanner and changing at least the elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface, the measurement light in the second direction intersecting the moving direction of the moving body and orthogonal to the first direction Since the scanning is realized, it is not necessary for the laser scanner itself to have a configuration for scanning the measurement light in the second direction.

しかも、第2の方向に関する測定光の走査角度は、一次元レーザスキャナに対する相対位置が固定された角速度センサの出力によって検出されるので、第2の方向に測定光を走査させるための構成だけでなく、第2の方向に関する測定光の走査角度を検出するための構成についても、レーザスキャナ自身に持たせる必要がない。   In addition, since the scanning angle of the measuring light in the second direction is detected by the output of the angular velocity sensor whose relative position with respect to the one-dimensional laser scanner is fixed, only the configuration for scanning the measuring light in the second direction is used. In addition, it is not necessary for the laser scanner itself to have a configuration for detecting the scanning angle of the measurement light in the second direction.

このため、移動体の移動方向と交わる第1の方向及び第2の方向の二次元方向に測定光を走査させて行う移動面上の障害物の位置認識を、二次元レーザスキャナでなく、小型でかつ低コストな一次元レーザスキャナを用いて実現することができる。   For this reason, the position recognition of the obstacle on the moving surface performed by scanning the measurement light in the two-dimensional direction of the first direction and the second direction intersecting the moving direction of the moving body is not a two-dimensional laser scanner but a small size. And a low-cost one-dimensional laser scanner.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明による障害物位置認識方法を適用した移動体の一実施形態に係る移動ロボットを示す概略構成図である。   FIG. 1 is a schematic configuration diagram showing a mobile robot according to an embodiment of a moving body to which an obstacle position recognition method according to the present invention is applied.

そして、図1中引用符号Aで示す移動面上を移動する本実施形態の移動ロボット1(請求項中の移動体に相当)は、直方体状の本体3と、この本体3の下部に前後左右の走行輪アーム7を介してそれぞれ接続された、4つの移動用走行輪5と、本体3上に設置された雲台9,11と、雲台9上に設置された外界センサ13及び内界センサ15と、雲台11上に設置された監視用カメラ17と、本体3に搭載された各種制御用のコントローラユニット19とを有している。   A mobile robot 1 (corresponding to a mobile body in the claims) of the present embodiment that moves on the moving surface indicated by reference symbol A in FIG. The four traveling wheels 5 connected to each other via the traveling wheel arms 7, the pan heads 9 and 11 installed on the main body 3, the external sensor 13 and the internal world installed on the pan head 9, respectively. A sensor 15, a monitoring camera 17 installed on the camera platform 11, and a controller unit 19 for various controls mounted on the main body 3 are included.

前記各移動用走行輪5は、例えばアウタロータ式のインホイールモータ51(図9参照)を内蔵しており、このインホイールモータ51は、回転角度量を示すエンコーダ信号を出力するロータリエンコーダ51b(図9参照)を内蔵している。各移動用走行輪5のインホイールモータ51は、後述するコントローラユニット19により個別に駆動制御される。   Each of the traveling wheels 5 for movement incorporates, for example, an outer rotor type in-wheel motor 51 (see FIG. 9). The in-wheel motor 51 outputs a rotary encoder 51b (FIG. 9) that outputs an encoder signal indicating the amount of rotation angle. 9). The in-wheel motor 51 of each traveling wheel 5 is individually driven and controlled by the controller unit 19 described later.

前記各走行輪アーム7は、本実施形態では2つのアーム部71,73をロータリアクチュエータ75により相互に連結して構成されており、一方のアーム部71は移動用走行輪5に枢着され、他方のアーム部73はロータリアクチュエータ77を介して本体3に連結されている。   In the present embodiment, each traveling wheel arm 7 is constituted by connecting two arm portions 71 and 73 to each other by a rotary actuator 75, and one arm portion 71 is pivotally attached to the traveling traveling wheel 5, The other arm portion 73 is connected to the main body 3 via a rotary actuator 77.

そして、各ロータリアクチュエータ75,77は、例えばDCサーボモータ等の高トルク型モータによって構成されており、回転角度量を示すエンコーダ信号を出力するロータリエンコーダ75a,77a(図5、図9参照)を内蔵している。各ロータリアクチュエータ75,77は、図1に示すホームポジションにおける屈伸形状を含む、目標とする移動ロボット1(乃至本体3)の姿勢に合わせた形状に走行輪アーム7が屈伸するように、後述するコントローラユニット19により個別に駆動制御される。   Each of the rotary actuators 75 and 77 is constituted by a high torque type motor such as a DC servo motor, for example, and rotary encoders 75a and 77a (see FIGS. 5 and 9) for outputting an encoder signal indicating a rotation angle amount. Built-in. The rotary actuators 75 and 77 will be described later so that the traveling wheel arm 7 bends and stretches into a shape that matches the posture of the target mobile robot 1 (or the main body 3), including the bent shape at the home position shown in FIG. The drive is individually controlled by the controller unit 19.

尚、本実施形態では、各走行輪アーム7のロータリアクチュエータ75,77が請求項中のアクチュエータに相当し、また、各移動用走行輪5と各走行輪アーム7とを含んで、請求項中の移動手段が構成されている。   In the present embodiment, the rotary actuators 75 and 77 of each traveling wheel arm 7 correspond to the actuators in the claims, and each traveling wheel 5 and each traveling wheel arm 7 are included in the claims. The moving means is configured.

前記雲台9は、移動ロボット1の進行方向F(請求項中の移動方向に相当)における本体3の前方上部に固定して配置されており、この雲台9上に、図2に拡大斜視図で示すように、移動ロボット1の左右方向に間隔を置いて、2台の前記外界センサ13(請求項中の一次元レーザスキャナに相当)が設置されている。   The pan head 9 is fixedly arranged on the front upper part of the main body 3 in the traveling direction F (corresponding to the moving direction in the claims) of the mobile robot 1, and an enlarged perspective view is shown in FIG. As shown in the figure, the two external sensors 13 (corresponding to the one-dimensional laser scanner in the claims) are installed at an interval in the left-right direction of the mobile robot 1.

各外界センサ13は、レーザ光源とポリゴンミラー、ポリゴンミラーの回転用モータ、及び、フォトダイオードを内蔵している。この外界センサ13は、ポリゴンミラーによりレーザ光源からの測定光を移動ロボット1の左右方向(請求項中の第1の方向に相当)に走査させて移動ロボット1の前方に出力する。各外界センサ13において、測定光が照射された照射対象からの反射光は、外界センサ13のポリゴンミラーによってフォトダイオードに向けて反射され、フォトダイオードにより受光される。   Each external sensor 13 includes a laser light source, a polygon mirror, a polygon mirror rotation motor, and a photodiode. This external sensor 13 scans the measuring light from the laser light source in the left-right direction of the mobile robot 1 (corresponding to the first direction in the claims) by the polygon mirror and outputs it to the front of the mobile robot 1. In each external sensor 13, the reflected light from the irradiation target irradiated with the measurement light is reflected toward the photodiode by the polygon mirror of the external sensor 13 and is received by the photodiode.

そして、フォトダイオードの出力信号から得られる測距値とポリゴンミラーの角度値に、そのタイミングにおける移動ロボット1の左右方向における測定光の走査角度データを関連づけた内容の信号が、各外界センサ13から測定信号として出力される。   Then, each external sensor 13 generates a signal having a content in which the distance value obtained from the output signal of the photodiode and the angle value of the polygon mirror are associated with the scanning angle data of the measurement light in the left-right direction of the mobile robot 1 at that timing. Output as measurement signal.

各外界センサ13が測定信号を出力している間、図1に示す移動ロボット1の本体3は、ロータリアクチュエータ75,77の駆動による各走行輪アーム7の屈伸によって、移動ロボット1の本体3の上面が移動面Aに対して平行に位置する図1のホームポジションを中心として、チルト方向の上下に揺動される。   While each external sensor 13 outputs a measurement signal, the main body 3 of the mobile robot 1 shown in FIG. 1 is bent and stretched by the traveling wheel arms 7 driven by the rotary actuators 75 and 77. The upper surface is swung up and down in the tilt direction around the home position in FIG.

したがって、例えば上述したホームポジションから図3の説明図に示すようなチルト方向下方に移動ロボット1の本体3が揺動することで、各外界センサ13が出力する、移動ロボット1の左右方向に走査された測定光は、移動ロボット1の上下方向(請求項中の第2の方向に相当)に走査されることになる。このため、各外界センサ13が出力する測定信号は結局、測定光の照射対象の三次元形状に応じたものとなる。   Therefore, for example, when the main body 3 of the mobile robot 1 swings downward from the home position described above in the tilt direction as shown in the explanatory diagram of FIG. 3, scanning is performed in the left-right direction of the mobile robot 1 output by each external sensor 13. The measured light is scanned in the vertical direction of the mobile robot 1 (corresponding to the second direction in the claims). For this reason, the measurement signal output from each external sensor 13 eventually corresponds to the three-dimensional shape of the measurement light irradiation target.

前記内界センサ15は、雲台9上の2つの外界センサ13,13の中間箇所に設置されており、ジャイロスコープ151(請求項中の角速度センサに相当、図5参照)と加速度センサ153とを内蔵している(図5、図9参照)。ジャイロスコープ151としては、例えば、MEMS(Micro Electro Mechanical Systems)技術を用いた超小型の機械式(振動型)角速度センサや、FOG(Fiber Optic Gyro)による光学式角速度センサを用いることができる。また、加速度センサ153にも、MEMS技術を用いた歪ゲージや光学式センサを用いることができる。   The inner world sensor 15 is installed at an intermediate position between the two outer world sensors 13 and 13 on the pan head 9, and includes a gyroscope 151 (corresponding to an angular velocity sensor in the claims, see FIG. 5), an acceleration sensor 153, (See FIGS. 5 and 9). As the gyroscope 151, for example, an ultra-small mechanical (vibration type) angular velocity sensor using MEMS (Micro Electro Mechanical Systems) technology or an optical angular velocity sensor using FOG (Fiber Optic Gyro) can be used. The acceleration sensor 153 can also be a strain gauge or an optical sensor using MEMS technology.

図1に示す前記雲台11は、不図示の伸縮用モータにより伸縮可能に構成されており、かつ、前記監視用カメラ17をパン、チルト可能に支持するものである。   The pan head 11 shown in FIG. 1 is configured to be extendable and contractable by a not-shown extension / contraction motor, and supports the monitoring camera 17 so as to be able to pan and tilt.

前記監視用カメラ17は、昼夜間を通して対応できるように、通常のカメラと赤外線カメラとをユニット化して構成されている。   The surveillance camera 17 is configured by unitizing a normal camera and an infrared camera so that it can be used throughout the day and night.

前記コントローラユニット19は、図4に移動ロボット1の電気的な概略構成のブロック図で示すように、GPS(全地球測位システム)受信機191と、デジタルマップデータベース193と、ミッション情報データベース195と、外界認識処理用コンピュータ197と、走行制御処理用コンピュータ199と、これらの電源Bとを有している。   The controller unit 19 includes a GPS (global positioning system) receiver 191, a digital map database 193, a mission information database 195, as shown in a block diagram of an electrical schematic configuration of the mobile robot 1 in FIG. 4. The computer includes an external recognition processing computer 197, a travel control processing computer 199, and a power source B for these computers.

前記GPS受信機191は、移動ロボット1のグローバル座標系における座標値を取得し既知とするために用いられる。このGPS受信機191は、複数のGPS衛星(図示せず)からの信号を受信して自らの位置データを割り出す従来公知のものである。但し、本実施形態の移動ロボット1では、鉛直座標軸方向の座標値を、標高ではなく移動面Aを基準とした座標値とするために、GPS受信機191で割り出し得る位置データのうち緯度データと経度データのみを利用し、標高データは利用しない。   The GPS receiver 191 is used to acquire and make known a coordinate value in the global coordinate system of the mobile robot 1. The GPS receiver 191 is a conventionally known one that receives signals from a plurality of GPS satellites (not shown) and determines its own position data. However, in the mobile robot 1 of this embodiment, in order to set the coordinate value in the vertical coordinate axis direction as a coordinate value based on the moving plane A, not the altitude, latitude data and position data that can be calculated by the GPS receiver 191 are used. Use only longitude data, not elevation data.

前記デジタルマップデータベース193には、予め航空測量等で取得された移動面A上の地図情報が、緯度、経度、標高の三方位データとリンクさせて、デジタルデータとして格納されている。前記ミッション情報データベース195は、移動ロボット1の巡回すべき経路のデータや、各種発生条件(When/Where)に対する実行命令の内容のデータ等が格納されている。   In the digital map database 193, map information on the moving plane A acquired in advance by aerial survey or the like is stored as digital data by linking with three-direction data of latitude, longitude, and altitude. The mission information database 195 stores data on a route to be traveled by the mobile robot 1, data on the contents of execution instructions for various occurrence conditions (When / Where), and the like.

前記外界認識処理用コンピュータ197は、図5にブロック図で示すように、CPU197a、RAM197b、ROM197c、及び、不揮発性メモリNVMを内蔵する本体197Aと、キーボード197B及びモニタ197Cとを有している。   As shown in the block diagram of FIG. 5, the outside world recognition processing computer 197 includes a CPU 197a, a RAM 197b, a ROM 197c, and a main body 197A incorporating a nonvolatile memory NVM, a keyboard 197B, and a monitor 197C.

前記キーボード197Bは、外界認識処理用コンピュータ197で実行させる処理のメニューを選択する場合等に操作されるもので、前記モニタ197Cは、キーボード197Bの操作による処理メニューの選択時等に、それに必要な画面やキーボード197Bによる入力、選択内容を表示するためのものである。   The keyboard 197B is operated when selecting a menu of processing to be executed by the external recognition processing computer 197. The monitor 197C is necessary when selecting a processing menu by operating the keyboard 197B. This is for displaying the input and selection contents on the screen and the keyboard 197B.

また、前記本体197AのCPU197aには、RAM197b及びROM197cや、キーボード197B及びモニタ197C、不揮発性メモリNVMの他、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bと、内界センサ15のジャイロスコープ151及び加速度センサ153とが接続されている。さらに、CPU197aには、インタフェースI/Fを介して走行制御処理用コンピュータ199が接続されている。   The CPU 197a of the main body 197A includes a RAM 197b and a ROM 197c, a keyboard 197B and a monitor 197C, a non-volatile memory NVM, rotary encoders 75b and 77b built in the rotary actuators 75 and 77 of each traveling wheel arm 7, A gyroscope 151 and an acceleration sensor 153 of the internal sensor 15 are connected. Furthermore, a travel control processing computer 199 is connected to the CPU 197a via an interface I / F.

尚、スペースの都合により、図5中では、ロータリアクチュエータ75,77のロータリエンコーダ75b,77bを、1つの走行輪アーム7の分だけ代表して記載しており、CPU197aに接続されている他の走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bは、図5中での記載を省略している。   For convenience of space, in FIG. 5, the rotary encoders 75 b and 77 b of the rotary actuators 75 and 77 are shown as a representative for one traveling wheel arm 7, and other encoders connected to the CPU 197 a are shown. The rotary encoders 75b and 77b of the rotary actuators 75 and 77 of the traveling wheel arm 7 are not shown in FIG.

前記RAM197bは、各種データ記憶用のデータエリア及び各種処理作業に用いるワークエリアを有しており、前記ROM199cには、CPU197aに各種処理動作を行わせるための制御プログラムが格納されている。前記不揮発性メモリNVMには、後述する処理によって割り出されるキャリブレーションデータが格納される。   The RAM 197b has a data area for storing various data and a work area used for various processing operations, and the ROM 199c stores a control program for causing the CPU 197a to perform various processing operations. The non-volatile memory NVM stores calibration data determined by processing to be described later.

次に、ROM197cに格納された制御プログラムにしたがってCPU197aが実行する処理を、図6乃至図8のフローチャートを参照して説明する。   Next, processing executed by the CPU 197a according to the control program stored in the ROM 197c will be described with reference to the flowcharts of FIGS.

外界認識処理用コンピュータ197が起動しプログラムがスタートすると、CPU197aは、まず、図6に示すように、キーボード197Bの操作によりキャリブレーション処理メニューを選択する割り込み入力が発生したか否かを確認する(ステップS1)。割り込み入力が発生した場合は(ステップS1でY)、キャリブレーション処理を実行し、割り込み入力が発生していない場合は(ステップS1でN)、外界認識処理を実行する(ステップS5)。ステップS3又はステップS5の処理が終了したならば、ステップS1にリターンする。   When the external recognition processing computer 197 is activated and the program is started, the CPU 197a first checks whether or not an interrupt input for selecting a calibration processing menu is generated by operating the keyboard 197B as shown in FIG. 6 ( Step S1). If an interrupt input has occurred (Y in step S1), a calibration process is executed. If no interrupt input has occurred (N in step S1), an external recognition process is executed (step S5). If the process of step S3 or step S5 is completed, the process returns to step S1.

そして、ステップS3のキャリブレーション処理では、図7のフローチャートに示すように、まず、移動面Aのスキャニングを行う(ステップS31)。   In the calibration process in step S3, as shown in the flowchart of FIG. 7, first, the moving surface A is scanned (step S31).

このスキャニングにおいては、各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号を、インタフェースI/Fを介して走行制御処理用コンピュータ199に出力する。これに呼応して、走行制御処理用コンピュータ199の後述する制御により移動ロボット1の本体3が、図1のホームポジションからチルト方向の最下方のキャリブレーションポジションまで揺動される。これにより、雲台9上の2つの外界センサ13から、測定光が照射された範囲の移動面Aからの反射光に応じた測定信号が、周期的にそれぞれ出力される。   In this scanning, a drive command signal for the rotary actuators 75 and 77 of each traveling wheel arm 7 is output to the traveling control processing computer 199 via the interface I / F. In response to this, the main body 3 of the mobile robot 1 is swung from the home position in FIG. 1 to the lowest calibration position in the tilt direction by the later-described control of the computer 199 for traveling control processing. Thereby, the measurement signals according to the reflected light from the moving surface A in the range irradiated with the measurement light are periodically output from the two external sensors 13 on the pan head 9.

そこで、ステップS31のスキャニングにおける移動ロボット1の揺動中に各外界センサ13から周期的にそれぞれ出力された測定信号と、この測定信号の出力周期における内界センサ15のジャイロスコープ151及び加速度センサ153の出力信号と、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号とを取り込む(ステップS33)。   Therefore, the measurement signal periodically output from each external sensor 13 during the swing of the mobile robot 1 in the scanning of step S31, and the gyroscope 151 and the acceleration sensor 153 of the internal sensor 15 in the output period of this measurement signal. And the encoder signals from the rotary encoders 75b and 77b built in the rotary actuators 75 and 77 of each traveling wheel arm 7 are fetched (step S33).

そして、取り込んだ各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号に基づいて、各外界センサ13,13の移動面Aからの高さをそれぞれ割り出す(ステップS35)。   Then, based on the encoder signals from the rotary encoders 75b and 77b incorporated in the rotary actuators 75 and 77 of the traveling wheel arms 7 that have been taken in, the heights of the external sensors 13 and 13 from the moving surface A are determined ( Step S35).

また、取り込んだ各外界センサ13の測定信号及びジャイロスコープ151の出力信号と、ステップS35で割り出した各外界センサ13,13の移動面Aからの高さとに基づいて、各外界センサ13を座標軸の中心としたローカル座標系における、測定光が照射された範囲の移動面Aの座標値群を割り出す。   Further, based on the measurement signal of each external sensor 13 and the output signal of the gyroscope 151 taken in, and the height from the moving surface A of each external sensor 13, 13 determined in step S35, each external sensor 13 is set to the coordinate axis. A coordinate value group of the moving plane A in the range irradiated with the measurement light in the central local coordinate system is determined.

そして、割り出した移動面Aのローカル座標系における座標値群に、例えばICP(Iteractive Closet Point )アルゴリズムを適用する等して、各外界センサ13を座標軸の中心とする移動面Aの座標値群を、互いの配置の違いによるずれがなくなるように、1つの座標値群に合成する。この合成により、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置に配置された、仮想的な単一の外界センサの位置を座標中心とするローカル座標系における移動面Aの座標値群を割り出す(ステップS37)。   Then, by applying an ICP (Iteractive Closet Point) algorithm, for example, to the coordinate value group in the local coordinate system of the determined moving surface A, the coordinate value group of the moving surface A having each external sensor 13 as the center of the coordinate axis is obtained. The coordinate values are combined into one coordinate value group so that there is no shift due to the difference in arrangement. As a result of this synthesis, the coordinate center is the position of a single virtual external sensor placed at the midpoint of the two external sensors 13, 13 in the left-right direction of the mobile robot 1, that is, the position of the internal sensor 15. A coordinate value group of the moving plane A in the local coordinate system is determined (step S37).

さらに、取り込んだ各外界センサ13の測定信号と、内界センサ15の加速度センサ153の出力信号とに基づいて、移動面Aと直交する鉛直座標軸と、地球の重力方向に延在する鉛直軸とを割り出し、割り出した鉛直座標軸の鉛直軸に対するずれ角を割り出す(ステップS39)。   Further, based on the measurement signal of each external sensor 13 taken in and the output signal of the acceleration sensor 153 of the internal sensor 15, a vertical coordinate axis orthogonal to the moving surface A and a vertical axis extending in the direction of the earth's gravity And the deviation angle of the determined vertical coordinate axis with respect to the vertical axis is determined (step S39).

そして、ステップS39で割り出した鉛直座標軸の鉛直軸に対するずれ角に基づいて、ステップS37で求めた合成後の移動面Aのローカル座標系における座標値群を、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置を座標軸の中心とし、かつ、鉛直座標軸の延在方向と重力方向とが一致する、重力方向基準のローカル座標系(請求項中の変換後ローカル座標系に相当)における移動面Aの座標値群に変換するのに必要な、キャリブレーションデータを割り出し、不揮発性メモリNVMに格納して(ステップS41)、キャリブレーション処理を終了する。   Then, based on the deviation angle of the vertical coordinate axis determined in step S39 with respect to the vertical axis, the coordinate value group in the local coordinate system of the combined moving surface A obtained in step S37 is converted into two external worlds in the left-right direction of the mobile robot 1. A local coordinate system based on the gravitational direction, in which the intermediate point of the sensors 13, that is, the position of the inner world sensor 15 is the center of the coordinate axis, and the extending direction of the vertical coordinate axis coincides with the gravitational direction. Calibration data necessary for conversion to the coordinate value group of the moving plane A in the converted local coordinate system) is calculated, stored in the nonvolatile memory NVM (step S41), and the calibration process is terminated.

一方、図6のステップS5における外界認識処理では、図8のフローチャートに示すように、まず、走行制御処理用コンピュータ199からのスキャニング指令信号が、インタフェースI/Fを介して入力されているか否かを確認し(ステップS51)、入力されていない場合は(ステップS51でN)、外界認識処理を終了する。   On the other hand, in the external environment recognition process in step S5 of FIG. 6, as shown in the flowchart of FIG. 8, first, whether or not a scanning command signal from the travel control processing computer 199 is input via the interface I / F. Is confirmed (step S51), and if not input (N in step S51), the external recognition process is terminated.

一方、走行制御処理用コンピュータ199からのスキャニング指令信号が、インタフェースI/Fを介して入力されている場合は(ステップS51でY)、各外界センサ13から周期的にそれぞれ出力された測定信号と、この測定信号の出力周期における内界センサ15のジャイロスコープ151の出力信号と、各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号とを取り込む(ステップS53)。   On the other hand, when the scanning command signal from the travel control processing computer 199 is input via the interface I / F (Y in step S51), the measurement signal output periodically from each external sensor 13 and Then, the output signal of the gyroscope 151 of the internal sensor 15 and the encoder signals from the rotary encoders 75b and 77b built in the rotary actuators 75 and 77 of each traveling wheel arm 7 in the output cycle of the measurement signal are fetched (step) S53).

そして、取り込んだ各走行輪アーム7のロータリアクチュエータ75,77に内蔵されたロータリエンコーダ75b,77bからのエンコーダ信号に基づいて、各外界センサ13,13の移動面Aからの高さをそれぞれ割り出す(ステップS55)。   Then, based on the encoder signals from the rotary encoders 75b and 77b incorporated in the rotary actuators 75 and 77 of the traveling wheel arms 7 that have been taken in, the heights of the external sensors 13 and 13 from the moving surface A are determined ( Step S55).

また、ステップS53で取り込んだ各外界センサ13の測定信号及びジャイロスコープ151の出力信号と、ステップS55で割り出した各外界センサ13,13の移動面Aからの高さとに基づいて、各外界センサ13を座標軸の中心としたローカル座標系における、測定光が照射された範囲の移動面Aの座標値群を割り出し、これを、ステップS37と同様にして1つの座標値群に合成する(ステップS57)。   Further, based on the measurement signal of each external sensor 13 taken in step S53 and the output signal of the gyroscope 151, and the height from the moving surface A of each external sensor 13, 13 determined in step S55, each external sensor 13 is displayed. In the local coordinate system with the coordinate axis as the center, the coordinate value group of the moving surface A in the range irradiated with the measurement light is determined and synthesized into one coordinate value group in the same manner as in step S37 (step S57). .

さらに、ステップS57で割り出した合成後の移動面Aのローカル座標系における座標値群と、不揮発性メモリNVMに格納されたキャリブレーションデータとを、インタフェースI/Fを介して走行制御処理用コンピュータ199に出力して(ステップS59)、外界認識処理を終了する。   Further, the coordinate value group in the local coordinate system of the combined moving surface A determined in step S57 and the calibration data stored in the nonvolatile memory NVM are used for the travel control processing computer 199 via the interface I / F. (Step S59), and the external environment recognition process is terminated.

以上の説明からも明らかなように、本実施形態の移動ロボット1では、図7のフローチャートにおけるステップS37や、図8のフローチャートにおけるステップS57が、請求項中の走査角度検出手段やローカル座標系座標値割出手段に対応する処理となっており、図7中のステップS39が、請求項中のずれ角割出手段に対応する処理となっており、図7中のステップS41が、請求項中のキャリブレーションデータ割出手段に対応する処理となっている。   As is clear from the above description, in the mobile robot 1 of the present embodiment, step S37 in the flowchart of FIG. 7 and step S57 in the flowchart of FIG. The process corresponds to the value indexing means, step S39 in FIG. 7 is the process corresponding to the deviation angle indexing means in the claims, and step S41 in FIG. This process corresponds to the calibration data indexing means.

前記走行制御処理用コンピュータ199は、図9にブロック図で示すように、CPU199a、RAM199b、ROM199c、及び、不揮発性メモリNVMを内蔵する本体199Aと、キーボード199B及びモニタ199Cとを有している。   As shown in the block diagram of FIG. 9, the travel control processing computer 199 has a main body 199A incorporating a CPU 199a, a RAM 199b, a ROM 199c, and a nonvolatile memory NVM, a keyboard 199B, and a monitor 199C.

前記キーボード199Bは、走行制御処理用コンピュータ199で実行させる処理のメニューを選択する場合等に操作されるもので、前記モニタ199Cは、キーボード199Bの操作による処理メニューの選択時等に、それに必要な画面やキーボード199Bによる入力、選択内容を表示するためのものである。   The keyboard 199B is operated when selecting a menu of processing to be executed by the computer 199 for traveling control processing. The monitor 199C is necessary for selecting a processing menu by operating the keyboard 199B. This is for displaying the input and selection contents by the screen and the keyboard 199B.

また、前記本体199AのCPU199aには、RAM199b及びROM199cや、キーボード199B及びモニタ199C、不揮発性メモリNVMの他、各移動用走行輪5のインホイールモータ51のドライバ51aやロータリエンコーダ51b、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77b、内界センサ15の加速度センサ153、GPS受信機191、デジタルマップデータベース193、及び、ミッション情報データベース195が接続されている。さらに、CPU199aには、インタフェースI/Fを介して外界認識処理用コンピュータ197が接続されている。   The CPU 199a of the main body 199A includes a RAM 199b and ROM 199c, a keyboard 199B and monitor 199C, a non-volatile memory NVM, a driver 51a of the in-wheel motor 51 of each moving traveling wheel 5, a rotary encoder 51b, and each traveling wheel. The drivers 75a and 77a of the rotary actuators 75 and 77 of the arm 7 and the rotary encoders 75b and 77b, the acceleration sensor 153 of the internal sensor 15, the GPS receiver 191, the digital map database 193, and the mission information database 195 are connected. . Furthermore, an external recognition computer 197 is connected to the CPU 199a via an interface I / F.

尚、スペースの都合により、図9中では、インホイールモータ51のドライバ51aやロータリエンコーダ51bを、1つの移動用走行輪5の分だけ代表して記載しており、CPU199aに接続されている他の移動用走行輪5のインホイールモータ51のドライバ51aやロータリエンコーダ51bは、図9中での記載を省略している。   For convenience of space, in FIG. 9, the driver 51 a and the rotary encoder 51 b of the in-wheel motor 51 are representatively shown for the one traveling wheel 5 and are connected to the CPU 199 a. The driver 51a and the rotary encoder 51b of the in-wheel motor 51 of the traveling wheel 5 for movement are omitted in FIG.

同様の理由で、図9中では、ロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77bを、1つの走行輪アーム7の分だけ代表して記載しており、CPU199aに接続されている他の走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aやロータリエンコーダ75b,77bは、図9中での記載を省略している。   For the same reason, in FIG. 9, the drivers 75a and 77a of the rotary actuators 75 and 77 and the rotary encoders 75b and 77b are shown as representative of one traveling wheel arm 7 and connected to the CPU 199a. The description of the drivers 75a and 77a and the rotary encoders 75b and 77b of the rotary actuators 75 and 77 of the other traveling wheel arm 7 is omitted in FIG.

前記RAM199bは、各種データ記憶用のデータエリア及び各種処理作業に用いるワークエリアを有しており、前記ROM199cには、CPU199aに各種処理動作を行わせるための制御プログラムが格納されている。   The RAM 199b has a data area for storing various data and a work area used for various processing operations, and the ROM 199c stores a control program for causing the CPU 199a to perform various processing operations.

前記不揮発性メモリNVMには、グローバル座標系における移動面Aの座標値群のデータが格納される。また、不揮発性メモリNVMには、GPS受信機191の設置箇所と、移動ロボット1の左右方向における2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置との相対位置関係を、グローバル座標系における座標値差で示す相対位置データも格納される。この相対位置データは、GPS受信機191により取得される移動ロボット1のグローバル座標系における座標値から、2つの外界センサ13,13の中間地点、つまり、内界センサ15の位置のグローバル座標系における座標値を割り出し既知とするために用いられる。   The nonvolatile memory NVM stores data of coordinate value groups of the moving plane A in the global coordinate system. Further, the nonvolatile memory NVM has a relative positional relationship between the installation location of the GPS receiver 191 and the midpoint of the two external sensors 13 and 13 in the left-right direction of the mobile robot 1, that is, the position of the internal sensor 15. The relative position data indicated by the coordinate value difference in the global coordinate system is also stored. This relative position data is obtained from the coordinate value in the global coordinate system of the mobile robot 1 acquired by the GPS receiver 191, the intermediate point between the two external sensors 13, 13, that is, the position of the internal sensor 15 in the global coordinate system. Used to determine coordinate values and make them known.

次に、ROM199cに格納された制御プログラムに従いCPU199aが行う、移動面A上の障害物の位置認識に関する処理を、図10のフローチャートを参照して説明する。   Next, processing relating to the position recognition of the obstacle on the moving surface A, which is performed by the CPU 199a according to the control program stored in the ROM 199c, will be described with reference to the flowchart of FIG.

走行制御処理用コンピュータ199が起動しプログラムがスタートすると、CPU199aは、まず、各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号が、インタフェースI/Fを介して外界認識処理用コンピュータ197から入力されたか否かを確認する(ステップS71)。   When the traveling control processing computer 199 is activated and the program is started, the CPU 199a first sends a drive command signal to the rotary actuators 75 and 77 of each traveling wheel arm 7 from the outside recognition processing computer 197 via the interface I / F. It is confirmed whether or not an input has been made (step S71).

各走行輪アーム7のロータリアクチュエータ75,77に対する駆動指令信号が入力された場合は(ステップS71でY)、各移動用走行輪5のインホイールモータ51のドライバ51aに対する駆動信号の出力を停止させて移動ロボット1を停止させると共に、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号を出力して、移動ロボット1の本体3を、図1のホームポジションからチルト方向の最下方のキャリブレーションポジションまで揺動させた後(ステップS73)、ステップS71にリターンする。   When a drive command signal is input to the rotary actuators 75 and 77 of each traveling wheel arm 7 (Y in step S71), output of the driving signal to the driver 51a of the in-wheel motor 51 of each traveling wheel 5 is stopped. The mobile robot 1 is stopped and a drive signal is output to the drivers 75a and 77a of the rotary actuators 75 and 77 of the traveling wheel arms 7, so that the main body 3 of the mobile robot 1 is moved in the tilt direction from the home position in FIG. After swinging to the lowest calibration position (step S73), the process returns to step S71.

一方、駆動指令信号が外界認識処理用コンピュータ197から入力されていない場合は(ステップS71でN)、GPS受信機191から出力される緯度、経度のデータと、各走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bからのエンコーダ信号とから、グローバル座標系における移動ロボット1の座標値を割り出す(ステップS75)。   On the other hand, if the drive command signal is not input from the external recognition processing computer 197 (N in step S71), the latitude and longitude data output from the GPS receiver 191 and the rotary actuator 75 of each traveling wheel arm 7 are displayed. , 77 from the encoder signals from the rotary encoders 75b, 77b, the coordinate value of the mobile robot 1 in the global coordinate system is determined (step S75).

そして、割り出したグローバル座標系における座標値の周辺に関する、グローバル座標系における移動面Aの座標値群のデータが、不揮発性メモリNVMに格納されているか否かを確認し(ステップS77)、格納されていない場合は(ステップS77でN)、インタフェースI/Fを介して外界認識処理用コンピュータ197にスキャニング指令信号を出力する(ステップS79)。   Then, it is confirmed whether or not the coordinate value group data of the moving surface A in the global coordinate system related to the periphery of the coordinate value in the calculated global coordinate system is stored in the nonvolatile memory NVM (step S77). If not (N in Step S77), a scanning command signal is output to the outside recognition processing computer 197 via the interface I / F (Step S79).

さらに、各移動用走行輪5のインホイールモータ51のドライバ51aに対する駆動信号の出力を停止させて移動ロボット1を停止させると共に、各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号を出力して、移動ロボット1の本体3を、図1のホームポジションからチルト方向の下方に所定角度揺動させた後(ステップS81)、外界認識処理用コンピュータ197からの、合成後の移動面Aのローカル座標系における座標値群とキャリブレーションデータとが、インタフェースI/Fを介して入力されるのを待機する(ステップS83)。   Further, the output of the drive signal to the driver 51a of the in-wheel motor 51 of each traveling wheel 5 is stopped to stop the mobile robot 1, and the drivers 75a and 77a of the rotary actuators 75 and 77 of each traveling wheel arm 7 are stopped. A drive signal is output and the main body 3 of the mobile robot 1 is swung by a predetermined angle downward from the home position in FIG. 1 (step S81), and then the synthesized signal from the computer 197 for external recognition processing is displayed. It waits for the coordinate value group and calibration data in the local coordinate system of the moving surface A to be input via the interface I / F (step S83).

合成後の移動面Aのローカル座標系における座標値群とキャリブレーションデータとが、外界認識処理用コンピュータ197からインタフェースI/Fを介して入力されたならば(ステップS83でY)、入力されたキャリブレーションデータを用いて、入力された合成後の移動面Aのローカル座標系における座標値群を、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系における移動面Aの座標値群に変換する(ステップS85)。   If the coordinate value group in the local coordinate system of the combined moving surface A and the calibration data are input from the outside recognition processing computer 197 via the interface I / F (Y in step S83), they are input. Using the calibration data, the coordinate value group in the local coordinate system of the combined moving plane A that has been input is converted into the coordinate value of the moving plane A in the local coordinate system based on the gravitational direction with the vertical coordinate axis direction coinciding with the gravitational direction. Conversion into a group (step S85).

そして、変換した重力方向基準のローカル座標系における移動面Aの座標値群を、不揮発性メモリNVMに格納された相対位置データを用いて、GPS受信機191を座標軸の中心とする、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系の座標値群に変換し、さらにこれを、GPS受信機191で受信された緯度、経度のデータと、各走行輪アーム7のロータリアクチュエータ75,77のロータリエンコーダ75b,77bからのエンコーダ信号とから割り出される、グローバル座標系における移動ロボット1の座標値に基づいて、グローバル座標系における移動面Aの座標値群に変換する(ステップS87)。   Then, using the relative position data stored in the nonvolatile memory NVM, the coordinate value group of the moving surface A in the converted local coordinate system of the gravity direction is used, and the vertical coordinate axis direction with the GPS receiver 191 as the center of the coordinate axis is used. Is converted into a coordinate value group of the local coordinate system based on the gravity direction matched with the gravity direction, and this is further converted into the latitude and longitude data received by the GPS receiver 191 and the rotary actuator 75 of each traveling wheel arm 7. , 77 based on the coordinate values of the mobile robot 1 in the global coordinate system, which are determined from the encoder signals from the rotary encoders 75b, 77b, are converted into a coordinate value group of the moving plane A in the global coordinate system (step S87). .

そして、変換したグローバル座標系における移動面Aの座標値群を、不揮発性メモリNVMに格納した後(ステップS89)、ステップS71にリターンする。   Then, after storing the converted coordinate value group of the moving plane A in the global coordinate system in the nonvolatile memory NVM (step S89), the process returns to step S71.

また、ステップS77において、ステップS75で割り出したグローバル座標系における座標値の周辺に関する、グローバル座標系における移動面Aの座標値群のデータが、不揮発性メモリNVMに格納されている場合(Y)は、その格納されているデータの座標値群と、この座標値群に対応する場所に関するデジタルマップデータベース193の地図情報のデジタルデータとを照合し、鉛直座標軸方向の座標値に大きな相違があるか否か等によって、移動面A上に障害物があるか否かを判断する(ステップS91)。   In step S77, when the coordinate value group data of the moving plane A in the global coordinate system related to the periphery of the coordinate value in the global coordinate system determined in step S75 is stored in the nonvolatile memory NVM (Y). The coordinate value group of the stored data is collated with the digital data of the map information of the digital map database 193 relating to the location corresponding to this coordinate value group, and there is a large difference in the coordinate value in the vertical coordinate axis direction. Whether or not there is an obstacle on the moving surface A is determined (step S91).

移動面A上に障害物があると判断した場合は(ステップS91でY)、あると判断した障害物を回避させるための移動ロボット1の移動パターンを解析し、各移動用走行輪5のインホイールモータ51のドライバ51aや各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに、駆動信号をそれぞれ出力して、解析した移動パターンに応じた動作を移動ロボット1(の各移動用走行輪5のインホイールモータ51や、各走行輪アーム7のロータリアクチュエータ75,77)に実行させる(ステップS93)。   If it is determined that there is an obstacle on the moving surface A (Y in step S91), the movement pattern of the mobile robot 1 for avoiding the obstacle determined to be present is analyzed, and the inversion of each moving traveling wheel 5 is analyzed. Driving signals are output to the driver 51a of the wheel motor 51 and the drivers 75a and 77a of the rotary actuators 75 and 77 of the traveling wheel arms 7, respectively, and the operation corresponding to the analyzed movement pattern is performed for each movement of the mobile robot 1 The in-wheel motor 51 of the traveling wheel 5 and the rotary actuators 75 and 77 of each traveling wheel arm 7 are executed (step S93).

一方、移動面A上に障害物があると判断しなかった場合は(ステップS91でN)、グローバル座標系における移動ロボット1の座標値付近の地図情報のデジタルデータをデジタルマップデータベース193から読み出し、これと、ミッション情報データベース195に格納されたデータの示す巡回経路や各種発生条件に対する実行命令とに基づいて、各移動用走行輪5のインホイールモータ51のドライバ51aや各走行輪アーム7のロータリアクチュエータ75,77のドライバ75a,77aに駆動信号をそれぞれ出力して、ミッション情報データベース195に格納されたデータの示す巡回経路や各種発生条件に対する実行命令に応じた動作を移動ロボット1(の各移動用走行輪5のインホイールモータ51や、各走行輪アーム7のロータリアクチュエータ75,77)に実行させる(ステップS95)。   On the other hand, if it is not determined that there is an obstacle on the moving surface A (N in step S91), digital data of map information near the coordinate value of the mobile robot 1 in the global coordinate system is read from the digital map database 193, Based on this and the execution route for the traveling route indicated by the data stored in the mission information database 195 and various generation conditions, the driver 51a of the in-wheel motor 51 of each traveling wheel 5 and the rotary of each traveling wheel arm 7 are displayed. Driving signals are output to the drivers 75a and 77a of the actuators 75 and 77, respectively, and the movement according to the execution instruction for the traveling route indicated by the data stored in the mission information database 195 and various generation conditions is performed for each movement of the mobile robot 1 ( Of the in-wheel motor 51 of the traveling wheels 5 and the traveling wheel arms 7 Is performed over elementary actuators 75, 77) (step S95).

そして、ステップS93やステップS95において、移動ロボット1にそれぞれの動作を実行させたならば、ステップS71にリターンする。   In step S93 or step S95, if the mobile robot 1 is caused to execute each operation, the process returns to step S71.

以上の説明からも明らかなように、本実施形態においては、図10のフローチャートにおけるステップS73及びステップS81が、請求項中の姿勢変化手段に対応する処理となっており、図10中のステップS85及びステップS87が、請求項中のローカル座標系座標値変換手段に対応する処理部分を除いたグローバル座標系座標値割出手段に対応する処理となっている。   As is apparent from the above description, in this embodiment, step S73 and step S81 in the flowchart of FIG. 10 are processing corresponding to the posture changing means in the claims, and step S85 in FIG. And step S87 is a process corresponding to the global coordinate system coordinate value indexing means excluding the processing part corresponding to the local coordinate system coordinate value conversion means in the claims.

尚、外界認識処理用コンピュータ197や走行制御処理用コンピュータ199は、ROMに格納された制御プログラムをCPUが実行することで上記の処理の全てを行うものであってもよく、一部の処理をDSP(Digital Signal Processor)により実行するものであってもよい。   Note that the outside world recognition processing computer 197 and the travel control processing computer 199 may perform all of the above processing by causing the CPU to execute the control program stored in the ROM. It may be executed by a DSP (Digital Signal Processor).

上述のように構成された本実施形態の移動ロボット1では、移動ロボット1の運用を開始するに当たって、外界認識処理用コンピュータ197のキーボード197Bの操作によりキャリブレーション処理メニューを選択すると、走行制御処理用コンピュータ199の制御により移動ロボット1の本体3がチルト方向に揺動されつつ2つの外界センサ13から、移動ロボット1の左右方向に走査される測定光が出力される。   In the mobile robot 1 of the present embodiment configured as described above, when the operation of the mobile robot 1 is started, if the calibration processing menu is selected by operating the keyboard 197B of the external environment recognition processing computer 197, the travel control processing Under the control of the computer 199, the measurement light scanned in the left-right direction of the mobile robot 1 is output from the two external sensors 13 while the main body 3 of the mobile robot 1 is swung in the tilt direction.

そして、各外界センサ13が測定光の照射対象である移動面Aからの反射光をそれぞれ受光して、測定信号をそれぞれ出力すると、外界認識処理用コンピュータ197において、各外界センサ13を座標軸の中心とする2つのローカル座標系を合成したローカル座標系における移動面Aの座標値群が割り出され、この合成後のローカル座標系の鉛直座標軸と、内界センサ15の加速度センサ153の出力信号から割り出される地球の重力方向に延在する鉛直軸とのずれ角が割り出される。   When each external sensor 13 receives the reflected light from the moving surface A, which is the measurement light irradiation target, and outputs each measurement signal, each external sensor 13 is placed at the center of the coordinate axis in the external recognition processing computer 197. The coordinate value group of the moving plane A in the local coordinate system obtained by combining the two local coordinate systems is determined, and the vertical coordinate axis of the combined local coordinate system and the output signal of the acceleration sensor 153 of the inner world sensor 15 are determined. The angle of deviation from the vertical axis extending in the direction of gravity of the earth to be determined is determined.

さらに、この割り出されたずれ角に基づいて、合成後のローカル座標系の鉛直座標軸の方向を地球の重力方向に一致させた、重力方向基準のローカル座標系における移動面Aの座標値群に変換するのに必要なキャリブレーションデータが、外界認識処理用コンピュータ197において割り出されて、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納される。   Further, based on the calculated deviation angle, the coordinate value group of the moving surface A in the local coordinate system based on the gravitational direction is obtained by matching the direction of the vertical coordinate axis of the combined local coordinate system with the gravity direction of the earth. Calibration data necessary for conversion is calculated by the external recognition computer 197 and stored in the non-volatile memory NVM of the external recognition computer 197.

キャリブレーションデータが割り出されると、以後は、走行制御処理用コンピュータ199の制御により移動ロボット1が、グローバル座標系における移動面Aの座標値群のデータが走行制御処理用コンピュータ199の不揮発性メモリNVMに格納されていない場所に移動することで、走行制御処理用コンピュータ199の制御により移動ロボット1の本体3がチルト方向に揺動されつつ、移動ロボット1の左右方向に走査される測定光が2つの外界センサ13からそれぞれ出力される。   Once the calibration data has been determined, the mobile robot 1 is controlled under the control of the travel control processing computer 199, and the data of the coordinate value group of the moving plane A in the global coordinate system is stored in the nonvolatile memory of the travel control processing computer 199. By moving to a place not stored in the NVM, the main body 3 of the mobile robot 1 is swung in the tilt direction under the control of the travel control processing computer 199, and the measurement light scanned in the left-right direction of the mobile robot 1 It is output from each of the two external sensors 13.

そして、各外界センサ13が測定光の照射対象である移動面Aからの反射光をそれぞれ受光して、測定信号をそれぞれ出力すると、外界認識処理用コンピュータ197において、各外界センサ13を座標軸の中心とする2つのローカル座標系を合成したローカル座標系における移動面Aの座標値群が割り出され、この合成後のローカル座標系における移動面Aの座標値群が、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納されたキャリブレーションデータと共に、走行制御処理用コンピュータ199に出力される。   When each external sensor 13 receives the reflected light from the moving surface A, which is the measurement light irradiation target, and outputs each measurement signal, each external sensor 13 is placed at the center of the coordinate axis in the external recognition processing computer 197. The coordinate value group of the moving plane A in the local coordinate system obtained by combining the two local coordinate systems is calculated, and the coordinate value group of the moving plane A in the combined local coordinate system is determined by the computer 197 for external recognition processing. Together with the calibration data stored in the non-volatile memory NVM, it is output to the travel control processing computer 199.

これに呼応して走行制御処理用コンピュータ199では、外界認識処理用コンピュータ197から入力されたキャリブレーションデータを用いて、合成後のローカル座標系における移動面Aの座標値群が、グローバル座標系と同じ、鉛直座標軸方向を重力方向に一致させた重力方向基準のローカル座標系における移動面Aの座標値群に変換され、さらに、グローバル座標系における移動面Aの座標値群に変換されて、走行制御処理用コンピュータ199の不揮発性メモリNVMに格納される。   In response to this, the travel control processing computer 199 uses the calibration data input from the external recognition processing computer 197 to convert the coordinate value group of the moving surface A in the combined local coordinate system to the global coordinate system. It is converted into a coordinate value group of the moving surface A in the local coordinate system of the same gravitational direction with the same vertical coordinate axis direction as the gravitational direction, and further converted into a coordinate value group of the moving surface A in the global coordinate system. It is stored in the nonvolatile memory NVM of the control processing computer 199.

そして、走行制御処理用コンピュータ199において、グローバル座標系における移動ロボット1の座標値の周辺に関する、不揮発性メモリNVMに格納されたグローバル座標系における移動面Aの座標値群と、デジタルマップデータベース193の地図情報のデジタルデータとの照合により、移動ロボット1の周辺の移動面A上に障害物があるか否かが判断される。   In the travel control processing computer 199, the coordinate value group of the moving plane A in the global coordinate system stored in the nonvolatile memory NVM and the surroundings of the coordinate value of the mobile robot 1 in the global coordinate system, and the digital map database 193 By comparing the map information with the digital data, it is determined whether there is an obstacle on the moving surface A around the mobile robot 1.

障害物があると判断されると、走行制御処理用コンピュータ199の制御により移動ロボット1が、各走行輪アーム7を適宜個別に屈伸させて、各移動用走行輪5のインホイールモータ51の回転により、その障害物を回避させるように移動する。   When it is determined that there is an obstacle, the mobile robot 1 flexes and extends each traveling wheel arm 7 individually as appropriate under the control of the traveling control processing computer 199, and the in-wheel motor 51 of each traveling traveling wheel 5 rotates. To move to avoid the obstacle.

このように、本実施形態の移動ロボット1によれば、移動ロボット1の本体3をチルト方向に揺動させることで、移動ロボット1の左右方向のみに測定光を走査させる一次元レーザスキャナとしての外界センサ13を用いて、移動ロボット1の進行方向Fとは異なる移動ロボット1の上下左右の二次元方向に測定光を走査させることができるので、小型で低コストの外界センサ13を用いて、移動面A上の障害物の位置認識を行うことができる。   Thus, according to the mobile robot 1 of the present embodiment, as the one-dimensional laser scanner that scans the measurement light only in the left-right direction of the mobile robot 1 by swinging the main body 3 of the mobile robot 1 in the tilt direction. Since the external sensor 13 can be used to scan the measurement light in the two-dimensional direction of the mobile robot 1 that is different from the traveling direction F of the mobile robot 1, the small and low-cost external sensor 13 can be used. The position of the obstacle on the moving surface A can be recognized.

尚、本実施形態では、2つの外界センサ13,13を用い、それらがそれぞれ受光した移動面Aからの反射光を用いて割り出した、各外界センサ13を座標軸の中心とするローカル座標系における移動面Aの座標値群を、例えばICP(Iteractive Closet Point )アルゴリズムを適用する等して、互いの配置の違いによるずれがなくなるように、1つの座標値群に合成する場合について説明した。   In the present embodiment, two external sensors 13 and 13 are used, and the movements in the local coordinate system centered on the coordinate axes are determined by using the reflected light from the moving surface A received by each of them. A case has been described in which the coordinate value group of the surface A is synthesized into one coordinate value group such that, for example, by applying an ICP (Iteractive Closet Point) algorithm, a shift due to a difference in mutual arrangement is eliminated.

しかし、単一の外界センサ13を用い、その外界センサ13が受光した移動面Aからの反射光を用いて割り出した、その外界センサ13を座標軸の中心とする単一の、ローカル座標系における移動面Aの座標値群を、キャリブレーションデータを用いて、重力方向基準のローカル座標系における移動面Aの座標値群に変換し、これを、グローバル座標系における移動面Aの座標値群にさらに変換する構成としてもよい。   However, a single external sensor 13 is used, and the movement in a single local coordinate system is determined by using the reflected light from the moving surface A received by the external sensor 13 and having the external sensor 13 as the center of the coordinate axis. The coordinate value group of the plane A is converted into the coordinate value group of the moving plane A in the local coordinate system based on the gravitational direction using the calibration data, and this is further converted into the coordinate value group of the moving plane A in the global coordinate system. It is good also as a structure to convert.

但し、本実施形態の移動ロボット1のように、2つの外界センサ13,13を用いて割り出した、各外界センサ13を座標軸の中心とするローカル座標系における移動面Aの座標値群を、1つの座標値群に合成する構成とすれば、移動面Aの座標値群を広範囲に取得でき、あるいは、精度よく取得できるというメリットがある。   However, as in the mobile robot 1 of the present embodiment, the coordinate value group of the moving plane A in the local coordinate system, which is calculated using the two external sensors 13 and 13 and has the external sensors 13 as the centers of the coordinate axes, is 1 If it is configured to synthesize one coordinate value group, there is an advantage that the coordinate value group of the moving surface A can be acquired over a wide range or can be acquired with high accuracy.

また、本実施形態の移動ロボット1では、外界認識処理用コンピュータ197の不揮発性メモリNVMに格納されるキャリブレーションデータを、移動ロボット1の本体3をチルト方向に揺動させながら外界センサ13からの測定光を平らな移動面Aに照射して、その反射光から割り出されるローカル座標系の鉛直座標軸と、加速度センサ153の出力から検出される地球の重力方向に延在する鉛直軸とのずれ角を割り出し、このずれ角に基づいて割り出すものとした。   In the mobile robot 1 of the present embodiment, calibration data stored in the non-volatile memory NVM of the external recognition processing computer 197 is transferred from the external sensor 13 while the main body 3 of the mobile robot 1 is swung in the tilt direction. Deviation between the vertical coordinate axis of the local coordinate system calculated from the reflected light and the vertical axis extending in the gravity direction of the earth detected from the output of the acceleration sensor 153 by irradiating the flat moving surface A with the measurement light The angle was determined, and the index was determined based on this deviation angle.

しかし、キャリブレーションデータを予め別途割り出しておき、前もって外界認識処理用コンピュータ197の不揮発性メモリNVMに格納しておいて、ローカル座標系における移動面Aの座標値群をグローバル座標系における移動面Aの座標値群に変換する際に利用する構成としてもよい。   However, the calibration data is separately determined in advance and stored in advance in the non-volatile memory NVM of the external recognition computer 197, and the coordinate value group of the moving surface A in the local coordinate system is converted to the moving surface A in the global coordinate system. It is good also as a structure utilized when converting into the coordinate value group.

ちなみに、移動ロボット1が移動する移動面Aが、地球の重力方向に対して鉛直に延在する、つまり、地球の水平方向に延在することが保証されているのであれば、ローカル座標系における移動面Aの座標値群をグローバル座標系における移動面Aの座標値群に変換する際に、キャリブレーションデータを利用する必要がないことは明らかである。   By the way, if it is guaranteed that the moving surface A on which the mobile robot 1 moves extends vertically with respect to the direction of gravity of the earth, that is, extends in the horizontal direction of the earth, Obviously, it is not necessary to use calibration data when converting the coordinate value group of the moving plane A into the coordinate value group of the moving plane A in the global coordinate system.

さらに、本実施形態の移動ロボット1では、前後左右の各移動用走行輪5を本体3に接続する各走行輪アーム7が、2つのアーム部71,73と2つのロータリアクチュエータ75,77とにより構成されていて、各走行輪アーム7を適宜個別に屈伸させることで、移動ロボット1の本体3がチルト方向に揺動される構成について説明した。   Furthermore, in the mobile robot 1 of the present embodiment, each traveling wheel arm 7 that connects the front, rear, left, and right traveling wheels 5 to the main body 3 includes two arm portions 71 and 73 and two rotary actuators 75 and 77. The configuration in which the main body 3 of the mobile robot 1 is swung in the tilt direction by bending and extending each traveling wheel arm 7 individually as appropriate has been described.

しかし、例えば進退可能なロッドを有するエアシリンダを用いて本体3と各移動用走行輪5とを接続し、各エアシリンダのロッドを適宜個別に進退させることによって移動ロボット1の本体3がチルト方向に揺動される構成とする等、本体3の姿勢を変化させることで移動ロボット1の本体3の姿勢をチルト方向に変化させる場合の構成は、本実施形態で説明した屈伸式の走行輪アーム7に限らず任意である。   However, for example, the main body 3 of the mobile robot 1 is tilted by connecting the main body 3 and the traveling wheels 5 for movement using an air cylinder having a rod that can be advanced and retracted, and moving the rod of each air cylinder individually and appropriately. The configuration in the case where the posture of the main body 3 of the mobile robot 1 is changed in the tilt direction by changing the posture of the main body 3 such as a configuration that swings in the tilting direction is described in the present embodiment. It is not limited to 7 and is optional.

また、本実施形態の移動ロボット1では、雲台9を移動ロボット1の本体3の前方上部に固定して配置するものとしたが、例えば雲台9をチルト方向に揺動可能に構成して、雲台9のチルト方向への揺動により、移動ロボット1の左右方向のみに測定光を走査させる一次元レーザスキャナとしての外界センサ13を用いて、移動ロボット1の進行方向Fとは異なる移動ロボット1の上下左右の二次元方向に測定光を走査させることができるように構成してもよい。   Further, in the mobile robot 1 of the present embodiment, the pan head 9 is fixedly disposed on the front upper part of the main body 3 of the mobile robot 1. For example, the pan head 9 is configured to be swingable in the tilt direction. A movement different from the traveling direction F of the mobile robot 1 using the external sensor 13 as a one-dimensional laser scanner that scans the measurement light only in the left-right direction of the mobile robot 1 by swinging the head 9 in the tilt direction. You may comprise so that measurement light can be scanned in the two-dimensional direction of the robot 1 up and down, right and left.

即ち、移動ロボット1の本体3の姿勢をチルト方向に変化させるための構成は、本実施形態で説明した移動ロボット1の本体3自身をチルト方向に揺動させるものに限らず任意である。   In other words, the configuration for changing the posture of the main body 3 of the mobile robot 1 in the tilt direction is not limited to that for swinging the main body 3 itself of the mobile robot 1 described in the present embodiment in the tilt direction.

その場合には、雲台9をチルト方向に揺動させるための構成(例えば、走行制御処理用コンピュータ199の制御により駆動されるステッピングモータ等)が、請求項中の姿勢変化手段に相当することになる。   In that case, the configuration for swinging the pan head 9 in the tilt direction (for example, a stepping motor driven by the control of the travel control processing computer 199) corresponds to the posture changing means in the claims. become.

そして、本発明は、本実施形態で説明した走行輪により移動する移動体に限らず、例えばクローラにより移動する移動体や歩行運動により移動する移動体等、移動面Aに対する姿勢を変化させることのできる移動体である限り、広く適用可能であることは言うまでもない。   The present invention is not limited to the moving body that is moved by the traveling wheel described in the present embodiment, but can change the posture with respect to the moving surface A, such as a moving body that moves by a crawler or a moving body that moves by walking motion. Needless to say, the present invention is widely applicable as long as it is a movable body.

本発明による障害物位置認識方法を適用した移動体の一実施形態に係る移動ロボットを示す概略構成図である。It is a schematic block diagram which shows the mobile robot which concerns on one Embodiment of the mobile body to which the obstacle position recognition method by this invention is applied. 図1の雲台上の外界センサ及び内界センサの配置を示す拡大斜視図である。It is an expansion perspective view which shows arrangement | positioning of the external field sensor and internal field sensor on the pan head of FIG. 図1の移動ロボットの本体がチルト方向下方に揺動する際の動作の説明図である。It is explanatory drawing of operation | movement at the time of the main body of the mobile robot of FIG. 図1の移動ロボットの電気的な概略構成を示すブロック図である。It is a block diagram which shows the electrical schematic structure of the mobile robot of FIG. 図4の外界認識処理用コンピュータの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the computer for external environment recognition processing of FIG. 図5の外界認識処理用コンピュータのCPUがROMに格納された制御プログラムにしたがって実行する処理のフローチャートである。It is a flowchart of the process which CPU of the computer for external recognition processing of FIG. 5 performs according to the control program stored in ROM. 図6のキャリブレーション処理のフローチャートである。It is a flowchart of the calibration process of FIG. 図6の外界認識処理のフローチャートである。It is a flowchart of the external field recognition process of FIG. 図4の走行制御処理用コンピュータの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the computer for driving control processing of FIG. 図9の走行制御処理用コンピュータのCPUがROMに格納された制御プログラムにしたがって実行する処理のフローチャートである。It is a flowchart of the process which CPU of the computer for driving control processing of FIG. 9 performs according to the control program stored in ROM.

符号の説明Explanation of symbols

1 移動ロボット(移動体)
3 本体
5 移動用走行輪(移動手段)
7 走行輪アーム(移動手段)
75,77 ロータリアクチュエータ(アクチュエータ)
13 外界センサ(一次元レーザスキャナ)
151 ジャイロスコープ(角速度センサ)
153 加速度センサ
197 外界認識処理用コンピュータ(走査角度検出手段、ローカル座標系座標値割出手段、グローバル座標系座標値割出手段、ずれ角割出手段、キャリブレーションデータ割出手段)
199 走行制御処理用コンピュータ(姿勢変化手段、グローバル座標系座標値割出手段)
A 移動面
F 進行方向(移動方向)
1 Mobile robot (moving body)
3 Body 5 Traveling wheel for movement (moving means)
7 Traveling wheel arm (moving means)
75, 77 Rotary actuator (actuator)
13 External sensor (one-dimensional laser scanner)
151 Gyroscope (Angular velocity sensor)
153 Acceleration sensor 197 Computer for external recognition processing (scanning angle detection means, local coordinate system coordinate value indexing means, global coordinate system coordinate value indexing means, deviation angle indexing means, calibration data indexing means)
199 Computer for travel control processing (posture changing means, global coordinate system coordinate value indexing means)
A Moving surface F Traveling direction (moving direction)

Claims (6)

移動面上を移動する移動体上から前記移動面上の障害物を位置認識する方法であって、
前記移動体上の一次元レーザスキャナから、前記移動体の移動方向と交わる第1の方向に走査された測定光を出力させ、
前記移動面に対する前記移動体の姿勢、又は、前記移動体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させることで、前記移動体の移動方向と交わり前記第1の方向と直交する第2の方向に前記測定光を走査させ、
前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角の変化を、前記一次元レーザスキャナに対する相対位置が固定された前記移動体上の角速度センサにより検出することで、前記第2の方向への前記測定光の走査角度を検出し、
前記測定光の照射対象からの反射光を前記一次元レーザスキャナにより受光させ、
前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記第2の方向への前記測定光の前記検出した走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出し、
前記割り出した前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出し、
前記割り出した前記障害物のグローバル座標系における座標値群に基づいて、前記障害物の位置認識を行うようにした、
ことを特徴とする移動体の障害物位置認識方法。
A method for recognizing an obstacle on a moving surface from a moving body that moves on a moving surface,
From the one-dimensional laser scanner on the moving body, output measurement light scanned in a first direction intersecting the moving direction of the moving body,
By changing the attitude of the moving body with respect to the moving surface or the attitude of the one-dimensional laser scanner with respect to the moving body, the at least the elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is changed. Scanning the measurement light in a second direction intersecting the body movement direction and perpendicular to the first direction;
A change in at least an elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is detected by an angular velocity sensor on the moving body in which a relative position with respect to the one-dimensional laser scanner is fixed. Detecting a scanning angle of the measuring light;
The reflected light from the measurement light irradiation target is received by the one-dimensional laser scanner,
The reflected light received by the one-dimensional laser scanner, a known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the detection of the measurement light in the second direction Based on the scanned angle, a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner is determined,
A coordinate value group in the global coordinate system of the obstacle is determined based on a coordinate value group in the local coordinate system of the obstacle and the known coordinate value in the global coordinate system of the one-dimensional laser scanner,
Based on the coordinate value group in the global coordinate system of the calculated obstacle, the position of the obstacle is recognized.
An obstacle position recognition method for a moving object.
前記移動体の複数の移動用走行輪のうち少なくとも一部の移動用走行輪と前記移動体の本体との距離を離間接近させて、前記移動面に対する前記移動体の姿勢を相対的に変化させるようにした請求項1記載の移動体の障害物位置認識方法。   A distance between at least some of the traveling wheels for traveling of the moving body and the main body of the moving body is made closer to each other to change the posture of the moving body relative to the moving surface. 2. The obstacle position recognition method for a moving object according to claim 1, wherein the obstacle position is recognized. 前記一次元レーザスキャナにより受光された前記移動面としての平らな基準面からの前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記第2の方向への前記測定光の前記検出した走査角度に基づいて、前記ローカル座標系における鉛直座標軸を割り出し、前記一次元レーザスキャナに対する相対位置が固定された前記移動体上の加速度センサにより地球の重力方向を検出し、この検出した地球の重力方向に延在する鉛直軸に対する、前記割り出した前記ローカル座標系の鉛直座標軸のずれ角を割り出し、この割り出したずれ角に基づいて、前記ローカル座標系における座標値を、前記一次元レーザスキャナの位置を基準とし、かつ、地球の重力方向を鉛直座標軸の方向とする変換後ローカル座標系における座標値に変換するためのキャリブレーションデータを割り出し、この割り出したキャリブレーションデータにより、前記障害物の前記ローカル座標系における座標値群を、前記一次元レーザスキャナの位置を基準とし、かつ、地球の重力方向を鉛直座標軸の方向とする変換後ローカル座標系における座標値群に変換し、この変換した前記障害物の前記変換後ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出すようにした請求項1又は2記載の移動体の障害物位置認識方法。   The reflected light from the flat reference surface as the moving surface received by the one-dimensional laser scanner, a known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the first The vertical coordinate axis in the local coordinate system is determined based on the detected scanning angle of the measuring light in the direction of 2, and the acceleration sensor on the moving body whose relative position with respect to the one-dimensional laser scanner is fixed A gravity direction is detected, a deviation angle of the vertical coordinate axis of the calculated local coordinate system with respect to a vertical axis extending in the gravity direction of the detected earth is calculated, and the local coordinate system is determined based on the calculated deviation angle. The coordinate value in is a post-conversion log with the position of the one-dimensional laser scanner as a reference and the direction of gravity of the earth as the direction of the vertical coordinate axis. Calibration data to be converted into coordinate values in the cal coordinate system is determined, and by using the calculated calibration data, the coordinate value group in the local coordinate system of the obstacle is based on the position of the one-dimensional laser scanner, And the coordinate value group in the transformed local coordinate system of the transformed local coordinate system is converted into the coordinate value group in the transformed local coordinate system with the gravity direction of the earth as the direction of the vertical coordinate axis, and the one-dimensional laser 3. The obstacle position recognition method for a moving object according to claim 1, wherein a coordinate value group in the global coordinate system of the obstacle is determined based on a known coordinate value in the global coordinate system of the scanner. 移動面上の障害物を避けて該移動面上を移動するために、互いに直交する第1の方向及び第2の方向に走査される測定光を用いた前記障害物の位置認識を行う移動体であって、
本体と、
前記本体を前記移動面上で前記第1の方向及び前記第2の方向と交わる方向に移動させる移動手段と、
前記本体に設けられ、前記測定光を出力して前記第1の方向に走査させると共に、前記測定光の照射対象からの反射光を受光する一次元レーザスキャナと、
前記移動面に対する前記本体の姿勢、又は、前記本体に対する前記一次元レーザスキャナの姿勢を変化させて、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させる姿勢変化手段と、
前記一次元レーザスキャナに対する相対位置を固定して前記本体に設けられ、前記一次元レーザスキャナの前記移動面に対する少なくとも仰角又は俯角の変化を検出する角速度センサと、
前記角速度センサの検出結果に基づいて、前記第2の方向への前記測定光の走査角度を検出する走査角度検出手段と、
前記一次元レーザスキャナにより受光された前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記走査角度検出手段により検出された前記第2の方向への前記測定光の走査角度に基づいて、前記一次元レーザスキャナの位置を基準とするローカル座標系における前記障害物の座標値群を割り出すローカル座標系座標値割出手段と、
前記ローカル座標系座標値割出手段により割り出された前記障害物の前記ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出すグローバル座標系座標値割出手段とを備えており、
前記グローバル座標系座標値取得手段により割り出された前記障害物の前記グローバル座標系における座標値群に基づいて、前記障害物を位置認識する、
ことを特徴とする移動体。
A moving body for recognizing the position of the obstacle using measurement light scanned in a first direction and a second direction orthogonal to each other in order to avoid the obstacle on the moving surface and move on the moving surface Because
The body,
Moving means for moving the body in the direction intersecting the first direction and the second direction on the moving surface;
A one-dimensional laser scanner that is provided in the main body, outputs the measurement light, scans in the first direction, and receives reflected light from an irradiation target of the measurement light;
Posture changing means for changing at least the elevation angle or depression angle of the one-dimensional laser scanner relative to the moving surface by changing the posture of the main body relative to the moving surface or the posture of the one-dimensional laser scanner relative to the main body;
An angular velocity sensor that is provided in the main body with a fixed relative position with respect to the one-dimensional laser scanner and detects a change in at least an elevation angle or depression angle with respect to the moving surface of the one-dimensional laser scanner;
A scanning angle detection means for detecting a scanning angle of the measurement light in the second direction based on a detection result of the angular velocity sensor;
The reflected light received by the one-dimensional laser scanner, the known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the second detected by the scanning angle detection means Local coordinate system coordinate value indexing means for determining a coordinate value group of the obstacle in a local coordinate system based on the position of the one-dimensional laser scanner based on the scanning angle of the measurement light in the direction;
Based on the coordinate value group in the local coordinate system of the obstacle determined by the local coordinate system coordinate value indexing means, and the known coordinate value in the global coordinate system of the one-dimensional laser scanner, the obstacle A global coordinate system coordinate value indexing means for determining a coordinate value group in the global coordinate system of
Recognizing the position of the obstacle based on a coordinate value group in the global coordinate system of the obstacle determined by the global coordinate system coordinate value acquisition means;
A moving object characterized by that.
前記移動手段は、前記本体を移動させる複数の移動用走行輪と、これら複数の移動用走行輪を前記本体にそれぞれ接続する複数の走行輪アームとを有していて、これら複数の走行輪アームのうち少なくとも一部の走行輪アームには、前記本体と前記移動用走行輪との距離を離間接近させるアクチュエータが設けられており、前記姿勢変化手段は、前記アクチュエータにより前記複数の移動用走行輪の少なくとも一部と前記本体との距離を離間接近させて、前記移動面に対する前記本体の姿勢を変化させることで、前記移動面に対する前記一次元レーザスキャナの少なくとも仰角又は俯角を変化させる請求項4記載の移動体。   The moving means includes a plurality of traveling wheels for moving the main body, and a plurality of traveling wheel arms respectively connecting the plurality of traveling traveling wheels to the main body. At least some of the traveling wheel arms are provided with an actuator for separating and approaching the distance between the main body and the traveling traveling wheel, and the posture changing means is configured to move the plurality of traveling traveling wheels by the actuator. 5. The at least elevation angle or depression angle of the one-dimensional laser scanner with respect to the moving surface is changed by changing a posture of the main body with respect to the moving surface by making a distance between at least a part of the main body and the main body apart from each other. The moving body described. 前記一次元レーザスキャナに対する相対位置を固定して前記本体に設けられ、地球の重力方向を検出する加速度センサと、この加速度センサが検出する地球の重力方向に延在する鉛直軸に対する前記ローカル座標系の鉛直座標軸のずれ角を割り出すずれ角割出手段と、このずれ角割出手段が割り出した前記ずれ角に基づいて、前記ローカル座標系における座標値を、前記一次元レーザスキャナの位置を基準とし、かつ、地球の重力方向を鉛直座標軸の方向とする変換後ローカル座標系における座標値に変換するためのキャリブレーションデータを割り出すキャリブレーションデータ割出手段とをさらに備えており、前記グローバル座標系座標値割出手段は、前記キャリブレーションデータ割出手段により割り出されたキャリブレーションデータにより、前記ローカル座標系座標値割出手段により割り出された前記障害物の前記ローカル座標系における座標値群を、前記一次元レーザスキャナの位置を基準とし、かつ、地球の重力方向を鉛直座標軸の方向とする変換後ローカル座標系における座標値群に変換するローカル座標系座標値変換手段を有しており、前記ずれ角割出手段は、前記一次元レーザスキャナにより受光された前記移動面としての平らな基準面からの前記反射光、前記一次元レーザスキャナによる前記測定光の前記第1の方向への既知の走査角度、及び、前記走査角度検出手段により検出された前記第2の方向への前記測定光の走査角度に基づいて、前記ローカル座標系座標値割出手段が割り出した、前記ローカル座標系の鉛直座標軸の、前記鉛直軸に対するずれ角を割り出すように構成されており、前記ローカル座標系座標値変換手段により変換された後の前記障害物の前記変換後ローカル座標系における座標値群、及び、前記一次元レーザスキャナのグローバル座標系における既知の座標値に基づいて、前記障害物のグローバル座標系における座標値群を割り出す請求項4又は5記載の移動体。   An acceleration sensor that is provided in the main body with a fixed relative position with respect to the one-dimensional laser scanner and detects the direction of gravity of the earth, and the local coordinate system with respect to a vertical axis that extends in the direction of gravity of the earth detected by the acceleration sensor A deviation angle indexing means for determining a deviation angle of the vertical coordinate axis, and based on the deviation angle calculated by the deviation angle indexing means, the coordinate value in the local coordinate system is based on the position of the one-dimensional laser scanner, and Calibration data indexing means for calculating calibration data for converting the gravity direction of the earth into a coordinate value in the converted local coordinate system with the direction of the vertical coordinate axis as the direction of the vertical coordinate axis, The calculating means includes the calibration data calculated by the calibration data calculating means. The coordinate value group in the local coordinate system of the obstacle determined by the local coordinate system coordinate value indexing means is based on the position of the one-dimensional laser scanner, and the gravity direction of the earth is a vertical coordinate axis. A local coordinate system coordinate value converting means for converting into a coordinate value group in the converted local coordinate system, and the deviation angle indexing means is used as the moving surface received by the one-dimensional laser scanner. The reflected light from the flat reference surface, the known scanning angle of the measurement light by the one-dimensional laser scanner in the first direction, and the second direction detected by the scanning angle detection means The deviation angle of the vertical coordinate axis of the local coordinate system, calculated by the local coordinate system coordinate value indexing unit, based on the scanning angle of the measurement light with respect to the vertical axis A coordinate value group in the transformed local coordinate system of the obstacle after being transformed by the local coordinate system coordinate value transforming means, and a known value in the global coordinate system of the one-dimensional laser scanner. The moving body according to claim 4, wherein a coordinate value group in a global coordinate system of the obstacle is determined based on the coordinate value of the obstacle.
JP2007278924A 2007-10-26 2007-10-26 Obstacle position recognition method for mobile unit and mobile unit Pending JP2009109219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007278924A JP2009109219A (en) 2007-10-26 2007-10-26 Obstacle position recognition method for mobile unit and mobile unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007278924A JP2009109219A (en) 2007-10-26 2007-10-26 Obstacle position recognition method for mobile unit and mobile unit

Publications (1)

Publication Number Publication Date
JP2009109219A true JP2009109219A (en) 2009-05-21

Family

ID=40777863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007278924A Pending JP2009109219A (en) 2007-10-26 2007-10-26 Obstacle position recognition method for mobile unit and mobile unit

Country Status (1)

Country Link
JP (1) JP2009109219A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100366A (en) * 2009-11-09 2011-05-19 Yoshitatsu Kogyo:Kk Portable alarm device
JP2014041117A (en) * 2012-07-27 2014-03-06 Kyushu Univ Method for measuring position of underground excavation, device for measuring position of underground excavation, and excavation system for non-open-cut method
JP2014215296A (en) * 2013-04-26 2014-11-17 ジック アーゲー Laser scanner for traveling object navigation
JP2015086590A (en) * 2013-10-31 2015-05-07 三菱電機株式会社 Road marking coating equipment
CN116766266A (en) * 2023-08-17 2023-09-19 北京中勘迈普科技有限公司 Industrial park and indoor intelligent 3D laser scanning robot
JP2023133088A (en) * 2022-03-11 2023-09-22 南京航空航天大学 Mobile flexible measuring system and method for complex large parts

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57102782A (en) * 1980-12-12 1982-06-25 Mitsubishi Heavy Ind Ltd Travelling device
JPH0875848A (en) * 1994-09-02 1996-03-22 Caterpillar Inc Method and device for tracking body
JP2001219782A (en) * 2000-02-14 2001-08-14 Hino Motors Ltd Headlight optical axis angle adjustment device
JP2001221652A (en) * 1999-10-29 2001-08-17 Visteon Technol Llc Inertial guide apparatus and method for navigation system for car
JP2002166387A (en) * 2000-11-28 2002-06-11 Mitsubishi Heavy Ind Ltd Robot visual sense device
JP2003066144A (en) * 2001-08-23 2003-03-05 Omron Corp Object detection apparatus and method
JP2005090846A (en) * 2003-09-17 2005-04-07 Mitsubishi Heavy Ind Ltd Shooting system
JP2005310043A (en) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd Obstacle avoiding method for moving object and moving object thereof
WO2006051603A1 (en) * 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha Axial deviation angle estimating method and device
JP2006276023A (en) * 2006-04-05 2006-10-12 Omron Corp Object detection apparatus and method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57102782A (en) * 1980-12-12 1982-06-25 Mitsubishi Heavy Ind Ltd Travelling device
JPH0875848A (en) * 1994-09-02 1996-03-22 Caterpillar Inc Method and device for tracking body
JP2001221652A (en) * 1999-10-29 2001-08-17 Visteon Technol Llc Inertial guide apparatus and method for navigation system for car
JP2001219782A (en) * 2000-02-14 2001-08-14 Hino Motors Ltd Headlight optical axis angle adjustment device
JP2002166387A (en) * 2000-11-28 2002-06-11 Mitsubishi Heavy Ind Ltd Robot visual sense device
JP2003066144A (en) * 2001-08-23 2003-03-05 Omron Corp Object detection apparatus and method
JP2005090846A (en) * 2003-09-17 2005-04-07 Mitsubishi Heavy Ind Ltd Shooting system
JP2005310043A (en) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd Obstacle avoiding method for moving object and moving object thereof
WO2006051603A1 (en) * 2004-11-12 2006-05-18 Mitsubishi Denki Kabushiki Kaisha Axial deviation angle estimating method and device
JP2006276023A (en) * 2006-04-05 2006-10-12 Omron Corp Object detection apparatus and method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HARTMUT SURMANN, ET AL.: ""An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of in", ROBOTICS AND AUTONOMOUS SYSTEMS, vol. Vol.45, No.3-4, JPN6012050453, 2003, pages 181 - 198, ISSN: 0002339056 *
上田達朗、外4名: ""無限回転機構を用いた3次元測域センサ"", ロボティクス・メカトロニクス講演会講演概要集, JPN6012050454, 2006, pages 2 - 1, ISSN: 0002339057 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100366A (en) * 2009-11-09 2011-05-19 Yoshitatsu Kogyo:Kk Portable alarm device
JP2014041117A (en) * 2012-07-27 2014-03-06 Kyushu Univ Method for measuring position of underground excavation, device for measuring position of underground excavation, and excavation system for non-open-cut method
JP2014215296A (en) * 2013-04-26 2014-11-17 ジック アーゲー Laser scanner for traveling object navigation
JP2015086590A (en) * 2013-10-31 2015-05-07 三菱電機株式会社 Road marking coating equipment
JP2023133088A (en) * 2022-03-11 2023-09-22 南京航空航天大学 Mobile flexible measuring system and method for complex large parts
CN116766266A (en) * 2023-08-17 2023-09-19 北京中勘迈普科技有限公司 Industrial park and indoor intelligent 3D laser scanning robot

Similar Documents

Publication Publication Date Title
JP7607000B2 (en) Long-range steerable LIDAR system
AU2019204204B2 (en) Vehicle with multiple light detection and ranging devices (LIDARS)
JP6693765B2 (en) Flight object tracking method and flight object guidance system
EP3840919B1 (en) Mobile construction robot
JP6691721B2 (en) Flight planning method and flight guidance system
JP5510081B2 (en) Obstacle avoidance support device, obstacle avoidance support method, and moving object
CN108427123B (en) LIDAR device and method for operating a LIDAR device
JP5105596B2 (en) Travel route determination map creation device and travel route determination map creation method for autonomous mobile body
KR101515496B1 (en) Simulation system for autonomous vehicle for applying obstacle information in virtual reality
KR100901311B1 (en) Autonomous platform
JP2009109219A (en) Obstacle position recognition method for mobile unit and mobile unit
JP2011096170A (en) Autonomous mobile device and control method therefor
CN110914704A (en) Sensor adjustment based on vehicle motion
JP2006239844A (en) Obstacle avoidance device, obstacle avoidance method, obstacle avoidance program, and mobile robot device
KR20140144921A (en) Simulation system for autonomous vehicle using virtual reality
JP2019203822A (en) Surveying device
JP5429986B2 (en) Mobile robot remote environment recognition apparatus and method
JP7035411B2 (en) Crane operation support device
CN115435772B (en) Method, device, electronic device and readable storage medium for establishing local map
JP2009136987A (en) Mobile robot and floor surface shape data correction method
JP2017227463A (en) Position and attitude determination device
US20220291383A1 (en) A lidar device, system, and control methods of the same
JP6910023B2 (en) How to control unmanned moving objects
JP2022530246A (en) Simultaneous execution of self-position estimation and environmental map creation
CN108801253A (en) Robot builds figure positioning system and robot

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130205