[go: up one dir, main page]

JP5499355B2 - Mobile environment recognition apparatus and method - Google Patents

Mobile environment recognition apparatus and method Download PDF

Info

Publication number
JP5499355B2
JP5499355B2 JP2009212086A JP2009212086A JP5499355B2 JP 5499355 B2 JP5499355 B2 JP 5499355B2 JP 2009212086 A JP2009212086 A JP 2009212086A JP 2009212086 A JP2009212086 A JP 2009212086A JP 5499355 B2 JP5499355 B2 JP 5499355B2
Authority
JP
Japan
Prior art keywords
scanning
feature
distance
detection light
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009212086A
Other languages
Japanese (ja)
Other versions
JP2011059071A (en
Inventor
哉吏 金森
和輝 飛田
暁 山▲崎▼
博教 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
NSK Ltd
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS, NSK Ltd filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2009212086A priority Critical patent/JP5499355B2/en
Publication of JP2011059071A publication Critical patent/JP2011059071A/en
Application granted granted Critical
Publication of JP5499355B2 publication Critical patent/JP5499355B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は移動環境認識装置及び方法に関し、例えば脚型ロボットや脚車輪型ロボットのような脚動作型移動体が移動する際に、必要とする移動環境の有無を認識する場合に適用して好適なものである。   The present invention relates to a mobile environment recognition apparatus and method, and is suitable for application to recognize the presence or absence of a required mobile environment when a leg motion type mobile body such as a legged robot or a leg wheel type robot moves. It is a thing.

脚型ロボットや、脚着地部材として車輪を有する脚車輪型ロボットのような脚動作型移動体は、段差がある移動環境を脚により歩行動作をする際には、例えば階段の踏み板のように、一歩移動するごとに脚によって自立できる場所(これを踏み場と呼ぶ)を踏みしめている必要があり、当該踏み場が存在することを歩行動作を開始する前に認識しておく必要がある。   A leg motion type mobile body such as a leg type robot or a leg wheel type robot having a wheel as a leg landing member, when walking with a leg in a moving environment with a step, for example, like a step board of a staircase, It is necessary to step on a place where this leg can stand on its own each time it moves (this is called a step), and it is necessary to recognize the presence of the step before starting the walking motion.

従来、この種の認識手法として、特許文献1〜3の手法が提案されている。   Conventionally, methods of Patent Documents 1 to 3 have been proposed as this type of recognition method.

特開平9−61117号公報Japanese Patent Laid-Open No. 9-61117 特開2002−144278公報JP 2002-144278 A 特開2008−224380公報JP 2008-224380 A

特許文献1に記載の手法は、円錐状の広がりをもつリング光を対象物に対して斜め方向から照射し、対象物に対して垂直軸上にあるカメラで画像を取得し、画像座標検出手段により対象物までの距離を算出する三次元座標計算手段と、予め画像メモリに記録した画像の一部又は全部との比較によって、距離を測定する三次元位置検出手法である。   The technique described in Patent Literature 1 irradiates a ring light having a conical extension from an oblique direction, acquires an image with a camera on a vertical axis with respect to the object, and detects image coordinates. This is a three-dimensional position detection method for measuring the distance by comparing the three-dimensional coordinate calculation means for calculating the distance to the object with a part or all of the image recorded in advance in the image memory.

この手法は、いわゆる三角測量を基本原理としたリング照明を用いたステレオカメラの機能をもっている。   This method has the function of a stereo camera using ring illumination based on so-called triangulation.

しかしながら、この特許文献1の手法では、平面の傾きを検出することができず、また傾きの変化を検出することもできない問題がある。   However, the method of Patent Document 1 has a problem that it cannot detect the inclination of the plane and cannot detect the change in inclination.

また、特許文献2の手法は、腰部に取り付けられた外部センサが、床面までの距離や床面形状の計測を行うために、スリット光を照射する発光手段と、光切断線を撮像する視準値の異なる2つの撮像手段と、光切断方向から撮像された画像を基に計測対象までの距離を算出する手段と、周囲を監視する手段と、を設け、当該2つの撮像手段により同一物体の対応付け及び視差を利用して距離の算出を行う二眼立体視構成を有する。   In addition, the technique disclosed in Patent Document 2 uses a light emitting means for irradiating slit light and an image for capturing an optical cutting line in order for an external sensor attached to the waist to measure the distance to the floor surface and the floor surface shape. Two imaging means having different quasi-values, a means for calculating the distance to the measurement object based on an image taken from the light cutting direction, and a means for monitoring the surroundings are provided, and the same object is provided by the two imaging means. And a binocular stereoscopic structure in which distance is calculated using parallax and parallax.

この特許文献2の手法は、腰部に取り付けられることにより検出感度が向上することや、ロボットの動作中も安定に床面の計測を行うことができるところに特徴があり、基本となる技術は従来技術そのままを用いている点において環境の認識が未だ不十分である。   The technique of this patent document 2 is characterized in that the detection sensitivity is improved by being attached to the waist, and that the floor surface can be stably measured even during the operation of the robot. Environmental awareness is still inadequate in using technology as is.

さらに特許文献3の手法は、三次元レーザレーダによって得られた垂直走査面内の距離データのデータ配列から認識対象の垂直方向及び水平方向の特徴を抽出するようにしたことにより、脚動作型移動体が認識対象を歩行できるような移動環境情報を得るようになされているが、レーザの走査による切断面の特徴量から三次元形状を再構築するために、処理すべき情報量が多く、また手順も複雑であるため、これらを軽減することが望ましい。   Furthermore, the technique of Patent Document 3 extracts the features of the recognition target in the vertical and horizontal directions from the data array of the distance data in the vertical scanning plane obtained by the three-dimensional laser radar. It is designed to obtain movement environment information that allows the body to walk the recognition target, but in order to reconstruct the three-dimensional shape from the features of the cut surface by laser scanning, there is a lot of information to be processed, Since the procedure is also complicated, it is desirable to reduce these.

本発明は以上の点を考慮してなされたもので、一段と少ない情報処理量と簡素化された手順によって、詳細な移動環境情報を得ることができるようにした移動環境認識装置を提案するものである。   The present invention has been made in consideration of the above points, and proposes a mobile environment recognition apparatus that can obtain detailed mobile environment information with a much smaller amount of information processing and a simplified procedure. is there.

かかる課題を解決するため本発明においては、測定対象7に対して、センサ原点Oから視準方向Zを中心として円錐面に沿う方向に走査する円錐走査検出光DETを投射し、当該円錐走査検出光DETと測定対象7の表面S2との交円TRから反射して来る円錐走査検出光DETを受光してセンサ原点Oから測定対象7までの距離を測定する移動環境検出手段3と、移動環境検出手段3が測定した距離測定データに基づいて交円TRの特徴量K1、K11、K21、K31、K41を算出する特徴量算出手段9と、交円TRの特徴量K1、K11、K21、K31、K41によって測定対象表面S2の形状を求める形状判定手段52とを設ける。   In order to solve such a problem, in the present invention, the cone scanning detection light DET that scans in the direction along the conical surface with the collimation direction Z as the center is projected from the sensor origin O to the measurement object 7, and the cone scanning detection is performed. A moving environment detecting means 3 that receives the conical scanning detection light DET reflected from the circle TR between the light DET and the surface S2 of the measuring object 7 and measures the distance from the sensor origin O to the measuring object 7, and the moving environment Based on the distance measurement data measured by the detecting means 3, the feature quantity calculating means 9 for calculating the feature quantities K1, K11, K21, K31, K41 of the intersecting circle TR, and the feature quantities K1, K11, K21, K31 of the intersecting circle TR. , K41, and a shape determining means 52 for determining the shape of the measurement target surface S2.

本発明によれば、円錐走査検出光と測定対象の表面との交円からの反射光に基づいてセンサ原点から測定対象までの距離を測定し、当該測定結果から得た交円の特徴量によって測定対象表面の形状を求めるようにしたことにより、交円の立体的な構成を利用して測定対象の形状を簡便かつ確実に測定することができる。   According to the present invention, the distance from the sensor origin to the measurement object is measured based on the reflected light from the intersection circle between the conical scanning detection light and the surface of the measurement object, and according to the feature amount of the intersection circle obtained from the measurement result. By obtaining the shape of the surface of the measurement object, the shape of the measurement object can be easily and reliably measured using the three-dimensional configuration of the intersecting circle.

移動体の構成を示す略線的側面図である。It is a rough-line side view which shows the structure of a moving body. 図1の外界認識装置9の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the external field recognition apparatus 9 of FIG. 図1の移動環境検出器の詳細構成を示す略線的斜視図である。It is a rough-line perspective view which shows the detailed structure of the movement environment detector of FIG. 円錐走査式距離測定法と円錐走査駆動法(αと、θ、φ)との関係の説明に供する略線図である。It is a basic diagram with which it uses for description of the relationship between a cone scanning distance measuring method and a cone scanning drive method ((alpha), (theta), (phi)). 円錐走査の駆動方法の説明に供する略線図である。It is a basic diagram with which it uses for description of the drive method of a cone scanning. 円錐走査式距離測定法(設定値dST,rST、指定α測定値L)の説明に供する略線図である。It is a basic diagram with which it uses for description of a cone scanning type distance measuring method (setting value dST , rST , designation | designated (alpha) measured value L). 距離画像センサを用いる場合の円錐走査式測定法と距離画像撮像面の関係の説明に供する略線図である。It is a basic diagram with which it uses for description of the relationship between the cone scanning measurement method in the case of using a distance image sensor, and a distance image imaging surface. 距離画像データメモリの構成を示す略線図である。It is a basic diagram which shows the structure of a distance image data memory. 円錐検出光によって階段の踏み面の検出の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of detecting the tread of a staircase by cone detection light. 円錐検出光により階段の不連続面を測定する仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of measuring the discontinuous surface of a staircase with cone detection light. 円錐検出光により階段の断崖を測定する仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of measuring the cliff of a staircase by cone detection light. 凸結合の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of convex coupling | bonding. 平面の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of a plane. 凹結合の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of concave coupling. 不連続面の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of a discontinuous surface. 断崖の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of a cliff. 交円の特徴量と測定面の特徴との関係を示す図表である。It is a graph which shows the relationship between the feature-value of an intersection circle, and the characteristic of a measurement surface. 図2の交円特徴量抽出部41による特徴量抽出処理手順を示すフローチャートである。It is a flowchart which shows the feature-value extraction process sequence by the crossed-circle feature-value extraction part 41 of FIG. 図18の交円特徴量抽出処理手順RT2の詳細構成を示すフローチャートである。19 is a flowchart showing a detailed configuration of an intersecting circle feature quantity extraction processing procedure RT2 of FIG. 図19における特徴量の分類プログラム手順の説明に供する図表である。FIG. 20 is a chart used for explaining a feature quantity classification program procedure in FIG. 19; FIG. 図19の凸結合の特徴量の算出処理手順RT11の詳細構成を示すフローチャートである。FIG. 20 is a flowchart showing a detailed configuration of a processing procedure RT11 for calculating a feature amount of convex combination in FIG. 19; FIG. 図21の凸結合の特徴量の算出処理手順において算出する凸結合の特徴の説明に供する略線図である。FIG. 22 is a schematic diagram for explaining features of a convex coupling calculated in a procedure for calculating a characteristic amount of convex coupling in FIG. 21; 図21の凸結合の特徴量の算出処理手順によって算出される凸結合の特徴量を示す特性曲線図である。FIG. 22 is a characteristic curve diagram illustrating the feature amount of the convex combination calculated by the procedure for calculating the feature amount of the convex combination in FIG. 21. 図19の凹結合の特徴量の算出処理手順の詳細構成を示すフローチャートである。FIG. 20 is a flowchart illustrating a detailed configuration of a processing procedure for calculating a feature amount of concave coupling in FIG. 19. FIG. 凹結合の特徴の説明に供する略線図である。It is a basic diagram with which it uses for description of the characteristic of a concave coupling | bonding. 図24の凹結合の特徴量の算出処理手順RT12によって算出された凹結合の特徴量を示す特性曲線図である。FIG. 25 is a characteristic curve diagram showing the feature amount of the concave connection calculated by the processing procedure RT12 for calculating the feature amount of the concave connection in FIG. 24; 図19の断崖の特徴量の算出処理手順RT13の詳細構成を示すフローチャートである。FIG. 20 is a flowchart showing a detailed configuration of a cliff feature amount calculation processing procedure RT13 in FIG. 19; FIG. 断崖の特徴の説明に供する略線図である。It is an approximate line figure used for explanation of the feature of a cliff. 図27の断崖特徴量の算出処理手順によって得られる断崖の特徴量を示す特性曲線図である。It is a characteristic curve figure which shows the feature-value of the cliff obtained by the calculation process procedure of the cliff feature-value of FIG. 図19の平面特徴量の算出処理手順RT14の詳細構成を示すフローチャートである。FIG. 20 is a flowchart showing a detailed configuration of a planar feature quantity calculation processing procedure RT14 in FIG. 19. FIG. 平面の特徴の説明に供する略線図である。It is an approximate line figure used for explanation of the feature of a plane. 図30の平面特徴量の算出処理手順RT14によって得た平面の特徴量を示す特性曲線図である。FIG. 31 is a characteristic curve diagram showing a planar feature value obtained by a planar feature value calculation processing procedure RT14 in FIG. 30; 平面の特徴の計算の仕方を示す略線図である。It is an approximate line figure showing how to compute the feature of a plane. 図19の不連続面特徴量の算出処理手順RT15の詳細構成を示すフローチャートである。FIG. 20 is a flowchart illustrating a detailed configuration of a discontinuous surface feature amount calculation processing procedure RT15 of FIG. 19. FIG. 不連続面の特徴の説明に供する略線図である。It is a basic diagram with which it uses for description of the characteristic of a discontinuous surface. 図34の不連続面特徴量の算出処理手順RT15によって求めた不連続面の特徴量を示す特性曲線図である。FIG. 35 is a characteristic curve diagram showing a feature amount of a discontinuous surface obtained by a discontinuous surface feature amount calculation processing procedure RT15 of FIG. 上り階段の垂直走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of the vertical scanning of an upstairs. 図37の場合における円錐検出光における円錐検出光による垂直走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of the vertical scanning by the cone detection light in the cone detection light in the case of FIG. 平面の立体的特徴の検出の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of detection of the three-dimensional feature of a plane. 垂直走査による階段特徴量の算出処理手順を示すフローチャートである。It is a flowchart which shows the calculation process procedure of the staircase feature-value by vertical scanning. 下り階段の垂直走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of the vertical scanning of a descent | fall stair. 垂直走査による下り階段特徴量の算出処理手順を示すフローチャートである。It is a flowchart which shows the calculation process procedure of the downward staircase feature-value by vertical scanning. 下り段差が限界高さを越える場合の説明に供する略線図である。It is a basic diagram with which it uses for description when a downward level | step difference exceeds limit height. 断崖の垂直走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of the vertical scan of a cliff. 垂直走査による断崖特徴量の算出処理手順を示すフローチャートである。It is a flowchart which shows the calculation process procedure of the cliff feature-value by vertical scanning. 踏み面の水平走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of horizontal scanning of a tread. 水平走査による踏み面特徴量の算出処理手順を示すフローチャートである。It is a flowchart which shows the calculation process procedure of the tread surface feature-value by horizontal scanning. 踏み場の範囲の決定の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of determining the range of a step. 蹴込面の水平走査の仕方の説明に供する略線図である。It is a basic diagram with which it uses for description of the method of the horizontal scanning of a kick surface. 水平走査による蹴込面特徴量の算出処理手順を示すフローチャートである。It is a flowchart which shows the calculation process procedure of the kick surface feature-value by horizontal scanning. 時系列走査外界確認部47の踏み場確認処理手順を示すフローチャートである。It is a flowchart which shows the step confirmation process procedure of the time series scanning external field confirmation part 47. FIG. 本体駆動部15による前脚階段上昇処理手順を示すフローチャートである。4 is a flowchart showing a front leg staircase ascent process by the main body drive unit 15; 上り階段に対する移動体の上り動作の説明に供する略線的斜視図である。It is a rough-line perspective view with which it uses for description of the upward motion of the moving body with respect to the upward staircase.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)脚動作型移動体の構成と動作
図1において、1は全体として移動体を示し、直方体形状の移動体本体2の前面上端中央部に前方に突出するように移動環境検出器3が設けられている。
(1) Configuration and operation of a leg motion type mobile body In FIG. 1, reference numeral 1 denotes a mobile body as a whole, and the mobile environment detector 3 is projected forward from the center of the front upper end of a rectangular parallelepiped mobile body 2. Is provided.

移動体本体2の前面下部の左右両端位置には左前脚4L及び右前脚4Rが装着されていると共に、移動体本体2の後面下部の左右両端位置には左後脚5L及び右後脚5Rが装着されている。   The left front leg 4L and the right front leg 4R are attached to the left and right ends of the lower part of the front surface of the mobile body 2, and the left rear leg 5L and the right rear leg 5R are attached to the left and right ends of the lower part of the rear surface of the mobile body 2. It is installed.

左前脚4L及び右前脚4R並びに左後脚5L及び右後脚5Rは、それぞれ支軸周りの関節J0、股関節J1及び膝関節J2を介して脚車輪J3を歩行動作ができるように保持している。   The left front leg 4L, the right front leg 4R, the left rear leg 5L, and the right rear leg 5R hold the leg wheel J3 through a joint J0, a hip joint J1, and a knee joint J2 around the support shaft, respectively, so that a walking motion can be performed. .

かくして、左前脚4L及び右前脚4R並びに左後脚5L及び右後脚5Rが平らな床面6上に自立しているときには、脚車輪J3を回転駆動することにより、移動体本体2を車輪の回転動作を利用して移動できるようになされていると共に、移動体本体2が測定対象としての階段7を上り下りする際には、左前脚4L若しくは右前脚4R又は左後脚5L若しくは右後脚5Rのいずれか1つを階段7の1段分の段差を上り下りするように脚車輪J3を回転駆動させずに歩行動作させ、これにより脚車輪J3を階段7の踏み面8を踏む手段として用いて階段7を1歩ずつ上ったり下ったりできるようになされている。   Thus, when the left front leg 4L and the right front leg 4R, and the left rear leg 5L and the right rear leg 5R are standing on the flat floor surface 6, the leg wheel J3 is driven to rotate, thereby moving the mobile body 2 to the wheel. When the mobile body 2 moves up and down the stairs 7 to be measured, the left front leg 4L or the right front leg 4R or the left rear leg 5L or the right rear leg is movable. As one means of stepping the leg wheel J3 on the tread surface 8 of the staircase 7 by causing any one of 5R to walk up and down without moving the leg wheel J3 so as to go up and down one step of the staircase 7. It can be used to go up and down the stairs 7 step by step.

このような移動体1の移動動作は、移動体本体2内に設けられている外界認識装置9が移動環境検出器3の検出結果を用いて移動環境を認識して左前脚4L若しくは右前脚4R又は左後脚5L若しくは右後脚5Rを駆動制御することによって行われる。   Such a moving operation of the moving body 1 is performed by the external environment recognition device 9 provided in the moving body main body 2 recognizing the moving environment using the detection result of the moving environment detector 3 and the left front leg 4L or the right front leg 4R. Alternatively, it is performed by driving and controlling the left rear leg 5L or the right rear leg 5R.

外界認識装置9は、図2に示すように、移動環境検出器3として円錐走査式距離測定部31あるいは距離画像測定部36を装備し、情報処理を行うパーソナルコンピュータによって構成され、データ入力手段11からユーザが入力した指令データをバス12を介してシステム制御用中央処理ユニット(CPU)13が受け取ったとき、これに応じてCPU13がプログラムROM・動作メモリRAM14を用いて移動環境検出器3の検出結果に応じた環境認識演算処理を実行し、データ入出力手段11を通じて本体駆動部15に当該環境認識結果を通知することにより、左前脚4L若しくは右前脚4R又は左後脚5L若しくは右後脚5Rを移動動作させる。   As shown in FIG. 2, the external environment recognition device 9 includes a conical scanning distance measuring unit 31 or a distance image measuring unit 36 as the moving environment detector 3 and is constituted by a personal computer that performs information processing. When the system control central processing unit (CPU) 13 receives the command data input by the user from the bus 12, the CPU 13 detects the movement environment detector 3 using the program ROM / operation memory RAM 14 accordingly. By performing environment recognition calculation processing according to the result and notifying the main body drive unit 15 of the environment recognition result through the data input / output means 11, the left front leg 4L or the right front leg 4R or the left rear leg 5L or the right rear leg 5R Move it.

(2)移動環境検出機能
移動環境検出器3は、図3に示すように、水平走査機構21を有し、この水平走査機構21が移動体本体2の前面から前方に突出する突出支持部22(図1)に支持されており、これにより水平走査機構21が垂直方向の中心軸zを中心として水平ターンテーブル23を矢印aで示すように水平面内において回動動作させる。
(2) Moving Environment Detection Function The moving environment detector 3 has a horizontal scanning mechanism 21 as shown in FIG. 3, and the horizontal scanning mechanism 21 protrudes forward from the front surface of the moving body 2. As shown in FIG. 1, the horizontal scanning mechanism 21 rotates the horizontal turntable 23 around the central axis z in the vertical direction in the horizontal plane as indicated by the arrow a.

水平ターンテーブル23の下面には、取付部材24を介して垂直走査機構25が取り付けられており、これにより垂直走査機構25が垂直ターンテーブル26を、矢印bで示すように、一方の水平軸yを中心として垂直面内において回動動作させる。   A vertical scanning mechanism 25 is attached to the lower surface of the horizontal turntable 23 via an attachment member 24, whereby the vertical scanning mechanism 25 attaches the vertical turntable 26 to one horizontal axis y as indicated by an arrow b. Is pivoted in the vertical plane around the center.

垂直ターンテーブル26には距離測定器27が取り付けられ、これにより距離測定器27の距離測定方向が他方の水平軸xを基準にして垂直面内(従って仰角が変更する方向)において変更制御される。   A distance measuring device 27 is attached to the vertical turntable 26, whereby the distance measuring direction of the distance measuring device 27 is controlled to be changed in the vertical plane (and thus the elevation angle is changed) with reference to the other horizontal axis x. .

この実施の形態の場合、距離測定器27は、赤外線パルスビームを所定の測定方向に放出すると共に、当該赤外線パルスビームが測定対象において反射して得られる戻り光を受光し、当該赤外線パルスビームの発射時刻と戻り光の到達時刻との時間差に基づいて、距離測定器27から測定対象までの距離Lを測定する。   In the case of this embodiment, the distance measuring device 27 emits an infrared pulse beam in a predetermined measurement direction, receives return light obtained by reflecting the infrared pulse beam on the measurement object, and transmits the infrared pulse beam. Based on the time difference between the emission time and the arrival time of the return light, the distance L from the distance measuring device 27 to the measurement object is measured.

この実施の形態の場合、水平ターンテーブル23に取り付けられた取付部材24、垂直走査機構25、垂直ターンテーブル26及び距離測定器27は保護カバー28によって覆われている。   In the case of this embodiment, the mounting member 24, the vertical scanning mechanism 25, the vertical turntable 26 and the distance measuring device 27 attached to the horizontal turntable 23 are covered with a protective cover 28.

当該距離測定器27に対する水平走査機構21及び垂直走査機構25の走査は、データ入力手段11から入力されるユーザの動作命令によって、距離測定器27から放出される円錐走査検出光DET(図4)の放出方向(これを視準方向と呼ぶ)を、CPU13が制御することにより行われる。   Scanning of the distance measuring device 27 by the horizontal scanning mechanism 21 and the vertical scanning mechanism 25 is performed by a cone scanning detection light DET emitted from the distance measuring device 27 according to a user operation command input from the data input means 11 (FIG. 4). This is performed by the CPU 13 controlling the emission direction (referred to as collimation direction).

かくして移動環境検出器3は、水平面内のxy座標を順次指定して行くことにより距離測定器27を水平面内のすべての角度方向に走査できると共に、当該水平面内のすべての角度位置について、垂直面内の角度位置を走査することができ、これにより移動体1が移動すべき環境に存在する認識対象と距離測定器27との間の距離を、図4に示す円錐走査式距離測定法によって、測定することができる。   Thus, the moving environment detector 3 can scan the distance measuring device 27 in all the angular directions in the horizontal plane by sequentially specifying the xy coordinates in the horizontal plane, and the vertical plane for all the angular positions in the horizontal plane. The distance between the recognition object existing in the environment to which the moving body 1 should move and the distance measuring device 27 can be scanned by the cone scanning distance measuring method shown in FIG. Can be measured.

図4において、距離測定器27が配設されている位置Oを原点として(これをセンサ原点と呼ぶ)、距離測定器27の視準方向をZ軸で表わすと共に、当該視準方向軸Zと直交する平面の座標を直交座標軸X及びYによって表わす。   In FIG. 4, the position O where the distance measuring device 27 is disposed is defined as the origin (this is referred to as the sensor origin), the collimation direction of the distance measuring device 27 is represented by the Z axis, and the collimation direction axis Z The coordinates of the orthogonal plane are represented by the orthogonal coordinate axes X and Y.

図4の場合、視準方向軸Zのセンサ原点Oから基準距離dSTの位置に、視準方向軸Z(以下これを視準方向と呼ぶ)を中心として描いた半径rSTの円形平面を水平垂直走査面S1として定義し、センサ原点Oからの赤外線パルス検出ビームを水平垂直走査面S1の円形軌道に沿うように走査させることにより、センサ原点Oを頂点としかつ水平垂直走査面S1を円錐底面とする円錐走査立体を想定する。 In the case of FIG. 4, a circular plane having a radius r ST drawn around the collimation direction axis Z (hereinafter referred to as the collimation direction) at the position of the reference distance d ST from the sensor origin O of the collimation direction axis Z. By defining the horizontal and vertical scanning plane S1 as the infrared pulse detection beam from the sensor origin O along the circular orbit of the horizontal and vertical scanning plane S1, the sensor origin O is the apex and the horizontal and vertical scanning plane S1 is a cone. A conical scanning solid is assumed as the bottom.

このセンサ原点Oを頂点としかつ水平垂直走査面S1を円錐底面とする円錐体については、図5(A)に示すように、XZ平面についてセンサ原点Oから水平垂直走査面S1の中心位置CST(水平垂直走査面S1とZ軸との交点位置)から半径rSTだけX軸と平行に移動した点と、センサ原点Oとを結ぶ線は、センサ原点Oから発射された検出パルス光Lp(すなわち赤外線パルスビーム)が通る円錐面を表している。 As for the cone having the sensor origin O as the apex and the horizontal / vertical scanning plane S1 as the conical bottom, as shown in FIG. 5A, the center position C ST of the horizontal / vertical scanning plane S1 from the sensor origin O with respect to the XZ plane is shown. a point obtained by moving from (horizontal and vertical scanning plane S1 and the intersecting point between the Z-axis) parallel to the only X-axis radius r ST, a line connecting the sensor origin O, the detection pulsed light Lp emitted from the sensor origin O ( That is, it represents a conical surface through which an infrared pulse beam) passes.

従って、当該円錐面の円錐底面の半径rSTは、円錐半頂角βと、センサ原点Oから水平垂直走査面S1までの基準距離dSTとから、次式 Therefore, the radius r ST of the conical bottom surface of the conical surface is given by the following equation from the conical half apex angle β and the reference distance d ST from the sensor origin O to the horizontal / vertical scanning surface S1.

Figure 0005499355
Figure 0005499355

によって表すことができる。 Can be represented by

水平垂直走査面S1の各走査位置について、水平垂直走査面S1の直交座標軸XYについて、X軸と平行なx軸との交点を起点として、円錐走査回転角度α(=0〜360〔°〕)によって円錐底面の外周面に沿った走査点P1を順次走査すると考えると、この走査点P1を通る検出パルス光は水平垂直走査面S1より前方位置にある測定対象面S2の測定点P2に到達するから、測定対象面S2上に水平垂直走査面S1の走査点P1の走査に対応して移動する測定点P2が考えられる。   For each scanning position on the horizontal / vertical scanning plane S1, with respect to the orthogonal coordinate axis XY of the horizontal / vertical scanning plane S1, the conical scanning rotation angle α (= 0 to 360 °) starts from the intersection of the X axis and the X axis. When the scanning point P1 along the outer peripheral surface of the conical bottom surface is sequentially scanned by the above, the detection pulse light passing through the scanning point P1 reaches the measurement point P2 on the measurement target surface S2 located in front of the horizontal / vertical scanning surface S1. Therefore, a measurement point P2 that moves corresponding to the scanning of the scanning point P1 on the horizontal / vertical scanning surface S1 on the measurement target surface S2 can be considered.

ここで走査対象面S2は、測定対象の外観形状が任意であれば、視準方向軸Zに対して直交する面をもつとは限らず、傾きをもっているものもあるが、直交するものと考えると、測定対象面S2は水平垂直走査面S1と相似の円を描くことになる。   Here, if the appearance shape of the measurement target is arbitrary, the scanning target surface S2 does not necessarily have a surface orthogonal to the collimation direction axis Z, and may have an inclination, but is considered to be orthogonal. Then, the measurement target surface S2 draws a circle similar to the horizontal / vertical scanning surface S1.

かくして水平垂直走査面S1上の走査点P1のxy平面のx座標点P1xは、図5(B)に示すように、水平走査角θによって、次式   Thus, the x coordinate point P1x of the xy plane of the scanning point P1 on the horizontal / vertical scanning plane S1 is expressed by the following equation according to the horizontal scanning angle θ as shown in FIG.

Figure 0005499355
Figure 0005499355

によって表すことができると共に、yz平面のy座標点P1yは、図5(B)に示すように、垂直走査角φによって And the y-coordinate point P1y of the yz plane is represented by the vertical scanning angle φ as shown in FIG.

Figure 0005499355
Figure 0005499355

によって表すことができる。 Can be represented by

水平垂直走査面S1上の走査点P1のx軸上の座標xは、図5(C)に示すように、円錐走査回転角度αが時間の経過と共にωtで変化すると考えれば、次式、   As shown in FIG. 5C, the coordinate x on the x-axis of the scanning point P1 on the horizontal / vertical scanning plane S1 is expressed by the following equation, assuming that the cone scanning rotation angle α changes with time as ωt.

Figure 0005499355
Figure 0005499355

のように表すことができると共に、y軸上の座標yは次式、 And the coordinate y on the y-axis is

Figure 0005499355
Figure 0005499355

のように表すことができる。 It can be expressed as

以上の動作原理に基づいて、CPU13(図2)は、円錐走査式距離測定部31を起動することにより、円錐走査式距離測定部31の円錐走査制御部32によって水平垂直走査面S1上の走査点座標x及びyを、(4)式及び(5)式に基づいて、円錐走査回転角度αを角速度ωで変更制御することにより、センサ原点Oにある距離測定器27から放出されるパルスビームを円錐底面の円軌道に沿って走査するために必要な水平走査角θ及び垂直走査角φを表す駆動角度データを生成する。   Based on the above operation principle, the CPU 13 (FIG. 2) activates the conical scanning distance measuring unit 31 to scan the horizontal and vertical scanning plane S1 by the conical scanning control unit 32 of the conical scanning distance measuring unit 31. A pulse beam emitted from the distance measuring device 27 at the sensor origin O by changing and controlling the point coordinates x and y based on the equations (4) and (5) to change the cone scanning rotation angle α with the angular velocity ω. Driving angle data representing the horizontal scanning angle θ and the vertical scanning angle φ necessary for scanning the lens along the circular orbit of the bottom surface of the cone.

この水平走査角θ及び垂直走査角φの駆動角度データは水平垂直走査部33に与えられ、当該水平垂直走査部33が移動環境検出器3に対して、水平走査機構21及び垂直走査機構25の駆動出力を送出する。   The driving angle data of the horizontal scanning angle θ and the vertical scanning angle φ is given to the horizontal / vertical scanning unit 33, and the horizontal / vertical scanning unit 33 sends the moving environment detector 3 to the horizontal scanning mechanism 21 and the vertical scanning mechanism 25. Send drive output.

これにより測定対象面S2上にパルスビームがα=0〔°〕からα=360〔°〕まで走査するように投射される。   As a result, the pulse beam is projected onto the measurement target surface S2 so as to scan from α = 0 [°] to α = 360 [°].

ここで、測定対象面S2が、図6に示すように、視準方向Zの軸に対して直交する平面を有するとすれば、距離測定器27から放出された検出パルス光Lpは走査点P1を通って測定点P2に当たって反射される。   Here, if the measurement target surface S2 has a plane orthogonal to the axis of the collimation direction Z as shown in FIG. 6, the detection pulse light Lp emitted from the distance measuring device 27 is the scanning point P1. It passes through and is reflected by the measurement point P2.

この結果、測定点P2は、測定対象面S2上に、水平垂直走査面S1と相似の円形の交円軌跡TR(以下これを交円と呼ぶ)を描き、これに対して測定対象面S2が視準方向Zの軸に対して直交せずに傾いているときは楕円形の交円TRを描く。   As a result, the measurement point P2 draws a circular intersection trajectory TR (hereinafter referred to as an intersection circle) similar to the horizontal / vertical scanning surface S1 on the measurement target surface S2, and the measurement target surface S2 corresponds to this. When tilted without being orthogonal to the axis of the collimation direction Z, an elliptical intersection circle TR is drawn.

かくして、測定対象面S2の交円TRから反射された検出パルス光Lpが移動環境検出器3(図2)の距離測定器27に戻ってきたとき、その検出データがバス12を介して円錐走査式距離測定部31の距離検出部34に取り込まれてセンサ原点Oから測定点P2までの距離を検出できることになり、当該測定距離Lが、円錐走査回転角度α(=0〜360〔°〕)に対応するデータ(α、L)として、円錐走査距離データメモリ35Aに蓄積される。   Thus, when the detection pulse light Lp reflected from the intersecting circle TR of the measurement target surface S2 returns to the distance measuring device 27 of the moving environment detector 3 (FIG. 2), the detection data is conically scanned via the bus 12. The distance from the sensor origin O to the measurement point P2 can be detected by being taken into the distance detection unit 34 of the formula distance measurement unit 31, and the measurement distance L is the cone scanning rotation angle α (= 0 to 360 [°]). Is stored in the cone scanning distance data memory 35A as data (α, L).

一方、距離画像センサを用いる実施の形態の場合、測定対象面S2の交円TRから距離画像測定部36によって測定された測定距離Lの検出距離データは、図7の距離画像撮像面DTの交円TRに対応する画素位置のデータとして距離画像データメモリ36Bに蓄積される。   On the other hand, in the case of the embodiment using the distance image sensor, the detection distance data of the measurement distance L measured by the distance image measuring unit 36 from the intersection circle TR of the measurement target surface S2 is the intersection of the distance image imaging surface DT of FIG. The pixel position data corresponding to the circle TR is stored in the distance image data memory 36B.

この距離画像撮像面DTを記憶する距離画像データメモリ36Bは、図8に示すように、水平垂直走査面S1と同じように、直交座標xy座標系に対応するラインアドレスi及びカラムアドレスjによって指定されるメモリエリアを有し、水平垂直走査面S1上の走査点P1上の走査点座標(x、y)における測定距離Lについての測定距離データが得られたとき、これを対応するラインアドレスi及びカラムアドレスjを有する検出データメモリ位置(i、j)に格納する。   As shown in FIG. 8, the distance image data memory 36B for storing the distance image imaging surface DT is designated by the line address i and the column address j corresponding to the orthogonal coordinate xy coordinate system as in the horizontal / vertical scanning surface S1. When the measurement distance data about the measurement distance L at the scanning point coordinates (x, y) on the scanning point P1 on the horizontal / vertical scanning plane S1 is obtained, the corresponding line address i is obtained. And the detection data memory location (i, j) having the column address j.

図8の距離画像データメモリ36Bは、左上隅メモリアドレスをラインアドレスi=0、カラムアドレスj=0とするメモリエリアに対して水平垂直走査面S1上の走査線座標(x、y)をラインアドレス=i及びカラムアドレス=jに換算した検出データL(i、j)として格納する。   The distance image data memory 36B in FIG. 8 sets the scanning line coordinates (x, y) on the horizontal / vertical scanning plane S1 to the memory area where the upper left corner memory address is the line address i = 0 and the column address j = 0. Stored as detection data L (i, j) converted to address = i and column address = j.

この結果距離画像データメモリ36Bには、水平垂直走査面S1における1回の走査(α=0〜360〔°〕)ごとに得られる1つの交円TR(図7)の測定点P2についての測定距離Lのデータが得られたとき、これに対応するように水平垂直走査面S1の中心位置CSTに対応するラインアドレスi及びカラムアドレスjを中心として、円錐底面の半径rSTに対応する円形のメモリアドレス位置に、円錐走査回転角度α(=0〜360〔°〕)に対応する測定距離データを格納してなる1枚の画像データを得ることができる。 As a result, in the distance image data memory 36B, the measurement at the measurement point P2 of one intersecting circle TR (FIG. 7) obtained for each scan (α = 0 to 360 [°]) on the horizontal and vertical scanning plane S1. when the distance L of the data is obtained as the center line address i and the column address j corresponding to the central position C ST horizontal and vertical scanning plane S1 so as to correspond to a circular corresponding to the radius r ST conical bottom It is possible to obtain one piece of image data in which measurement distance data corresponding to the cone scanning rotation angle α (= 0 to 360 [°]) is stored at the memory address position.

(3)多様な測定対象の測定
測定対象が図1について上述した階段7であれば、円錐走査検出光DETが、平面である床面6や踏み面8を投射しているときに測定対象面S2が視準方向Zに対して傾いている場合や、床面6又は踏み面8から蹴込面に至る蹴込を投射している場合や、蹴込面から1段上の踏み面に至る段鼻を投射している場合や、踏み面から断崖に至る部分を投射している場合には、1回の撮影で得られたデータL(i、j)は距離画像データメモリ36Bに、個々の円錐走査検出光が投射している部分の立体的な外観形状を表す測定データは距離データメモリ35に蓄積される。
(3) Measurement of various measurement targets If the measurement target is the staircase 7 described above with reference to FIG. 1, the measurement target surface is projected when the conical scanning detection light DET is projected on the floor surface 6 or the tread surface 8 which are flat surfaces. When S2 is inclined with respect to the collimation direction Z, when a kick from the floor surface 6 or the tread surface 8 is projected to the kick surface, or a nose from the kick surface to the tread surface one step above is projected Or when projecting a portion from the tread to the cliff, the data L (i, j) obtained by one photographing is detected in the distance image data memory 36B by individual cone scanning. Measurement data representing the three-dimensional appearance of the portion onto which the light is projected is stored in the distance data memory 35.

以下、円錐走査式距離測定部を用いて測定データ(α、L)を距離データメモリ35に蓄積する場合について述べる。   Hereinafter, a case where the measurement data (α, L) is stored in the distance data memory 35 using the conical scanning distance measuring unit will be described.

図1について上述したような脚動作型の移動体1が階段7を上ったり下りたりする場合、各脚が安全に踏み面8を踏むために、多様な測定対象を見分ける必要がある。   When the leg motion type moving body 1 as described above with reference to FIG. 1 goes up and down the stairs 7, it is necessary to distinguish various measurement objects in order for each leg to step on the tread surface 8 safely.

(3−1)平面形状の踏み面
図9は階段7を上る場合に、平面形状の踏み面8を検出する際の円錐走査検出光DETの動きを示したもので、移動環境検出器3が踏み面8に近づく際に、移動環境検出器3が位置3Aにあるとき円錐走査検出光DETは凸形状の段鼻8Aを照射した状態(これを「凸結合」と呼ぶ)になる。
(3-1) Planar tread surface FIG. 9 shows the movement of the conical scanning detection light DET when detecting the planar tread surface 8 when going up the stairs 7. When approaching the tread surface 8, when the moving environment detector 3 is at the position 3A, the conical scanning detection light DET irradiates the convex nose 8A (this is referred to as “convex coupling”).

このとき円錐走査検出光DETは、段鼻8Aと、その前後に隣接する蹴込面19の上端部及び踏み面8の前端部とを照射する。   At this time, the conical scanning detection light DET irradiates the nose 8A and the upper end portion of the kick surface 19 and the front end portion of the tread surface 8 that are adjacent to the nose 8A.

この状態から少し進んだ位置3Bに移動環境検出器3が来ると、円錐走査検出光DETが段鼻8Aから蹴込8Cまでの間の平面8Bを照射する状態(これを「平面」と呼ぶ)になる。   When the moving environment detector 3 comes to a position 3B slightly advanced from this state, the conical scanning detection light DET irradiates the plane 8B from the nose 8A to the kick 8C (this is referred to as “plane”). .

さらに進んだ位置3Cに移動環境検出器3が来ると、円錐走査検出光DETは凹形状の蹴込8Cを照射する状態(これを「凹結合」と呼ぶ)になる。   When the moving environment detector 3 comes to the further advanced position 3C, the conical scanning detection light DET is in a state of irradiating the concave kick 8C (this is called “concave coupling”).

このとき円錐走査検出光DETは、蹴込8Cと、その前後に隣接する踏み面8の後端部及び蹴込面19の下端部とを照射する。   At this time, the conical scanning detection light DET irradiates the kick 8 </ b> C, the rear end portion of the tread surface 8 adjacent to the front and rear thereof, and the lower end portion of the kick surface 19.

図9の場合、床面6から移動環境検出器3までの高さが500〔mm〕、踏み面8から移動環境検出器3までの高さが400〔mm〕、視準方向Zの俯角が45〔°〕に設定されているものとする。   In the case of FIG. 9, the height from the floor surface 6 to the moving environment detector 3 is 500 [mm], the height from the tread surface 8 to the moving environment detector 3 is 400 [mm], and the depression angle in the collimation direction Z is It is assumed that the angle is set to 45 [°].

(3−2)不連続面
図10は移動体1が階段7を床面6から1段低い踏み面8に下りる場合を示したもので、この場合位置3Dにある移動環境検出器3からの円錐走査検出光DETは床面6から下の段の踏み面8に移る不連続の平面を照射している状態(これを「不連続面」と呼ぶ)になる。
(3-2) Discontinuous surface FIG. 10 shows a case where the moving body 1 descends the staircase 7 from the floor surface 6 to the tread surface 8 lower by one step. In this case, the moving object 1 from the mobile environment detector 3 at the position 3D is shown. The conical scanning detection light DET is in a state of irradiating a discontinuous plane that moves from the floor surface 6 to the stepped surface 8 of the lower stage (this is referred to as a “discontinuous surface”).

図10の場合、床面6から移動環境検出器3までの高さが400〔mm〕、踏み面8から移動環境検出器3までの高さが500〔mm〕、視準方向Zの俯角が45〔°〕に設定されているものとする。   In the case of FIG. 10, the height from the floor surface 6 to the moving environment detector 3 is 400 [mm], the height from the tread surface 8 to the moving environment detector 3 is 500 [mm], and the depression angle in the collimation direction Z is It is assumed that the angle is set to 45 [°].

(3−3)断崖
図11は移動体1が踏み面8から先の形状が不明の断崖10に来たとき、位置3Eにある移動環境検出器3からの円錐走査検出光DETは、一部に反射光が戻って来ない状態(これを「断崖」と呼ぶ)になる。
(3-3) Cliff FIG. 11 shows a part of the cone scanning detection light DET from the moving environment detector 3 at the position 3E when the moving body 1 comes to the cliff 10 whose shape is unknown from the tread surface 8. In this state, the reflected light does not return (this is called “cliff”).

図11の場合、踏み面8から移動環境検出器3までの高さが400〔mm〕、踏み面8から移動環境検出器3までの高さが500〔mm〕、視準方向Zの俯角が45〔°〕に設定されているものとする。   In the case of FIG. 11, the height from the tread surface 8 to the moving environment detector 3 is 400 [mm], the height from the tread surface 8 to the moving environment detector 3 is 500 [mm], and the depression angle in the collimation direction Z is It is assumed that the angle is set to 45 [°].

(4)距離画像データの特徴
移動環境検出器3が図9〜図11の測定対象を測定した結果、距離データメモリ35に格納される距離データ(α、L)は、円錐走査検出光DETが円錐走査回転角度αが0〜360〔°〕まで一巡する間に、測定距離Lの大きさが、図12〜図16に示すような変化(これを特徴量と呼ぶ)を呈する。
(4) Features of distance image data As a result of the movement environment detector 3 measuring the measurement object of FIGS. 9 to 11, the distance data (α, L) stored in the distance data memory 35 is the cone scanning detection light DET. While the circular scanning rotation angle α makes a round from 0 ° to 360 °, the measurement distance L changes as shown in FIGS. 12 to 16 (this is called a feature amount).

(4−1)凸結合特徴量
円錐走査検出光DETが、図9について上述したように、測定対象として、段鼻8Aと凸結合した場合、距離データメモリ35に蓄積された測定距離Lの値は、図12に示すように、円錐走査回転角度αが0〜360〔°〕まで一巡する間に、連続的な変化をする2つの極大値MX1及びMX2を生ずると共に、折り返すように変化をする2つの極小値MN1及びMN2を生ずるような特徴量K1を表す特性曲線が得られる。
(4-1) Convex Coupling Feature Value As described above with reference to FIG. 9, when the conical scanning detection light DET is convexly coupled to the nose 8A as a measurement target, the value of the measurement distance L accumulated in the distance data memory 35 is As shown in FIG. 12, while the cone scanning rotation angle α makes a round from 0 to 360 [°], two local maximum values MX1 and MX2 that change continuously are generated and changed so as to turn back. A characteristic curve representing the feature quantity K1 that yields two minimum values MN1 and MN2 is obtained.

図12において、測定距離Lは、αが0〜180〔°〕の間は交円TRの前半部分が、1段高い水平面でなる踏み面8を一旦遠くなる前方に向った後近くなる後方に戻るように走査するので連続的に極大値MX1を通る変化をし、続いてαが180〜360〔°〕の間は交円TRの後半部分が、段鼻8Aを通って垂直面でなる蹴込面19を一旦遠くなる下方に向った後近くなる上方の段鼻8Aまで戻るように走査するので、段鼻8A位置で遠くなる方向に折り返すように変化する極小値MN1及びMN2の間において、連続的に極大値MX2を通る変化をする。   In FIG. 12, the measurement distance L is in the rear direction where α is between 0 and 180 [°], and the first half portion of the intersection circle TR is once closer to the front side, which is once farther away from the tread surface 8 which is a horizontal step higher. Since the scanning is performed so as to return, the change continuously passes through the maximum value MX1, and subsequently, when α is 180 to 360 °, the second half portion of the intersection circle TR passes through the nose 8A and is a vertical surface. 19 is scanned so as to return to the upper nose 8A which is closer to the lower side and then returns to the upper nose 8A which is closer to the upper side. Change through value MX2.

この特徴量K1の特性曲線は、円錐走査回転角度αが0〜360〔°〕まで変化したときの測定距離Lの特性曲線の一次微分、すなわちエッジ強度が、極小値MN1及びMN2において不連続(これはジャンプエッジであることを表している)であり、これにより当該極小値MN1及びMN2の前後の変化が折り返していることを判定することにより、測定対象が段鼻8Aであること及びその極小値MN1及びMN2が移動環境検出器3のセンサ原点Oから段鼻8Aまでの測定距離Lであることを検出できる。   The characteristic curve of the feature value K1 is discontinuous at the minimum values MN1 and MN2 where the first derivative of the characteristic curve of the measurement distance L when the cone scanning rotation angle α is changed from 0 to 360 [°], that is, the edge strength is minimal. This represents a jump edge), and by determining that the changes before and after the minimum values MN1 and MN2 are turned back, it is determined that the measurement target is the nose 8A and its minimum value. It can be detected that MN1 and MN2 are the measurement distance L from the sensor origin O of the moving environment detector 3 to the nose 8A.

この図12の特徴量K1は、図4について上述したように、測定対象面S2が視準方向Zに対して直交する(従って傾きがない)平面である場合の測定値に基づくものであるので、極小値MN1及びMN2はα=0及び180〔°〕において生ずると共に極大値MX1及びMX2はα=90及び270〔°〕において生ずる。   The feature value K1 in FIG. 12 is based on the measurement value when the measurement target surface S2 is a plane orthogonal to the collimation direction Z (and therefore has no inclination) as described above with reference to FIG. The minimum values MN1 and MN2 occur at α = 0 and 180 °, and the maximum values MX1 and MX2 occur at α = 90 and 270 °.

(4−2)平面特徴量
円錐走査検出光DETが図9の平面8Bを照射しているとき、距離データメモリ35の距離画像データは、図13に示すように、円錐走査回転角度αが0〜360〔°〕まで一巡する間に、連続的な1つの極大値MX11及び連続的な1つの極小値MN11を生じ、しかも不連続な箇所がないような特徴量K11の特性曲線が得られる。
(4-2) Plane Feature Amount When the cone scanning detection light DET irradiates the plane 8B in FIG. 9, the distance image data in the distance data memory 35 has a cone scanning rotation angle α of 0 as shown in FIG. A characteristic curve of the feature quantity K11 is obtained in which one continuous maximum value MX11 and one continuous minimum value MN11 are generated during one round to ˜360 [°] and there is no discontinuous portion.

図13において、測定距離Lは、αが0〜180〔°〕の間は交円TRの前半部分が水平面でなる踏み面8の平面8Bを一旦遠くなる前方に向った後近くなる後方に戻るように走査するので連続的に極大値MX11を通る変化をし、続いてαが180〜360〔°〕の間は交円TRの後半部分が平面8Bを一旦近くなる後方に向った後遠くなる前方に戻るように走査するので連続的に極小値MN11を通る変化をする。   In FIG. 13, when α is 0 to 180 °, the measurement distance L returns to the rear which is close to the front surface 8B of the tread surface 8B in which the first half portion of the intersecting circle TR is a horizontal surface once turned to the front. In this way, the change continuously passes through the maximum value MX11. Subsequently, when α is 180 to 360 °, the latter half portion of the intersection circle TR once becomes closer to the plane 8B and then becomes farther away. Since scanning is performed so as to return to the front, the change continuously passes through the minimum value MN11.

これに対して、測定距離Lは、蹴込面9のように垂直面でなる平面を走査する場合は、αが0〜180〔°〕の間は交円TRの前半部分が垂直面を一旦近くなる上方に向った後遠くなる下方に戻るように走査するので連続的に極小値MN11を通る変化をし、続いてαが180〜360〔°〕の間は交円TRの後半部分が垂直面を一旦遠くなる下方に向った後上方に戻るように走査するので連続的に極大値MX11を通る変化をする。   On the other hand, when the measurement distance L scans a plane made of a vertical surface such as the kicking surface 9, the first half of the intersecting circle TR temporarily approaches the vertical surface while α is 0 to 180 °. Since the scanning is performed so as to return to the farther downward direction after being directed upward, the change continuously passes through the minimum value MN11. Subsequently, when α is 180 to 360 °, the second half portion of the intersecting circle TR is a vertical plane. Since the scanning is performed so as to turn downward and then return upward, the change continuously passes through the maximum value MX11.

このように水平面及び垂直面のいずれの場合も、測定距離Lは、連続的極大値1点と、連続的極小値1点とをもち、しかも不連続な箇所がないような変化をする。   As described above, in any of the horizontal plane and the vertical plane, the measurement distance L changes so as to have one continuous maximum value and one continuous minimum value and no discontinuous portion.

かくして、距離データメモリ35に蓄積された距離データについて、エッジについて1次微分をすることによりエッジ強度の計算をすることによってジャンプエッジがないとの判定が得られれば、当該測定対象は平面であること及び移動環境検出器3から測定した平面までの距離及びその姿勢を算出することができる。   Thus, if the distance data stored in the distance data memory 35 is determined to have no jump edge by calculating the edge strength by first-order differentiation with respect to the edge, the measurement object is a plane. And the distance from the moving environment detector 3 to the measured plane and its posture can be calculated.

この図13の特徴量K11は、図4について上述したように、測定対象面S2が視準方向Zに対して直交する(従って傾きがない)平面である場合の測定値に基づくものであるので、極大値MX11及び極小値MN11はα=90及び270〔°〕において生ずる。   The feature value K11 of FIG. 13 is based on the measurement value when the measurement target surface S2 is a plane orthogonal to the collimation direction Z (and therefore has no inclination) as described above with reference to FIG. The maximum value MX11 and the minimum value MN11 occur at α = 90 and 270 [°].

(4−3)凹結合特徴量
円錐走査検出光DETが図9の蹴込8Cを照射する状態にあるとき、距離データメモリ35の距離データは、図14に示すように、円錐走査回転角度αが0〜360〔°〕まで一巡する間に、2つの極小値MN21及びMN22が連続的な変化として現れると共に、折り返すように変化する2つの極大値MX21及びMX22が生ずるような特徴量K21の特性曲線が得られる。
(4-3) Concave coupling feature amount When the conical scanning detection light DET is in a state of irradiating the kick 8C in FIG. 9, the distance data in the distance data memory 35 has a conical scanning rotation angle α as shown in FIG. The characteristic curve of the characteristic quantity K21 that two local minimum values MN21 and MN22 appear as continuous changes and two local maximum values MX21 and MX22 that change so as to return are generated during one round from 0 to 360 [°]. Is obtained.

図14において、測定距離Lは、αが0〜180〔°〕の間は交円TRの前半部分が垂直面でなる蹴込面を一旦近くなる上方に向った後遠くなる下方に戻るので連続的に極小値MN21を通る変化をし、続いてαが180〜360〔°〕の間は交円TRの後半部分が蹴込8Cを通って水平面でなる踏み面8を一旦近くなる後方に向った後遠くなる前方に戻るように走査するので、蹴込8C位置で近くなる方向に折り返すように変化する極大値MX21及びMX22の間で、連続的に極小値MN22を通る変化をする。   In FIG. 14, the measurement distance L is continuously continuous when α is in the range of 0 to 180 °, because the first half of the intersection circle TR returns to the lower side after once turning upward near the kick surface, which is a vertical surface. After passing through the minimum value MN21, and after α is 180-360 [°], the second half of the intersection circle TR passes through the kick 8C and temporarily turns the tread surface 8 which is a horizontal plane toward the rear. Since the scanning is performed so as to return to the farther front, the change continuously passes through the minimum value MN22 between the maximum values MX21 and MX22 that change so as to be turned back toward the closer position at the position of the kick 8C.

この場合極大値MX21及びMX22のエッジ強度は不連続であることから、エッジの1次微分から、2つの折り返しがあることを判定すると共に、連続的な2つの極小値MN21及びMN22があることを判定することにより、当該測定対象は蹴込8Cであり、かつ移動環境検出器3から蹴込8Cまでの距離を算出することができる。   In this case, since the edge strengths of the maximum values MX21 and MX22 are discontinuous, it is determined from the first derivative of the edge that there are two turns, and that there are two continuous minimum values MN21 and MN22. By determining, the measurement object is the kick 8C, and the distance from the moving environment detector 3 to the kick 8C can be calculated.

この図14の特徴量K21は、図4について上述したように、測定対象面S2が視準方向Zに対して直交する(従って傾きがない)平面である場合の測定値に基づくものであるので、極小値MN21及びMN22はα=90及び270〔°〕において生ずると共に、極大値MX21及びMX22はα=0及び180〔°〕において生ずる。   The feature value K21 in FIG. 14 is based on the measurement value when the measurement target surface S2 is a plane orthogonal to the collimation direction Z (and thus has no inclination) as described above with reference to FIG. The minimum values MN21 and MN22 occur at α = 90 and 270 [°], and the maximum values MX21 and MX22 occur at α = 0 and 180 [°].

(4−4)不連続面特徴量
移動環境検出器3が図10の不連続面を検出する場合、距離データメモリ35には円錐走査回転角度αが0〜360〔°〕を一巡する間に、図15に示すように、連続的に変化する1つの極大値MX31及び1つの極小値MN31を生ずると共に、2つの不連続な箇所があるような特徴量K31の特性曲線を描く。
(4-4) Discontinuous Surface Feature Amount When the moving environment detector 3 detects the discontinuous surface of FIG. 10, the distance data memory 35 makes a round of the cone scanning rotation angle α from 0 to 360 [°]. As shown in FIG. 15, a characteristic curve of the feature value K31 is generated so that one continuous maximum value MX31 and one local minimum value MN31 are generated, and there are two discontinuous portions.

図15において、測定距離Lは、αが0〜180〔°〕の間は交円TRの前半部分が1段低い(従って遠い)水平面でなる踏み面8を一旦遠くなる前方に向った後近くなる後方に戻るように走査するので、連続的に極大値MX31を通る変化をし、続いてαが180〜360〔°〕の間は段鼻8Aを通って踏み面8より1段高い(従って踏み面8よりも近い)水平面でなる床面6を一旦近くなる後方に向った後遠くなる前方に段鼻8Aに戻るように走査するので、不連続点NC31及びNC32を両端にもって連続的に極小値MN31を通る変化をする。   In FIG. 15, the measurement distance L is near after the tread surface 8, which is a horizontal surface which is lower by one step (and thus far) in the first half of the intersection circle TR, when the α is in the range of 0 to 180 °, once turned forward. Since the scanning is performed so as to return backward, the change continuously passes through the maximum value MX31. Subsequently, when α is 180 to 360 °, it passes through the nose 8A and is one step higher than the tread surface 8 (therefore, the treading step). Since the floor surface 6 which is a horizontal surface (closer to the surface 8) is scanned backward so as to return to the nose 8A, the distance is continuously reduced to a minimum value at both ends of the discontinuous points NC31 and NC32. Change through MN31.

この場合、踏み面8の走査から床面6の走査に移る際、及び床面6の走査から踏み面8の走査に戻る際、測定距離Lはその段差に対応する値だけ急激に変化するから、連続的に極大値MX31を通る変化の両端の不連続点NC31及びNC32と同じαの位置に、連続的に極小値を通る変化の両端の不連続点NC31X及びNC32Xをもつことになる。   In this case, when moving from the scanning of the tread surface 8 to the scanning of the floor surface 6 and when returning from the scanning of the floor surface 6 to the scanning of the tread surface 8, the measurement distance L changes abruptly by a value corresponding to the step. Thus, the discontinuous points NC31X and NC32X at both ends of the change continuously passing through the local minimum value are located at the same α position as the discontinuous points NC31 and NC32 at both ends of the change passing through the local maximum value MX31.

かくして、エッジの1次微分によるエッジ強度の計算をすることにより1つの極大値及び1つの極小値をもち、かつジャンプエッジがあることを判定すれば、現在測定している測定対象は不連続面であると判断できる。   Thus, if it is determined that there is one maximum value and one minimum value by calculating the edge strength by the first derivative of the edge and that there is a jump edge, the measurement object currently measured is a discontinuous surface. It can be judged that.

この図15の特徴量K31は、図4について上述したように、測定対象面S2が視準方向Zに対して直交する(従って傾きがない)平面である場合の測定値に基づくものであるので、極大値MX31及び極小値MN31はα=90及び270〔°〕において生ずると共に、2つの不連続はα=0及び180〔°〕において生ずる。   The feature value K31 in FIG. 15 is based on the measurement value when the measurement target surface S2 is a plane orthogonal to the collimation direction Z (and thus has no inclination) as described above with reference to FIG. The maximum value MX31 and the minimum value MN31 occur at α = 90 and 270 °, and the two discontinuities occur at α = 0 and 180 °.

(4−5)断崖特徴量
移動環境検出器3が図11について上述した断崖を測定したとき、距離データメモリ35には、図16に示すように、円錐走査回転角度αが0〜360〔°〕だけ一巡する間に、2つの極大値MX41及びMX42を生ずると共に、1つの極小値MN41を発生するような特徴量K41の特性曲線が得られる。
(4-5) Cliff Feature Amount When the moving environment detector 3 measures the cliff described above with reference to FIG. 11, the distance data memory 35 has a cone scanning rotation angle α of 0 to 360 [° as shown in FIG. ], A characteristic curve of the characteristic quantity K41 is obtained so that two local maximum values MX41 and MX42 are generated and one local minimum value MN41 is generated.

図16において、測定距離Lは、αが0〜180〔°〕の間は交円TRの前半部分が戻り光が得られない断崖10を照射するので検出値をもっていないのに対して、αが180〜360〔°〕の間は交円TRの後半部分が水平面でなる踏み面8をその縁を通って一旦近くなる後方に向った後遠くなる前方に縁まで戻るように走査するので、両端に不連続な極大値MX41及びMX42をもって、連続的に極小値MN41を通る変化をする。   In FIG. 16, the measurement distance L does not have a detection value because α is between 0 and 180 °, and the first half of the intersection TR irradiates the cliff 10 where no return light can be obtained. Between 180 and 360 [°], the second half of the intersection circle TR scans the tread surface 8 which is a horizontal plane so as to return to the edge farther forward after turning to the rear once passing through the edge. The maximum value MX41 and MX42 that are discontinuous to each other are continuously changed through the minimum value MN41.

このとき、円錐走査回転角度αが回転方向に一巡したときに不連続な箇所があり、かつエッジの1次微分によりエッジ強度の計算をすることによりジャンプがあると判定し、かつ不連続な箇所が2箇所存在することを判定したとき、移動環境検出器3によって測定している測定対象は断崖であると判定することができる。   At this time, it is determined that there is a discontinuous part when the cone scanning rotation angle α makes a round in the rotation direction, and that there is a jump by calculating the edge strength by the first derivative of the edge, and the discontinuous part When it is determined that there are two places, it can be determined that the measurement object measured by the mobile environment detector 3 is a cliff.

この場合円錐走査回転角度αについて、α=0〜360〔°〕だけ一巡する間にデータが欠落している点について、当該データの欠落した領域があることを断崖の判定条件の1つに加えることもできる。   In this case, regarding the cone scan rotation angle α, one of the cliff judgment conditions is that there is a data missing area at a point where data is missing during a round of α = 0 to 360 °. You can also.

この図16の特徴量K41は、図4について上述したように、測定対象面S2が視準方向Zに対して直交する(従って傾きがない)平面である場合の測定値に基づくものであるので、極小値MN41はα=270〔°〕において生ずると共に、不連続な箇所はα=180及び360〔°〕において生ずる。   The feature value K41 in FIG. 16 is based on the measurement value when the measurement target surface S2 is a plane orthogonal to the collimation direction Z (and thus has no inclination), as described above with reference to FIG. The minimum value MN41 occurs at α = 270 °, and the discontinuous points occur at α = 180 and 360 °.

(4−6)特徴量による測定対象の特定
図2の外界認識装置9のCPU13は、交円特徴量算出部41によって、距離画像データメモリ35の測定距離データを用いた上述の特徴量の抽出処理をすることにより、図17に示すように、円錐走査回転角度αの一巡ごとに得られる交円TRの特徴量を算出させて交円番号を付して交円特徴量メモリ42に蓄積させる。
(4-6) Identification of Measurement Object Based on Feature Amount The CPU 13 of the external environment recognition device 9 in FIG. 2 extracts the above-described feature amount using the measured distance data in the distance image data memory 35 by the intersecting circle feature amount calculation unit 41. By performing the processing, as shown in FIG. 17, the feature amount of the intersecting circle TR obtained for each round of the cone scanning rotation angle α is calculated, and the intersection circle number is assigned and accumulated in the intersecting circle feature amount memory 42. .

交円特徴量算出部41は、測定距離データが、極大値2つ、極小値2つ、ジャンプエッジなし、大きさの変化が微小であって、かつ測定データの折り返しが2つの極小点の位置に生じたとき、交円TRの特徴量が凸結合であることを表す特徴量データを、交円番号を付して交円特徴量メモリ42に蓄積する。   The intersecting circle feature quantity calculation unit 41 is a position where the measurement distance data has two local maximum values, two local minimum values, no jump edge, a small change in size, and the measurement data is folded back at the position of the two local minimum points. When this occurs, the feature amount data indicating that the feature amount of the intersecting circle TR is a convex combination is stored in the intersecting feature amount memory 42 with the intersecting circle number.

また交円特徴量算出部41は、測定距離データが極大値1つ、極小値1つ、ジャンプエッジなし、大きさの変化が微小であって、かつ測定データの折り返しがないとき、交円TRの特徴量が平面結合であることを表す特徴量データを、交円番号を付して交円特徴量メモリ42に蓄積する。   In addition, the intersecting circle feature quantity calculation unit 41 performs the intersecting circle TR when the measurement distance data has one maximum value, one minimum value, no jump edge, the change in size is small, and the measurement data does not return. The feature amount data indicating that the feature amount is a plane combination is stored in the intersecting feature amount memory 42 with an intersection number.

さらに交円特徴量算出部41は、極大値2つ、極小値2つ、ジャンプエッジなし、大きさの変化が微小であってかつ測定データの折り返しが2つの極大点において生じたとき、交円TRの特徴量が凹結合であることを表す特徴量データを、交円番号を付して交円特徴量メモリ42に蓄積する。   Further, the intersecting circle feature amount calculation unit 41 intersects the circle when two local maximum values, two local minimum values, no jump edge, a change in size is small, and the return of measurement data occurs at two local maximum points. Feature amount data indicating that the feature amount of TR is a concave combination is stored in the intersection feature amount memory 42 with an intersection number.

さらに交円特徴量算出部41は、極大値1つ、極小値1つ、ジャンプエッジ2つ、測定データの変化が次の面までの大きさであり、かつ測定データの折り返しがないとき、交円TRの特徴量が不連続面であることを表す特徴量データを、交円番号を付して交円特徴量メモリ42に蓄積する。   Further, the intersecting circle feature quantity calculation unit 41 calculates the intersection value when there is one maximum value, one minimum value, two jump edges, and the measurement data changes to the next surface and the measurement data does not return. Feature amount data indicating that the feature amount of the circle TR is a discontinuous surface is stored in the intersecting circle feature amount memory 42 with an intersection circle number.

さらに、交円特徴量算出部41は、極大値2つ、極小値1つ、ジャンプエッジ2つ、測定データの大きさの変化が原点までの距離であり、かつ測定データの折り返しはないとき、交円TRの特徴量が断崖結合であることを表す特徴量データを、交円番号を付して交円特徴量メモリ42に蓄積する。   Further, the intersecting circle feature amount calculation unit 41 has two maximum values, one minimum value, two jump edges, a change in the size of the measurement data is the distance to the origin, and the measurement data does not return. The feature amount data indicating that the feature amount of the intersecting circle TR is a cliff combination is stored in the intersecting feature amount memory 42 with the intersection number.

かくして交円特徴量算出部41は、測定対象の特徴量に基づいて移動体1が踏むべき足場の状態を表す特徴量データを、1つの交円TRごとに、特徴量メモリ42に蓄積して行く。   Thus, the intersecting circle feature quantity calculation unit 41 accumulates feature quantity data representing the state of the scaffold that the moving body 1 should step on based on the feature quantity to be measured in the feature quantity memory 42 for each intersection circle TR. go.

(5)測定対象の測定処理
(5−1)特徴量の抽出
CPU13は、データ入力手段11によってユーザが動作命令を入力したとき、図18に示す特徴量抽出処理手順RT1の処理に入り、ステップSP1において測定対象に対する測定方向として視準方向Zの設定を行う。
(5) Measurement processing of measurement target (5-1) Feature amount extraction When the user inputs an operation command by the data input means 11, the CPU 13 enters the processing of the feature amount extraction processing procedure RT1 shown in FIG. In SP1, the collimation direction Z is set as the measurement direction for the measurement object.

このときCPU13は、垂直走査特徴量抽出部45、又は水平走査特徴抽出部46、又は時系列走査外界確認部47から視準方向Zを円錐走査式距離測定部31に入力させることにより、水平垂直走査部33によって移動環境検出器3の距離測定器27を設定された視準方向Zに合わせる。   At this time, the CPU 13 inputs the collimation direction Z from the vertical scanning feature amount extraction unit 45, the horizontal scanning feature extraction unit 46, or the time-series scanning external field confirmation unit 47 to the conical scanning distance measurement unit 31, thereby The scanning unit 33 adjusts the distance measuring device 27 of the moving environment detector 3 to the set collimation direction Z.

この実施の形態の場合、外界認識装置9は、移動体1が停止している状態において、垂直走査特徴量抽出部45及び水平走査特徴抽出部46によって現在位置を中心とした外界の認識を行うために複数の垂直方向及び水平方向の視準方向Zを順次設定するようになされていると共に、移動体1を時間の経過に従って移動させるために時系列走査外界確認部47から垂直走査特徴量抽出部45又は水平走査特徴抽出部46に対して移動体1の移動に対応して測定すべき方向について順次視準方向Zを設定させるようになされている。   In the case of this embodiment, the external environment recognition device 9 recognizes the external environment centered on the current position by the vertical scanning feature amount extraction unit 45 and the horizontal scanning feature extraction unit 46 while the moving body 1 is stopped. For this purpose, a plurality of vertical and horizontal collimation directions Z are sequentially set, and a vertical scanning feature amount is extracted from the time-series scanning external field confirmation unit 47 in order to move the moving body 1 over time. The collimation direction Z is sequentially set for the direction to be measured corresponding to the movement of the moving body 1 by the unit 45 or the horizontal scanning feature extraction unit 46.

続いてCPU13はステップSP2において、水平垂直走査部33によって水平走査機構21及び垂直走査機構25(図3)を円錐走査制御部32の制御信号に応じて、図5について上述した円錐走査の駆動原理に基づいて、移動環境検出部3の距離測定器27から円錐走査型の円錐走査検出光DETを放出させる。   Subsequently, in step SP2, the CPU 13 causes the horizontal and vertical scanning unit 33 to drive the horizontal scanning mechanism 21 and the vertical scanning mechanism 25 (FIG. 3) in accordance with the control signal of the conical scanning control unit 32. Based on the above, the conical scanning type conical scanning detection light DET is emitted from the distance measuring device 27 of the moving environment detecting unit 3.

この円錐走査検出光DETは水平垂直走査面S1(図4)に沿って検出光パルスの放射方向を円周方向に角速度ωで走査する(図5(C))ことにより、立体走査型の検出光として測定対象に照射される。   This conical scanning detection light DET scans in the radial direction of the detection light pulse along the horizontal / vertical scanning plane S1 (FIG. 4) in the circumferential direction at an angular velocity ω (FIG. 5C), thereby detecting the three-dimensional scanning type. The measurement object is irradiated as light.

測定対象から反射して来た検出パルス光は距離測定器27において受光されて、距離検出部34が測定対象までの距離を測定し、当該測定距離データを距離データメモリ35の操作アドレス画素位置(i、j)(図8)に格納する。   The detection pulse light reflected from the measurement object is received by the distance measuring device 27, the distance detection unit 34 measures the distance to the measurement object, and the measurement distance data is stored in the operation address pixel position ( i, j) (FIG. 8).

これにより距離データメモリ35には、円錐走査検出光DETが上述のステップSP1において設定された視準方向にある測定対象面S2(図4)とセンサ原点Oまでの測定距離Lを表す検出データが、一巡分の走査軌跡について距離データメモリ35に蓄積される。   Thereby, in the distance data memory 35, detection data representing the measurement distance L between the measurement target surface S2 (FIG. 4) in the collimation direction set in the above-described step SP1 and the sensor origin O is stored in the distance data memory 35. The scanning trajectory for one round is stored in the distance data memory 35.

この蓄積された距離データに基づいてCPU13は、次のサブルーチンRT2において、交円特徴量算出部41に対して、図19に示す交円特徴量抽出処理手順を実行させる。   Based on the accumulated distance data, the CPU 13 causes the intersecting circle feature amount calculation unit 41 to execute the intersecting circle feature amount extraction processing procedure shown in FIG. 19 in the next subroutine RT2.

交円特徴量算出部41は、当該交円特徴量抽出処理手順RT2に入ると、まずステップSP11において、対象データ(α−L)を距離データメモリ35から読み出すことにより処理対象として設定する。   When entering the intersecting circle feature value extraction processing procedure RT2, the intersecting circle feature value calculating unit 41 first sets the target data (α−L) as a processing target by reading it from the distance data memory 35 in step SP11.

ここで、各円錐走査回転角度αに対して距離データLが処理対象データとして決まることから、当該処理対象データを(α−L)によって表す。   Here, since the distance data L is determined as processing target data for each cone scanning rotation angle α, the processing target data is represented by (α−L).

続いて交円特徴量算出部41は、次のステップSP12において、処理対象データ(α−L)を円錐走査回転角度αが増大する方向の測定距離Lのエッジ強度ΔLを計算することにより「1次微分エッジオペレータ」を得る。   Subsequently, in the next step SP12, the intersecting circle feature value calculating unit 41 calculates the edge intensity ΔL of the measurement distance L in the direction in which the conical scanning rotation angle α increases in the processing target data (α−L). Obtain a "second derivative edge operator".

この「1次微分エッジオペレータ」は円錐走査回転角度αが微小変化したとき、蓄積された距離検出データLの変化分ΔL(従って変化率)を表している。   This “first-order differential edge operator” represents a change ΔL (and hence a change rate) of the accumulated distance detection data L when the cone scanning rotation angle α is slightly changed.

続いて交円特徴量算出部41は、ステップSP13において、Lジャンプエッジ(すなわち測定距離Lの不連続点)の数と大きさを決定する。   Subsequently, the intersecting circle feature quantity calculation unit 41 determines the number and size of L jump edges (that is, discontinuous points of the measurement distance L) in step SP13.

このLジャンプエッジ(不連続点)は、図15のような不連続面の特徴量K31の距離画像データがもっているときに、当該不連続点の数と大きさを確認することにより、特徴量K31を表すような測定対象を検出するために用いられる。   The L jump edge (discontinuous point) is obtained by checking the number and size of the discontinuous points when the distance image data of the discontinuous surface feature amount K31 as shown in FIG. It is used to detect a measurement object that represents K31.

続いて交円特徴量算出部41は、ステップSP14において、エッジ強度ΔLの符号変化点を抽出する。   Subsequently, the intersecting circle feature quantity calculation unit 41 extracts a sign change point of the edge strength ΔL in step SP14.

この処理は、図12ないし図16の特徴量K1〜K14において、円錐走査回転角度αを増大させて行ったとき、エッジ強度ΔL、従って1次微分エッジオペレータの符号が、「+」であった状態から「−」に変化すれば、当該円錐走査回転角度αの当該変化した位置において距離検出データLが極大値となっていることが分かる。   When this process is performed by increasing the cone scanning rotation angle α in the feature values K1 to K14 of FIGS. 12 to 16, the edge intensity ΔL, and hence the sign of the first-order differential edge operator, is “+”. If the state changes to “−”, it can be seen that the distance detection data L has a maximum value at the changed position of the cone scanning rotation angle α.

これとは逆に、1次微分エッジオペレータの符号が「−」から「+」になったときには、当該変化点における距離検出データLは極小値であることを意味する。   On the contrary, when the sign of the first-order differential edge operator changes from “−” to “+”, it means that the distance detection data L at the change point is a minimum value.

続いて交円特徴量算出部41は、ステップSP15において、当該測定対象の交円について極大及び極小になった数を決定する。   Subsequently, in step SP15, the intersecting circle feature value calculating unit 41 determines the number of local maximums and minimums regarding the measurement target alternating circle.

続いて交円特徴量算出部41は、次のステップSP16において、極大の数及び極小の数(これを極値の組み合せと呼ぶ)の組合せ方を確認することにより、特徴量の分類を判定する。   Subsequently, in the next step SP16, the intersecting circle feature quantity calculation unit 41 determines the classification of the feature quantity by confirming the combination of the number of local maximums and the number of local minimums (this is called a combination of extreme values). .

このステップSP16における特徴量の分類プログラムの手順は、図20に示すように、判定すべき特徴量の順序を、「凸結合」、「凹結合」、「断崖」、「平面」及び「不連続面」の順序とする。   As shown in FIG. 20, the procedure of the feature quantity classification program in this step SP16 determines the order of the feature quantities to be determined as “convex coupling”, “concave coupling”, “cliff”, “plane” and “discontinuous”. "Surface" order.

この順序に従って、交円特徴量算出部41は、ステップSP16の極値の組み合せ判定の結果極値が「極大2、極小2」であったとき、ステップSP17に移って0〜360〔°〕の円錐走査回転角度αにそれぞれ対応する処理対象データ(α−ΔL)の1次微分エッジオペレータの変化率(すなわち(ΔΔL))を計算することにより「2次微分エッジオペレータ」を求める。   In accordance with this order, when the extreme value is “maximum 2 and minimal 2” as a result of the combination determination of extreme values in step SP16, the intersecting circle feature value calculating unit 41 proceeds to step SP17 and changes from 0 to 360 °. The “secondary differential edge operator” is obtained by calculating the rate of change (namely, (ΔΔL)) of the primary differential edge operator of the processing target data (α−ΔL) respectively corresponding to the cone scanning rotation angle α.

交円特徴量算出部41は、この「2次微分エッジオペレータ」ΔΔLを求めることにより、次のステップSP18において、処理対象データ(α−ΔL)の1次微分エッジオペレータによって特徴量の極大及び極小の連続性並びに折り返し性の確認決定を行う。   By calculating this “secondary differential edge operator” ΔΔL, the intersecting circle feature value calculating unit 41 determines the maximum and minimum of the feature value by the primary differential edge operator of the processing target data (α−ΔL) in the next step SP18. Confirmation and determination of continuity and turn-around of the image are made.

その決定結果に基づいて、交円特徴量算出部41は、次のステップSP19において連続並びに折り返しの組合せ方を判定し、極大連続かつ極小折り返しの判定結果が得られたときサブルーチンRT11に移って、「凸結合の特徴量の計算」を、図21に示す「凸結合特徴量の算出処理手順」RT11を実行することにより行う。   Based on the determination result, the intersecting circle feature value calculating unit 41 determines the combination of continuous and folded in the next step SP19, and when the maximum continuous and minimal folded determination result is obtained, the process proceeds to the subroutine RT11. “Calculation of feature value of convex combination” is performed by executing “procedure calculation process procedure of convex combination feature” RT11 shown in FIG.

これに対して、交円特徴量算出部41は、ステップSP19において、極大折り返しかつ極小連続の判定結果が得られたとき、サブルーチンRT12に移って、「凹結合の特徴量の計算」を、図24に示す「凹結合特徴量の算出処理手順」RT12を実行することにより行う。   On the other hand, when the determination result of maximum folding and minimum continuation is obtained in step SP19, the intersecting circle feature value calculation unit 41 proceeds to subroutine RT12 and performs "calculation of feature value of concave coupling". This is performed by executing the “concave coupling feature amount calculation processing procedure” RT12 shown in FIG.

また、交円特徴量算出部41は、上述のステップSP16における極値の組み合せ判定結果が「極大2、極小1」であったとき、サブルーチンRT13に移って、「断崖の特徴量の計算」を、図27に示す「断崖特徴量の算出処理手順」RT13を実行することにより行う。   Further, when the combination determination result of the extreme value in the above-described step SP16 is “maximum 2 and minimal 1”, the intersecting circle feature value calculation unit 41 proceeds to subroutine RT13 and performs “calculation of the cliff feature value”. This is performed by executing the “cliff feature value calculation processing procedure” RT13 shown in FIG.

さらに交円特徴量算出部41は、上述のステップSP16における極値の組み合せ判定結果が「極大1、極小1」であったとき、ステップSP20において、「Lジャンプエッジ」の有無の判定をし、Lジャンプエッジがないとの判定結果が得られたとき、サブルーチンRT14に移って、「平面の特徴量の計算」を、図30に示す「平面特徴量の算出処理手順」RT14を実行することにより行う。   Further, when the combination determination result of the extreme values in the above-described step SP16 is “maximum 1, minimum 1”, the intersecting circle feature quantity calculation unit 41 determines whether or not there is an “L jump edge” in step SP20. When a determination result indicating that there is no L jump edge is obtained, the process proceeds to subroutine RT14 to execute “calculation of planar feature value” RT14 and “planar feature value calculation processing procedure” RT14 shown in FIG. Do.

これに対して、交円特徴量算出部41は、上述のステップSP20において、Lジャンプエッジがあるとの判定結果が得られたときには、サブルーチンRT15に移って、「不連続面の特徴量の計算」を、図34の「不連続面特徴量の算出処理手順」RT15を実行することにより行う。   On the other hand, when the determination result that there is an L jump edge is obtained in step SP20 described above, the intersecting circle feature value calculation unit 41 proceeds to subroutine RT15 and “calculates the feature value of the discontinuous surface”. Is performed by executing the “discontinuous surface feature value calculation processing procedure” RT15 in FIG.

このようにして交円特徴量算出部41は、距離データメモリ35に蓄積された距離データに基づく処理対象データ(α−L)が凸結合、凹結合、断崖、平面、不連続面のどの特徴をもつものであるかを抽出してその特徴量を算出した後、ステップSP21に移って処理対象データ(α−L)の全ての処理が終ったか否かを確認し、否定結果が得られたとき上述のステップSP11に戻って残る処理対象データ(α−L)の処理を繰り返す。   In this way, the intersecting circle feature amount calculation unit 41 determines whether the processing target data (α-L) based on the distance data stored in the distance data memory 35 is a convex coupling, a concave coupling, a cliff, a plane, or a discontinuous plane. After calculating the feature amount and calculating the feature amount, the process proceeds to step SP21 to check whether or not all the processing of the processing target data (α-L) is completed, and a negative result is obtained. When the process returns to the above-described step SP11, the process of the remaining process target data (α-L) is repeated.

これに対して、ステップSP21において肯定結果が得られたとき、交円特徴量算出部41は、ステップSP22に移って当該交円特徴量抽出処理手順RT2を終了する。   On the other hand, when a positive result is obtained in step SP21, the intersecting circle feature value calculating unit 41 proceeds to step SP22 and ends the intersecting circle feature value extraction processing procedure RT2.

かくして交円特徴量算出部41は、ステップSP1(図18)において、現在設定されている視準方向の測定対象について、その特徴量を算出して交円特徴量メモリ42に保存した後、ステップSP4に移って、予定されている全視準方向についての特徴量抽出処理が終了したか否かを判断し、否定結果が得られたとき上述のステップSP1に戻って残る視準方向についての特徴量抽出処理を繰り返す。   Thus, in step SP1 (FIG. 18), the intersecting circle feature value calculating unit 41 calculates the feature amount of the measurement target in the currently set collimation direction and stores it in the intersecting circle feature amount memory 42. Moving to SP4, it is determined whether or not the feature amount extraction processing for all scheduled collimation directions is completed, and when a negative result is obtained, the process returns to the above-described step SP1 and the features for the collimation direction remaining. Repeat the volume extraction process.

これに対してステップSP4において肯定結果が得られたとき、交円特徴量算出部41は、ステップSP5に移って当該特徴量抽出処理手順RT1を終了する。   On the other hand, when a positive result is obtained in step SP4, the intersecting feature quantity calculation unit 41 proceeds to step SP5 and ends the feature quantity extraction processing procedure RT1.

(5−2)各測定対象の特徴量の算出
図19について上述した各特徴量の計算は、交円特徴量算出部41が、図21、図24、図27、図30及び図34の算出処理手順を実行することにより行う。
(5-2) Calculation of Feature Quantity of Each Measurement Object The calculation of each feature quantity described above with reference to FIG. 19 is performed by the intersecting circle feature quantity calculation unit 41 using the calculations shown in FIG. 21, FIG. 24, FIG. 27, FIG. This is done by executing a processing procedure.

(5−2−1)凸結合特徴量の算出処理手順
交円特徴量抽出部41は、凸結合特徴量の算出処理手順RT11(図21)に入ると、ステップSP31において、図19の交円特徴量抽出処理手順RT2のステップSP16〜SP19の処理において、距離データメモリ35から取得した処理対象データ(α−L)と、連続極大2点及び折返極小2点の処理対象データ(図12)とを設定する。
(5-2-1) Convex Combining Feature Value Calculation Processing Procedure Upon entering the convex combining feature value calculation processing procedure RT11 (FIG. 21), the intersecting circle feature amount extraction unit 41 performs step SP31 in FIG. In the processing of steps SP16 to SP19 of the feature amount extraction processing procedure RT2, the processing target data (α-L) acquired from the distance data memory 35, the processing target data (FIG. 12) having two continuous maximums and two folding minimums. Set.

この場合の処理対象データ(α−L)は、具体的な実施の形態として、図22の測定条件の下に検出したものを用いる。   As the processing target data (α-L) in this case, data detected under the measurement conditions of FIG. 22 is used as a specific embodiment.

この測定条件は、図22(B)に示すように、床面6上に立っている移動体1の移動環境検出器3が、矢印aで示す環境検出方向について、床面6に続く蹴込面19の上端部、段鼻8A及び踏み面8の後端部に対して円錐走査検出光DETを照射し、その結果、図22(A)に示すように、円錐走査検出光DETの交円TRに段鼻8Aを挟んで踏み面8の照射部分(図22(A))と蹴込面19の照射部分(図22(C))の距離データを含んでいる。   As shown in FIG. 22B, the measurement condition is that the moving environment detector 3 of the moving body 1 standing on the floor surface 6 is a kick surface following the floor surface 6 in the environment detection direction indicated by the arrow a. The conical scanning detection light DET is irradiated to the upper end portion of 19, the nose 8 </ b> A and the rear end portion of the tread surface 8, and as a result, as shown in FIG. The distance data of the irradiated portion of the tread surface 8 (FIG. 22A) and the irradiated portion of the kick surface 19 (FIG. 22C) across the nose 8A is included.

図22の場合、踏み面8及び蹴込面19に対して視準方向Zが後上方のセンサ原点Oから斜交しているので、交円TRは環境検出方向aの方向に長径を有する楕円を描く。   In the case of FIG. 22, the collimation direction Z obliquely intersects with the tread surface 8 and the kick surface 19 from the sensor origin O at the rear upper side, so that the intersection circle TR is an ellipse having a major axis in the direction of the environment detection direction a. Draw.

かくして、検出距離Lは、図23に示すように、円錐走査回転角度αが、α=0〜180〔°〕の範囲で踏み面8上の交円TRに沿って連続極大値MX1を通る変化をした後、α=180〜360〔°〕の範囲では、引き続き踏み面8上を走査した後折返極小値MN1において段鼻8Aを通って蹴込面9(図22(C))を走査することにより、連続極大MX2を通った後段鼻8Aの折返極小MN2を通って踏み面8に戻るような楕円軌跡に沿って距離の検出操作をする。   Thus, as shown in FIG. 23, the detection distance L is a change in which the conical scanning rotation angle α passes through the continuous maximum value MX1 along the intersecting circle TR on the tread surface 8 in the range of α = 0 to 180 [°]. Then, in the range of α = 180 to 360 [°], by continuously scanning the tread surface 8 and then scanning the kick surface 9 (FIG. 22C) through the nose 8A at the return minimum value MN1. Then, the distance detection operation is performed along an elliptical trajectory that passes through the continuous maximum MX2 and then returns to the tread surface 8 through the folding minimum MN2 of the rear nose 8A.

この結果、円錐走査検出光DETは、蹴込面19及び踏み面8に亘って立体を形成する測定対象面を、円錐底面を構成する交円TRの走査軌跡を利用して当該測定対象の立体形状として、検出距離Lの値及びその変化によって表わした、処理対象データ(α−L)を得ることができる。   As a result, the conical scanning detection light DET uses the scanning trajectory of the intersecting circle TR constituting the bottom of the cone as the measurement target surface that forms a solid over the kick surface 19 and the tread surface 8, and the three-dimensional shape of the measurement target. As described above, the processing target data (α−L) represented by the value of the detection distance L and its change can be obtained.

交円特徴量抽出部41は、当該設定された処理対象データ(α−L)に基づいて、次のステップSP32において、段鼻8Aによって作られている踏み面8と蹴込面19との間の境界線(これを段鼻ラインと呼ぶ)W1を折返極小2点MN1及びMN2によって決定する。   On the basis of the set processing target data (α−L), the intersecting circle feature quantity extraction unit 41 determines the boundary between the tread surface 8 and the kick surface 19 created by the nose 8A in the next step SP32. A line W1 (referred to as a nose line) W1 is determined by two folding minimum points MN1 and MN2.

この段鼻ラインW1は、移動体1の脚車輪J3が越えなければならない段鼻8Aのセンサ原点Oからの距離並びに姿勢及び高さを表わしており、かくして外界認識装置9が当該三次元的立体環境を検出できたことを意味する。   This nose line W1 represents the distance, posture, and height of the nose 8A from the sensor origin O that the leg wheel J3 of the moving body 1 must pass over, and thus the external environment recognition device 9 represents the three-dimensional solid environment. It means that it was detected.

続いて交円特徴量検出部41は、次のステップSP33において、水平平面(すなわち踏み面8)の存在を、折返極小2点MN1及びMN2と連続極大1点MX1とによって決定する。   Subsequently, in the next step SP33, the intersecting circle feature quantity detection unit 41 determines the presence of the horizontal plane (that is, the tread surface 8) based on the folding minimum two points MN1 and MN2 and the continuous maximum one point MX1.

さらに続くステップSP34において、交円特徴量検出部41は、垂直平面(すなわち蹴込面19)を折返極小2点MN1及びMN2と、その間にある連続極大1点MX2とによって決定する。   In further subsequent step SP34, the intersecting feature amount detecting unit 41 determines the vertical plane (that is, the kicked surface 19) based on the folding minimum two points MN1 and MN2 and the continuous maximum one point MX2 therebetween.

この水平面及び垂直面は、段鼻ラインW1に続く奥及び手前の交円位置に立体的な測定対象部分があること及びその大きさを外界認識装置9が検出できたことを意味する。   The horizontal plane and the vertical plane mean that there is a three-dimensional measurement target portion at the back and front intersection positions following the nosing line W1, and that the size of the external recognition device 9 can be detected.

かくして交円特徴量検出部41は、ステップSP35において当該凸結合特徴量の算出処理手順RT11の処理を終了して、上述の交円特徴量抽出処理手順RT2(図19)にリターンする。   Thus, the intersecting circle feature quantity detection unit 41 ends the process of the convex combination feature quantity calculation processing procedure RT11 in step SP35, and returns to the above-described intersecting circle feature quantity extraction processing procedure RT2 (FIG. 19).

このようにして、外界認識装置9は、設定した視準方向Zに存在する上り階段のうち、移動体1が立っている床面6から垂直平面である蹴込面19の存在と、蹴込面19の上端にある段鼻8Aと、当該段鼻8Aに続く水平面である踏み面8とを凸結合の特徴として検出することができる。   In this way, the external environment recognition device 9 includes the presence of the kick surface 19 that is a vertical plane from the floor surface 6 on which the moving body 1 stands among the ascending steps existing in the set collimation direction Z, and the kick surface 19. The nose 8A at the upper end of the nose and the tread surface 8, which is a horizontal plane following the nose 8A, can be detected as features of convex coupling.

(5−2−2)凹結合特徴量の算出処理手順
交円特徴量算出部41は、図19のステップSP16〜SP19の処理に基づくサブルーチンRT12における凹結合特徴量の計算を、図24の凹結合特徴量の算出処理手順RT12を実行することにより行う。
(5-2-2) Concave Connection Feature Value Calculation Processing Procedure The intersecting circle feature value calculation unit 41 calculates the concave connection feature value in the subroutine RT12 based on the processing in steps SP16 to SP19 in FIG. This is performed by executing the combined feature amount calculation processing procedure RT12.

交円特徴量算出部41は、凹結合特徴量の算出処理手順RT12に入ると、ステップSP41において、図19の交円特徴量抽出処理手順RT2のステップSP16〜SP19において、距離データメモリ35から取得した処理対象データ(α−L)のうち、折返極大2点及び連続極小2点の処理データ(図14)を設定する。この場合の処理対象データ(α−L)は、具体的な実施形態として、図25の測定条件の下に検出したものを使う。   When entering the concave joint feature value calculation processing procedure RT12, the intersecting circle feature value calculating unit 41 obtains from the distance data memory 35 in step SP41 in steps SP16 to SP19 of the intersecting feature value extraction processing procedure RT2 in FIG. Among the processing target data (α-L), the processing data (FIG. 14) for two folding maximum points and two continuous minimum points is set. The processing target data (α-L) in this case uses data detected under the measurement conditions of FIG. 25 as a specific embodiment.

この測定条件は、図25(B)に示すように、床面6上に立っている移動体1が、矢印aで示す環境検出方向について、床面6に続く階段の蹴込8C及び蹴込面19に対して円錐走査検出光DETを照射し、その結果図25(A)に示すように、円錐走査検出光DETの交円TRは蹴込8Cを挟んで床面6と蹴込面19(図25(C))を含んでいる。   As shown in FIG. 25 (B), the measurement condition is that the moving body 1 standing on the floor surface 6 has a stepped kick 8C and a kick surface 19 following the floor surface 6 in the environment detection direction indicated by the arrow a. As shown in FIG. 25A, as a result, the intersection TR of the cone scanning detection light DET has a floor surface 6 and a kick surface 19 (see FIG. C)).

図25の場合も、床面6及び蹴込面19に対して視準方向Zが後上方のセンサ原点Oから斜交しているので、交円TRは環境検出方向aの方向に長径を有する楕円を描く。   Also in the case of FIG. 25, since the collimation direction Z is obliquely crossed from the rear upper sensor origin O with respect to the floor surface 6 and the kick surface 19, the intersection circle TR is an ellipse having a major axis in the direction of the environment detection direction a. Draw.

かくして、検出距離Lは、図26に示すように、円錐走査回転角度αがα=0から回転を開始して、蹴込8Cに至るまでの間は大きくなって行き、蹴込8Cの位置で折返極大値MX21になった後、垂直面でなる蹴込面19を回転している間に連続極小値MN21を通って蹴込8Cから床面6に戻るとき折返極大値MX22に至り、その後床面6を回転している間に連続極小値MN22を通ってα=360〔°〕に戻るような変化をする。   Thus, as shown in FIG. 26, the detection distance L increases until the cone scanning rotation angle α starts rotating from α = 0 and reaches the kick 8C, and the return maximum is at the position of the kick 8C. After the value MX21 is reached, when the kicking surface 19 which is a vertical surface is rotating, it passes through the continuous minimum value MN21 and returns to the floor surface 6 from the kicking 8C to reach the return maximum value MX22, and then the floor surface 6 is rotated. During this time, a change is made to return to α = 360 [°] through the continuous minimum value MN22.

この結果、円錐走査検出光DETは、床面6ないし蹴込面19に亘って立体を形成する測定対象面について、円錐底面を構成する交円TRの軌跡を利用して当該測定対象の立体形状を表す処理対象データ(α−L)を得る。   As a result, the conical scanning detection light DET uses the trajectory of the intersecting circle TR that forms the bottom of the cone to measure the three-dimensional shape of the measurement target surface that forms a solid over the floor surface 6 or the kick surface 19. The processing target data (α-L) to be expressed is obtained.

交円特徴量算出部41は、当該設定された処理対象データ(α−L)に基づいて、次のステップSP42において、蹴込8Cによって作られている床面6と蹴込面19との間の境界線(これを蹴込ラインと呼ぶ)W2を、折返極大値MX21及びMX22によって決定する。   Based on the set processing target data (α−L), the intersecting circle feature quantity calculation unit 41 determines the boundary between the floor surface 6 and the kick surface 19 created by the kick 8C in the next step SP42. A line (referred to as a kick-in line) W2 is determined by the folded maximum values MX21 and MX22.

続いて交円特徴量算出部41は、次のステップSP43において、折返極大2点MX21及びMX22と、その間にある連続極小1点MN22によって水平平面(この場合床面6)を決定する。   Subsequently, in the next step SP43, the intersecting circle feature value calculating unit 41 determines a horizontal plane (in this case, the floor surface 6) based on the folding maximum two points MX21 and MX22 and the continuous minimum one point MN22 therebetween.

続いて交円特徴量算出部41は、ステップSP44において、折返極大2点MX21及びMX22と、その間にある連続極小1点MN21とによって垂直平面である蹴込面19を決定する。   Subsequently, in step SP44, the intersecting circle feature quantity calculation unit 41 determines the kick surface 19 that is a vertical plane based on the two folding maximum points MX21 and MX22 and the one continuous minimum point MN21 therebetween.

ここで、蹴込ラインW2は、移動体1の脚車輪J3が前方に進んで行ける蹴込8Cまでの距離、及び蹴込面19の姿勢を表しており、また決定した水平面及び垂直面は蹴込8Cまで床面が続いていると共に、蹴込8Cが蹴込面19に続いていることを検出できたことを意味する。   Here, the kick line W2 represents the distance to the kick 8C that the leg wheel J3 of the moving body 1 can travel forward and the posture of the kick surface 19, and the determined horizontal and vertical planes are the floor to the kick 8C. This means that it has been detected that the surface continues and the kick 8C continues to the kick surface 19.

かくして交円特徴量検出部41は、ステップSP45において当該凹結合特徴量の算出処理手順RT12の処理を終了して、交円特徴量抽出処理手順RT2(図19)にリターンする。   Thus, the intersecting circle feature quantity detection unit 41 ends the processing of the concave coupling feature quantity calculation processing procedure RT12 in step SP45, and returns to the intersecting circle feature quantity extraction procedure procedure RT2 (FIG. 19).

このようにして、外界認識装置9は設定した視準方向Zに存在する階段のうち、移動体1が立っている床面6から垂直平面である蹴込面19の存在と、床面6と蹴込面19との間にある蹴込8Cとを、交円TR位置にある立体的な測定対象部分として検出することができる。   In this way, the external environment recognition device 9 includes the presence of the kick surface 19 that is a vertical plane from the floor surface 6 on which the moving body 1 stands among the steps existing in the collimation direction Z, and the floor surface 6 and the kick surface. The kick 8C between the surface 19 and the surface 19 can be detected as a three-dimensional measurement target portion at the intersection TR position.

(5−2−3)断崖特徴量の算出処理手順
交円特徴量算出部41は、図19の交円特徴量抽出処理手順RT2のステップSP16に続いて断崖特徴量の計算サブルーチンRT13に入ると、先ず図27に示す断崖特徴量の算出処理手順RT13のステップSP51において、距離データメモリ35から不連続極大2点及び連続極小1点を有する処理対象データ(α−L)(図16)を設定する。
(5-2-3) Cliff Feature Quantity Calculation Processing Procedure When the intersecting circle feature value calculating unit 41 enters the cliff feature value calculation subroutine RT13 following step SP16 of the intersecting circle feature value extraction processing procedure RT2 of FIG. First, in step SP51 of the cliff feature amount calculation processing procedure RT13 shown in FIG. 27, processing target data (α-L) (FIG. 16) having two discontinuous maximum points and one continuous minimum point is set from the distance data memory 35. To do.

この場合の処理対象データ(α−L)は、具体的な実施形態として、図28の測定条件の下に検出したものを使う。   The processing target data (α-L) in this case uses data detected under the measurement conditions of FIG. 28 as a specific embodiment.

この測定条件は、図28(B)に示すように、床面6(又は踊り場面)上に立っている移動体1が矢印aで示す環境検出方向について、床面6に続く検出面がない断崖10に対して円錐走査検出光DETを照射し、その結果、図28(A)に示すように、交円TRに床面6の縁部分を含むのに対して、断崖10から前方には交円を形成するような測定対象面が存在しない状態になっている。   As shown in FIG. 28 (B), this measurement condition is that there is no detection surface following the floor surface 6 in the environment detection direction indicated by the arrow a when the moving body 1 standing on the floor surface 6 (or dance scene) is shown. As shown in FIG. 28 (A), the cliff 10 is irradiated with the cone scanning detection light DET. There is no measurement target surface that forms an intersecting circle.

図28の場合、床面6の縁部分には、環境検出方向aの方向に長径を有する楕円の後端部が、交円TRとして照射される。   In the case of FIG. 28, the edge part of the floor surface 6 is irradiated with the rear end part of an ellipse having a major axis in the direction of the environment detection direction a as an intersection circle TR.

かくして測定距離Lは、図29に示すように、円錐走査回転角度αがα=180〜360〔°〕の範囲のうち、床面6の断崖10に隣接する縁部分を交円TRとして走査することにより、床面6と断崖10との境界線(これを断崖ラインと呼ぶ)W3位置に対応する不連続極大値MX41及びMX42とその間に連続極小値MN41とを生ずるような処理対象データ(α−L)が得られる。   Thus, as shown in FIG. 29, the measurement distance L scans the edge portion adjacent to the cliff 10 of the floor surface 6 as an intersection circle TR in the range where the cone scanning rotation angle α is α = 180 to 360 [°]. As a result, processing target data (α that generates discontinuous maximum values MX41 and MX42 corresponding to the boundary line W3 of the floor surface 6 and the cliff 10 (this is called a cliff line) and a continuous minimum value MN41 therebetween. -L) is obtained.

この設定された処理対象データ(α−L)に基づいて、交円特徴量算出部41は、次のステップSP52において、不連続極大2点によって断崖ラインW3を決定する。   Based on the set processing target data (α−L), the intersecting circle feature quantity calculation unit 41 determines a cliff line W3 based on two discontinuous maximum points in the next step SP52.

この断崖ラインW3は、移動体1の脚車輪J3が踏み入れてはならない断崖10の縁までのセンサ原点Oからの距離並びに姿勢を表しており、かくして外界認識装置9が当該断崖10のある環境を検出できたことを意味する。   This cliff line W3 represents the distance and posture from the sensor origin O to the edge of the cliff 10 that the leg wheel J3 of the moving body 1 should not step on, and thus the external environment recognition device 9 indicates the environment where the cliff 10 is located. It means that it was detected.

続いて交円特徴量算出部41は、次のステップSP53において、不連続極大2点MX41及びMX42と、その間に連続極小1点MN41が存在することに基づいて水平面である床面6(又は踊り場面)の決定をする。   Subsequently, in the next step SP53, the intersecting circle feature value calculation unit 41 determines that the floor surface 6 (or dance) is a horizontal plane based on the presence of two discontinuous maximum points MX41 and MX42 and one continuous minimum point MN41 therebetween. Scene).

この水平面は、移動体1が断崖10に行くまでに立つことができる踏み面の限界が断崖ラインW3の手前にあることを外界認識装置9が検出できたことを意味する。   This horizontal plane means that the external recognition device 9 has detected that the limit of the tread surface on which the mobile body 1 can stand before reaching the cliff 10 is in front of the cliff line W3.

かくして交円特徴量検出部41は、ステップSP54において当該断崖特徴量の算出処理手順RT13の処理を終了して、交円特徴量抽出処理手順RT2(図19)にリターンする。   Thus, the intersecting circle feature quantity detection unit 41 ends the processing of the cliff feature quantity calculation processing procedure RT13 in step SP54, and returns to the intersecting circle feature value extraction processing procedure RT2 (FIG. 19).

このようにして、外界認識装置9は、設定した視準方向Zに存在する水平面部と断崖ラインW3との存在に基づいて、測定対象が断崖の特徴量K41をもつ立体環境であることを検出することができる。   In this way, the external environment recognition device 9 detects that the measurement target is a three-dimensional environment having the cliff feature amount K41 based on the presence of the horizontal plane portion and the cliff line W3 existing in the set collimation direction Z. can do.

(5−2−4)平面特徴量の算出
交円特徴量算出部41は、図19の交円特徴量抽出処理手順RT2のステップSP16及びSP20に続いて平面特徴量の算出処理サブルーチンRT14に入ると、図30に示す平面特徴量の算出処理手順RT14のステップSP61において、距離データメモリ35から不連続極大1点及び連続極小1点を有する処理対象データ(α−L)(図13)を設定する。
(5-2-4) Calculation of Plane Feature Quantity The intersecting circle feature quantity calculation unit 41 enters the plane feature quantity calculation processing subroutine RT14 following steps SP16 and SP20 of the intersecting circle feature quantity extraction processing procedure RT2 of FIG. In step SP61 of the planar feature amount calculation processing procedure RT14 shown in FIG. 30, the processing target data (α-L) (FIG. 13) having one discontinuous maximum and one continuous minimum is set from the distance data memory 35. To do.

この場合の処理対象データ(α−L)は、具体的な実施形態として、図31に示す測定条件の下に検出したものを用いる。   As processing target data (α-L) in this case, data detected under measurement conditions shown in FIG. 31 is used as a specific embodiment.

この測定条件は、図31(A)に示すように、センサ原点Oから前下方に向って、矢印cで示すように左奥から右手前の方向に傾斜している床面6に対して、円錐走査検出光DETを照射することにより、床面6に形成された楕円形状の交円TRから、図32に示す平面の特徴量K11を有する処理対象データ(α−L)を得ている。   As shown in FIG. 31 (A), the measurement conditions are as follows. The floor 6 is inclined from the sensor origin O toward the front lower side and from the left back to the right front as indicated by the arrow c. By irradiating the conical scanning detection light DET, the processing target data (α−L) having the plane feature quantity K11 shown in FIG. 32 is obtained from the elliptical intersection circle TR formed on the floor surface 6.

この平面の特徴量は、円錐走査回転角度αをα=45〔°〕まで回転したとき交円TRが傾斜面を登って行くことにより、測定距離Lが小さくなって行き、やがて連続極小点MN11を通過してさらに回転して行くと、交円TRは傾斜を下りながら長径方向に遠ざかって行くことにより、測定距離Lが上昇に転じて行く。   The feature amount of this plane is that when the conical scanning rotation angle α is rotated to α = 45 °, the intersecting circle TR goes up the inclined surface, so that the measurement distance L becomes smaller and eventually the continuous minimum point MN11. When passing through and further rotating, the intersecting circle TR moves away in the major axis direction while going down the slope, so that the measurement distance L starts to rise.

その後α=90〜225〔°〕までの間は、交円TRが傾斜面を下って行くことにより測定距離Lは大きくなって行き、その傾斜面の最も低い点において連続極大値MX11になる。   Thereafter, between α = 90 and 225 [°], the measurement distance L increases as the intersecting circle TR goes down the inclined surface, and reaches the continuous maximum value MX11 at the lowest point of the inclined surface.

この連続極大値MX11を通り過ぎると、交円TRは傾斜面を登って行くことにより測定距離Lは小さくなって行く。   After passing this continuous maximum value MX11, the measurement distance L becomes smaller as the intersecting circle TR climbs the inclined surface.

このような特徴量K11をもつ処理対象データ(α−L)に基づいて、交円特徴量算出部41は、次のステップSP62において測定距離Lの最大値Lmax、最大値となる回転角度位置α(Lmax)、測定距離Lの最小値Lmin及び最小値となる回転角度位置α(Lmin)を同定する。   Based on the processing target data (α−L) having such a feature amount K11, the intersecting circle feature amount calculation unit 41 sets the maximum value Lmax and the rotation angle position α that becomes the maximum value of the measurement distance L in the next step SP62. (Lmax), the minimum value Lmin of the measurement distance L, and the rotation angle position α (Lmin) that is the minimum value are identified.

続いて交円特徴量検出部41は、次のステップSP63において床面6でなる測定対象平面の傾斜方向α(Lmax)、傾斜角γ、センサ原点Oから平面までの距離dzを、図33に示す極大点MX11の極小点MN11からの位置関係に基づいて算出する。   Subsequently, the intersecting circle feature amount detection unit 41 sets the inclination direction α (Lmax), the inclination angle γ, and the distance dz from the sensor origin O to the plane in FIG. 33 in the next step SP63. Calculation is based on the positional relationship of the maximum point MX11 shown from the minimum point MN11.

図33において、zはセンサ原点Oから視準方向Zへとった距離を表し、主軸mはzに対して直交する方向の距離を表す。   In FIG. 33, z represents the distance from the sensor origin O to the collimation direction Z, and the main axis m represents the distance in the direction orthogonal to z.

また図33において、βは円錐走査回転角度αによって形成される円錐走査検出光DETの半頂角で、センサ原点Oから極小点MN11までの距離dminは、次式、   In FIG. 33, β is a half apex angle of the cone scanning detection light DET formed by the cone scanning rotation angle α, and the distance dmin from the sensor origin O to the minimum point MN11 is expressed by the following equation:

Figure 0005499355
Figure 0005499355

によって求められると共に、センサ原点Oから極大点MX11までの距離dmaxは、次式、 And the distance dmax from the sensor origin O to the maximum point MX11 is given by the following equation:

Figure 0005499355
Figure 0005499355

によって求めることができ、その差分hは、次式、 The difference h can be calculated by the following equation:

Figure 0005499355
Figure 0005499355

になる。 become.

ここで、極大点MX11と極小点MN11とを結ぶ線は、平面6上の成分を表しており、差分hは当該平面の傾斜の高さを表している。   Here, a line connecting the maximum point MX11 and the minimum point MN11 represents a component on the plane 6, and the difference h represents the height of the inclination of the plane.

一方極小点MN11及び極大点MX11からそれぞれz軸に下ろした脚の長さrmin及びrmaxは、   On the other hand, the leg lengths rmin and rmax lowered from the local minimum point MN11 and the local maximum point MX11 to the z-axis, respectively,

Figure 0005499355
Figure 0005499355

Figure 0005499355
Figure 0005499355

のように、半頂角βによって表すことができるから、両者の和kは、 Thus, the sum k of both can be expressed by the half apex angle β.

Figure 0005499355
Figure 0005499355

になる。 become.

この結果、(8)式の差分hとの間には、   As a result, between the difference h in equation (8),

Figure 0005499355
Figure 0005499355

の関係がある。 There is a relationship.

(12)式のγは、極大点MX11と極小点MN11とを結ぶ傾斜面(すなわち測定対象である平面6)の、円錐走査検出光DETの円錐底面からの傾斜角を表しており、当該傾斜角γを(12)式から求めることができる。   In the equation (12), γ represents an inclination angle of the inclined surface connecting the local maximum point MX11 and the local minimum point MN11 (that is, the plane 6 to be measured) from the conical bottom surface of the conical scanning detection light DET. The angle γ can be obtained from equation (12).

かくして求めた傾斜角γによって、センサ原点Oから測定対象平面までの距離dzは、次式、   The distance dz from the sensor origin O to the measurement target plane is determined by the following equation by the inclination angle γ thus obtained:

Figure 0005499355
Figure 0005499355

Figure 0005499355
Figure 0005499355

によって求めることができる。 Can be obtained.

このようにして交円特徴量算出部41は、ステップSP63において平面の傾斜方向α(Lmax)、傾斜角γ、センサ原点Oから平面までの距離dzを算出した後、ステップSP64に移って、平面の傾斜角γに基づいて平面が水平平面であるか(γが正)、又は垂直平面であるか(γが負)を決定する。   In this manner, the intersecting circle feature quantity calculation unit 41 calculates the plane inclination direction α (Lmax), the inclination angle γ, and the distance dz from the sensor origin O to the plane in step SP63, and then proceeds to step SP64. Is determined as to whether the plane is a horizontal plane (γ is positive) or a vertical plane (γ is negative).

かくして交円特徴量算出部41は、ステップSP65において当該平面特徴量の算出処理手順RT14を終了して、交円特徴量抽出処理手順RT2(図19)にリターンする。   Thus, the intersecting circle feature quantity calculation unit 41 ends the planar feature quantity calculation processing procedure RT14 in step SP65, and returns to the intersecting circle feature quantity extraction processing procedure RT2 (FIG. 19).

このようにして、外界認識装置9は、測定対象が、設定した視準方向Zに存在する平面の傾斜方向、傾斜角、センサ原点Oから平面までの距離及び当該平面が水平方向であるか又は垂直平面であるかを、平面の特徴量K11をもつ立体的環境であることとして検出できる。   In this way, the external environment recognition apparatus 9 determines whether the measurement target is a tilt direction, a tilt angle, a distance from the sensor origin O to the plane, and the plane is a horizontal direction, which exists in the set collimation direction Z. Whether it is a vertical plane can be detected as a three-dimensional environment having a plane feature K11.

(5−2−5)不連続面特徴量の算出
交円特徴量算出部41は、図19の交円特徴量抽出処理手順RT2のステップSP16及びSP20に続いて不連続面特徴量の算出処理手順RT15に入ると、図34に示す不連続面特徴量の算出処理手順RT15のステップSP71において、距離データメモリ35から連続極大1点、連続極小1点及び不連続2点の処理対象データ(α−L)(図15)を設定する。
(5-2-5) Calculation of Discontinuous Surface Feature Amount The intersection circle feature amount calculation unit 41 calculates a discontinuous surface feature amount after steps SP16 and SP20 of the intersection circle feature amount extraction processing procedure RT2 of FIG. When the procedure RT15 is entered, in the processing SP15 of the discontinuous surface feature value calculation process RT15 shown in FIG. 34, processing data (α for one continuous maximum, one continuous minimum, and two discontinuities from the distance data memory 35. -L) (FIG. 15) is set.

この場合の処理対象データ(α−L)は、具体的な実施形態として、図35の測定条件の下に検出したものを用いる。   As the processing target data (α-L) in this case, data detected under the measurement conditions of FIG. 35 is used as a specific embodiment.

この測定条件は、図35(B)に示すように、床面6(又は踊り場面)上に立っている移動体1が矢印aで示す環境検出方向について、床面6に続く階段を1段下った踏み面8(又は踊り場面)に対して円錐走査検出光DETを照射し、その結果図35(A)に示すように、円錐走査検出光DETの交円TRに段鼻8Aを挟んで床面6と踏み面8とを含んでいる。   As shown in FIG. 35 (B), the measurement condition is that the moving body 1 standing on the floor surface 6 (or a dance scene) has one stairs following the floor surface 6 in the environment detection direction indicated by the arrow a. As shown in FIG. 35 (A), the floor tread 8 (or dancing scene) is irradiated with the cone scanning detection light DET. As a result, the floor 8A is sandwiched between the intersections TR of the cone scanning detection light DET. The surface 6 and the tread surface 8 are included.

図35の場合、円錐走査検出光DETは、センサ原点Oから前下方に向って照射しているので、環境検出方向aの後端位置及び先端位置の床面6及び踏み面8からの検出戻り光が得られることにより、TRの後方部分と前方部分とに分離したような交円部分が生ずるのに対して、当該交円部分の間に踏み面8の先端にある段鼻8Aの影8Xが下の段の踏み面8に生ずることにより、当該影の範囲TRXにおいては検出戻り光が得られなくなる。   In the case of FIG. 35, since the conical scanning detection light DET is irradiated from the sensor origin O toward the front lower side, detection return from the floor surface 6 and the tread surface 8 at the rear end position and the front end position in the environment detection direction a. As a result of the light being obtained, an intersecting circle portion that is separated into the rear portion and the front portion of TR is generated, whereas the shadow 8X of the nose 8A at the tip of the tread surface 8 is between the intersecting circle portions. Due to the occurrence on the tread surface 8 at the lower stage, no detection return light can be obtained in the shadow range TRX.

この結果、不連続面の特徴量K31は、図36に示すように、円錐走査回転角度αがα=0〜180〔°〕の回転範囲においては、踏み面8の交円TRからの検出光に基づいて連続極大点MX31をもつような変化が得られるのに対して、交円TRがα=180〔°〕を過ぎて影の範囲TRXに入ると、当該影の範囲TRXに入った回転角度αの位置において踏み面8側の不連続点NC31及び床面6側の不連続点MX41が現れる。   As a result, as shown in FIG. 36, the feature quantity K31 of the discontinuous surface is detected light from the intersection circle TR of the tread surface 8 in the rotation range where the cone scanning rotation angle α is α = 0 to 180 °. On the other hand, a change having a continuous maximum point MX31 is obtained based on the above, but if the intersection circle TR passes α = 180 ° and enters the shadow range TRX, the rotation that has entered the shadow range TRX A discontinuous point NC31 on the tread surface 8 side and a discontinuous point MX41 on the floor surface 6 side appear at the position of the angle α.

このとき、踏み面8側の不連続点NC31は段鼻8Aより遠い1段下った踏み面8からの戻り光に基づく測定距離を表わすことになるので測定距離Lの値は大きいのに対して、床面6側の不連続点MX41は段鼻8Aより近い床面6からの戻り光に基づく測定距離を表わすことになるので測定距離Lの値は小さくなり、その結果不連続点NC31及びMX41間には測定距離Lに大きなジャンプが生じる。   At this time, the discontinuous point NC31 on the tread surface 8 side represents the measurement distance based on the return light from the tread surface 8 that is one step lower than the nose 8A, so the value of the measurement distance L is large. Since the discontinuous point MX41 on the floor surface 6 side represents the measurement distance based on the return light from the floor surface 6 closer to the nose 8A, the value of the measurement distance L becomes small, and as a result, between the discontinuous points NC31 and MX41. Causes a large jump in the measurement distance L.

その後円錐走査回転角度αの回転が続くと、床面6上の交円TRによってα=270〔°〕において不連続極小点MN31を通って段鼻ラインの境界線L4に至る。   Thereafter, when the rotation of the cone scanning rotation angle α continues, the intersection TR on the floor surface 6 passes through the discontinuous minimum point MN31 and reaches the boundary line L4 of the nose line at α = 270 [°].

ここで交円は再び影の範囲TRXに入ることにより、特徴量K31に床面6の不連続点MX42及び踏み面8の不連続点NC32が生じ、その後α=360〔°〕の点で踏み面8の交円TRが繋がる。   Here, the intersecting circle again enters the shadow range TRX, thereby generating a discontinuous point MX42 on the floor surface 6 and a discontinuous point NC32 on the tread surface 8 in the feature value K31, and then stepping on a point of α = 360 [°]. Intersection circle TR of surface 8 is connected.

このとき、不連続点MX42から不連続点NC32に戻る際にも、不連続点MX42及びNC32間に大きなジャンプが生ずる。   At this time, even when returning from the discontinuous point MX42 to the discontinuous point NC32, a large jump occurs between the discontinuous points MX42 and NC32.

この結果、円錐走査検出光DETは、床面6及び踏み面8上に形成する交円TRと、踏み面8と段鼻8Aとの間の影の範囲TRXに亘って立体を形成する測定対象面を、円錐底面を形成する交円TRの走査軌跡を利用して当該測定対象の立体形状を表す処理対象データ(α−L)を得る。   As a result, the conical scanning detection light DET is a measurement target surface that forms a solid over the intersection circle TR formed on the floor surface 6 and the tread surface 8 and the shadow range TRX between the tread surface 8 and the nose 8A. Is obtained using the scanning trajectory of the intersecting circle TR forming the conical bottom surface, and processing target data (α-L) representing the three-dimensional shape of the measurement target is obtained.

交円特徴量算出部41は、当該設定された処理対象データ(α−L)に基づいて、次のステップSP72において、床面6側の不連続点NC31及びNC32によって段鼻ラインW4に基づく境界線を決定する。   On the basis of the set processing target data (α−L), the intersecting circle feature amount calculation unit 41 uses the discontinuous points NC31 and NC32 on the floor surface 6 side to generate a boundary line based on the nose line W4 in the next step SP72. To decide.

続いて、交円特徴量算出部41は、次のステップSP73において、床面6について、連続極小点MN31を含む特徴量曲線とその両端の不連続点MX41及びMX42とによって床面6(又は踊り場面)を構成する水平平面を決定する。   Subsequently, in the next step SP73, the intersecting circle feature value calculation unit 41 calculates the floor surface 6 (or dance) for the floor surface 6 by the feature amount curve including the continuous minimum point MN31 and the discontinuous points MX41 and MX42 at both ends thereof. Determine the horizontal plane that composes the scene.

続いて、交円特徴量算出部41は次のステップSP74において、踏み面8について不連続極大点MX31を含む特徴量曲線とその両端にある不連続点NC31及びNC32とによって踏み面8(又は踊り場面)を構成する水平平面を決定する。   Subsequently, in the next step SP74, the intersecting circle feature value calculation unit 41 calculates the tread surface 8 (or dance) by the feature amount curve including the discontinuous maximum point MX31 and the discontinuous points NC31 and NC32 at both ends of the tread surface 8. Determine the horizontal plane that composes the scene.

かくして交円特徴量算出部41はステップSP75において当該不連続面特徴量の算出処理手順RT15を終了して図19の交円特徴量抽出処理手順RT2にリターンする。   Thus, the intersecting circle feature quantity calculation unit 41 ends the discontinuous surface feature quantity calculation processing procedure RT15 in step SP75 and returns to the intersecting circle feature quantity extraction processing procedure RT2 of FIG.

このようにして、外界認識装置9は設定した視準方向Zに存在する階段のうち、移動体1が立っている床面6から段鼻8Aにおいて踏み面8に1段降りる立体的な測定環境を不連続面の特徴として検出することができる。   In this way, the external environment recognition device 9 has a three-dimensional measurement environment in which one step of the stair existing in the collimation direction Z is lowered from the floor surface 6 on which the moving body 1 stands to the tread surface 8 on the nose 8A. It can be detected as a feature of a discontinuous surface.

(6)外界の認識
上述したように、移動体1の外界認識装置9は、立体的な測定対象の各部分の特徴を、円錐走査検出光DETを用いた測定距離Lの変化に表われる特徴量(すなわち凸結合特徴量、凹結合特徴量、断崖特徴量、平面特徴量、及び不連続面特徴量)の算出機能を利用して、例えば図37に示す上り階段KD1のような立体的な測定対象を垂直走査及び水平走査することによって、移動体1が上り下りするために必要な階段特徴量の算出をする。
(6) Recognition of the outside world As described above, the outside world recognition device 9 of the moving body 1 shows the feature of each part of the three-dimensional measurement target as a change in the measurement distance L using the conical scanning detection light DET. By using the calculation function of the quantity (that is, the convex coupling feature quantity, the concave coupling feature quantity, the cliff feature quantity, the plane feature quantity, and the discontinuous plane feature quantity), for example, a three-dimensional structure such as an upstairs KD1 shown in FIG. By performing vertical scanning and horizontal scanning on the measurement object, the staircase feature amount necessary for the moving body 1 to go up and down is calculated.

この実施の形態の場合、垂直走査は、移動環境検出器3が円錐走査検出光DETを上り階段KD1に対して直交する方向に走査させることによって上り階段KD1の立体構造を検出することを意味し、また水平走査は、垂直走査によって検出した測定対象の平面について、円錐走査検出光DETを水平方向に走査することによって上り階段KD1の幅方向の構造を検出することを意味する。   In the case of this embodiment, the vertical scanning means that the moving environment detector 3 detects the three-dimensional structure of the ascending staircase KD1 by scanning the conical scanning detection light DET in a direction orthogonal to the ascending staircase KD1. In addition, the horizontal scanning means that the structure in the width direction of the ascending staircase KD1 is detected by scanning the plane of the measuring object detected by the vertical scanning with the conical scanning detection light DET in the horizontal direction.

(6−1)垂直走査による上り階段特徴量の算出
移動体1の外界認識装置9は、図37に示すように、床面D0から、第1段目の踏み面1(H1)、第2段目の踏み面2(H2)……を有する上り階段KD1を上る場合、図38に示すように、上り階段KD1に対して直交する垂直走査線SN1に沿って円錐走査検出光DETを垂直走査することによって交円TRを垂直走査線SN1に沿って床面D0、踏み面H1、H2……上に照射し、これにより床面D0、踏み面H1、H2……の存在を確認すると共に、確認した、床面D0、踏み面H1、H2……について横方向に交円TRを水平走査することによって、移動体1が安全に上って行くことができる左右幅の範囲の確認をすることができる。
(6-1) Calculation of Ascending Staircase Feature Quantity by Vertical Scan As shown in FIG. 37, the external environment recognition device 9 of the moving body 1 starts from the floor surface D0 to the first step tread surface 1 (H1), second When going up the ascending stairs KD1 having the step tread surface 2 (H2)..., The conical scanning detection light DET is vertically scanned along the vertical scanning line SN1 orthogonal to the ascending stairs KD1, as shown in FIG. As a result, the intersection circle TR is irradiated onto the floor surface D0, the tread surfaces H1, H2,... Along the vertical scanning line SN1, thereby confirming the presence of the floor surface D0, the tread surfaces H1, H2,. By checking the floor D0, the treads H1, H2,..., The intersection circle TR is horizontally scanned in the horizontal direction, the range of the lateral width in which the moving body 1 can safely go up is confirmed. Can do.

この実施の形態の場合、外界認識装置9のCPU13は、ユーザによってデータ入力手段11から垂直走査命令が入力されたとき、垂直走査特徴量抽出部45を駆動することにより、図39に示すように、垂直走査線SN1上の各測定対象部分に円錐走査式距離測定部31によって生成された円錐走査検出光DETを照射させ、これにより距離データメモリ35に測定距離Lのデータを取り込ませると共に、当該測定距離データに基づいて交円特徴量算出部41によって算出された特徴量のデータを交円特徴量メモリ42に蓄積させる。   In the case of this embodiment, the CPU 13 of the external recognition device 9 drives the vertical scanning feature amount extraction unit 45 when a vertical scanning command is input from the data input means 11 by the user, as shown in FIG. The measurement target portions on the vertical scanning line SN1 are irradiated with the cone scanning detection light DET generated by the cone scanning distance measuring unit 31, thereby causing the distance data memory 35 to take in the data of the measurement distance L, and The feature amount data calculated by the intersecting feature amount calculating unit 41 based on the measured distance data is accumulated in the intersecting feature amount memory 42.

このとき垂直走査特徴量抽出部45は、円錐走査検出光DETが、図39(A)に示すように、段鼻G1(G2、G3……)を照射したとき、交円TRから立体的な構成部分である蹴込面−段鼻−踏み面を含んだ立体構造部の検出処理を行う。   At this time, when the conical scanning detection light DET irradiates the nose G1 (G2, G3...) As shown in FIG. The detection process of the three-dimensional structure part including the kick surface-nosed-tread surface which is a part is performed.

また、垂直走査特徴量抽出部45は、図39(B)に示すように、円錐走査検出光DETが踏み面H1(H2、H3……)及び蹴込面F1(F2、F3……)を照射したとき、当該平面を走査する交円TRから当該平面の特徴と種類及び面の位置と姿勢の検出処理を行う。   Further, as shown in FIG. 39B, the vertical scanning feature amount extraction unit 45 irradiates the cone scanning detection light DET on the tread surface H1 (H2, H3...) And the kick surface F1 (F2, F3...). When this is done, the characteristic and type of the plane and the position and orientation of the plane are detected from the intersecting circle TR that scans the plane.

また、垂直走査特徴量抽出部45は、図39(C)に示すように、円錐走査検出光DETが蹴込E2(E3、E4……)を走査したとき、その交円TRから踏み面−蹴込−蹴込面でなる立体構成部分の検出処理を行う。   Further, as shown in FIG. 39C, the vertical scanning feature amount extraction unit 45, when the conical scanning detection light DET scans the kick E2 (E3, E4...), The tread surface-kick from the intersecting circle TR. -The detection process of the three-dimensional component part which consists of a kick surface is performed.

このような処理は、垂直走査特徴量抽出部45が図40に示す「垂直走査による上り階段特徴量の算出処理手順」RT21を実行することにより行う。   Such processing is performed by the vertical scanning feature amount extraction unit 45 executing “upward staircase feature amount calculation processing procedure by vertical scanning” RT21 shown in FIG.

当該算出処理手順RT21に入ると、垂直走査特徴量抽出部45は、先ずステップSP101において垂直走査による交円特徴リストの設定する。   In the calculation processing procedure RT21, the vertical scanning feature quantity extraction unit 45 first sets an intersecting feature list by vertical scanning in step SP101.

交円特徴リストは、交円特徴量抽出部41が図37の上り階段KD1について、走査線SN1の走査をすることにより、交円特徴量メモリ42に蓄積したものを用いる。   As the crossed circle feature list, the crossed circle feature quantity extraction unit 41 uses the one stored in the crossed circle feature quantity memory 42 by scanning the scanning line SN1 for the ascending step KD1 in FIG.

続いて、垂直走査特徴量抽出部45は、ステップSP102において、床面D0の平面特徴量ないし蹴込1(E1)の凹結合特徴量によって床面D0を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in step SP102, the vertical scanning feature amount extraction unit 45 determines the floor surface D0 based on the planar feature amount of the floor surface D0 or the concave coupling feature amount of the kick 1 (E1), and the vertical scanning measurement target feature memory 50 To accumulate.

続いて、垂直走査特徴量抽出部45は、ステップSP103において、蹴込1(E1)について、その凹結合特徴量に基づいて蹴込ラインを決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in step SP <b> 103, the vertical scanning feature quantity extraction unit 45 determines a kick line for the kick 1 (E <b> 1) based on the concave coupling feature quantity, and accumulates it in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、ステップSP104において、蹴込1(E1)の凹結合特徴量と、これに続く蹴込面1(F1)の平面特徴量と、さらにこれに続く段鼻1(G1)における凸結合特徴量とに基づいて、蹴込面1(F1)を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in step SP104, the vertical scanning feature quantity extraction unit 45, the concave coupling feature quantity of the kick 1 (E1), the subsequent plane feature quantity of the kick face 1 (F1), and the subsequent nose 1 ( The kick surface 1 (F1) is determined based on the convex combination feature amount in G1) and stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、次のステップSP105において、段鼻1(G1)の凸結合結合量に基づいて段鼻1(G1)の段鼻ラインを決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in the next step SP105, the vertical scanning feature quantity extraction unit 45 determines the nosing line of the nosing 1 (G1) based on the convex coupling amount of the nosing 1 (G1), and the vertical scanning measurement target feature memory. Accumulate in 50.

続いて、垂直走査特徴量抽出部45は、ステップSP106において、段鼻1(G1)における凸結合結合量とこれに続く踏み面1(H1)における平面特徴量と、さらにこれに続く蹴込2(E2)における凹結合特徴量とに基づいて踏み面1(H1)を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in step SP106, the vertical scanning feature amount extraction unit 45 performs the convex coupling coupling amount in the nose 1 (G1), the subsequent planar feature amount in the tread surface 1 (H1), and the subsequent kick 2 (E2). The tread surface 1 (H1) is determined on the basis of the concave coupling feature amount in FIG.

かくして、垂直走査特徴量抽出部45は、床面D0から1段目の踏み面1(H1)に亘る交円特徴リストについて、その構造を決める蹴込ライン、蹴込面、段鼻ライン及び踏み面を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Thus, the vertical scanning feature amount extraction unit 45 determines a kick line, a kick surface, a nose line, and a tread surface that determine the structure of the cross feature list from the floor surface D0 to the first step surface 1 (H1). Then, it is stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、ステップSP107においてすべての垂直方向特徴リストの処理が終了したか否かを確認し、否定結果が得られたとき上述のステップSP103に戻って次の段の踏み面についての各構造を決定する処理を繰り返す。   Subsequently, the vertical scanning feature quantity extraction unit 45 confirms whether or not the processing of all the vertical direction feature lists has been completed in step SP107, and when a negative result is obtained, returns to the above-described step SP103 and returns to the next stage. Repeat the process of determining each structure for the tread.

この繰返し処理は、垂直走査特徴量抽出部45が垂直走査した範囲、従って移動体1が上ろうと予定している上り階段KD1の踏み面、すなわち2段目の踏み面2(H2)、3段目の踏み面3(H3)……についての垂直方向特徴リストが終了するまで、繰り返される。   This iterative process is performed by the vertical scanning feature amount extraction unit 45 in the vertical scanning range, that is, the tread surface of the ascending stairs KD1 that the moving body 1 intends to rise, that is, the second tread surface 2 (H2), three steps. Repeat until the vertical feature list for tread 3 (H3).

やがて、当該垂直走査線SN1についての垂直方向特徴リストの全ての処理が終わると、垂直走査特徴量抽出部45は、ステップSP107において肯定結果が得られることによりステップSP108に移る。   Eventually, when all the processes in the vertical direction feature list for the vertical scanning line SN1 are completed, the vertical scanning feature amount extraction unit 45 proceeds to step SP108 when a positive result is obtained in step SP107.

垂直走査特徴量抽出部45は、このステップSP108において、決定された床面D0について、センサ原点Oの直下の位置から、最初の蹴込ライン、すなわち蹴込1(E1)の位置までの距離を、階段までの距離として、垂直走査測定対象特徴メモリ50に蓄積する。   In step SP108, the vertical scanning feature amount extraction unit 45 calculates the distance from the position immediately below the sensor origin O to the first kick line, that is, the position of the kick 1 (E1), for the floor surface D0 determined in step SP108. Is stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、次のステップSP109において最初の蹴込ライン、すなわち蹴込1(E1)のラインの姿勢を求め、この最初の蹴込ラインの姿勢によってセンサ原点Oに対する上り階段KD1の傾きを求めて垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in the next step SP109, the vertical scanning feature amount extraction unit 45 obtains the attitude of the first kick line, that is, the line of the kick 1 (E1), and ascends KD1 with respect to the sensor origin O based on the attitude of the first kick line. Is stored in the vertical scanning measurement target feature memory 50.

この上り階段KD1の傾きについてのデータは、実際に移動体1が当該上り階段KD1を上る際に、移動体1を上り階段KD1の正面に正しく位置取りさせるために用いられる。   The data about the inclination of the upstairs KD1 is used to correctly position the mobile body 1 in front of the upstairs KD1 when the mobile body 1 actually climbs the upstairs KD1.

続いて、垂直走査特徴量抽出部45は、ステップSP110に移って踏み面の数、すなわち階段の段数を蹴込ラインの数及び段鼻ラインの数に基づいて求めた後、ステップSP111において段鼻ラインの水平間隔を踏み面の長さとして求めると共に、ステップSP112において踏み面間の高度差を蹴込み高さに基づいて求めて、求めたデータを垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, the vertical scanning feature quantity extraction unit 45 proceeds to step SP110, obtains the number of treads, that is, the number of steps, based on the number of kick lines and the number of nosing lines, and then in step SP111, The interval is obtained as the length of the tread surface, and the altitude difference between the tread surfaces is obtained based on the kick height in step SP112, and the obtained data is stored in the vertical scanning measurement target feature memory 50.

かくして垂直走査特徴量抽出部45は、垂直走査による上り階段特徴量の算出処理手順RT21の処理をステップSP113において終了する。   Thus, the vertical scanning feature quantity extraction unit 45 ends the processing of the ascending step feature quantity calculation processing procedure RT21 by vertical scanning in step SP113.

以上の構成によれば、垂直走査特徴量抽出部45は、移動体1がこれから上ろうとする上り階段KD1について、各脚の脚車輪J3が床面D0上を移動して上り階段KD1に近づくと共に、1段目、2段目……の踏み面H1、H2……を順次踏んで行くために必要な認識情報を確実に得ることができる。   According to the above configuration, the vertical scanning feature amount extraction unit 45 moves the leg wheel J3 of each leg on the floor D0 and approaches the ascending stairs KD1 for the ascending stairs KD1 that the moving body 1 intends to ascend. The recognition information necessary for stepping on the first, second,... Treads H1, H2.

(6−2)垂直走査による下り階段特徴量の算出
移動体1が図41(B)に示す下り階段KD2を、床面L0から1段ずつ下の踏み面N1、N2を通って踊り場L1まで下って行く場合には、移動環境検出器3は、センサ原点Oから放出する円錐走査検出光DETを、直下の床面L0から、図41(A)に示すように、走査線SN11に沿って前方に垂直走査をする。
(6-2) Calculation of descending staircase feature amount by vertical scanning The moving body 1 goes down the descending staircase KD2 shown in FIG. 41 (B) one step at a time from the floor surface L0 to the landing L1 through the tread surfaces N1 and N2. When going down, the moving environment detector 3 emits the conical scanning detection light DET emitted from the sensor origin O from the floor surface L0 immediately below, along the scanning line SN11, as shown in FIG. Perform vertical scanning forward.

このとき、CPU13は垂直走査特徴量抽出部45によって図42の「垂直走査による下り階段特徴量の算出処理手順」RT22を実行させ、垂直走査特徴量抽出部45は、先ずステップSP120において、円錐走査検出光DETを床面L0から1段目の段鼻1(M1)と1段目の踏み面1(N1)を照射する状態から、踏み面1(N1)上を2段目の段鼻2(M2)までの走査をし、以下同様にして2段目の踏み面2(N2)及び3段目の踊り場L1の走査を繰り返すことにより、下り階段KD2についての特徴量を交円特徴量算出部41によって算出して交円特徴量メモリ42に蓄積する。   At this time, the CPU 13 causes the vertical scanning feature quantity extraction unit 45 to execute “downward staircase feature quantity calculation processing procedure by vertical scanning” RT22 of FIG. 42, and the vertical scanning feature quantity extraction unit 45 first performs conical scanning in step SP120. From the state in which the detection light DET is irradiated from the floor L0 to the first step nose 1 (M1) and the first step tread 1 (N1), the second step nose 2 (M2) on the tread 1 (N1). ) Until the second step tread 2 (N2) and the third step landing L1 are repeated in the same manner, the feature amount for the descending staircase KD2 is calculated as an intersection feature amount calculation unit 41. And is stored in the intersecting circle feature amount memory 42.

かくして、垂直走査特徴量抽出部45は、蓄積した交円特徴量リストを交円特徴量メモリ42から設定した後、ステップSP121において、床面L0についての平面特徴量から1段目の踏み面1(N1)に続く不連続面の上段特徴量とに基づいて、移動体1が立っている床面L0を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Thus, the vertical scanning feature quantity extraction unit 45 sets the accumulated intersection feature quantity list from the intersection feature quantity memory 42, and then, in step SP121, the first tread surface 1 from the planar feature quantity for the floor L0. Based on the upper feature amount of the discontinuous surface following (N1), the floor surface L0 on which the moving body 1 stands is determined and stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、ステップSP122に移って、床面L0から1段目の踏み面1(N1)に続く段鼻1(M1)における不連続面の境界線に基づいて、段鼻1(M1)の段鼻ラインW11を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, the vertical scanning feature amount extraction unit 45 proceeds to step SP122 and based on the boundary line of the discontinuous surface in the nose 1 (M1) following the first step tread surface 1 (N1) from the floor surface L0. The nosing line W11 of the nosing 1 (M1) is determined and stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、次のステップSP123に移って、最初の不連続面の特徴量に続く1段目の踏み面1(N1)の平面特徴量に基づいて、当該1段目の踏み面1(N1)を決定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, the vertical scanning feature amount extraction unit 45 proceeds to the next step SP123, and based on the planar feature amount of the first step surface 1 (N1) following the feature amount of the first discontinuous surface, The step tread surface 1 (N1) is determined and stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、次のステップSP124において、当該1段目の踏み面1(N1)に続く不連続面の特徴に基づいて、これが下の踊り場このときは2段目の踏み面2(N2)であるか否かを判定して、垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in the next step SP124, the vertical scanning feature quantity extraction unit 45 is based on the feature of the discontinuous surface following the first step tread surface 1 (N1). It is determined whether or not it is the tread surface 2 (N2), and is stored in the vertical scanning measurement target feature memory 50.

次のステップSP125は、交円特徴量メモリ42に蓄積されている垂直方向特徴リストについての決定処理がすべて終了したか否かの判断をするステップで、否定結果が得られると、このことはいまだ全ての平面、すなわち踏み面N2、N3及び踊り場L1についての処理が終了していないことを意味し、このとき垂直走査特徴量抽出部45は上述のステップSP122に戻って当該次の垂直走査による交円特徴リストについてステップSP122〜SP125の処理を繰り返す。   The next step SP125 is a step of determining whether or not all the determination processes for the vertical direction feature list accumulated in the intersecting feature quantity memory 42 have been completed. If a negative result is obtained, this is still not true. This means that the processing for all the planes, that is, the treads N2 and N3 and the landing L1 has not been completed. At this time, the vertical scanning feature extraction unit 45 returns to the above-described step SP122 and performs the intersection by the next vertical scanning. The processes in steps SP122 to SP125 are repeated for the circle feature list.

やがてステップSP125において肯定結果が得られると、このことは、踏み面1(N1)、踏み面2(N2)及び踊り場L1の決定ないし判定が終了したことを意味し、このとき垂直走査特徴量抽出部45はステップSP126に移って、垂直走査測定対象特徴メモリ50に蓄積されたデータに基づいて、床面L0の直下の位置から最初の段鼻1(M1)の段鼻ラインW11までの距離を、移動体1が下り階段KD2の直前まで行くのに必要な距離として求めて、垂直走査測定対象特徴メモリ50に蓄積する。   If a positive result is eventually obtained in step SP125, this means that the determination or determination of the tread surface 1 (N1), the tread surface 2 (N2), and the landing L1 has been completed. At this time, the vertical scanning feature value extraction is performed. The unit 45 moves to step SP126 and moves the distance from the position immediately below the floor L0 to the nosing line W11 of the first nosing 1 (M1) based on the data accumulated in the vertical scanning measurement target feature memory 50. The distance required for the body 1 to go to just before the descending stairs KD2 is obtained and stored in the vertical scanning measurement target feature memory 50.

続いて、垂直走査特徴量抽出部45は、次のステップSP127において、最初の段鼻ラインW11の姿勢に基づいて、下り階段KD2の傾き(センサ原点Oから見て直交する方向からの傾き)を求めた後、ステップSP128において、前方方向にある不連続面下段の数及び段鼻ラインの数に基づいて、前方にある踏み面の数、すなわち階段の段数を求めて垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in the next step SP127, the vertical scanning feature quantity extraction unit 45 obtains the inclination of the descending step KD2 (inclination from the direction orthogonal to the sensor origin O) based on the attitude of the first nose line W11. After that, in step SP128, the number of steps on the front, that is, the number of steps on the staircase is obtained based on the number of lower steps of the discontinuous surface and the number of nose lines in the forward direction, and stored in the vertical scanning measurement target feature memory 50. To do.

ここで、段鼻ラインW11の傾きの情報は、移動体1が実際に下り階段KD2を下りる際に、移動体1の移動方向を下り階段KD2と正対する向きに修正することにより直交する方向に下りて行けるように用いられる。   Here, the information on the inclination of the nose line W11 is obtained by correcting the moving direction of the moving body 1 so as to face the descending staircase KD2 when the moving body 1 actually descends the descending staircase KD2. It is used to be able to go.

続いて、垂直走査特徴量抽出部45は、ステップSP129において、段鼻ラインW11、W12……の水平方向の間隔に基づいて、1段目、2段目の踏み面N1及びN2の垂直方向の長さを求めると共に、ステップSP130において隣合う踏み面L0及びN1、N1及びN2並びにN2及びL1間の高度差を、蹴上げ高さh1、h2並びにh3として求めて垂直走査測定対象特徴メモリ50に蓄積する。   Subsequently, in step SP129, the vertical scanning feature amount extraction unit 45 determines the vertical lengths of the first and second step treads N1 and N2 based on the horizontal intervals of the nosing lines W11, W12. In step SP130, the height difference between the adjacent treads L0 and N1, N1 and N2, and N2 and L1 is obtained as the kick heights h1, h2 and h3 and stored in the vertical scanning measurement target feature memory 50. .

かくして垂直走査特徴量抽出部45は、当該垂直走査による下り階段特徴量の算出処理手順RT22を、ステップSP131において終了する。   Thus, the vertical scanning feature quantity extraction unit 45 ends the descending staircase feature quantity calculation processing procedure RT22 by the vertical scanning in step SP131.

以上の構成によれば、外界認識装置9は移動体1が、これから床面L0から踊り場L1まで下りようとする階段KD2について、各脚の脚車輪J3が歩行するために必要な踏み面の位置、垂直方向の長さ及び蹴上げ高さを確実に測定して、測定結果を垂直走査測定対象特徴メモリ50に保存することができる。   According to the above configuration, the external environment recognition device 9 is the position of the tread surface required for the leg wheel J3 of each leg to walk on the stairs KD2 from which the moving body 1 is going to descend from the floor L0 to the landing L1. The vertical length and the kick-up height can be reliably measured, and the measurement results can be stored in the vertical scanning measurement target feature memory 50.

(6−3)段差が限界高さを超える場合
図41の場合は、垂直走査によって下り階段KD2を下る場合に、各段の蹴上げ高さh1、h2及びh3が移動体1の脚車輪J3が踏み下ろすことができる許容限界内である場合であるが、図43に示すように、床面L0から1段下の踏み面NX1までの蹴上面QXの蹴上げ高さhXが限界高さを超えている場合には、垂直走査特徴量抽出部45は、図42のステップSP122における段鼻ラインの決定をせずに、当該移動体1が下りることが不可能であると判断して、図45について後述する断崖ラインの判定処理手順RT23にその処理を切り換える。
(6-3) When the step exceeds the limit height In the case of FIG. 41, when the descending stairs KD2 are lowered by vertical scanning, the kick heights h1, h2, and h3 of each step are the same as the leg wheels J3 of the moving body 1. As shown in FIG. 43, the kicking height hX of the kicking surface QX from the floor surface L0 to the stepping surface NX1 that is one step below the limit height is exceeded. If so, the vertical scanning feature amount extraction unit 45 determines that the moving body 1 cannot descend without determining the nosing line in step SP122 of FIG. The processing is switched to the cliff line determination processing procedure RT23 to be performed.

(6−4)垂直走査による断崖特徴量の算出
垂直走査特徴量抽出部45は、図44に示すように、センサ原点Oから垂直走査線SN21に沿って垂直検出光DETを垂直走査したとき、移動体1が立っている床面R0の前方に断崖面S1がある場合には、図45の「垂直走査による断崖特徴量の算出処理手順」RT23を実行する。
(6-4) Calculation of cliff feature quantity by vertical scanning When the vertical scanning feature quantity extraction unit 45 vertically scans the vertical detection light DET from the sensor origin O along the vertical scanning line SN21 as shown in FIG. When the cliff surface S1 is in front of the floor surface R0 on which the moving body 1 is standing, “procedure calculation process procedure of cliff feature value by vertical scanning” RT23 of FIG. 45 is executed.

当該算出処理手順RT23に入ると、垂直走査特徴量抽出部45は、ステップSP140において断崖を垂直走査することによって垂直走査測定対象特徴メモリ50に蓄積された交円特徴量データに基づいて、垂直走査による交円特徴リストを設定した後、ステップSP141において、当該設定された特徴量のうち、床面R0を走査することにより得られる交円TR0による平面特徴量と、断崖面S1の上縁を含む交円TR1による断崖特徴量とに基づいて床面R0を決定する。   When the calculation processing procedure RT23 is entered, the vertical scanning feature amount extraction unit 45 performs vertical scanning based on the intersecting feature amount data accumulated in the vertical scanning measurement target feature memory 50 by vertically scanning the cliff in step SP140. In step SP141, the plane feature amount obtained by scanning the floor surface R0 and the intersection feature TR0 obtained by scanning the floor surface R0 and the upper edge of the cliff surface S1 are included. The floor surface R0 is determined based on the cliff feature value by the intersection circle TR1.

続いて、垂直走査特徴量抽出部45は、ステップSP142において、床面R0と断崖面S1との境界線に基づいて断崖ラインW21を決定する。   Subsequently, in step SP142, the vertical scanning feature quantity extraction unit 45 determines the cliff line W21 based on the boundary line between the floor surface R0 and the cliff surface S1.

続いて、垂直走査特徴量抽出部45は、ステップSP143において、走査線SN21に基づく垂直方向特徴リストのすべてについての処理を終了したか否かの判断をし、否定結果が得られたとき上述のステップSP142に戻って断崖ラインW21の決定処理を繰り返す。   Subsequently, in step SP143, the vertical scanning feature amount extraction unit 45 determines whether or not the processing for all of the vertical direction feature lists based on the scanning line SN21 is completed, and when a negative result is obtained, the above-described processing is performed. Returning to step SP142, the determination process of the cliff line W21 is repeated.

やがてステップSP143において肯定結果が得られると、垂直走査特徴量抽出部45は、ステップSP144に移って移動体1が現在立っている位置から断崖ラインW21までの距離に基づいて、移動体1が移動できる床面R0における断崖面S1までの距離を求める。   When a positive result is eventually obtained in step SP143, the vertical scanning feature amount extraction unit 45 moves to step SP144 and moves the moving body 1 based on the distance from the position where the moving body 1 is currently standing to the cliff line W21. The distance to the cliff surface S1 on the possible floor surface R0 is obtained.

続いて垂直走査特徴量抽出部45は、次のステップSP145に移って、断崖ラインW21の姿勢に基づいて断崖面S1の傾き(すなわち垂直方向に対する傾き)を求める。   Subsequently, the vertical scanning feature quantity extraction unit 45 proceeds to the next step SP145, and obtains the inclination of the cliff surface S1 (ie, the inclination with respect to the vertical direction) based on the attitude of the cliff line W21.

かくして垂直走査特徴量抽出部45は、当該垂直走査により断崖特徴量の算出処理手順をステップSP146において終了する。   Thus, the vertical scanning feature quantity extraction unit 45 ends the cliff feature quantity calculation processing procedure in step SP146 by the vertical scanning.

以上の構成によれば、外界認識装置9は、垂直走査によって、移動体1の前方に、進むことができない断崖があることを確実に認識することができる。   According to the above configuration, the external environment recognition device 9 can reliably recognize that there is a cliff that cannot be advanced in front of the moving body 1 by vertical scanning.

図44の場合は断崖面S1を測定する場合について述べたが、図43について上述した下り段差が限界高さを超えているような場合であっても、断崖面S1の場合と同様に、移動体1が当該段差を下りることが不可能であるから、この場合垂直走査特徴量抽出部45は、図42の垂直走査による下り階段特徴量の算出処理手順RT22の実行中に下り段差が限界高さを超えるものであることを判知したとき、当該算出処理手順RT22から図45の垂直走査による断崖特徴量の算出処理手順RT23の処理に切換えることにより、ステップSP144及びSP145において、当該下りることができない下り段差までの距離及びその傾きを検出することにより、この場合も前方に存在する危険な状態を確実に測定することができる。   In the case of FIG. 44, the case where the cliff surface S1 is measured has been described. However, even when the descending step described above with reference to FIG. 43 exceeds the limit height, the movement is the same as in the case of the cliff surface S1. In this case, the vertical scanning feature quantity extraction unit 45 does not allow the body 1 to go down the level difference, and the vertical level difference is high during the execution of the descending staircase feature quantity calculation processing procedure RT22 by vertical scanning shown in FIG. When it is determined that the value exceeds that, the calculation processing procedure RT22 is switched to the processing of the cliff feature amount calculation processing procedure RT23 by vertical scanning in FIG. 45, so that the descending may occur in steps SP144 and SP145. By detecting the distance to the descending step and the inclination thereof, it is possible to reliably measure the dangerous state existing in the front also in this case.

(6−5)水平走査による踏み面特徴量の算出
CPU13は、データ入力手段11によってユーザが垂直走査特徴量抽出部45による垂直走査の実行命令を入力することにより、図46に示すように、階段KD3に対して垂直走査線SN31について垂直走査が行われた結果、垂直走査特徴量抽出部45が踏み面X5を抽出したとき、水平走査特徴量抽出部46によって図47の「水平走査による踏み面特徴量の算出処理手順」RT24を実行させることにより、当該踏み面X5の両側又は片側に、垂直方向の壁面X1や、断崖X2が隣接していることを、検出させる。
(6-5) Calculation of tread surface feature quantity by horizontal scanning As shown in FIG. 46, the CPU 13 receives a command for executing vertical scanning by the vertical scanning feature quantity extraction unit 45 by the user using the data input means 11. As a result of the vertical scanning performed on the vertical scanning line SN31 with respect to the staircase KD3, when the vertical scanning feature quantity extraction unit 45 extracts the tread surface X5, the horizontal scanning feature quantity extraction unit 46 performs the “stepping by horizontal scanning” of FIG. By executing the “surface feature amount calculation processing procedure” RT24, it is detected that the vertical wall surface X1 and the cliff X2 are adjacent to both sides or one side of the tread surface X5.

この実施の形態の場合、外界認識装置9は、移動体1が現在立っている床面X3のセンサ原点Oから、蹴込面X4からその蹴上げ高さだけ高い位置にある踏み面X5を、左右方向の走査線SN32に沿って水平方向に円錐走査検出光DETによって水平走査をする。   In the case of this embodiment, the external environment recognition device 9 moves the tread surface X5 at a position higher than the kick surface X4 from the sensor origin O of the floor surface X3 on which the moving body 1 is currently standing by the height of the kick surface X4 in the left-right direction. The horizontal scanning is performed by the conical scanning detection light DET in the horizontal direction along the scanning line SN32.

当該水平走査による踏み面特徴量の算出処理手順RT24に入ると、水平走査特徴量抽出部46は、先ずステップSP150において垂直走査測定対象特徴メモリ50に蓄積されている垂直走査結果から基準となる踏み面X5を設定した後、ステップSP151に移って円錐走査式距離測定装置31によって水平走査線SN32上の走査を行わせることにより、距離データメモリ35、交円特徴量算出部41及び交円特徴量メモリ42を介して得られる水平走査による交円特徴リストを設定する。   When the processing step RT24 for calculating the tread surface feature amount by the horizontal scanning is entered, the horizontal scanning feature amount extraction unit 46 first makes a reference step from the vertical scanning result accumulated in the vertical scanning measurement target feature memory 50 in step SP150. After setting the plane X5, the process proceeds to step SP151, and the conical scanning distance measuring device 31 performs scanning on the horizontal scanning line SN32, whereby the distance data memory 35, the intersecting feature amount calculating unit 41, and the intersecting feature amount. A cross feature list by horizontal scanning obtained via the memory 42 is set.

続いて水平走査特徴量抽出部46は、ステップSP152に移って、左側にある、踏み面X5及び壁面X1間の蹴込X6についてその交円TRXの凹結合特徴量が示す境界線から、蹴込ラインW31を決定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, the horizontal scanning feature quantity extraction unit 46 proceeds to Step SP152, and the kick line W31 is determined from the boundary line indicated by the concave coupling feature quantity of the intersection circle TRX with respect to the kick X6 between the tread surface X5 and the wall surface X1 on the left side. Are stored in the horizontal scanning measurement target feature memory 51.

続いて水平走査特徴量抽出部46は、ステップSP153において、蹴込X6に続く壁面X1上の交円TRXのデータから平面特徴量が垂直面であることを検出すると共に、当該垂直面の位置が移動体1が上ることができる蹴込高さより十分に大きい特徴をもっていることに基づいて、壁ラインW32を判定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP153, the horizontal scanning feature quantity extraction unit 46 detects that the plane feature quantity is a vertical plane from the data of the intersecting circle TRX on the wall surface X1 following the kick X6, and the position of the vertical plane is moved. Based on the fact that the body 1 has a feature sufficiently larger than the height at which the body 1 can climb, the wall line W32 is determined and stored in the horizontal scanning measurement target feature memory 51.

続いて水平走査特徴量抽出部46は、ステップSP154において、右側にある、踏み面X5及び断崖X2間の凸結合不連続面の境界線の特徴量に基づいて、段鼻X72及びその段鼻ラインW33を決定すると共に、次のステップSP155に移って断崖の特徴量に基づいて断崖ラインW34を決定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP154, the horizontal scanning feature quantity extraction unit 46 determines the nose X72 and its nosing line W33 based on the feature quantity of the boundary line of the convex joint discontinuity surface between the tread face X5 and the cliff X2 on the right side. At the same time, the process proceeds to the next step SP155, where the cliff line W34 is determined based on the cliff feature amount, and is stored in the horizontal scanning measurement target feature memory 51.

このステップSP152〜SP155の処理は、ステップSP156において否定結果が得られることにより水平走査線SN32の全ての交円TRXの処理が終了するまで繰り返えされる。   The processing of steps SP152 to SP155 is repeated until the processing of all the intersecting circles TRX of the horizontal scanning line SN32 is completed by obtaining a negative result in step SP156.

やがてステップSP156において肯定結果が得られると、水平走査特徴量抽出部46は、ステップSP157において、図48に示すように、平面の左右走査方向の平面間隔を、移動体1の脚車輪J3が踏むことができる踏み場の範囲X10として決定した後、ステップSP158において左右方向の両側にある境界線、すなわち、壁ラインW32及び断崖ラインW34の水平方向間隔を段幅X11として判定して、水平走査測定対象特徴メモリ51に蓄積する。   If an affirmative result is eventually obtained in step SP156, the horizontal scanning feature quantity extraction unit 46, in step SP157, steps on the plane interval in the horizontal scanning direction of the plane by the leg wheel J3 of the moving body 1 in step SP157. In step SP158, the boundary line on both sides in the left and right direction, that is, the horizontal interval between the wall line W32 and the cliff line W34 is determined as the step width X11, and the horizontal scanning measurement is performed. Accumulate in the target feature memory 51.

続いて、水平走査特徴量抽出部46は、ステップSP159において、上述のステップSP153において判定した壁ラインW32に基づいて壁面X1があることに基づいて、これを移動体1が進入できない進入不可能領域として決定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP159, the horizontal scanning feature quantity extraction unit 46, based on the presence of the wall surface X1 based on the wall line W32 determined in the above-described step SP153, cannot enter the movable body 1 through this area. And stored in the horizontal scanning measurement target feature memory 51.

かくして水平走査特徴量抽出部46は、当該水平走査による踏み面特徴量の算出処理手順RT24の処理をステップSP160において終了する。   Thus, the horizontal scanning feature quantity extraction unit 46 ends the processing of the tread surface feature quantity calculation processing procedure RT24 by the horizontal scanning in step SP160.

以上の構成によれば、外界認識装置9は階段KD3を構成する踏み面X5について、移動体1の脚車輪J3が立つことができる踏み場の範囲や段幅を安全かつ確実に測定することができる。   According to the above configuration, the external environment recognition device 9 can safely and reliably measure the step range and step width where the leg wheel J3 of the moving body 1 can stand on the tread surface X5 constituting the stair KD3. it can.

(6−6)水平走査による蹴込面特徴量の算出
外界認識装置9は、図49に示すように、図46について上述したと同じ階段KD3について、移動体1が現在立っている床面X3のセンサ原点Oから、床面X3に対して蹴込X11を介して続く垂直面でなる蹴込面X4を水平走査することにより、当該蹴込面X4の両側又は片側に、壁面X1や、断崖X2が隣接していることを、水平走査特徴量抽出部46によって、図50に示す「水平走査による蹴込面特徴量の算出処理手順」RT25を実行させることにより、検出させる。
(6-6) Calculation of kick surface feature quantity by horizontal scanning As shown in FIG. 49, the external environment recognition device 9 uses the same staircase KD3 as described above with reference to FIG. By horizontally scanning the kick surface X4, which is a vertical surface continuing from the sensor origin O via the kick X11 with respect to the floor surface X3, the wall surface X1 and the cliff X2 are adjacent to both sides or one side of the kick surface X4. This is detected by causing the horizontal scanning feature quantity extraction unit 46 to execute “a calculation process procedure of the kick surface feature quantity by horizontal scanning” RT25 shown in FIG.

水平走査による蹴込面特徴量の算出処理手順RT25に入ると、水平走査特徴量抽出部46は、先ずステップSP170において垂直走査測定対象特徴メモリ50に蓄積されている垂直走査結果から基準となる蹴込面X4を設定した後、ステップSP171に移って円錐走査式距離測定部31によって水平走査線SN33上の走査を行わせることにより、距離データメモリ35、交円特徴量算出部41及び交円特徴量メモリ42を介して得られる水平走査による交円特徴リストを設定する。   When entering the calculation processing procedure RT25 of the kicking surface feature value by horizontal scanning, the horizontal scanning feature value extracting unit 46 first becomes the reference kicking surface from the vertical scanning result stored in the vertical scanning measurement target feature memory 50 in step SP170. After setting X4, the process proceeds to step SP171, and the conical scanning distance measuring unit 31 performs scanning on the horizontal scanning line SN33, thereby causing the distance data memory 35, the intersecting feature amount calculating unit 41, and the intersecting feature amount memory. An intersecting circle feature list by horizontal scanning obtained through the menu 42 is set.

続いて水平走査特徴量抽出部46は、ステップSP172に移って、左側にある、蹴込面X4及び壁面X1間にある垂直方向の壁面X1について、その交円TRYの凹結合特徴量が示す境界線から、壁ラインW22を決定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, the horizontal scanning feature amount extraction unit 46 proceeds to step SP172, and the boundary line indicated by the concave coupling feature amount of the intersection circle TRY of the vertical wall surface X1 between the kick surface X4 and the wall surface X1 on the left side. From this, the wall line W22 is determined and stored in the horizontal scanning measurement target feature memory 51.

続いて水平走査特徴量抽出部46は、ステップSP173において、垂直方向に延長する断崖X2の縁を走査する交円TRYが断崖特徴量を示す境界線に基づいて、垂直方向の断崖ラインW34を決定して、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP173, the horizontal scanning feature quantity extraction unit 46 determines the vertical cliff line W34 based on the boundary line where the intersecting circle TRY scanning the edge of the cliff X2 extending in the vertical direction indicates the cliff feature quantity. Then, it is stored in the horizontal scanning measurement target feature memory 51.

かくして水平走査特徴量抽出部46は、水平走査線SN33について壁ラインW22及び断崖ラインW34を決定し、続くステップSP174において全ての水平方向特徴リストについての処理が終了するまで、上述のステップSP172及びSP173の処理を繰り返す。   Thus, the horizontal scanning feature amount extraction unit 46 determines the wall line W22 and the cliff line W34 for the horizontal scanning line SN33, and continues to the above-described steps SP172 and SP173 until the processing for all the horizontal direction feature lists is completed in step SP174. Repeat the process.

やがてステップSP174において全ての水平方向特徴リストの処理が終了したと判断すると、水平走査特徴量抽出部46は、ステップSP175において、蹴込面X4についての平面特徴量の水平間隔から蹴込面X4の範囲X24を求めて、水平走査測定対象特徴メモリ51に蓄積する。   When it is determined in step SP174 that the processing of all the horizontal feature lists has been completed, the horizontal scanning feature amount extraction unit 46 determines in step SP175 the range X24 of the kick surface X4 from the horizontal interval of the plane feature values for the kick surface X4. And is stored in the horizontal scanning measurement target feature memory 51.

続いて水平走査特徴量抽出部46は、ステップSP176において、上述のステップSP172及びSP173において求めた境界線の水平方向の間隔から蹴込面X4の段幅X25を求めて、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP176, the horizontal scanning feature quantity extraction unit 46 obtains the step width X25 of the kick surface X4 from the horizontal interval of the boundary line obtained in steps SP172 and SP173 described above, and obtains the horizontal scanning measurement target feature memory 51. To accumulate.

続いて水平走査特徴量抽出部46は、ステップSP177において、上述のステップSP172において測定した壁ラインW22に基づいて壁面X1があることに基づいて、これを移動体1が進入できない進入不可能領域として求めて、水平走査測定対象特徴メモリ51に蓄積する。   Subsequently, in step SP177, the horizontal scanning feature amount extraction unit 46 determines that there is a wall surface X1 based on the wall line W22 measured in step SP172 described above, and sets this as an inaccessible region where the moving body 1 cannot enter. It is obtained and stored in the horizontal scanning measurement target feature memory 51.

かくして水平走査特徴量抽出部46は、当該水平走査による蹴込面特徴量の算出処理手順RT25の処理をステップSP178において終了する。   Thus, the horizontal scanning feature quantity extraction unit 46 ends the processing of the kick surface feature quantity calculation processing procedure RT25 by the horizontal scanning in step SP178.

以上の構成によれば、外界認識装置9は、階段KD3を構成する蹴込面X4に基づいて、移動体1が進入して良い蹴込面X4の範囲と、進入してはならない壁面X1及び断崖X2とを、安全かつ確実に測定することができる。   According to the above configuration, the external environment recognition device 9 is based on the kick surface X4 constituting the stairs KD3, the range of the kick surface X4 that the mobile body 1 may enter, and the wall surface X1 and the cliff X2 that should not enter. Can be measured safely and reliably.

(6−7)時系列走査による外界確認処理手順
外界認識装置9のCPU13は、時系列走査外界確認部47によって、図51に示す「階段上昇時の踏み場確認処理手順」RT31を実行させることにより、移動体1の本体駆動部15を図52に示すような「前脚階段上昇動作処理手順」RT32を実行させることにより、移動体1を図53に示す上り階段KDYを上るように駆動制御する。
(6-7) External world confirmation processing procedure by time series scanning The CPU 13 of the external environment recognition device 9 causes the time series scanning external world confirmation unit 47 to execute the “stepping confirmation processing procedure at the time of stair climbing” RT31 shown in FIG. Thus, the main body drive unit 15 of the moving body 1 is controlled to drive up the ascending staircase KDY shown in FIG. 53 by executing the “front leg stair climbing operation processing procedure” RT32 as shown in FIG. .

図53の移動体の動作は、移動体1が1段目の踏み面(Y1)、2段目の踏み面(Y2)及び3段目の踊り場(Y3)を有する上り階段KDYを上る動作の一部として、時系列走査外界確認部47によって1段目の踏み面1(Y1)に左前脚4L及び右前脚4Rの脚車輪3Jを着地させる動作について例示したものである。   The operation of the moving body in FIG. 53 is an operation in which the moving body 1 moves up the ascending stairs KDY having the first step surface (Y1), the second step surface (Y2), and the third step landing (Y3). As an example, the operation of landing the left front leg 4L and the leg wheel 3J of the right front leg 4R on the first step tread surface 1 (Y1) by the time series scanning external field confirmation unit 47 is illustrated.

図53の場合、移動体本体1Xは、図53(A)に示すように、上り階段KDYの正面に正対して静止した状態(両方の前脚が同じ高さにある状態)において、正面の踏み面である第1段目の踏み面1(Y1)を円錐走査検出光DETによって確認している状態から移動動作を開始する。   In the case of FIG. 53, as shown in FIG. 53 (A), the mobile body 1X is in front of the ascending staircase KDY and is stationary (both front legs are at the same height). The moving operation is started from the state in which the first step tread surface 1 (Y1) which is the surface is confirmed by the conical scanning detection light DET.

移動体1はまず図53(B)に示すように、左前脚4Lの踏み場予定場所を円錐走査検出光DETによって視準して確認したとき、左前脚4Lを本体の位置姿勢を変えずに上げるような動作をする。   First, as shown in FIG. 53 (B), when the moving body 1 collimates and confirms the planned position of the left front leg 4L with the conical scanning detection light DET, the left front leg 4L is not changed in position and orientation of the main body. It works like raising.

続いて移動体1は図53(C)に示すように、左前脚4Lの脚車輪J3が第1段踏み面1(Y1)の段鼻を十分に越えるように、本体の位置姿勢を少し上向きに変えながら左前脚4Lをさらに上げる。   Subsequently, as shown in FIG. 53 (C), the moving body 1 slightly raises the position and posture of the main body so that the leg wheel J3 of the left front leg 4L sufficiently exceeds the nose of the first step tread surface 1 (Y1). Raise the left front leg 4L while changing.

このとき本体の位置姿勢が上向きに変わるために、左前脚4Lの踏み場予定場所への視準がずれて、第1段踏み面Y1の前方にある境界線にまで円錐走査検出光DETの照射位置がずれる。   At this time, since the position and orientation of the main body changes upward, the collimation of the left front leg 4L to the planned stepping location is shifted, and the cone scanning detection light DET is irradiated to the boundary line in front of the first stepped surface Y1. The position shifts.

このとき図53(D)に示すように、移動体1の移動環境検出器3が円錐走査検出光DETの視準方向を左前脚4Lの踏み場予定場所に視準し直して確認をする。   At this time, as shown in FIG. 53 (D), the moving environment detector 3 of the moving body 1 collimates the collimation direction of the conical scanning detection light DET to the planned landing place of the left front leg 4L for confirmation.

当該確認後、図53(E)に示すように、移動体1は左前脚4Lを踏み場予定場所に着地させるが、このとき本体の位置姿勢が変わる。   After the confirmation, as shown in FIG. 53 (E), the moving body 1 causes the left front leg 4L to land on the planned landing location, but at this time, the position and orientation of the main body changes.

この状態において、移動体1の移動環境検出器3が円錐走査検出光DETを右前脚踏み場予定場所に視準し直し、これを確認する。   In this state, the moving environment detector 3 of the moving body 1 collimates the conical scanning detection light DET at the planned position for the right front leg landing and confirms this.

続いて移動環境検出器3は、図53(F)に示すように、円錐走査検出光DETを右前脚4Rの踏み場予定場所に視準してこれを確認した後、移動体1は本体の位置姿勢を変えずに右前脚4Rを上げる。   Subsequently, as shown in FIG. 53 (F), the moving environment detector 3 collimates the conical scanning detection light DET at the planned stepping position of the right front leg 4R and confirms this, and then the moving body 1 is the main body. The right front leg 4R is raised without changing the position and orientation.

続いて移動体1は図53(G)に示すように、本体の位置姿勢を少し上向きに変えて右前脚4Rをさらに上げることにより、右前脚4Rの脚車輪J3が1段目の踏み面Y1の段鼻を確実に越えるように動作させる。   Subsequently, as shown in FIG. 53 (G), the moving body 1 changes the position and orientation of the main body slightly upward and further raises the right front leg 4R, whereby the leg wheel J3 of the right front leg 4R becomes the first step tread Y1. Operate to make sure to cross the nose.

このとき右前脚の踏み場予定場所に視準していた円錐走査検出光DETの視準がずれて当該1段目の踏み面1(Y1)の前方の境界線を照射する状態になる。   At this time, the collimation of the conical scanning detection light DET collimated at the planned landing position of the right front leg is shifted, and the boundary line ahead of the first step surface 1 (Y1) is irradiated.

続いて移動環境検出器3は、図53(H)に示すように、円錐走査検出光DETの視準方向を視準し直したうえ、右前脚4Rの踏み場予定場所を確認する。   Subsequently, as shown in FIG. 53H, the moving environment detector 3 collimates the collimation direction of the conical scanning detection light DET and confirms the planned landing place of the right front leg 4R.

当該確認をした後移動体1は、図53(I)に示すように、右前脚4Rを踏み場予定場所に着地させ、このとき本体の位置姿勢が変わって円錐走査検出光DETを照射する状態になる。   After the confirmation, as shown in FIG. 53 (I), the moving body 1 causes the right front leg 4R to land on the planned landing location, and at this time, the position and orientation of the main body changes to irradiate the cone scanning detection light DET. become.

時系列走査外界確認部47は、階段上昇時の踏み場確認処理手順RT31に入ると、まずステップSP201において階段情報及び踏み場情報をデータ入力手段11によってユーザが入力することにより読み込む。   When entering the step confirmation processing procedure RT31 when the stairs are rising, the time-series scanning external field confirmation unit 47 first reads the step information and the step information when the user inputs the data using the data input means 11 in step SP201.

図53(I)の状態は、移動体1が左及び右前脚を1段目の踏み面1(Y1)に着地させた状態で、円錐走査検出光DETを正面の踏み面である2段目の踏み面2(Y2)を視準することにより、当該踏み面2(Y2)を確認した状態になる。   The state of FIG. 53 (I) is a state where the moving body 1 has landed the left and right front legs on the first step tread surface 1 (Y1), and the conical scanning detection light DET is the second step which is the front tread surface. By collimating the tread surface 2 (Y2), the tread surface 2 (Y2) is confirmed.

従って移動体1は更に上り階段KDYを上昇する場合は、当該2段目の踏み面2(Y2)について、図53(B)〜(I)の動作を繰り返す。   Therefore, when the moving body 1 further moves up the ascending staircase KDY, the operations of FIGS. 53B to 53I are repeated for the second step surface 2 (Y2).

かくして移動体1は図53(A)〜(I)の動作を順次行うことにより、左及び右前脚4L及び4Rを1段目の踏み面1(Y1)の踏み場予定位置に着地させ、これにより両前脚を予定の踏み場場所に置くような移動動作を行うことができる。   Thus, the moving body 1 sequentially performs the operations of FIGS. 53A to 53I to land the left and right front legs 4L and 4R at the planned landing position of the first step surface 1 (Y1). Thus, it is possible to perform a movement operation such that both front legs are placed on the planned landing place.

かかる図53(A)〜(I)の移動体1の動作は、時系列走査外界確認部47が、図51の「階段上昇時の踏み場確認処理手順」RT31を実行すると共に、これに応動するように、本体駆動部15が図52の「前脚階段上昇動作手順」RT32を実行することにより移動体1を駆動することにより行われる。   53 (A) to 53 (I), the time-series scanning external field confirmation unit 47 executes the “stepping confirmation processing procedure when the stairs rise” RT31 in FIG. 51 and responds thereto. As described above, the main body drive unit 15 drives the moving body 1 by executing the “front leg stair climbing operation procedure” RT32 of FIG.

このステップSP201において時系列走査外界確認部47が読み込んだ情報は、移動体1が上昇しようとする上り階段KDYの構造及び移動体1の左及び右前脚4L及び4R(並びに左及び右後脚5L及び5R)が歩行すべき踏み場の指定を受けたことを意味し、かくして外界認識装置9の時系列走査外界確認部47は指定を受けた踏み場について、左及び右前脚4L及び4R(並びに左及び右後脚5L及び5R)を指定どおりに動作したことを確認しながら移動体1を移動させて行く。   The information read by the time-series scanning external field confirmation unit 47 in step SP201 includes the structure of the ascending staircase KDY that the moving body 1 is going to rise and the left and right front legs 4L and 4R (and the left and right rear legs 5L) of the moving body 1. And 5R) have received the designation of the step to walk, and thus the time-series scanning external field confirmation unit 47 of the external recognition device 9 performs the left and right front legs 4L and 4R (and The moving body 1 is moved while confirming that the left and right rear legs 5L and 5R) are operated as specified.

このようにして時系列走査外界確認部47がステップSP201において階段情報を取得したとき、本体駆動部15は、図52の「前脚階段上昇動作処理」RT32に入って、ステップSP211において、上り階段KDYの正面で待機した状態になる(図53(A))。   When the time-series scanning external field confirmation unit 47 acquires the staircase information in step SP201 in this way, the main body driving unit 15 enters the “front leg stair climbing process” RT32 in FIG. 52, and in step SP211 the ascending staircase KDY. Is in a standby state in front of (FIG. 53A).

この状態において、時系列走査外界確認部47は、ステップSP202に移って、データ入力手段11によるユーザからの入力操作に応じて、円錐走査距離測定のための円錐走査検出光DETの円錐半頂角を設定すると共に、円錐走査検出光DETの視準方向Zを左前脚4Lの踏み場予定場所に設定する(図53(B))。   In this state, the time-series scanning external field confirmation unit 47 moves to step SP202, and according to the input operation from the user by the data input means 11, the cone half-vertical angle of the cone scanning detection light DET for measuring the cone scanning distance. Is set, and the collimation direction Z of the conical scanning detection light DET is set to the expected landing position of the left front leg 4L (FIG. 53B).

続いて時系列走査外界確認部47はステップSP203において円錐走査検出光DETの交円TRからの戻り光に基づいて円錐走査距離の測定を行うとともに、ステップSP204において交円特徴量の抽出を行った後、ステップSP205において踏み場の認識を実行する。   Subsequently, the time-series scanning external field confirmation unit 47 measures the conical scanning distance based on the return light from the intersecting circle TR of the conical scanning detection light DET in step SP203, and extracts the intersecting feature amount in step SP204. Thereafter, in step SP205, the step recognition is executed.

このステップSP205における踏み場の認識は、移動体1が左前脚4Lを着地させようとする踏み場予定場所(図53(B))についての踏み場情報として、円錐走査検出光DETが照射している踏み面1(Y1)の位置、姿勢及び範囲を認識する。   In step SP205, the platform is recognized by irradiating the cone scanning detection light DET as the platform information about the planned platform (FIG. 53B) where the moving body 1 is to land the left front leg 4L. Recognize the position, posture and range of the tread surface 1 (Y1).

続いて時系列走査外界確認部47は、次のステップSP206に移って、ステップSP205において認識した踏み場情報において境界線を検出したか否かの判断をし、否定結果が得られたとき、このことは円錐走査検出光DETが正しく踏み面を視準していることを意味するので、ステップSP207に移って踏み場確認情報を移動体1の本体駆動部15に通報する。   Subsequently, the time-series scanning external field confirmation unit 47 moves to the next step SP206, determines whether or not the boundary line is detected in the step information recognized in step SP205, and when a negative result is obtained, This means that the conical scanning detection light DET correctly collimates the tread surface, so that the process proceeds to step SP207 to notify the main body drive unit 15 of the moving body 1 of the step confirmation information.

この実施の形態の場合、上述のステップSP202〜SP206における情報の取得処理は、垂直走査特徴量抽出部45及び水平走査特徴量抽出部46の処理動作に基づいて垂直走査測定対象特徴メモリ50及び水平走査測定対象特徴メモリ51に蓄積した情報に基づいて実行され、かくして時系列走査外界確認部47の処理結果は外界確認データメモリ52に蓄積される。   In the case of this embodiment, the information acquisition processing in the above-described steps SP202 to SP206 is performed based on the processing operations of the vertical scanning feature quantity extraction unit 45 and the horizontal scanning feature quantity extraction unit 46, and the horizontal scanning measurement target feature memory 50 and the horizontal scanning feature quantity memory 50. The process is executed based on the information stored in the scanning measurement target feature memory 51, and the processing result of the time-series scanning external world confirmation unit 47 is thus stored in the external world confirmation data memory 52.

このような時系列走査外界確認部47の確認情報の取得処理と平行して、移動体1の本体駆動部15は、前脚階段上昇動作処理手順RT32の左前脚上昇動作サブルーチンRT32AのステップSP212において、左前脚4Lの踏み場確認要求を時系列走査外界確認部47に発信して、ステップSP213において時系列走査外界確認部47から踏み場確認情報の通報(ステップSP207)が得られるのを待ち受ける状態になる。   In parallel with the confirmation information acquisition process of the time-series scanning external field confirmation unit 47, the main body drive unit 15 of the moving body 1 performs step SP212 of the left front leg raising operation subroutine RT32A of the front leg stair raising operation processing procedure RT32. A step confirmation request for the left front leg 4L is transmitted to the time-series scanning external field confirmation unit 47, and the state waits for a notification of the step confirmation information (step SP207) from the time-series scanning external field confirmation unit 47 in step SP213. Become.

かくして本体駆動部15は、図53(B)において円錐走査検出光DETが左前脚4Lの踏み場を視準照射している状態で踏み場の確認を待ち受けた状態にあるのに対して、時系列走査外界確認部47がステップSP207において踏み場確認情報の通報をしたとき、本体駆動部15はステップSP213において肯定結果が得られることにより、次のステップSP214に移る。   Thus, the main body drive unit 15 is waiting for confirmation of the footstep in the state where the conical scanning detection light DET collimates the footstep of the left front leg 4L in FIG. When the series scanning external environment confirmation unit 47 reports the step confirmation information in step SP207, the main body drive unit 15 moves to the next step SP214 when a positive result is obtained in step SP213.

このステップSP214において、本体駆動部15は移動体1の左前脚4Lを上げる動作をした後、ステップSP215に移って踏み場の確認を待ち受ける状態になる。   In this step SP214, the main body drive unit 15 moves up the left front leg 4L of the moving body 1, and then moves to step SP215 to wait for confirmation of the step.

この左前脚を上げる動作は、まず図53(B)について上述したように本体の位置姿勢を変えずに左前脚を挙げた後、図53(C)について上述したように本体の位置姿勢を少し上向きに変えることにより、左前脚4Lをさらに上げる動作を含んでいる。   First, the left front leg is lifted without changing the position and orientation of the main body as described above with reference to FIG. 53B, and then the position and posture of the main body are slightly changed as described above with reference to FIG. It includes an operation of further raising the left front leg 4L by changing upward.

従って図53(C)のように本体の位置姿勢が変わったために円錐走査検出光DETの視準方向が前方にずれて、2段目の踏み目2(Y2)の段鼻を照射する位置にずれると、時系列走査外界確認部47は当該段鼻の境界線を検出することによりステップSP206において肯定結果を得て、上述のステップSP202に戻る。   Therefore, as shown in FIG. 53C, the position and orientation of the main body is changed, so that the collimation direction of the cone scanning detection light DET is shifted forward and shifted to the position where the nose of the second step 2 (Y2) is irradiated. Then, the time-series scanning external world confirmation unit 47 obtains a positive result in step SP206 by detecting the boundary line of the nose and returns to step SP202 described above.

このとき時系列走査外界確認部47は、円錐走査検出光DETを左前脚4Lの踏み場と指定位置に戻す再設定動作をした後、ステップSP203〜SP206のループの処理を繰り返す。   At this time, the time-series scanning external field confirmation unit 47 performs a resetting operation for returning the conical scanning detection light DET to the stepping position of the left front leg 4L and the specified position, and then repeats the loop processing of steps SP203 to SP206.

このとき時系列走査外界確認部47は、円錐走査検出光DETを境界線を検出しない踏み面1(Y1)に視準方向を修正したので(図53(D))、ステップSP206において否定結果を得て、ステップSP207において本体駆動部15に対する踏み場確認情報の通報を行うと共に、ステップSP208において踏み場の確認をし、否定結果が得られたとき上述のステップSP203に戻ってステップSP203〜SP208の処理を繰り返す。   At this time, the time-series scanning external field confirmation unit 47 corrects the collimation direction for the tread surface 1 (Y1) that does not detect the boundary line with the conical scanning detection light DET (FIG. 53D), so a negative result is obtained in step SP206. In step SP207, the platform confirmation information is reported to the main body drive unit 15, and the platform is confirmed in step SP208. If a negative result is obtained, the process returns to step SP203, and steps SP203 to SP208 are performed. Repeat the process.

このとき、本体駆動部15は、時系列走査外界確認部47からの通報に応動して、ステップSP215において踏み場の確認ができたと判断してステップSP216に移って移動体1の本体を下向き方向に位置姿勢を変えることにより、左前脚を踏み面1(Y1)に着地させる(図53(E))。   At this time, the main body driving unit 15 responds to the notification from the time-series scanning external field confirmation unit 47, determines that the stepping area has been confirmed in step SP215, moves to step SP216, and moves the main body of the moving body 1 downward. The left front leg is landed on the tread surface 1 (Y1) by changing the position and orientation to (FIG. 53E).

かくして本体駆動部15は踏み面1(Y1)の指定された踏み場位置に左前脚4Lを着地させたことにより、次のステップSP217において左前脚4Lの踏み場確認処理を終了し、これにより、左前脚上昇動作サブルーチンRT32Aの処理を終了して、続いて右前脚上昇動作サブルーチンRT32Bの処理に入る。   Thus, the main body drive unit 15 terminates the step confirmation process of the left front leg 4L in the next step SP217 by landing the left front leg 4L at the designated step position of the tread surface 1 (Y1). The processing of the left front leg raising operation subroutine RT32A is terminated, and then the processing of the right front leg raising operation subroutine RT32B is entered.

本体駆動部15は、右前脚上昇動作サブルーチンRT32Bに入ると、先ずステップSP218において右前脚4Rの踏み場確認要求を時系列走査外界確認部47に送る。   When entering the right front leg raising operation subroutine RT32B, the main body drive unit 15 first sends a step confirmation request for the right front leg 4R to the time-series scanning outside world confirmation unit 47 in step SP218.

このとき時系列走査外界確認部47は、ステップSP210において全ての踏み場の確認が終了していないことに基づいてステップSP202に戻って、右前脚4Rの踏み場の確認について、円錐走査距離測定のための円錐半頂角及び視準方向の設定を行い、当該右前脚4Rの踏み場である踏み面1(Y1)についてステップSP203において円錐走査距離測定動作をし、ステップSP204において交円特徴量の抽出処理をし、ステップSP205において踏み場の認識処理をすることにより踏み場情報として右前脚4Rの位置、踏み面1(Y1)の姿勢、踏み面の範囲を認識する。   At this time, the time-series scanning external field confirmation unit 47 returns to step SP202 based on the fact that the confirmation of all the landings is not completed in step SP210, and performs the cone scanning distance measurement for confirmation of the landing of the right front leg 4R. The cone half apex angle and the collimation direction are set, and the cone scanning distance measurement operation is performed in step SP203 on the tread surface 1 (Y1) that is the step of the right front leg 4R. The extraction process is performed, and the step recognition process is performed in step SP205 to recognize the position of the right front leg 4R, the posture of the tread surface 1 (Y1), and the tread surface range as the step information.

続いて時系列走査外界確認部47は、次のステップSP206において境界線を検出したか否かの判断をするが、このとき設定された円錐走査検出光DETは踏み面1(Y1)の平面に交円を照射しているので否定結果が得られることにより、ステップSP207において踏み場確認情報の通報を本体駆動部15に送る。   Subsequently, the time-series scanning external field confirmation unit 47 determines whether or not a boundary line has been detected in the next step SP206. The conical scanning detection light DET set at this time is on the plane of the tread surface 1 (Y1). Since a negative result is obtained because the cross circle is irradiated, a notification of the step confirmation information is sent to the main body drive unit 15 in step SP207.

このとき本体駆動部15はステップSP219において踏み場情報の確認得たことにより、ステップSP220に移って右前脚4Rを上げる動作をする。   At this time, the main body drive unit 15 moves to step SP220 and raises the right front leg 4R by obtaining the step information in step SP219.

このとき本体駆動部15は図53(F)について上述したように、本体の位置姿勢を変えずに右前脚4Rを上げた後、図53(G)について上述したように本体の位置姿勢を上向きに変えた状態で右前脚4Rをさらに上げる。   At this time, the main body drive unit 15 raises the right front leg 4R without changing the position and orientation of the main body as described above with reference to FIG. 53 (F), and then moves the position and posture of the main body upward as described above with reference to FIG. 53 (G). The right front leg 4R is further raised in the state changed to.

このとき円錐走査検出光DETの視準方向が右前脚4Rの踏み場予定場所から前方にずれて2段目の踏み面2(Y2)の段鼻を照射する状態になる。   At this time, the collimation direction of the conical scanning detection light DET is shifted forward from the planned landing location of the right front leg 4R, and the nose of the second step surface 2 (Y2) is irradiated.

このとき踏み場情報として、2段目の踏み面2(Y2)の段鼻ラインについての境界線を抽出する状態になるので、時系列走査外界確認部47は、上述のステップSP202に戻って円錐走査検出光DETの視準方向の再設定を行う。   At this time, since the boundary line about the nose line of the second step tread surface 2 (Y2) is extracted as the step information, the time-series scan outside world confirmation unit 47 returns to the above-described step SP202 and performs the cone scan. The collimation direction of the detection light DET is reset.

時系列走査外界確認部47は、当該再設定された視準方向についてステップSP203において円錐走査距離測定を行うと共に、ステップSP204において交円特徴量の抽出をした後ステップSP205において踏み場の認識処理を行う。   The time-series scanning external field confirmation unit 47 performs conical scanning distance measurement in step SP203 for the reset collimation direction, and after extracting the intersection feature amount in step SP204, performs the step recognition process in step SP205. Do.

このとき円錐走査検出光DETは踏み面2(Y2)の平面を照射しているので、時系列走査外界確認部47は、ステップSP206において否定結果を得ることによりステップSP207において踏み場確認情報の通報を本体駆動部15に送る。   At this time, since the conical scanning detection light DET irradiates the flat surface of the tread surface 2 (Y2), the time-series scanning external field confirmation unit 47 obtains a negative result at step SP206, thereby reporting step confirmation information at step SP207. Is sent to the main body drive unit 15.

また本体駆動部15はステップSP221において、図53(H)について上述したように、円錐走査検出光DETの視準方向の修正がなされた状態において右前脚4Rの踏み場予定場所を視準できたことを確認できることにより、ステップSP222に移って図53(I)について上述したように本体の位置姿勢を変えながら右前脚を踏み面1(Y1)に着地する。   Further, in step SP221, the main body drive unit 15 was able to collimate the expected landing position of the right front leg 4R in a state where the collimation direction of the conical scanning detection light DET was corrected as described above with reference to FIG. If this can be confirmed, the process moves to step SP222, and the right front leg is landed on the tread surface 1 (Y1) while changing the position and orientation of the main body as described above with reference to FIG.

かくして本体駆動部15は右前脚上昇動作サブルーチンRT32Bの処理を終了したことにより当該前脚階段上昇動作処理手順RT32の処理をステップSP224において終了する。   Thus, the main body drive unit 15 ends the process of the front leg stair lift operation processing procedure RT32 in step SP224 when the process of the right front leg lift operation subroutine RT32B is completed.

これと共に、時系列走査外界確認部47は、本体駆動部15の右前脚上昇動作サブルーチンRT32Bについての踏み場の確認をステップSP208において終了すると共に、ステップSP209において左前脚4L及び右前脚4Rの全ての踏み場の確認処理を終了したことにより、ステップSP210において階段上昇時の踏み場確認処理手順RT31の処理を終了する。   At the same time, the time-series scanning external field confirmation unit 47 ends the confirmation of the step for the right front leg raising operation subroutine RT32B of the main body drive unit 15 in step SP208 and all the left front leg 4L and the right front leg 4R in step SP209. When the step confirmation process is finished, the step confirmation process procedure RT31 when the stairs are raised is finished in step SP210.

図51〜図53の構成において、時系列走査外界確認部47は、移動体1の移動環境検出器3から投射される円錐走査検出光DETに基づいて、この交円特徴量に基づいて照射した上り階段の踏み場を時間の経過に従って順次検出することにより、ユーザによって指定された踏み場を移動体1の前脚がその着地に至るまでの動作を確認しながら本体駆動部15を駆動制御することにより、時間の経過に従って移動体1の本体の位置や姿勢が例え変わったとしても、その変化に対応して前脚を予定した踏み場に順次着地させて行くことにより、移動体1を安全かつ確実に上り階段KDYを上って行かせるようにすることができる。   In the configurations of FIGS. 51 to 53, the time-series scanning external field confirmation unit 47 irradiates based on this intersection feature amount based on the conical scanning detection light DET projected from the moving environment detector 3 of the moving body 1. By sequentially detecting the steps of the ascending stairs as time passes, the main body drive unit 15 is driven and controlled while confirming the operation until the front legs of the moving body 1 reach the landing specified by the user. Thus, even if the position and posture of the moving body 1 change over time, the moving body 1 can be safely and reliably placed by sequentially landing the front legs on the planned landing in response to the change. Can be made to go up the staircase KDY.

(7)他の実施の形態
(7−1)上述の実施の形態においては、移動体1の脚車輪J3は平面でなる踏み面を確認しながら移動体1を移動させる場合について述べたが、踏み面の形状はこれに限らず、円筒面や球面であってもよく、この場合安全に整合するような特徴量を設定すれば、上述の場合と同様の効果を得ることができる。
(7) Other Embodiments (7-1) In the above embodiment, the leg wheel J3 of the moving body 1 is described as moving the moving body 1 while confirming the tread surface which is a plane. The shape of the tread surface is not limited to this, and may be a cylindrical surface or a spherical surface. In this case, if a feature amount that can be safely matched is set, the same effect as in the above case can be obtained.

(7−2)図51〜図53の実施の形態においては、移動体1の前脚の階段上昇動作について述べたが、後脚の上昇動作についても同様に、時系列走査外界確認部47と移動駆動部15との対応動作によって安全かつ確実に行わせることができる。 (7-2) In the embodiment of FIGS. 51 to 53, the staircase ascending operation of the front leg of the moving body 1 has been described. Similarly, the ascending operation of the rear leg also moves with the time-series scanning external field confirmation unit 47. The corresponding operation with the drive unit 15 can be performed safely and reliably.

また下り階段を下る場合にも、特徴量の抽出の仕方を下り階段に対応させることにより、同じようにして安全かつ確実に移動体1を下らせることができる。   Further, even when going down the stairs, the moving body 1 can be lowered safely and reliably in the same manner by making the feature extraction method correspond to the down stairs.

(7−3)上述の実施の形態においては、距離データメモリ35の円錐走査距離データメモリ35Aに蓄積された距離データ(α、L)を用いて処理対象データ(α−L)を得て認識対象の特徴量の演算処理をする場合について述べたが、これに代え、距離画像データメモリ36Bの画像データ(i、j、L)を用いた場合も同様にして特徴量の演算処理をすることができる。 (7-3) In the above embodiment, the processing target data (α−L) is obtained and recognized using the distance data (α, L) stored in the conical scanning distance data memory 35A of the distance data memory 35. Although the case where the target feature amount calculation processing is described has been described, the feature amount calculation processing is similarly performed when the image data (i, j, L) of the distance image data memory 36B is used instead. Can do.

本発明は移動体を円錐走査式検出光によって検出しながら移動させる場合に利用できる。   The present invention can be used when a moving body is moved while being detected by conical scanning detection light.

1……移動体、2……移動体本体、3……移動環境検出器、4L、4R……左及び右前脚、5L、5R……左及び右後脚、6……床面、7……階段、8……踏み面、8A……段鼻、8B……平面、8C……蹴込、9……外界認識装置、10……断崖、11……データ入力手段、12……バス、13……システム制御用中央処理ユニット、14……プログラムROM・動作RAM、15……本体駆動部、19……蹴込面、21……水平走査機構、25……垂直走査機構、27……距離測定器、31……円錐走査式距離測定部、31A……三次元距離データメモリ(θ、φ、L)、32……円錐走査制御部、33……水平垂直走査部、34……距離検出部、35……距離データメモリ、35A……円錐走査距離データメモリ(α、L)、36……距離画像測定部、36B……距離画像データメモリ(i、j、L)、KD1……上り階段、E1、E2…蹴込、F1、F2……蹴込面、G1、G2……段鼻、TR、TR0、TR1〜TR3……交円、KD2……下り階段、L0……床面、L1……踊り場、M1、M2……段鼻、N1、N2……踏み面、41……交円特徴量算出部、42……交円特徴量メモリ、45……垂直走査特徴量抽出部、46……水平走査特徴量抽出部、47……時系列走査外界確認部、50……垂直走査測定対象特徴メモリ、51……水平走査測定対象特徴メモリ、52……外界確認データメモリ。   DESCRIPTION OF SYMBOLS 1 ... Mobile body, 2 ... Mobile body main body, 3 ... Mobile environment detector, 4L, 4R ... Left and right front leg, 5L, 5R ... Left and right rear leg, 6 ... Floor surface, 7 ... ... staircase, 8 ... tread surface, 8A ... nose, 8B ... flat surface, 8C ... kick-in, 9 ... external recognition device, 10 ... cliff, 11 ... data input means, 12 ... bus, 13 ... ... central processing unit for system control, 14 ... program ROM / operation RAM, 15 ... main body drive unit, 19 ... kick-in surface, 21 ... horizontal scanning mechanism, 25 ... vertical scanning mechanism, 27 ... distance measuring instrument , 31... Cone scanning distance measuring unit, 31 A... Three-dimensional distance data memory (θ, φ, L), 32... Cone scanning control unit, 33. 35: Distance data memory, 35A: Conical scanning distance data memory (α, L), 36: Distance Image measuring unit, 36B ... Distance image data memory (i, j, L), KD1 ... Upstairs, E1, E2 ... Kick, F1, F2 ... Kick surface, G1, G2 ... Nose, TR, TR0, TR1 to TR3: cross circle, KD2: descending staircase, L0: floor surface, L1: landing, M1, M2 ... step nose, N1, N2 ... tread surface, 41 ... cross circle feature value calculation unit, 42... Intersection feature amount memory, 45... Vertical scanning feature amount extraction unit, 46... Horizontal scanning feature amount extraction unit, 47 .. time series scanning external field confirmation unit, 50. …… Horizontal scan measurement target feature memory, 52 …… External world confirmation data memory.

Claims (6)

測定対象に対して、センサ原点から視準方向を中心として円錐面に沿う方向に走査する円錐走査検出光を投射し、当該円錐走査検出光と上記測定対象の表面との交円から反射して来る上記円錐走査検出光を受光して上記センサ原点から上記測定対象までの距離を測定する移動環境検出手段と、
上記移動環境検出手段が測定した距離測定データに基づいて上記交円の特徴量を算出する特徴量算出手段と、
上記交円の特徴量によって上記測定対象表面の形状を求める形状判定手段と
を具えることを特徴とする移動環境認識装置。
The cone scanning detection light that scans in the direction along the conical surface with the collimation direction as the center is projected from the sensor origin to the measurement target, and reflected from the intersection of the cone scanning detection light and the surface of the measurement target. A moving environment detection means for receiving the conical scanning detection light and measuring the distance from the sensor origin to the measurement object;
Feature amount calculating means for calculating the feature value of the intersecting circle based on the distance measurement data measured by the moving environment detecting means;
A moving environment recognition apparatus comprising: shape determining means for determining the shape of the measurement target surface from the feature value of the intersecting circle.
上記移動環境検出手段によって測定した上記距離測定データを、上記円錐走査検出光の円錐走査回転角度に対応させて記憶する距離画像データメモリを有し、上記特徴量算出手段は、上記円錐走査回転角度の回転方向に対する上記距離測定データの変化の仕方に基づいて上記特徴量を判定する
ことを特徴とする請求項1に記載の移動環境認識装置。
A distance image data memory for storing the distance measurement data measured by the moving environment detection unit in correspondence with the cone scanning rotation angle of the cone scanning detection light; and the feature amount calculation unit includes the cone scanning rotation angle. The mobile environment recognition device according to claim 1, wherein the feature amount is determined based on a method of changing the distance measurement data with respect to a rotation direction.
上記移動環境検出手段は、上記円錐走査検出光の上記視準方向を走査させ、上記形状判定手段は、当該走査によって上記距離測定データに生ずる変化に応じて上記測定対象表面の形状を求める
ことを特徴とする請求項1に記載の移動環境認識装置。
The moving environment detection means scans the collimation direction of the cone scanning detection light, and the shape determination means obtains the shape of the measurement target surface according to a change caused in the distance measurement data by the scanning. The mobile environment recognition device according to claim 1, wherein
上記移動環境検出手段は、上記円錐走査検出光の上記視準方向を上記測定対象に対して垂直方向に走査させることにより上記特徴量算出手段が平面特徴量を検出したとき、当該平面特徴量を検出した上記測定対象の部分について、上記円錐走査検出光の上記視準方向を水平方向に走査させることにより上記形状判定手段が当該測定対象部分の境界ラインを求める
ことを特徴とする請求項1に記載の移動環境認識装置。
The moving environment detecting means scans the collimated scanning detection light in a direction perpendicular to the measurement object, and the feature quantity calculating means detects the planar feature quantity when the feature quantity calculating means detects the planar feature quantity. The shape determining means obtains a boundary line of the measurement target portion by causing the collimated scanning detection light to scan the collimated scanning detection light in a horizontal direction for the detected measurement target portion. The mobile environment recognition device described.
測定対象に対して、センサ原点から視準方向を中心として円錐面に沿う方向に走査する円錐走査検出光を投射し、当該円錐走査検出光と上記測定対象の表面との交円から反射して来る上記円錐走査検出光を受光して上記センサ原点から上記測定対象までの距離を測定する移動環境検出手段と、
上記移動環境検出手段が測定した距離測定データに基づいて上記交円の特徴量を算出する特徴量算出手段と、
上記交円の特徴量によって上記測定対象表面の形状を求める形状判定手段と
を具えることを特徴とする移動環境認識方法。
The cone scanning detection light that scans in the direction along the conical surface with the collimation direction as the center is projected from the sensor origin to the measurement target, and reflected from the intersection of the cone scanning detection light and the surface of the measurement target. A moving environment detection means for receiving the conical scanning detection light and measuring the distance from the sensor origin to the measurement object;
Feature amount calculating means for calculating the feature value of the intersecting circle based on the distance measurement data measured by the moving environment detecting means;
A moving environment recognition method comprising: shape determining means for determining the shape of the measurement target surface from the feature value of the intersecting circle.
測定対象に対して、センサ原点から視準方向を中心として円錐面に沿う方向に走査する円錐走査検出光を投射し、当該円錐走査検出光と上記測定対象の表面との交円から反射して来る上記円錐走査検出光を受光して上記センサ原点から上記測定対象までの距離を測定する移動環境検出手段と、
上記移動環境検出手段が測定した距離測定データに基づいて上記交円の特徴量を算出する特徴量算出手段と、
上記交円の特徴量によって上記測定対象表面の形状を求める形状判定手段と
を搭載し、上記形状判定手段の判定結果に基づいて移動動作を制御する
ことを特徴とする移動体。
The cone scanning detection light that scans in the direction along the conical surface with the collimation direction as the center is projected from the sensor origin to the measurement target, and reflected from the intersection of the cone scanning detection light and the surface of the measurement target. A moving environment detection means for receiving the conical scanning detection light and measuring the distance from the sensor origin to the measurement object;
Feature amount calculating means for calculating the feature value of the intersecting circle based on the distance measurement data measured by the moving environment detecting means;
A moving body comprising: shape determining means for determining the shape of the surface to be measured based on the feature value of the intersecting circle, and controlling the movement operation based on the determination result of the shape determining means.
JP2009212086A 2009-09-14 2009-09-14 Mobile environment recognition apparatus and method Expired - Fee Related JP5499355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009212086A JP5499355B2 (en) 2009-09-14 2009-09-14 Mobile environment recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009212086A JP5499355B2 (en) 2009-09-14 2009-09-14 Mobile environment recognition apparatus and method

Publications (2)

Publication Number Publication Date
JP2011059071A JP2011059071A (en) 2011-03-24
JP5499355B2 true JP5499355B2 (en) 2014-05-21

Family

ID=43946859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009212086A Expired - Fee Related JP5499355B2 (en) 2009-09-14 2009-09-14 Mobile environment recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP5499355B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5742052B2 (en) * 2011-05-24 2015-07-01 日本精工株式会社 Mobile environment recognition apparatus and method
JP2014100767A (en) * 2012-11-20 2014-06-05 Toshiba Corp Level difference walking control device and method of multileg walking robot
CN113220116A (en) 2015-10-20 2021-08-06 奇跃公司 System and method for changing user input mode of wearable device and wearable system
AU2017244109B2 (en) 2016-03-31 2022-06-23 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
TW202030141A (en) * 2018-12-11 2020-08-16 美商智力股份有限公司 Systems, apparatuses, and methods for detecting escalators
JP2020183900A (en) * 2019-05-08 2020-11-12 オムロン株式会社 Optical measuring device and optical measuring method
CN110597267B (en) * 2019-09-27 2023-01-10 长安大学 Local optimal foot drop point selection method for foot type robot
JP7722227B2 (en) * 2022-03-11 2025-08-13 株式会社デンソー Road surface condition detection device, road surface condition detection method, and road surface condition detection program
CN119604739A (en) 2022-07-29 2025-03-11 株式会社三共制作所 Measurement system
CN116100580B (en) * 2022-11-18 2025-08-05 国网湖南省电力有限公司 A substation lightning arrester handling robot and control method thereof
CN120112770A (en) 2022-11-30 2025-06-06 株式会社三共制作所 Method for measuring the condition of a rotating component

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263724B2 (en) * 1993-04-16 2002-03-11 日本電信電話株式会社 Shape feature extraction device using two-dimensional laser pattern
JP2001317922A (en) * 2000-05-11 2001-11-16 Mitsutoyo Corp Optical shape measuring device
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Mobile environment recognition apparatus and method
JP2009198241A (en) * 2008-02-20 2009-09-03 Yamatake Corp Instrument

Also Published As

Publication number Publication date
JP2011059071A (en) 2011-03-24

Similar Documents

Publication Publication Date Title
JP5499355B2 (en) Mobile environment recognition apparatus and method
US20240193936A1 (en) Identifying stairs from footfalls
CN115702405A (en) Stair tracking for modeling and terrain awareness
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP2022528032A (en) Robot walks through steps
US20170082748A1 (en) Polygon mirror, fan beam output device, and survey system
JP5802423B2 (en) Moving body
JP2010044050A (en) Method of recognizing posture of laser radar and laser radar
CN112731451B (en) Method and system for detecting ground obstacle based on laser radar
TW202022519A (en) Information processing device and mobile robot
TWI773947B (en) Control device, exoskeleton system and control method
KR101348941B1 (en) Road Information Detecting Method for Auto-Driving Robot and Auto-Driving Robot Using The Same
JP2009006984A (en) Leg wheel type robot
JP2008224380A (en) Mobile environment recognition apparatus and method
JP5763986B2 (en) MOBILE BODY AND METHOD FOR CONTROLLING MOBILE BODY
JP2012200319A (en) Walking support device, and walking support program
JP2008260117A (en) Leg wheel type robot and leg wheel device
JP2009042147A (en) Object recognition apparatus and object recognition method
JP2007190654A (en) Leg wheel type robot
JP2012117833A (en) Image recognition device, mounting type robot, and image recognition program
JP5742052B2 (en) Mobile environment recognition apparatus and method
US11047672B2 (en) System for optically dimensioning
JP2009042145A (en) Object recognition apparatus and object recognition method
JP2011136374A (en) Mechanism body, external force detection method, and mechanism body control method
JP2014016747A (en) Disposition determination method, disposition determination device, and moving body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140219

R150 Certificate of patent or registration of utility model

Ref document number: 5499355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees