[go: up one dir, main page]

JP2006113858A - Method and system for supporting remote operation for mobile object - Google Patents

Method and system for supporting remote operation for mobile object Download PDF

Info

Publication number
JP2006113858A
JP2006113858A JP2004301386A JP2004301386A JP2006113858A JP 2006113858 A JP2006113858 A JP 2006113858A JP 2004301386 A JP2004301386 A JP 2004301386A JP 2004301386 A JP2004301386 A JP 2004301386A JP 2006113858 A JP2006113858 A JP 2006113858A
Authority
JP
Japan
Prior art keywords
obstacle
remote operation
map
moving
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004301386A
Other languages
Japanese (ja)
Inventor
Yasutaka Fukuya
康隆 福家
Shin Asano
伸 浅野
Hiroyuki Kanazawa
宏幸 金澤
Toshimichi Tsumaki
俊道 妻木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2004301386A priority Critical patent/JP2006113858A/en
Publication of JP2006113858A publication Critical patent/JP2006113858A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately grasp a surrounding situation of a mobile object and easily perform remote control even if a remote operator does not have the information related to a travelling environment of the mobile object in advance. <P>SOLUTION: A method for supporting a remote operation for a mobile object, which includes an imaging apparatus acquiring surrounding image information and a distance detection sensor detecting a distance up to an obstacle and moves by a remote operation of a remote operation part, comprises an obstacle map generating process of generating a two-dimensional obstacle map 104 from obstacle information acquired by the detection sensor; a superimposing processing process of superposing processing movable area information of the mobile object extracted from the map onto the image information 100 acquired by the imaging apparatus, and displays the image information and the superimposing processed area information on the same screen. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ロボット等の移動体に搭載された撮像装置により取得した画像情報を基に遠隔地から移動体を遠隔操作する移動体の遠隔操作支援方法及びシステムに関する。   The present invention relates to a remote operation support method and system for a mobile body that remotely operates the mobile body from a remote location based on image information acquired by an imaging device mounted on the mobile body such as a robot.

従来より、各種プラント或いは工場等において、人間が立ち入るには危険な場所や人間が侵入困難な場所などを走行して目的とする作業を行なうロボット等の無人の移動体が広く導入されている。また、建物内の警備巡廻、特に夜間警備における省人化や、地震、火事等の災害時の救援作業における二次災害の防止を目的として、このような移動体の普及が強く望まれている。   Conventionally, in various plants or factories, unmanned mobile bodies such as robots that perform a desired work by running in places that are dangerous for humans to enter or places that are difficult for humans to enter are widely used. In addition, the spread of such mobiles is strongly desired for the purpose of saving labor in security patrols within buildings, especially nighttime security, and preventing secondary disasters in relief operations during disasters such as earthquakes and fires. Yes.

一般的な移動体の遠隔操作方法としては、移動体に搭載したビデオカメラ等の撮像装置により移動体前方の周囲環境を撮像して遠隔地のオペレータに送信し、オペレータ側では移動体より受信した画像情報をモニタに表示して、この画像を目視しながらジョイスティック、十字キー等の操作部にて移動体の目標速度、方向等を指令するものであった。
しかしながら、ビデオカメラの視野角は狭く、また距離感をつかみ難い等の問題があり、直視の場合に比べて操作は格段に難しく、操作者の負担も大きい。従って、操作者の技術の未熟さや疲労によってミスが生じ、移動体が障害物等の危険を回避できなかったり、周囲の人や物に衝突する惧れがある。このように、移動体周囲環境の画像情報のみに頼って移動体を遠隔操作することは困難であった。
As a general remote control method for a moving body, the surrounding environment in front of the moving body is imaged by an imaging device such as a video camera mounted on the moving body and transmitted to an operator at a remote location. The image information is displayed on a monitor, and the target speed, direction, and the like of the moving body are commanded by an operation unit such as a joystick or a cross key while viewing the image.
However, the viewing angle of the video camera is narrow and there is a problem that it is difficult to grasp a sense of distance, so that the operation is much more difficult than the case of direct viewing and the burden on the operator is large. Therefore, there is a risk that mistakes may occur due to immaturity and fatigue of the operator, and the moving body cannot avoid dangers such as obstacles, or may collide with surrounding people or objects. As described above, it has been difficult to remotely control the moving body by relying only on the image information of the environment around the moving body.

別の遠隔操作方法として、超音波センサ、赤外線センサ、或いはレーザーレーダ等の距離情報を取得する距離検出センサを利用する方法も用いられている。これは、距離検出センサを移動体に搭載し、移動体と障害物との相対距離を検出して移動体周囲の障害物情報を取得し、これに基づいて遠隔地のオペレータが移動体を遠隔操作するものであり、障害物の回避判断に優れた方法である。
しかし、距離検出センサは、検出波が反射する障害物の一点についてのみの相対距離情報を出力するものであり、出力可能な情報量に乏しく、複雑な環境には対応できないという問題があった。
As another remote operation method, a method using a distance detection sensor that acquires distance information such as an ultrasonic sensor, an infrared sensor, or a laser radar is also used. This is because the distance detection sensor is mounted on the moving body, the relative distance between the moving body and the obstacle is detected to acquire the obstacle information around the moving body, and based on this, the remote operator remotely moves the moving body. It is an operation method and is an excellent method for judging avoidance of obstacles.
However, the distance detection sensor outputs relative distance information about only one point of an obstacle that the detection wave reflects, and there is a problem that the amount of information that can be output is small and it cannot cope with a complicated environment.

そこで、特許文献1(特開平11−149315号公報)では、移動体が具備するCCDカメラ等の撮像手段により取得した静止画像に、予め設定された移動体の移動範囲に対応した二次元地図情報を透視図として重畳させた画像を画像表示器に表示する方法が開示されている。これにより、撮像手段による静止画像に距離感を補足することができ、遠隔操作が容易となる。但し、この方法の問題点は、予め移動する場所の地図情報が必要であることで、偵察ロボット等のように予め移動する場所の地図が必ずしも入手できない場合には適用できない。   Therefore, in Patent Document 1 (Japanese Patent Application Laid-Open No. 11-149315), two-dimensional map information corresponding to a preset moving range of a moving object is added to a still image acquired by an imaging unit such as a CCD camera provided in the moving object. Discloses a method of displaying an image superimposed on the image display device as a perspective view. Thereby, a sense of distance can be supplemented to the still image by the imaging means, and remote operation becomes easy. However, the problem of this method is that it is not applicable when a map of a place to move in advance, such as a reconnaissance robot, is not always available because map information of a place to move to is necessary.

また、特許文献2(特表2003−532218号公報)には、遠隔操作者に提示する方法として、カメラ画像、パノラマ画像、オーバビュー画像、或いはロボットの姿勢等の様々な情報を1画面に提示して、操作者が操作し易いユーザインタフェースを提案している。
しかし、偵察ロボット等のように狭隘部や障害物が多く存在するような屋内の移動を想定した場合、これらの生情報だけでは、狭隘部をロボットが通過可能か否かが定量的に提示されないため、移動体の操作については操作者の堪に頼らざるを得ず、正確さに欠けるという問題があった。
In Patent Document 2 (Japanese Patent Publication No. 2003-532218), various information such as a camera image, a panoramic image, an overview image, or a robot posture is presented on one screen as a method for presenting to a remote operator. Thus, a user interface that is easy for an operator to operate is proposed.
However, when assuming indoor movement where there are many narrow spaces and obstacles, such as reconnaissance robots, it is not possible to quantitatively present whether or not the robot can pass through the narrow space only with these raw information. Therefore, there has been a problem that the operation of the moving body has to rely on the operator's satisfaction and lacks accuracy.

特開平11−149315号公報JP-A-11-149315 特表2003−532218号公報Special table 2003-532218 gazette

従って、本発明は上記従来技術の問題点に鑑み、遠隔操作者が移動体の走行環境に関する情報を予め知らない場合においても、移動体周囲の状況を正確に把握することができ、容易に遠隔操作を行なうことができる移動体の遠隔操作支援方法及びシステムを提供することを目的とする。   Therefore, in view of the above-mentioned problems of the prior art, the present invention can accurately grasp the situation around the moving body even when the remote operator does not know the information related to the traveling environment of the moving body in advance. It is an object of the present invention to provide a remote operation support method and system for a moving body that can be operated.

そこで、本発明はかかる課題を解決するために、
周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとが搭載され、遠隔操作部の遠隔操作により移動する移動体の遠隔操作を支援する方法において、
前記遠隔操作部にて、前記距離検出センサにより取得した障害物情報より2次元の障害物マップを生成する障害物マップ生成プロセスと、前記撮像装置により取得した画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理プロセスと、を備え、
前記画像情報と前記重畳処理された前記移動可能領域情報とを前記遠隔操作部の同一の画面上に表示することを特徴とする。
Therefore, in order to solve this problem, the present invention provides:
In a method for supporting remote operation of a moving body that is mounted with an imaging device that acquires surrounding image information and a distance detection sensor that detects a distance to an obstacle, and that is moved by remote operation of a remote operation unit,
In the remote operation unit, an obstacle map generation process for generating a two-dimensional obstacle map from the obstacle information acquired by the distance detection sensor, and image information acquired by the imaging device is extracted from the obstacle map. A superimposition process for superimposing the movable area information of the moving object,
The image information and the superposed moving area information are displayed on the same screen of the remote control unit.

本発明によれば、移動体が通過可能な方向を画像情報とともに実画面上で容易に視認できるため、操作性が向上する。即ち、移動体が撮像した画像情報のみでなく、距離検出センサにより検出した障害物情報を前記画像情報に含ませることにより、移動体の通過可能な領域を定量的に提示することができ、遠隔操作の正確性が向上する。また、これらを同一画面に表示するようにしたため、遠隔操作者が視認し易くなり操作性が向上する。
前記移動可能領域は、該移動可能領域をハッチングして示したり、画像上部或いは下部に帯状のスペースを設けて示すことなどにより表示することができる。また、ハッチング以外に、障害物までの距離や移動速度に応じて通過可能性を色別、或いは濃淡の変化により示すこともできる。尚、前記移動可能領域を表示する際には、障害物の存在する移動不可領域を上記したような方法により他と区別することにより移動可能領域を示すようにしても良い。
According to the present invention, since the direction in which the moving body can pass can be easily visually confirmed on the real screen together with the image information, the operability is improved. That is, by including not only the image information captured by the moving body but also the obstacle information detected by the distance detection sensor in the image information, it is possible to quantitatively present a region through which the moving body can pass. Operation accuracy is improved. Further, since these are displayed on the same screen, the remote operator can easily see and the operability is improved.
The movable area can be displayed by hatching the movable area, or by providing a band-like space at the top or bottom of the image. In addition to hatching, the possibility of passing according to the distance to the obstacle and the moving speed can also be indicated by color or change in shade. When the movable area is displayed, the movable area may be indicated by distinguishing the non-movable area where the obstacle is present from others by the method described above.

また、前記障害物マップと前記移動体の移動軌跡を前記遠隔操作部のデータベースに逐次蓄積し、前記遠隔操作部にて該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成プロセスを備え、該移動地図を他の画面上に表示することを特徴とする。
このように、移動体の移動に伴い過去の障害物マップ及び移動軌跡を蓄積し、移動地図を生成することにより、移動体の走行環境の地図を予め入手できない場合でも、前記移動地図を前記移動可能領域が重畳された画像情報と併用することで操作状況を簡単に把握することができ、操作性が向上する。
Further, the obstacle map and the movement trajectory of the moving body are sequentially accumulated in a database of the remote operation unit, and a plurality of obstacle maps accumulated in the database are fused in the remote operation unit, and the moving body And a moving map generation process for generating a two-dimensional moving map by providing the moving locus, and displaying the moving map on another screen.
In this way, past obstacle maps and movement trajectories are accumulated along with the movement of the moving body, and a moving map is generated, so that the moving map can be moved even if the traveling environment map cannot be obtained in advance. By using together with the image information on which the possible area is superimposed, the operation state can be easily grasped, and the operability is improved.

さらに、前記重畳処理プロセスにて、前記画像情報に前記移動可能領域情報を重畳処理する選択が行なわれた場合にのみ該重畳処理をすることを特徴とする。
これによれば、画面上に前記移動可能領域を表示しないようにできるため、明瞭な画像情報により作業を行なう必要が生じた場合に、実画面の視認性に影響を与えることなく操作者が画像情報を容易に確認できる。
Further, the superimposing process is performed only when selection is made to superimpose the movable area information on the image information in the superimposing process.
According to this, since the movable area can be prevented from being displayed on the screen, the operator can view the image without affecting the visibility of the real screen when the work needs to be performed with clear image information. Information can be easily confirmed.

またシステムの発明として、周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとを備え、遠隔操作により移動する移動体と、
前記画像情報を表示する画像表示装置と、前記移動体の操作指示を入力する操作器とを備え、前記移動体を遠隔操作する遠隔操作部と、からなる移動体の遠隔操作支援システムにおいて、
前記遠隔操作部が、前記距離検出センサにより取得した障害物情報に基づき2次元の障害物マップを生成する障害物マップ生成装置と、前記画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理装置と、を備え、
前記画像表示装置の一の画面上に、前記画像情報と前記重畳処理装置にて重畳処理された前記移動可能領域情報とを同時に表示することを特徴とする。
Further, as an invention of the system, a moving body that includes an imaging device that acquires surrounding image information, a distance detection sensor that detects a distance to an obstacle, and moves by remote operation,
In a remote operation support system for a moving body, comprising: an image display device that displays the image information; and an operating device that inputs an operation instruction for the moving body, and a remote operation unit that remotely operates the moving body.
An obstacle map generation device that generates a two-dimensional obstacle map based on the obstacle information acquired by the distance detection sensor by the remote control unit, and a movable body that is extracted from the obstacle map in the image information is movable A superimposition processing device that superimposes region information,
The image information and the movable area information superimposed by the superimposing processor are simultaneously displayed on one screen of the image display device.

また、前記遠隔操作部が、前記障害物マップと前記移動体の移動軌跡を蓄積するデータベースと、該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成装置とを備え、該移動地図を前記画像表示装置の他の画面上に表示することを特徴とする。
さらに、前記重畳処理装置が、前記画像情報に前記移動可能領域情報を重畳処理するか否かを選択する選択手段を備えたことを特徴とする。
In addition, the remote control unit fuses the obstacle map and a database that accumulates the movement trajectory of the moving object, and a plurality of obstacle maps accumulated in the database, and provides the movement trajectory of the moving object. A moving map generating device for generating a two-dimensional moving map, and displaying the moving map on another screen of the image display device.
Furthermore, the superposition processing device further comprises selection means for selecting whether to superimpose the movable area information on the image information.

さらにまた、前記遠隔操作部が、前記画像表示装置に表示された重畳画像に基づき前記移動体の移動目標点を教示する教示手段を備えたことを特徴とする。
これは、通信に時間遅れがあり遠隔操作部によるリアルタイムの遠隔操縦が困難な状況などにおいて、予め移動目標点を一又は複数教示しておくことにより移動体を円滑に移動させることが可能となる。
Furthermore, the remote control unit includes teaching means for teaching a moving target point of the moving body based on a superimposed image displayed on the image display device.
This makes it possible to smoothly move the moving object by teaching one or more moving target points in advance in situations where there is a time delay in communication and real-time remote control by the remote control unit is difficult. .

また、前記遠隔操作部が、前記移動可能領域内における前記移動体の移動予測位置を算出して前記画像表示装置に表示された重畳画像に該移動予測位置を表示する手段を備えたことを特徴とする。
このように、移動体が通過するイメージを実画面上で遠隔操作者にシミュレーションにて提示することで、操作者がそのイメージを容易に確認することが可能となる。
Further, the remote operation unit includes means for calculating a predicted movement position of the mobile body in the movable region and displaying the predicted movement position on a superimposed image displayed on the image display device. And
Thus, by presenting the image through which the moving body passes to the remote operator on the real screen by simulation, the operator can easily confirm the image.

以上記載のごとく本発明によれば、移動体が通過可能な方向を画像情報とともに実画面上で容易に視認できるため、操作性が向上する。即ち、移動体が撮像した画像情報のみでなく、距離検出センサにより検出した障害物情報を前記画像情報に含ませることにより、移動体の通過可能な領域を定量的に提示することができ、遠隔操作の正確性が向上する。また、これらを同一画面に表示するようにしたため、遠隔操作者が視認し易くなり操作性が向上する。
また、移動体の移動に伴い過去の障害物マップ及び移動軌跡を蓄積し、移動地図を生成することにより、移動体の走行環境の地図を予め入手できない場合でも、前記移動地図を前記移動可能領域が重畳された画像情報と併用することで操作状況を簡単に把握することができ、操作性が向上する。
さらに、画像情報に移動可能領域情報を重畳処理する選択が行なわれた場合にのみ該重畳処理をすることにより、画面上に前記移動可能領域情報を表示しないようにすることができるため、明瞭な画像情報により作業を行なう必要が生じた場合に、実画面の視認性に影響を与えることなく操作者が画像情報を容易に確認できる。
As described above, according to the present invention, the direction in which the moving body can pass can be easily visually confirmed on the real screen together with the image information, so that the operability is improved. That is, by including not only the image information captured by the moving body but also the obstacle information detected by the distance detection sensor in the image information, it is possible to quantitatively present a region through which the moving body can pass. Operation accuracy is improved. Further, since these are displayed on the same screen, the remote operator can easily see and the operability is improved.
In addition, by accumulating past obstacle maps and movement trajectories as the moving body moves and generating a moving map, the moving map can be moved to the movable area even when the traveling environment map cannot be obtained in advance. By using together with the image information on which is superimposed, the operation status can be easily grasped, and the operability is improved.
Furthermore, since the superimposing process is performed only when the selection for superimposing the movable area information on the image information is performed, the movable area information can be prevented from being displayed on the screen. When it becomes necessary to perform work based on image information, the operator can easily confirm the image information without affecting the visibility of the actual screen.

以下、図面を参照して本発明の好適な実施例を例示的に詳しく説明する。但しこの実施例に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、この発明の範囲をそれに限定する趣旨ではなく、単なる説明例に過ぎない。
本実施例では、移動体として未知な作業空間にて情報収集を行なう偵察ロボット等のロボットを一例として採用している。ここでロボットとは、マニピュレーション機能を有する機械であっても良いし、有さないものであっても良い。また本実施例において、ロボットの走行環境は限定されるものではないが、特に障害物や狭隘部が存在する室内空間において、本実施例の遠隔操作支援システムを好適に用いることができる。
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative arrangements, and the like of the components described in this embodiment are not intended to limit the scope of the present invention unless otherwise specified, but are merely illustrative examples. Not too much.
In this embodiment, a robot such as a reconnaissance robot that collects information in an unknown work space as a moving body is used as an example. Here, the robot may be a machine having a manipulation function or may not be a machine. In the present embodiment, the traveling environment of the robot is not limited, but the remote operation support system of the present embodiment can be suitably used particularly in an indoor space where an obstacle or a narrow portion exists.

図1乃至図5に本実施例1に係る遠隔操作支援システムに係わる図を示す。
図1は、本発明の実施例1に係る遠隔操作支援システムの画面表示処理について説明する図で、画像情報を表示した表示画面(a)、及び距離検出センサ情報に基づき生成した障害物マップ(b)、画像情報に移動可能領域を重畳した表示画面(c)、図2は本実施例に用いられるロボットの斜視図、図3は図1(b)の障害物マップから生成した2次元移動地図、図4は本実施例に係る遠隔操作支援システムの全体ブロック図、図5は本実施例に係る遠隔操作支援アルゴリズムを示すフローチャートである。
1 to 5 show diagrams relating to a remote operation support system according to the first embodiment.
FIG. 1 is a diagram for explaining a screen display process of the remote operation support system according to the first embodiment of the present invention, in which a display screen (a) displaying image information and an obstacle map (based on distance detection sensor information) b) a display screen (c) in which a movable region is superimposed on image information, FIG. 2 is a perspective view of a robot used in this embodiment, and FIG. 3 is a two-dimensional movement generated from the obstacle map of FIG. FIG. 4 is an overall block diagram of the remote operation support system according to the present embodiment, and FIG. 5 is a flowchart showing a remote operation support algorithm according to the present embodiment.

図4に示されるように、本実施例に係るシステムは、遠隔操作者により各種指令の入力等が行なわれる遠隔操作装置10と、前記遠隔操作者の指令により無人走行を行なうロボット50と、からなる。
図4及び図3に示されるように、前記ロボット50は、該ロボット50に搭載された通信装置51と、撮像装置52と、距離検出センサ53と、該ロボット50の駆動系を構成する駆動装置54と駆動制御装置55と、を備えている。
前記通信装置51は、無線LAN等の無線回線又は有線回線により直接、或いは前記回線を介してネットワークに接続して、前記遠隔操作装置10とデータ通信を行なう機能を有し、このとき前記ロボット50とは別に設けられたルータやホスト端末等の通信中継機器を経由して通信を行なうようにしても良い。
As shown in FIG. 4, the system according to the present embodiment includes a remote operation device 10 in which various commands are input by a remote operator, and a robot 50 that performs unmanned traveling in accordance with the commands from the remote operator. Become.
As shown in FIGS. 4 and 3, the robot 50 includes a communication device 51 mounted on the robot 50, an imaging device 52, a distance detection sensor 53, and a drive device that constitutes a drive system of the robot 50. 54 and a drive control device 55.
The communication device 51 has a function of performing data communication with the remote operation device 10 directly or via a wireless line such as a wireless LAN or a wired line or connected to a network via the line. At this time, the robot 50 Alternatively, communication may be performed via a communication relay device such as a router or a host terminal provided separately.

前記撮像装置52は、ロボット50の周囲の光景を電気信号として取り込み、アナログ信号からデジタル信号に変換し、必要に応じて圧縮処理を施して画像情報として前記通信装置51を介して前記遠隔操作装置10に送信する。該撮像装置52には、例えばCCDカメラ等を用いることができ、取得する画像情報は動画像であっても静止画像であっても良い。
前記距離検出センサ53は、少なくとも前記ロボット50の前方に存在する障害物と前記距離検出センサ53との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得する機能を有する。該距離検出センサ53には、例えば赤外線センサ、超音波センサ、レーザーレーダ等を用いることができ、好適にはロボット50を中心として放射状に複数設けると良く、また異なる種類のセンサに協調性を持たせて複数設けることも好ましい。
The imaging device 52 captures a scene around the robot 50 as an electrical signal, converts the analog signal into a digital signal, performs compression processing as necessary, and outputs the image information as the image information via the communication device 51. 10 to send. For example, a CCD camera or the like can be used for the imaging device 52, and the acquired image information may be a moving image or a still image.
The distance detection sensor 53 detects a distance between at least an obstacle present in front of the robot 50 and the distance detection sensor 53, and acquires a relative position of the obstacle present in the sensor detection range. It has a function. As the distance detection sensor 53, for example, an infrared sensor, an ultrasonic sensor, a laser radar, or the like can be used. Preferably, a plurality of radial sensors are provided around the robot 50, and different types of sensors have cooperation. It is also preferable to provide a plurality.

前記駆装置54は、ロボット50が走行するための手段であり、例えば車輪、キャタピラ、脚等を用いることができるが、本実施例では一例として4輪型の車輪を適用した場合を示した。該駆動装置54は、前記遠隔操作装置10からの指令に基づき、前記駆動制御装置55により回転速度とステアリング角とが制御される。尚、前記駆動装置54には、車輪の回転数を検出するエンコーダと、走行方向を検出するジャイロを設け、該回転数及び走行方向からロボットの絶対位置と進行方向とを求めるデッドレコニング装置を付設しても良い。   The driving device 54 is a means for the robot 50 to travel. For example, a wheel, a caterpillar, a leg, or the like can be used. In this embodiment, a case where a four-wheeled wheel is applied is shown as an example. In the drive device 54, the rotational speed and the steering angle are controlled by the drive control device 55 based on a command from the remote control device 10. The drive device 54 is provided with an encoder for detecting the rotational speed of the wheel and a gyro for detecting the traveling direction, and a dead reckoning device for obtaining the absolute position and traveling direction of the robot from the rotational speed and the traveling direction is attached. You may do it.

また、前記遠隔操作装置10は、通信装置11と、画像処理装置12と、重畳処理装置13と、障害物マップ生成装置14と、データベース15と、自己位置標定装置16と、移動地図及び軌跡生成装置17と、切換えスイッチ18と、画像表示装置19と、操作器20と、を備えている。
前記通信装置11は、無線LAN等の無線回線又は有線回線により直接、或いは前記回線を介してネットワークに接続して、前記ロボット50とデータ通信を行なう機能を有する。
Further, the remote operation device 10 includes a communication device 11, an image processing device 12, a superimposition processing device 13, an obstacle map generation device 14, a database 15, a self-localization device 16, a movement map and a locus generation. A device 17, a changeover switch 18, an image display device 19, and an operating device 20 are provided.
The communication device 11 has a function of performing data communication with the robot 50 directly or via a wireless line such as a wireless LAN or a wired line or connected to a network via the line.

前記画像処理装置12は、前記ロボット50に搭載された前記撮像装置52にて取得した画像情報を受信し、該画像情報を画像表示装置19に表示する際に、画面の位置、画像のズーム、照度等を調整する機能を有する。
前記障害物マップ生成装置14は、前記ロボット50に搭載された前記距離検出センサ53により取得したセンサ情報に基づき、該ロボット50の中心を基準とした障害物までの距離と方向を算出し、これにより求められた相対的な障害物の位置を2次元座標中にプロットした障害物マップを生成する。このとき、前記相対的な障害物の位置を絶対座標系に変換して障害物マップを生成しても良い。
The image processing device 12 receives the image information acquired by the imaging device 52 mounted on the robot 50, and displays the image information on the image display device 19, so that the screen position, the image zoom, It has a function to adjust illuminance and the like.
The obstacle map generation device 14 calculates the distance and direction to the obstacle based on the center of the robot 50 based on the sensor information acquired by the distance detection sensor 53 mounted on the robot 50. An obstacle map is generated by plotting relative obstacle positions obtained by the above in two-dimensional coordinates. At this time, the obstacle map may be generated by converting the relative obstacle position into an absolute coordinate system.

前記重畳処理装置13は、前記撮像装置52にて取得した画像情報に対して、前記障害物マップ生成装置14にて生成した障害物マップから抽出したロボット50の移動可能領域情報を重畳させる処理を行なう。該重畳処理は、前記通過可能領域ではなく通過不可領域を表示させるようにしても良く、その表示形態は特に限定されない。
このとき、前記通過可能領域を重畳させるか否かは、操作者からの命令に基づき決定され、前記操作器20からの入力により前記切換えスイッチ18をONにした時にのみ画像の重畳処理が行われるようにする。
前記重畳処理を行った場合の通過可能領域は、画面の色調を異ならせる、ハッチングをかける、画面上下端部に表示するなどの表示方法が採用できる。
The superimposing processor 13 superimposes the movable region information of the robot 50 extracted from the obstacle map generated by the obstacle map generator 14 on the image information acquired by the imaging device 52. Do. In the superimposition process, not the passable area but the non-passable area may be displayed, and the display form is not particularly limited.
At this time, whether or not to superimpose the passable area is determined based on a command from an operator, and image superimposition processing is performed only when the changeover switch 18 is turned on by an input from the operation device 20. Like that.
For the passable area when the superimposition process is performed, a display method such as changing the color tone of the screen, hatching, or displaying on the upper and lower ends of the screen can be adopted.

前記データベース15は、前記距離検出センサ53により取得したセンサ情報や、前記障害物マップ及び前記ロボット50の移動軌跡等を記憶させる。
前記自己位置標定装置16は、前記データベース15に登録された過去のセンサ情報に基づき、現在のロボット50と障害物との位置関係から自己位置を標定するものである。
また別の方法として、前記エンコーダにより検出された走行距離及び前記ジャイロより検出された走行方向からなるロボット50の移動実績データから、自分の位置データを更新しながら自己位置を算出しても良い。
前記移動地図及び軌跡生成装置17は、過去の障害物マップ情報と最新の障害物マップ情報とを融合して2次元の移動地図を生成するとともに、前記自己位置標定装置16により導出したロボット50の過去の移動軌跡及び現在位置を移動軌跡として付与して2次元の移動地図を生成する。
The database 15 stores sensor information acquired by the distance detection sensor 53, the obstacle map, the movement locus of the robot 50, and the like.
The self position locating device 16 positions the self position from the current positional relationship between the robot 50 and the obstacle based on past sensor information registered in the database 15.
As another method, the self position may be calculated while updating its own position data from the movement result data of the robot 50 including the travel distance detected by the encoder and the travel direction detected by the gyro.
The moving map and trajectory generating device 17 combines the past obstacle map information and the latest obstacle map information to generate a two-dimensional moving map, and the robot 50 derived by the self-positioning device 16 A two-dimensional movement map is generated by giving the past movement locus and the current position as the movement locus.

前記画像表示装置19は、遠隔操作者の選択により、ロボット50の撮像装置52より送られてくる動画像或いは静止画像等の画像情報や、前記障害物マップ生成装置14にて生成した2次元の障害物マップや、前記移動地図及び軌跡生成装置17にて生成された2次元の移動地図などが適宜表示されるようになっている。このとき、2以上の種類の画像をマルチウィンドウで表示することもできる。また、前記画像表示装置19にタッチパネル機能をもたせて、操作者が画面に触れるのみでロボット50の移動目標点等の各種情報を入力できるようにすると良く、さらに表示画像を拡大・縮小或いは並進・回転移動させて自在に表示できるものとする。該画像表示装置19としては、例えば、液晶ディスプレイ、CRTディスプレイ、或いはプラズマディスプレイ等が挙げられる。   The image display device 19 is a two-dimensional image generated by the obstacle map generation device 14 or image information such as a moving image or a still image sent from the imaging device 52 of the robot 50 according to the selection of the remote operator. An obstacle map, a two-dimensional moving map generated by the moving map and the trajectory generating device 17, and the like are appropriately displayed. At this time, two or more types of images can be displayed in a multi-window. The image display device 19 may be provided with a touch panel function so that an operator can input various information such as a movement target point of the robot 50 only by touching the screen. Further, the display image can be enlarged / reduced or translated / translated. It can be displayed freely by rotating. Examples of the image display device 19 include a liquid crystal display, a CRT display, a plasma display, and the like.

前記操作器20は、操作者により操作され、前記ロボット50の操作指令を入力するものであり、少なくとも前記ロボット50の移動方向及び移動速度を入力可能なものである。これは、例えばジョイスティック、十字キー、キーボード、マイク等を用いることができる。該操作器20にジョイスティックを採用した場合には、このジョイスティックの倒れ角及び方向からなる操作情報を読み込んで、ロボットに対してこれらの操作情報に基づいた移動命令を前記ロボット50の駆動制御装置55に送信し、これに対応する移動方向及び移動速度でロボット50が走行するように駆動装置54を制御する。   The operation device 20 is operated by an operator and inputs an operation command for the robot 50, and can input at least a moving direction and a moving speed of the robot 50. For example, a joystick, a cross key, a keyboard, a microphone, or the like can be used. When a joystick is used for the operation device 20, operation information including the tilt angle and direction of the joystick is read, and a movement command based on the operation information is read to the robot 50 by the drive control device 55 of the robot 50. And the drive unit 54 is controlled so that the robot 50 travels in the corresponding movement direction and movement speed.

次に、図1を参照して本実施例1に係る遠隔操作支援システムの画面表示処理について説明する。図1(a)は、前記遠隔操作装置10にて、前記ロボット50に搭載された撮像装置52により撮像したロボット50の周囲の画像情報100を前記画像表示装置19に表示した図である。ロボット50の走行環境は室内であり、この室内には椅子102や書棚103等の障害物が存在する。図1(b)は、前記ロボット50の距離検出センサ53により取得したセンサ情報から生成した障害物マップ104であり、該ロボット50の中心から所定距離、所定方向に検出された障害物106を×でプロットしている。図1(a)及び(b)を前記重畳処理装置13にて重畳処理した図が、図1(c)であり、これは、前記障害物マップにおける通過可能領域をハッチングで前記画像情報100に重畳して表示してある。   Next, a screen display process of the remote operation support system according to the first embodiment will be described with reference to FIG. FIG. 1A is a diagram in which image information 100 around the robot 50 imaged by the imaging device 52 mounted on the robot 50 is displayed on the image display device 19 by the remote operation device 10. The traveling environment of the robot 50 is a room, and obstacles such as a chair 102 and a bookcase 103 exist in the room. FIG. 1B is an obstacle map 104 generated from the sensor information acquired by the distance detection sensor 53 of the robot 50. The obstacle 106 detected in a predetermined distance and a predetermined direction from the center of the robot 50 is shown in FIG. Is plotted. FIG. 1C is a diagram in which FIGS. 1A and 1B are superimposed by the superimposition processor 13, and FIG. 1C is a cross-sectional view of the obstacle map in the image information 100 by hatching. It is displayed superimposed.

次に、図5を参照して本実施例1に係る遠隔操作アルゴリズムについて詳細に説明する。まず、前記ロボット50に搭載された撮像装置52にて撮像した画像情報を、前記通信装置51を介して前記遠隔操作装置10の画像処理装置12に送信する(S1)。該画像処理装置12では、前記画像情報を通信装置11を介して受信し、遠隔操作者により操作器20から入力された指示に基づき、前記画像情報を前記画像表示装置19に表示する際の位置、画面のズーム、照度等を調整する(S2)。この画像情報を前記画像表示装置19に表示した図を図1(a)に示す。
また前記撮像装置52における画像情報の取得と同時、或いは時間差を以って、前記ロボット50に搭載された距離検出センサ53にて障害物と前記ロボット50との位置関係を含むセンサ情報を検出し、該センサ情報を前記通信装置51を介して前記遠隔操作装置10の障害物マップ生成装置14に送信する(S3)。該障害物マップ生成装置14では、通信装置11を介して前記センサ情報を受信し、ロボット50の周囲の障害物マップを生成する(S4)。この障害物マップを図1(b)に示す。
Next, the remote operation algorithm according to the first embodiment will be described in detail with reference to FIG. First, image information captured by the imaging device 52 mounted on the robot 50 is transmitted to the image processing device 12 of the remote operation device 10 via the communication device 51 (S1). The image processing device 12 receives the image information via the communication device 11, and displays the image information on the image display device 19 based on an instruction input from the operation device 20 by a remote operator. Then, the zoom and illuminance of the screen are adjusted (S2). FIG. 1A shows the image information displayed on the image display device 19.
Also, sensor information including the positional relationship between the obstacle and the robot 50 is detected by the distance detection sensor 53 mounted on the robot 50 simultaneously with the acquisition of the image information in the imaging device 52 or with a time difference. The sensor information is transmitted to the obstacle map generation device 14 of the remote control device 10 via the communication device 51 (S3). The obstacle map generation device 14 receives the sensor information via the communication device 11 and generates an obstacle map around the robot 50 (S4). This obstacle map is shown in FIG.

そして、図2に示したロボット50の車幅Wと、図1(b)に示した障害物の空き幅、即ち狭隘部M、Mとを夫々比較し、W<Mとなるロボット50の通過可能領域を計算する(S5)。遠隔操作者は、移動可能領域を画面表示する場合には操作器20を操作して切換えスイッチ18をONにし、画面表示しない場合には切換えスイッチ18をOFFにしておく。
前記重畳処理装置13は、前記切換えスイッチ18がONである場合には、前記画像情報に通過可能領域を重畳する処理を行い(S7)、画面表示装置19の画面上に重畳画像を表示する(S9)。一方、前記切換えスイッチ18がOFFである場合には、画像情報に通過領域を重畳する処理を行わず(S8)、そのまま画面表示装置19の画面上に画像情報を表示する(S9)。
Then, the vehicle width W of the robot 50 shown in FIG. 2 is compared with the vacant widths of the obstacles shown in FIG. 1B, that is, the narrow portions M 1 and M 2 , respectively. Is calculated (S5). The remote operator operates the operating unit 20 to display the movable area on the screen and turns on the changeover switch 18, and turns off the changeover switch 18 when not displaying the screen.
When the changeover switch 18 is ON, the superimposition processing device 13 performs a process of superimposing a passable region on the image information (S7), and displays a superimposed image on the screen of the screen display device 19 ( S9). On the other hand, when the changeover switch 18 is OFF, the process of superimposing the passage area on the image information is not performed (S8), and the image information is displayed on the screen of the screen display device 19 as it is (S9).

図1(c)に重畳処理を行った画像情報を表示した画面を示す。同図では重畳処理により前記画像情報に通過可能領域をハッチング101にて表示したが、図6に示すように、画像上部、或いは下部に帯状のスペース109を設け、通過可能領域110を示すようにしても良い。このとき、前記スペース109に方角メモリを記すことが好ましい。また、通過可能領域の表示方法として、障害物までの距離やロボット50の移動速度に応じて、通過可能性を色別に表示、或いは濃淡を替えて表示するようにしても良い。例えば、青色:移動可能(3m以内には障害物がなく、当面移動可能)、黄色:注意(1m以上3m以内に障害物があり、暫く移動すると障害物に衝突)、赤色:警告(1m以内に障害物があり、移動すると直ちに衝突)等とする。このように、ロボット50が通過可能な方向を実画面の視認性に影響を与えることなく表示することにより、操作者が容易に確認できるようになる。   FIG. 1C shows a screen displaying image information subjected to the superimposition process. In the figure, the passable area is displayed in hatching 101 in the image information by the superimposition process. However, as shown in FIG. 6, a band-like space 109 is provided at the upper or lower part of the image so that the passable area 110 is shown. May be. At this time, it is preferable to write a direction memory in the space 109. Further, as a display method of the passable area, the passability may be displayed for each color or displayed in different shades according to the distance to the obstacle and the moving speed of the robot 50. For example, blue: moveable (no obstacles within 3m, moveable for the time being), yellow: caution (there is an obstacle between 1m and 3m, and will collide with the obstacle after moving for a while), red: warning (within 1m) If there is an obstacle in the vehicle, it will immediately collide if it moves. In this way, the operator can easily confirm the direction in which the robot 50 can pass without affecting the visibility of the real screen.

このようにして表示した画面を目視して、操作者はロボット50の通過可能な方向へ操作器20を操作し、ロボット50の駆動系へ指令を送信する(S11)。この指令に基づきロボット50は移動し(S12)、任務が終了したか否かを判断して(S13)、終了していたら処理を停止し、終了していない場合には前記画像情報及びセンサ情報を取得する処理(S1、S3)に戻る。
このように、ロボット50が通過可能な方向を、画像情報上に重畳して表示することにより、操作者が容易に操作を行なうことができるようになる。また、操作者が撮像画像と障害物マップを併せ見ることができるため、ロボットの通過可能方向を定量的に把握できる。
By visually observing the screen displayed in this way, the operator operates the operating device 20 in a direction in which the robot 50 can pass, and transmits a command to the drive system of the robot 50 (S11). Based on this command, the robot 50 moves (S12), and determines whether or not the mission is finished (S13). If it is finished, the process is stopped, and if it is not finished, the image information and sensor information. The process returns to the process (S1, S3).
In this manner, the direction in which the robot 50 can pass is displayed superimposed on the image information, so that the operator can easily perform the operation. In addition, since the operator can view both the captured image and the obstacle map, the direction in which the robot can pass can be quantitatively grasped.

また、前記障害物マップ生成装置14にて生成した障害物マップを、前記データベース15に記憶させておき(S13)、過去の障害物マップ情報と最新の障害物マップ情報とを比較してロボット50の位置を標定(S14)ようにしても良い。そして、前記データベース15に蓄積された障害物マップを融合し、標定により得られたロボット50の移動軌跡を付与した2次元の移動地図を生成することが好ましく、該移動地図を前記画像情報とともに前記画像表示装置19に表示することも可能である。図3に前記移動地図を示す。107が移動軌跡、106が障害物である。
これによれば、偵察を目的とした場合のように移動体50の走行環境の地図がない時であっても、ロボット50が移動して作る移動地図を重畳画像情報と併用して利用することにより、遠隔操作者の操作を支援することができる。
The obstacle map generated by the obstacle map generator 14 is stored in the database 15 (S13), and the past obstacle map information and the latest obstacle map information are compared with each other to determine the robot 50. The position may be oriented (S14). Then, it is preferable that the obstacle map stored in the database 15 is merged to generate a two-dimensional movement map to which the movement locus of the robot 50 obtained by the orientation is given, and the movement map is combined with the image information. It is also possible to display on the image display device 19. FIG. 3 shows the moving map. Reference numeral 107 denotes a movement locus, and reference numeral 106 denotes an obstacle.
According to this, even when there is no map of the travel environment of the moving body 50 as in the case of reconnaissance, the moving map created by the movement of the robot 50 is used in combination with the superimposed image information. Thus, the operation of the remote operator can be supported.

図7乃至図10に本実施例1に係る遠隔操作支援システムに係わる図を示す。
図7に本発明の実施例2に係る遠隔操作支援システムの画面表示処理ついて説明する図で、ロボットの移動目標点をタッチパネルで入力する場合の表示画面を示す図、図8に図7の障害物マップから生成した2次元移動地図及び地図上での移動目標点を示す図、図9に画像情報に移動可能領域を重畳するとともに、ロボットの通過をシミュレーションする場合の表示画面を示す図、図10に図9の障害物マップから生成した2次元移動地図及びロボットの移動予測点を示す図を示す。
FIGS. 7 to 10 show diagrams relating to the remote operation support system according to the first embodiment.
FIG. 7 is a diagram for explaining the screen display processing of the remote operation support system according to the second embodiment of the present invention, showing the display screen when inputting the movement target point of the robot with the touch panel, and FIG. The figure which shows the movement target point on the two-dimensional movement map and map produced | generated from the physical map, The figure which shows the display screen in the case of simulating the passage of a robot while superimposing a movable area on FIG. FIG. 10 shows a two-dimensional movement map generated from the obstacle map of FIG. 9 and a robot movement prediction point.

本実施例2に係る遠隔操作支援システムは、前記実施例1と同様の重畳処理を施した画像情報111に対してロボット50の移動目標点113を教示し、該ロボット50が移動目標点113に従って移動するように構成している。即ち、前記ロボット50に搭載された撮像装置52により取得した画像情報を通信装置51を介して遠隔操作装置の画像処理装置12に送信し、該画像処理装置12にて、通信装置11を介して前記画像情報を受信する。また前記ロボット50の距離検出センサ53により取得した障害物情報を通信装置51を介して前記遠隔操作装置10の障害物マップ生成装置14に送信し、該障害物マップ生成装置14にて、通信装置11を介して障害物情報を受信し、障害物マップを生成する。   The remote operation support system according to the second embodiment teaches the movement target point 113 of the robot 50 with respect to the image information 111 subjected to the same superimposition processing as in the first embodiment, and the robot 50 follows the movement target point 113. It is configured to move. That is, the image information acquired by the imaging device 52 mounted on the robot 50 is transmitted to the image processing device 12 of the remote control device via the communication device 51, and the image processing device 12 via the communication device 11 is transmitted. The image information is received. The obstacle information acquired by the distance detection sensor 53 of the robot 50 is transmitted to the obstacle map generation device 14 of the remote operation device 10 via the communication device 51, and the obstacle map generation device 14 uses the communication device. The obstacle information is received via 11, and an obstacle map is generated.

そして、前記障害物マップからロボット50の通過可能領域112を抽出して前記画像情報111にハッチングにて表示する。さらに、本実施例では、遠隔操作者が前記操作器20、或いはタッチパネルで前記移動可能領域112内に移動目標点113を一又は複数教示する。中間目標点を含めた複数の移動目標点を教示した場合には距離が短い順にロボット50が移動するようにする。
図8に示されるように、これに対応して前記移動地図にも同様に移動目標点113が表示されるようにすると良い。
このように、移動目標点113を一又は複数教示することにより、通信に時間遅れがあり操作器20等によるリアルタイムの遠隔操縦が難しい状況において、ロボット50を円滑に移動させることが可能となる。
Then, the passable area 112 of the robot 50 is extracted from the obstacle map and displayed in the image information 111 by hatching. Furthermore, in this embodiment, the remote operator teaches one or a plurality of movement target points 113 in the movable area 112 with the operation device 20 or the touch panel. When a plurality of moving target points including intermediate target points are taught, the robot 50 is moved in order of increasing distance.
As shown in FIG. 8, it is preferable that the movement target point 113 is similarly displayed on the movement map correspondingly.
Thus, by teaching one or more movement target points 113, it is possible to smoothly move the robot 50 in a situation where there is a time delay in communication and it is difficult to perform real-time remote control by the operation device 20 or the like.

また、図9に示されるように、移動可能領域115をハッチングにより重畳した画像情報114中に、該移動可能領域115内の方向にロボット50が移動する様子を事前にシミュレートするようにしても良い。これは、現時点でのロボット50の位置から、ΔT、ΔT後のロボットの位置を移動速度及び方向に基づき夫々算出し、ΔT後のロボット50’、ΔT後のロボット50”を画像情報114中に表示する。
さらに、図10に示されるように、前記移動地図中にΔT後のロボット50’、ΔT後のロボット50”の位置を表示することも好適である。
このように、ロボット50が通過するイメージを実画面上で操作者に提示することで、操作者が操作イメージを容易に確認することができる。
In addition, as shown in FIG. 9, in the image information 114 in which the movable area 115 is superimposed by hatching, it is possible to simulate in advance how the robot 50 moves in the direction within the movable area 115. good. This calculates the position of the robot after ΔT 1 and ΔT 2 based on the moving speed and direction from the current position of the robot 50, and images the robot 50 ′ after ΔT 1 and the robot 50 ″ after ΔT 2. Displayed in information 114.
Furthermore, as shown in FIG. 10, it is also preferable to display the positions of the robot 50 ′ after ΔT 1 and the robot 50 ″ after ΔT 2 in the moving map.
Thus, the operator can easily confirm the operation image by presenting the image through which the robot 50 passes to the operator on the real screen.

本発明における移動体の遠隔操作支援システムは、移動体によるプラントや工場等の巡廻監視等に適用することができる。また、移動体の移動環境の地図を予め取得しておく必要がないため、例えば濃煙や有毒ガス等で作業員による建物内部状況の確認が困難な災害現場や、狭い場所等のように作業員が侵入困難な場所にて情報収集を行なう偵察ロボットの遠隔操作支援に適している。   The mobile body remote operation support system according to the present invention can be applied to patrol monitoring of a plant or factory by the mobile body. In addition, since it is not necessary to obtain a map of the moving environment of the moving body in advance, work can be performed in a disaster site or a narrow place where it is difficult for workers to check the internal situation of the building with dense smoke or toxic gas. Suitable for remote operation support of reconnaissance robots that collect information in places where it is difficult for personnel to enter.

本発明の実施例1に係る遠隔操作支援システムの画面表示処理について説明する図で、画像情報を表示した表示画面(a)、及び距離検出センサ情報に基づき生成した障害物マップ(b)、画像情報に移動可能領域を重畳した表示画面(c)である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure explaining the screen display process of the remote operation assistance system which concerns on Example 1 of this invention, the display screen (a) which displayed image information, the obstacle map (b) produced | generated based on distance detection sensor information, and an image It is the display screen (c) which superimposed the movable area | region on information. 本実施例に用いられるロボットの斜視図である。It is a perspective view of the robot used for a present Example. 図1(b)の障害物マップから生成した2次元移動地図を示す図である。It is a figure which shows the two-dimensional movement map produced | generated from the obstacle map of FIG.1 (b). 本実施例に係る遠隔操作支援システムの全体ブロック図である。1 is an overall block diagram of a remote operation support system according to an embodiment. 本実施例に係る遠隔操作支援アルゴリズムを示すフローチャートである。It is a flowchart which shows the remote operation assistance algorithm which concerns on a present Example. 図1(c)の別の実施例に係る画像情報に移動可能領域を重畳した表示画面を示す。The display screen which superimposed the movable area | region on the image information which concerns on another Example of FIG.1 (c) is shown. 本発明の実施例2に係る遠隔操作支援システムの画面表示処理ついて説明する図で、ロボットの移動目標点をタッチパネルで入力する場合の表示画面を示す。It is a figure explaining the screen display process of the remote operation assistance system which concerns on Example 2 of this invention, and shows the display screen in case the movement target point of a robot is input with a touch panel. 図7の障害物マップから生成した2次元移動地図及び該地図上での移動目標点を示す図である。It is a figure which shows the two-dimensional movement map produced | generated from the obstacle map of FIG. 7, and the movement target point on this map. 画像情報に移動可能領域を重畳するとともに、ロボットの通過をシミュレーションする場合の表示画面を示す図である。It is a figure which shows the display screen in the case of simulating the passage of a robot while superimposing a movable area on image information. 図9の障害物マップから生成した2次元移動地図及びロボットの移動予測点を示す図である。It is a figure which shows the two-dimensional movement map produced | generated from the obstacle map of FIG. 9, and the movement prediction point of a robot.

符号の説明Explanation of symbols

10 遠隔操作装置
12 画像処理装置
13 重畳処理装置
14 障害物マップ生成装置
15 データベース
16 自己位置標定装置
17 移動地図及び軌跡生成装置
18 切換え装置
19 画像表示装置
20 操作器
50 ロボット
52 撮像装置
53 距離検出センサ
100、108、111、114 画像情報表示画面
101、105、110、112 通過可能領域
113 移動目標点
DESCRIPTION OF SYMBOLS 10 Remote operation device 12 Image processing device 13 Superimposition processing device 14 Obstacle map generation device 15 Database 16 Self-localization device 17 Moving map and locus generation device 18 Switching device 19 Image display device 20 Operator 50 Robot 52 Imaging device 53 Distance detection Sensor 100, 108, 111, 114 Image information display screen 101, 105, 110, 112 Passable region 113 Moving target point

Claims (8)

周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとが搭載され、遠隔操作部の遠隔操作により移動する移動体の遠隔操作を支援する方法において、
前記遠隔操作部にて、前記距離検出センサにより取得した障害物情報より2次元の障害物マップを生成する障害物マップ生成プロセスと、前記撮像装置により取得した画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理プロセスと、を備え、
前記画像情報と前記重畳処理された前記移動可能領域情報とを前記遠隔操作部の同一の画面上に表示することを特徴とする移動体の遠隔操作支援方法。
In a method for supporting remote operation of a moving body that is mounted with an imaging device that acquires surrounding image information and a distance detection sensor that detects a distance to an obstacle, and that is moved by remote operation of a remote operation unit,
In the remote operation unit, an obstacle map generation process for generating a two-dimensional obstacle map from the obstacle information acquired by the distance detection sensor, and image information acquired by the imaging device is extracted from the obstacle map. A superimposition process for superimposing the movable area information of the moving object,
A method for supporting remote operation of a moving object, comprising: displaying the image information and the movable area information subjected to the superimposition processing on the same screen of the remote operation unit.
前記障害物マップと前記移動体の移動軌跡を前記遠隔操作部のデータベースに逐次蓄積し、前記遠隔操作部にて該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成プロセスを備え、該移動地図を他の画面上に表示することを特徴とする請求項1記載の移動体の遠隔操作支援方法。   The obstacle map and the movement trajectory of the moving body are sequentially stored in the database of the remote control unit, and a plurality of obstacle maps stored in the database are fused in the remote control unit, and the movement of the moving body is performed. The method of claim 1, further comprising a moving map generation process for generating a two-dimensional moving map by providing a locus, and displaying the moving map on another screen. 前記重畳処理プロセスにて、前記画像情報に前記移動可能領域情報を重畳処理する選択が行なわれた場合にのみ該重畳処理をすることを特徴とする請求項1記載の移動体の遠隔操作支援方法。   The remote operation support method for a moving body according to claim 1, wherein the superimposition process is performed only when selection is made to superimpose the movable area information on the image information in the superimposition process. . 周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとを備え、遠隔操作により移動する移動体と、
前記画像情報を表示する画像表示装置と、前記移動体の操作指示を入力する操作器とを備え、前記移動体を遠隔操作する遠隔操作部と、からなる移動体の遠隔操作支援システムにおいて、
前記遠隔操作部が、前記距離検出センサにより取得した障害物情報に基づき2次元の障害物マップを生成する障害物マップ生成装置と、前記画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理装置と、を備え、
前記画像表示装置の一の画面上に、前記画像情報と前記重畳処理装置にて重畳処理された前記移動可能領域情報とを同時に表示することを特徴とする移動体の遠隔操作支援システム。
A moving body that includes an imaging device that acquires surrounding image information, a distance detection sensor that detects a distance to an obstacle, and moves by remote operation;
In a remote operation support system for a moving body, comprising: an image display device that displays the image information; and an operating device that inputs an operation instruction for the moving body, and a remote operation unit that remotely operates the moving body.
An obstacle map generation device that generates a two-dimensional obstacle map based on the obstacle information acquired by the distance detection sensor by the remote control unit, and a movable body that is extracted from the obstacle map in the image information is movable A superimposition processing device that superimposes region information,
A remote operation support system for a moving object, wherein the image information and the movable area information superimposed by the superimposing processor are simultaneously displayed on one screen of the image display device.
前記遠隔操作部が、前記障害物マップと前記移動体の移動軌跡を蓄積するデータベースと、該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成装置とを備え、該移動地図を前記画像表示装置の他の画面上に表示することを特徴とする請求項4記載の移動体の遠隔操作支援システム。   The remote control unit fuses the obstacle map and a database that accumulates the movement trajectory of the moving object, and a plurality of obstacle maps accumulated in the database, and gives the movement trajectory of the moving object to 2 5. The remote operation support system for a moving body according to claim 4, further comprising a moving map generating device for generating a three-dimensional moving map, and displaying the moving map on another screen of the image display device. 前記重畳処理装置が、前記画像情報に前記移動可能領域情報を重畳処理するか否かを選択する選択手段を備えたことを特徴とする請求項4記載の移動体の遠隔操作支援システム。   5. The remote operation support system for a moving body according to claim 4, wherein the superimposition processing device comprises selection means for selecting whether or not to superimpose the movable area information on the image information. 前記遠隔操作部が、前記画像表示装置に表示された重畳画像に基づき前記移動体の移動目標点を教示する教示手段を備えたことを特徴とする請求項4記載の移動体の遠隔操作支援システム。   5. The remote operation support system for a moving body according to claim 4, wherein the remote operation section includes teaching means for teaching a movement target point of the moving body based on a superimposed image displayed on the image display device. . 前記遠隔操作部が、前記移動可能領域内における前記移動体の移動予測位置を算出して前記画像表示装置に表示された重畳画像に該移動予測位置を表示する手段を備えたことを特徴とする請求項4記載の移動体の遠隔操作支援システム。   The remote control unit includes means for calculating a predicted movement position of the mobile body in the movable region and displaying the predicted movement position on a superimposed image displayed on the image display device. The remote operation support system for a moving body according to claim 4.
JP2004301386A 2004-10-15 2004-10-15 Method and system for supporting remote operation for mobile object Withdrawn JP2006113858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004301386A JP2006113858A (en) 2004-10-15 2004-10-15 Method and system for supporting remote operation for mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004301386A JP2006113858A (en) 2004-10-15 2004-10-15 Method and system for supporting remote operation for mobile object

Publications (1)

Publication Number Publication Date
JP2006113858A true JP2006113858A (en) 2006-04-27

Family

ID=36382327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004301386A Withdrawn JP2006113858A (en) 2004-10-15 2004-10-15 Method and system for supporting remote operation for mobile object

Country Status (1)

Country Link
JP (1) JP2006113858A (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007320024A (en) * 2006-06-01 2007-12-13 Samsung Electronics Co Ltd Collision prevention system, apparatus and method for remote control of mobile robot
JP2007331061A (en) * 2006-06-15 2007-12-27 Hitachi Ltd Manipulator remote control method for mobile robot system
JP2008093814A (en) * 2006-10-16 2008-04-24 Yamatake Corp Work support apparatus and method
JP2009136988A (en) * 2007-12-10 2009-06-25 Honda Motor Co Ltd Remote controller
JP2009169845A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Autonomous mobile robot and map updating method
JP2009277063A (en) * 2008-05-15 2009-11-26 National Institute Of Advanced Industrial & Technology Apparatus for drive supporting of private-use mobile vehicle
JP2010061346A (en) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd Remote control system
JP2010134499A (en) * 2008-12-02 2010-06-17 Mitsubishi Electric Corp Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program
JP2011085999A (en) * 2009-10-13 2011-04-28 Ihi Aerospace Co Ltd Remote control system
JP2011170844A (en) * 2010-01-20 2011-09-01 Ihi Aerospace Co Ltd Control method for unmanned vehicle
JP4850984B2 (en) * 2009-12-28 2012-01-11 パナソニック株式会社 Action space presentation device, action space presentation method, and program
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
WO2014125865A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Movement instruction device, computer program, movement instruction method, and mobile body system
WO2014125867A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Control device, computer program, mobile-body system, and control method
WO2014125866A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Control device, program, control method, and mobile-body system
KR101619350B1 (en) * 2015-06-15 2016-05-10 엘아이지넥스원 주식회사 Method for remote controlling unmanned moving object based on location
JP2016104512A (en) * 2016-02-29 2016-06-09 ソニー株式会社 Controller, control method, and program
JP2017021517A (en) * 2015-07-09 2017-01-26 株式会社Ihiエアロスペース Remote control system and method
WO2017033360A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Remote control manipulator system and operation method thereof
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
JP2018106676A (en) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, operated vehicle, information processing method, and program
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
KR20190063667A (en) * 2017-11-30 2019-06-10 엘지전자 주식회사 Autonomous vehicle and method of controlling the same
JP2019139468A (en) * 2018-02-09 2019-08-22 株式会社ビコー Information processor, information processing method, and program
JP2019139467A (en) * 2018-02-09 2019-08-22 株式会社ビコー Information processing device, information processing method and program
JP2019139733A (en) * 2018-08-24 2019-08-22 株式会社ビコー Information processing system, information processing device, information processing method and program
KR20190109168A (en) * 2018-03-17 2019-09-25 임진국 Multi-User Operation System and the method using Mixed Reality Device
JP2020155149A (en) * 2020-06-15 2020-09-24 ソニー株式会社 Control method and control device
JP2020192658A (en) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 Robot system and portable teaching device
JPWO2020085240A1 (en) * 2018-10-22 2021-02-15 株式会社ナイルワークス Driving route generation system, driving route generation method, driving route generation program, coordinate surveying system, and drone
JP2021151694A (en) * 2020-02-17 2021-09-30 トヨタ リサーチ インスティテュート,インコーポレイティド Systems for measuring location using robots with deformable sensors
CN113848952A (en) * 2021-10-22 2021-12-28 福建汉特云智能科技有限公司 Remote control delay judgment and obstacle pre-judgment method and robot system
JPWO2022030047A1 (en) * 2020-08-03 2022-02-10
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program
WO2023207610A1 (en) * 2022-04-25 2023-11-02 追觅创新科技(苏州)有限公司 Mapping method and apparatus, and storage medium and electronic apparatus
WO2024111680A1 (en) * 2022-11-21 2024-05-30 엘지전자 주식회사 Robot, robot control system, and robot control method
DE102023201820B4 (en) 2022-03-07 2025-01-09 Hitachi High-Tech Corporation Robot stop position adjustment device and mobile robot system

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045706A (en) * 2006-06-01 2012-03-08 Samsung Electronics Co Ltd Device and method of preventing collision for remote control of mobile robot
KR100791381B1 (en) * 2006-06-01 2008-01-07 삼성전자주식회사 Anti-collision system, apparatus and method for remote control of mobile robot
US7853372B2 (en) 2006-06-01 2010-12-14 Samsung Electronics Co., Ltd. System, apparatus, and method of preventing collision of remote-controlled mobile robot
JP2007320024A (en) * 2006-06-01 2007-12-13 Samsung Electronics Co Ltd Collision prevention system, apparatus and method for remote control of mobile robot
JP2007331061A (en) * 2006-06-15 2007-12-27 Hitachi Ltd Manipulator remote control method for mobile robot system
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
JP2008093814A (en) * 2006-10-16 2008-04-24 Yamatake Corp Work support apparatus and method
JP2009136988A (en) * 2007-12-10 2009-06-25 Honda Motor Co Ltd Remote controller
US9592610B2 (en) 2007-12-10 2017-03-14 Honda Motor Co., Ltd. Remote controller
JP2009169845A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Autonomous mobile robot and map updating method
JP2009277063A (en) * 2008-05-15 2009-11-26 National Institute Of Advanced Industrial & Technology Apparatus for drive supporting of private-use mobile vehicle
JP2010061346A (en) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd Remote control system
JP2010134499A (en) * 2008-12-02 2010-06-17 Mitsubishi Electric Corp Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program
JP2011085999A (en) * 2009-10-13 2011-04-28 Ihi Aerospace Co Ltd Remote control system
JP4850984B2 (en) * 2009-12-28 2012-01-11 パナソニック株式会社 Action space presentation device, action space presentation method, and program
US8731276B2 (en) 2009-12-28 2014-05-20 Panasonic Corporation Motion space presentation device and motion space presentation method
JP2011170844A (en) * 2010-01-20 2011-09-01 Ihi Aerospace Co Ltd Control method for unmanned vehicle
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
WO2014125865A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Movement instruction device, computer program, movement instruction method, and mobile body system
WO2014125866A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Control device, program, control method, and mobile-body system
WO2014125867A1 (en) * 2013-02-12 2014-08-21 株式会社椿本チエイン Control device, computer program, mobile-body system, and control method
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program
US11927960B2 (en) 2014-10-17 2024-03-12 Sony Group Corporation Control device, control method, and computer program
KR101619350B1 (en) * 2015-06-15 2016-05-10 엘아이지넥스원 주식회사 Method for remote controlling unmanned moving object based on location
JP2017021517A (en) * 2015-07-09 2017-01-26 株式会社Ihiエアロスペース Remote control system and method
JPWO2017033360A1 (en) * 2015-08-25 2018-06-07 川崎重工業株式会社 Remote control manipulator system and operation method thereof
WO2017033360A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Remote control manipulator system and operation method thereof
US10980606B2 (en) 2015-08-25 2021-04-20 Kawasaki Jukogyo Kabushiki Kaisha Remote-control manipulator system and method of operating the same
JP2016104512A (en) * 2016-02-29 2016-06-09 ソニー株式会社 Controller, control method, and program
JP2018106676A (en) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, operated vehicle, information processing method, and program
JP7029910B2 (en) 2016-12-22 2022-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing equipment, information processing methods and programs
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
KR20190063667A (en) * 2017-11-30 2019-06-10 엘지전자 주식회사 Autonomous vehicle and method of controlling the same
US10884412B2 (en) 2017-11-30 2021-01-05 Lg Electronics Inc. Autonomous vehicle and method of controlling the same
KR102037324B1 (en) * 2017-11-30 2019-10-28 엘지전자 주식회사 Autonomous vehicle and method of controlling the same
JP2019139468A (en) * 2018-02-09 2019-08-22 株式会社ビコー Information processor, information processing method, and program
JP2019139467A (en) * 2018-02-09 2019-08-22 株式会社ビコー Information processing device, information processing method and program
KR102480986B1 (en) * 2018-03-17 2022-12-22 임진국 Multi-User Operation System and the method using Mixed Reality Device
KR20190109168A (en) * 2018-03-17 2019-09-25 임진국 Multi-User Operation System and the method using Mixed Reality Device
JP2019139733A (en) * 2018-08-24 2019-08-22 株式会社ビコー Information processing system, information processing device, information processing method and program
JP7062314B2 (en) 2018-10-22 2022-05-06 株式会社ナイルワークス Driving route generation system, driving route generation method, driving route generation program, coordinate survey system, and drone
US12117297B2 (en) 2018-10-22 2024-10-15 Nileworks Inc. Traveling route generating system, traveling route generating method, traveling route generating program, coordinate measuring system, and drone
JPWO2020085240A1 (en) * 2018-10-22 2021-02-15 株式会社ナイルワークス Driving route generation system, driving route generation method, driving route generation program, coordinate surveying system, and drone
JP2020192658A (en) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 Robot system and portable teaching device
JP7400217B2 (en) 2019-05-30 2023-12-19 セイコーエプソン株式会社 Robot system and portable teaching device
JP2021151694A (en) * 2020-02-17 2021-09-30 トヨタ リサーチ インスティテュート,インコーポレイティド Systems for measuring location using robots with deformable sensors
JP7645655B2 (en) 2020-02-17 2025-03-14 トヨタ リサーチ インスティテュート,インコーポレイティド System for measuring position using a robot with deformable sensors.
JP2020155149A (en) * 2020-06-15 2020-09-24 ソニー株式会社 Control method and control device
JP7014261B2 (en) 2020-06-15 2022-02-01 ソニーグループ株式会社 Control method and control device
JP2022172112A (en) * 2020-08-03 2022-11-15 三菱電機株式会社 Remote control device
WO2022030047A1 (en) * 2020-08-03 2022-02-10 三菱電機株式会社 Remote control device
JPWO2022030047A1 (en) * 2020-08-03 2022-02-10
CN113848952A (en) * 2021-10-22 2021-12-28 福建汉特云智能科技有限公司 Remote control delay judgment and obstacle pre-judgment method and robot system
DE102023201820B4 (en) 2022-03-07 2025-01-09 Hitachi High-Tech Corporation Robot stop position adjustment device and mobile robot system
US12372970B2 (en) 2022-03-07 2025-07-29 Hitachi High-Tech Corporation Robot stop position setting device and mobile robot system
WO2023207610A1 (en) * 2022-04-25 2023-11-02 追觅创新科技(苏州)有限公司 Mapping method and apparatus, and storage medium and electronic apparatus
WO2024111680A1 (en) * 2022-11-21 2024-05-30 엘지전자 주식회사 Robot, robot control system, and robot control method

Similar Documents

Publication Publication Date Title
JP2006113858A (en) Method and system for supporting remote operation for mobile object
ES2443164T3 (en) Procedure and assistance system for handling robotic machines in a congested environment
JP6456584B2 (en) Perimeter monitoring equipment for work machines
WO2019138836A1 (en) Information processing device, information processing system, information processing method, and program
JP6052881B2 (en) Perimeter monitoring equipment for work machines
JPH11149315A (en) Robot control system
JP2019041261A (en) Image processing system and image processing system setting method
CN107065894B (en) Unmanned aerial vehicle, flying height control device, method, and computer-readable recording medium
KR101615687B1 (en) Collision detection robot remote control system and method thereof
JP6080568B2 (en) Monitoring system
JPWO2016189896A1 (en) Robot apparatus and movement control method of robot apparatus
JP2020142326A (en) Robot system
JPH0811071A (en) Manipulator controller
Duff et al. The development of a telerobotic rock breaker
KR101664968B1 (en) Position tracking device for riding basket of high place works car and its method
JP7574820B2 (en) Regulatory area management system, mobile object management system, regulatory area management method, and program
JPH1034570A (en) Robot remote control system
Sugasawa et al. Visualization of dump truck and excavator in bird’s-eye view by fisheye cameras and 3D range sensor
JP2009301175A (en) Monitoring method
JP3785033B2 (en) Surveillance camera control system and surveillance camera control device
JP3376029B2 (en) Robot remote control device
JP6391656B2 (en) Peripheral monitoring device for work machine and work machine
JPH08123938A (en) Monitor device for remote control
JP6368503B2 (en) Obstacle monitoring system and program
JP4558682B2 (en) Manipulator remote control method for mobile robot system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108