JP2006113858A - Method and system for supporting remote operation for mobile object - Google Patents
Method and system for supporting remote operation for mobile object Download PDFInfo
- Publication number
- JP2006113858A JP2006113858A JP2004301386A JP2004301386A JP2006113858A JP 2006113858 A JP2006113858 A JP 2006113858A JP 2004301386 A JP2004301386 A JP 2004301386A JP 2004301386 A JP2004301386 A JP 2004301386A JP 2006113858 A JP2006113858 A JP 2006113858A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- remote operation
- map
- moving
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims abstract description 23
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 230000012447 hatching Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000002341 toxic gas Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、ロボット等の移動体に搭載された撮像装置により取得した画像情報を基に遠隔地から移動体を遠隔操作する移動体の遠隔操作支援方法及びシステムに関する。 The present invention relates to a remote operation support method and system for a mobile body that remotely operates the mobile body from a remote location based on image information acquired by an imaging device mounted on the mobile body such as a robot.
従来より、各種プラント或いは工場等において、人間が立ち入るには危険な場所や人間が侵入困難な場所などを走行して目的とする作業を行なうロボット等の無人の移動体が広く導入されている。また、建物内の警備巡廻、特に夜間警備における省人化や、地震、火事等の災害時の救援作業における二次災害の防止を目的として、このような移動体の普及が強く望まれている。 Conventionally, in various plants or factories, unmanned mobile bodies such as robots that perform a desired work by running in places that are dangerous for humans to enter or places that are difficult for humans to enter are widely used. In addition, the spread of such mobiles is strongly desired for the purpose of saving labor in security patrols within buildings, especially nighttime security, and preventing secondary disasters in relief operations during disasters such as earthquakes and fires. Yes.
一般的な移動体の遠隔操作方法としては、移動体に搭載したビデオカメラ等の撮像装置により移動体前方の周囲環境を撮像して遠隔地のオペレータに送信し、オペレータ側では移動体より受信した画像情報をモニタに表示して、この画像を目視しながらジョイスティック、十字キー等の操作部にて移動体の目標速度、方向等を指令するものであった。
しかしながら、ビデオカメラの視野角は狭く、また距離感をつかみ難い等の問題があり、直視の場合に比べて操作は格段に難しく、操作者の負担も大きい。従って、操作者の技術の未熟さや疲労によってミスが生じ、移動体が障害物等の危険を回避できなかったり、周囲の人や物に衝突する惧れがある。このように、移動体周囲環境の画像情報のみに頼って移動体を遠隔操作することは困難であった。
As a general remote control method for a moving body, the surrounding environment in front of the moving body is imaged by an imaging device such as a video camera mounted on the moving body and transmitted to an operator at a remote location. The image information is displayed on a monitor, and the target speed, direction, and the like of the moving body are commanded by an operation unit such as a joystick or a cross key while viewing the image.
However, the viewing angle of the video camera is narrow and there is a problem that it is difficult to grasp a sense of distance, so that the operation is much more difficult than the case of direct viewing and the burden on the operator is large. Therefore, there is a risk that mistakes may occur due to immaturity and fatigue of the operator, and the moving body cannot avoid dangers such as obstacles, or may collide with surrounding people or objects. As described above, it has been difficult to remotely control the moving body by relying only on the image information of the environment around the moving body.
別の遠隔操作方法として、超音波センサ、赤外線センサ、或いはレーザーレーダ等の距離情報を取得する距離検出センサを利用する方法も用いられている。これは、距離検出センサを移動体に搭載し、移動体と障害物との相対距離を検出して移動体周囲の障害物情報を取得し、これに基づいて遠隔地のオペレータが移動体を遠隔操作するものであり、障害物の回避判断に優れた方法である。
しかし、距離検出センサは、検出波が反射する障害物の一点についてのみの相対距離情報を出力するものであり、出力可能な情報量に乏しく、複雑な環境には対応できないという問題があった。
As another remote operation method, a method using a distance detection sensor that acquires distance information such as an ultrasonic sensor, an infrared sensor, or a laser radar is also used. This is because the distance detection sensor is mounted on the moving body, the relative distance between the moving body and the obstacle is detected to acquire the obstacle information around the moving body, and based on this, the remote operator remotely moves the moving body. It is an operation method and is an excellent method for judging avoidance of obstacles.
However, the distance detection sensor outputs relative distance information about only one point of an obstacle that the detection wave reflects, and there is a problem that the amount of information that can be output is small and it cannot cope with a complicated environment.
そこで、特許文献1(特開平11−149315号公報)では、移動体が具備するCCDカメラ等の撮像手段により取得した静止画像に、予め設定された移動体の移動範囲に対応した二次元地図情報を透視図として重畳させた画像を画像表示器に表示する方法が開示されている。これにより、撮像手段による静止画像に距離感を補足することができ、遠隔操作が容易となる。但し、この方法の問題点は、予め移動する場所の地図情報が必要であることで、偵察ロボット等のように予め移動する場所の地図が必ずしも入手できない場合には適用できない。 Therefore, in Patent Document 1 (Japanese Patent Application Laid-Open No. 11-149315), two-dimensional map information corresponding to a preset moving range of a moving object is added to a still image acquired by an imaging unit such as a CCD camera provided in the moving object. Discloses a method of displaying an image superimposed on the image display device as a perspective view. Thereby, a sense of distance can be supplemented to the still image by the imaging means, and remote operation becomes easy. However, the problem of this method is that it is not applicable when a map of a place to move in advance, such as a reconnaissance robot, is not always available because map information of a place to move to is necessary.
また、特許文献2(特表2003−532218号公報)には、遠隔操作者に提示する方法として、カメラ画像、パノラマ画像、オーバビュー画像、或いはロボットの姿勢等の様々な情報を1画面に提示して、操作者が操作し易いユーザインタフェースを提案している。
しかし、偵察ロボット等のように狭隘部や障害物が多く存在するような屋内の移動を想定した場合、これらの生情報だけでは、狭隘部をロボットが通過可能か否かが定量的に提示されないため、移動体の操作については操作者の堪に頼らざるを得ず、正確さに欠けるという問題があった。
In Patent Document 2 (Japanese Patent Publication No. 2003-532218), various information such as a camera image, a panoramic image, an overview image, or a robot posture is presented on one screen as a method for presenting to a remote operator. Thus, a user interface that is easy for an operator to operate is proposed.
However, when assuming indoor movement where there are many narrow spaces and obstacles, such as reconnaissance robots, it is not possible to quantitatively present whether or not the robot can pass through the narrow space only with these raw information. Therefore, there has been a problem that the operation of the moving body has to rely on the operator's satisfaction and lacks accuracy.
従って、本発明は上記従来技術の問題点に鑑み、遠隔操作者が移動体の走行環境に関する情報を予め知らない場合においても、移動体周囲の状況を正確に把握することができ、容易に遠隔操作を行なうことができる移動体の遠隔操作支援方法及びシステムを提供することを目的とする。 Therefore, in view of the above-mentioned problems of the prior art, the present invention can accurately grasp the situation around the moving body even when the remote operator does not know the information related to the traveling environment of the moving body in advance. It is an object of the present invention to provide a remote operation support method and system for a moving body that can be operated.
そこで、本発明はかかる課題を解決するために、
周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとが搭載され、遠隔操作部の遠隔操作により移動する移動体の遠隔操作を支援する方法において、
前記遠隔操作部にて、前記距離検出センサにより取得した障害物情報より2次元の障害物マップを生成する障害物マップ生成プロセスと、前記撮像装置により取得した画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理プロセスと、を備え、
前記画像情報と前記重畳処理された前記移動可能領域情報とを前記遠隔操作部の同一の画面上に表示することを特徴とする。
Therefore, in order to solve this problem, the present invention provides:
In a method for supporting remote operation of a moving body that is mounted with an imaging device that acquires surrounding image information and a distance detection sensor that detects a distance to an obstacle, and that is moved by remote operation of a remote operation unit,
In the remote operation unit, an obstacle map generation process for generating a two-dimensional obstacle map from the obstacle information acquired by the distance detection sensor, and image information acquired by the imaging device is extracted from the obstacle map. A superimposition process for superimposing the movable area information of the moving object,
The image information and the superposed moving area information are displayed on the same screen of the remote control unit.
本発明によれば、移動体が通過可能な方向を画像情報とともに実画面上で容易に視認できるため、操作性が向上する。即ち、移動体が撮像した画像情報のみでなく、距離検出センサにより検出した障害物情報を前記画像情報に含ませることにより、移動体の通過可能な領域を定量的に提示することができ、遠隔操作の正確性が向上する。また、これらを同一画面に表示するようにしたため、遠隔操作者が視認し易くなり操作性が向上する。
前記移動可能領域は、該移動可能領域をハッチングして示したり、画像上部或いは下部に帯状のスペースを設けて示すことなどにより表示することができる。また、ハッチング以外に、障害物までの距離や移動速度に応じて通過可能性を色別、或いは濃淡の変化により示すこともできる。尚、前記移動可能領域を表示する際には、障害物の存在する移動不可領域を上記したような方法により他と区別することにより移動可能領域を示すようにしても良い。
According to the present invention, since the direction in which the moving body can pass can be easily visually confirmed on the real screen together with the image information, the operability is improved. That is, by including not only the image information captured by the moving body but also the obstacle information detected by the distance detection sensor in the image information, it is possible to quantitatively present a region through which the moving body can pass. Operation accuracy is improved. Further, since these are displayed on the same screen, the remote operator can easily see and the operability is improved.
The movable area can be displayed by hatching the movable area, or by providing a band-like space at the top or bottom of the image. In addition to hatching, the possibility of passing according to the distance to the obstacle and the moving speed can also be indicated by color or change in shade. When the movable area is displayed, the movable area may be indicated by distinguishing the non-movable area where the obstacle is present from others by the method described above.
また、前記障害物マップと前記移動体の移動軌跡を前記遠隔操作部のデータベースに逐次蓄積し、前記遠隔操作部にて該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成プロセスを備え、該移動地図を他の画面上に表示することを特徴とする。
このように、移動体の移動に伴い過去の障害物マップ及び移動軌跡を蓄積し、移動地図を生成することにより、移動体の走行環境の地図を予め入手できない場合でも、前記移動地図を前記移動可能領域が重畳された画像情報と併用することで操作状況を簡単に把握することができ、操作性が向上する。
Further, the obstacle map and the movement trajectory of the moving body are sequentially accumulated in a database of the remote operation unit, and a plurality of obstacle maps accumulated in the database are fused in the remote operation unit, and the moving body And a moving map generation process for generating a two-dimensional moving map by providing the moving locus, and displaying the moving map on another screen.
In this way, past obstacle maps and movement trajectories are accumulated along with the movement of the moving body, and a moving map is generated, so that the moving map can be moved even if the traveling environment map cannot be obtained in advance. By using together with the image information on which the possible area is superimposed, the operation state can be easily grasped, and the operability is improved.
さらに、前記重畳処理プロセスにて、前記画像情報に前記移動可能領域情報を重畳処理する選択が行なわれた場合にのみ該重畳処理をすることを特徴とする。
これによれば、画面上に前記移動可能領域を表示しないようにできるため、明瞭な画像情報により作業を行なう必要が生じた場合に、実画面の視認性に影響を与えることなく操作者が画像情報を容易に確認できる。
Further, the superimposing process is performed only when selection is made to superimpose the movable area information on the image information in the superimposing process.
According to this, since the movable area can be prevented from being displayed on the screen, the operator can view the image without affecting the visibility of the real screen when the work needs to be performed with clear image information. Information can be easily confirmed.
またシステムの発明として、周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとを備え、遠隔操作により移動する移動体と、
前記画像情報を表示する画像表示装置と、前記移動体の操作指示を入力する操作器とを備え、前記移動体を遠隔操作する遠隔操作部と、からなる移動体の遠隔操作支援システムにおいて、
前記遠隔操作部が、前記距離検出センサにより取得した障害物情報に基づき2次元の障害物マップを生成する障害物マップ生成装置と、前記画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理装置と、を備え、
前記画像表示装置の一の画面上に、前記画像情報と前記重畳処理装置にて重畳処理された前記移動可能領域情報とを同時に表示することを特徴とする。
Further, as an invention of the system, a moving body that includes an imaging device that acquires surrounding image information, a distance detection sensor that detects a distance to an obstacle, and moves by remote operation,
In a remote operation support system for a moving body, comprising: an image display device that displays the image information; and an operating device that inputs an operation instruction for the moving body, and a remote operation unit that remotely operates the moving body.
An obstacle map generation device that generates a two-dimensional obstacle map based on the obstacle information acquired by the distance detection sensor by the remote control unit, and a movable body that is extracted from the obstacle map in the image information is movable A superimposition processing device that superimposes region information,
The image information and the movable area information superimposed by the superimposing processor are simultaneously displayed on one screen of the image display device.
また、前記遠隔操作部が、前記障害物マップと前記移動体の移動軌跡を蓄積するデータベースと、該データベースに蓄積された複数の障害物マップを融合するとともに、前記移動体の移動軌跡を付与して2次元の移動地図を生成する移動地図生成装置とを備え、該移動地図を前記画像表示装置の他の画面上に表示することを特徴とする。
さらに、前記重畳処理装置が、前記画像情報に前記移動可能領域情報を重畳処理するか否かを選択する選択手段を備えたことを特徴とする。
In addition, the remote control unit fuses the obstacle map and a database that accumulates the movement trajectory of the moving object, and a plurality of obstacle maps accumulated in the database, and provides the movement trajectory of the moving object. A moving map generating device for generating a two-dimensional moving map, and displaying the moving map on another screen of the image display device.
Furthermore, the superposition processing device further comprises selection means for selecting whether to superimpose the movable area information on the image information.
さらにまた、前記遠隔操作部が、前記画像表示装置に表示された重畳画像に基づき前記移動体の移動目標点を教示する教示手段を備えたことを特徴とする。
これは、通信に時間遅れがあり遠隔操作部によるリアルタイムの遠隔操縦が困難な状況などにおいて、予め移動目標点を一又は複数教示しておくことにより移動体を円滑に移動させることが可能となる。
Furthermore, the remote control unit includes teaching means for teaching a moving target point of the moving body based on a superimposed image displayed on the image display device.
This makes it possible to smoothly move the moving object by teaching one or more moving target points in advance in situations where there is a time delay in communication and real-time remote control by the remote control unit is difficult. .
また、前記遠隔操作部が、前記移動可能領域内における前記移動体の移動予測位置を算出して前記画像表示装置に表示された重畳画像に該移動予測位置を表示する手段を備えたことを特徴とする。
このように、移動体が通過するイメージを実画面上で遠隔操作者にシミュレーションにて提示することで、操作者がそのイメージを容易に確認することが可能となる。
Further, the remote operation unit includes means for calculating a predicted movement position of the mobile body in the movable region and displaying the predicted movement position on a superimposed image displayed on the image display device. And
Thus, by presenting the image through which the moving body passes to the remote operator on the real screen by simulation, the operator can easily confirm the image.
以上記載のごとく本発明によれば、移動体が通過可能な方向を画像情報とともに実画面上で容易に視認できるため、操作性が向上する。即ち、移動体が撮像した画像情報のみでなく、距離検出センサにより検出した障害物情報を前記画像情報に含ませることにより、移動体の通過可能な領域を定量的に提示することができ、遠隔操作の正確性が向上する。また、これらを同一画面に表示するようにしたため、遠隔操作者が視認し易くなり操作性が向上する。
また、移動体の移動に伴い過去の障害物マップ及び移動軌跡を蓄積し、移動地図を生成することにより、移動体の走行環境の地図を予め入手できない場合でも、前記移動地図を前記移動可能領域が重畳された画像情報と併用することで操作状況を簡単に把握することができ、操作性が向上する。
さらに、画像情報に移動可能領域情報を重畳処理する選択が行なわれた場合にのみ該重畳処理をすることにより、画面上に前記移動可能領域情報を表示しないようにすることができるため、明瞭な画像情報により作業を行なう必要が生じた場合に、実画面の視認性に影響を与えることなく操作者が画像情報を容易に確認できる。
As described above, according to the present invention, the direction in which the moving body can pass can be easily visually confirmed on the real screen together with the image information, so that the operability is improved. That is, by including not only the image information captured by the moving body but also the obstacle information detected by the distance detection sensor in the image information, it is possible to quantitatively present a region through which the moving body can pass. Operation accuracy is improved. Further, since these are displayed on the same screen, the remote operator can easily see and the operability is improved.
In addition, by accumulating past obstacle maps and movement trajectories as the moving body moves and generating a moving map, the moving map can be moved to the movable area even when the traveling environment map cannot be obtained in advance. By using together with the image information on which is superimposed, the operation status can be easily grasped, and the operability is improved.
Furthermore, since the superimposing process is performed only when the selection for superimposing the movable area information on the image information is performed, the movable area information can be prevented from being displayed on the screen. When it becomes necessary to perform work based on image information, the operator can easily confirm the image information without affecting the visibility of the actual screen.
以下、図面を参照して本発明の好適な実施例を例示的に詳しく説明する。但しこの実施例に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、この発明の範囲をそれに限定する趣旨ではなく、単なる説明例に過ぎない。
本実施例では、移動体として未知な作業空間にて情報収集を行なう偵察ロボット等のロボットを一例として採用している。ここでロボットとは、マニピュレーション機能を有する機械であっても良いし、有さないものであっても良い。また本実施例において、ロボットの走行環境は限定されるものではないが、特に障害物や狭隘部が存在する室内空間において、本実施例の遠隔操作支援システムを好適に用いることができる。
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative arrangements, and the like of the components described in this embodiment are not intended to limit the scope of the present invention unless otherwise specified, but are merely illustrative examples. Not too much.
In this embodiment, a robot such as a reconnaissance robot that collects information in an unknown work space as a moving body is used as an example. Here, the robot may be a machine having a manipulation function or may not be a machine. In the present embodiment, the traveling environment of the robot is not limited, but the remote operation support system of the present embodiment can be suitably used particularly in an indoor space where an obstacle or a narrow portion exists.
図1乃至図5に本実施例1に係る遠隔操作支援システムに係わる図を示す。
図1は、本発明の実施例1に係る遠隔操作支援システムの画面表示処理について説明する図で、画像情報を表示した表示画面(a)、及び距離検出センサ情報に基づき生成した障害物マップ(b)、画像情報に移動可能領域を重畳した表示画面(c)、図2は本実施例に用いられるロボットの斜視図、図3は図1(b)の障害物マップから生成した2次元移動地図、図4は本実施例に係る遠隔操作支援システムの全体ブロック図、図5は本実施例に係る遠隔操作支援アルゴリズムを示すフローチャートである。
1 to 5 show diagrams relating to a remote operation support system according to the first embodiment.
FIG. 1 is a diagram for explaining a screen display process of the remote operation support system according to the first embodiment of the present invention, in which a display screen (a) displaying image information and an obstacle map (based on distance detection sensor information) b) a display screen (c) in which a movable region is superimposed on image information, FIG. 2 is a perspective view of a robot used in this embodiment, and FIG. 3 is a two-dimensional movement generated from the obstacle map of FIG. FIG. 4 is an overall block diagram of the remote operation support system according to the present embodiment, and FIG. 5 is a flowchart showing a remote operation support algorithm according to the present embodiment.
図4に示されるように、本実施例に係るシステムは、遠隔操作者により各種指令の入力等が行なわれる遠隔操作装置10と、前記遠隔操作者の指令により無人走行を行なうロボット50と、からなる。
図4及び図3に示されるように、前記ロボット50は、該ロボット50に搭載された通信装置51と、撮像装置52と、距離検出センサ53と、該ロボット50の駆動系を構成する駆動装置54と駆動制御装置55と、を備えている。
前記通信装置51は、無線LAN等の無線回線又は有線回線により直接、或いは前記回線を介してネットワークに接続して、前記遠隔操作装置10とデータ通信を行なう機能を有し、このとき前記ロボット50とは別に設けられたルータやホスト端末等の通信中継機器を経由して通信を行なうようにしても良い。
As shown in FIG. 4, the system according to the present embodiment includes a
As shown in FIGS. 4 and 3, the
The
前記撮像装置52は、ロボット50の周囲の光景を電気信号として取り込み、アナログ信号からデジタル信号に変換し、必要に応じて圧縮処理を施して画像情報として前記通信装置51を介して前記遠隔操作装置10に送信する。該撮像装置52には、例えばCCDカメラ等を用いることができ、取得する画像情報は動画像であっても静止画像であっても良い。
前記距離検出センサ53は、少なくとも前記ロボット50の前方に存在する障害物と前記距離検出センサ53との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得する機能を有する。該距離検出センサ53には、例えば赤外線センサ、超音波センサ、レーザーレーダ等を用いることができ、好適にはロボット50を中心として放射状に複数設けると良く、また異なる種類のセンサに協調性を持たせて複数設けることも好ましい。
The
The
前記駆装置54は、ロボット50が走行するための手段であり、例えば車輪、キャタピラ、脚等を用いることができるが、本実施例では一例として4輪型の車輪を適用した場合を示した。該駆動装置54は、前記遠隔操作装置10からの指令に基づき、前記駆動制御装置55により回転速度とステアリング角とが制御される。尚、前記駆動装置54には、車輪の回転数を検出するエンコーダと、走行方向を検出するジャイロを設け、該回転数及び走行方向からロボットの絶対位置と進行方向とを求めるデッドレコニング装置を付設しても良い。
The driving
また、前記遠隔操作装置10は、通信装置11と、画像処理装置12と、重畳処理装置13と、障害物マップ生成装置14と、データベース15と、自己位置標定装置16と、移動地図及び軌跡生成装置17と、切換えスイッチ18と、画像表示装置19と、操作器20と、を備えている。
前記通信装置11は、無線LAN等の無線回線又は有線回線により直接、或いは前記回線を介してネットワークに接続して、前記ロボット50とデータ通信を行なう機能を有する。
Further, the
The communication device 11 has a function of performing data communication with the
前記画像処理装置12は、前記ロボット50に搭載された前記撮像装置52にて取得した画像情報を受信し、該画像情報を画像表示装置19に表示する際に、画面の位置、画像のズーム、照度等を調整する機能を有する。
前記障害物マップ生成装置14は、前記ロボット50に搭載された前記距離検出センサ53により取得したセンサ情報に基づき、該ロボット50の中心を基準とした障害物までの距離と方向を算出し、これにより求められた相対的な障害物の位置を2次元座標中にプロットした障害物マップを生成する。このとき、前記相対的な障害物の位置を絶対座標系に変換して障害物マップを生成しても良い。
The
The obstacle
前記重畳処理装置13は、前記撮像装置52にて取得した画像情報に対して、前記障害物マップ生成装置14にて生成した障害物マップから抽出したロボット50の移動可能領域情報を重畳させる処理を行なう。該重畳処理は、前記通過可能領域ではなく通過不可領域を表示させるようにしても良く、その表示形態は特に限定されない。
このとき、前記通過可能領域を重畳させるか否かは、操作者からの命令に基づき決定され、前記操作器20からの入力により前記切換えスイッチ18をONにした時にのみ画像の重畳処理が行われるようにする。
前記重畳処理を行った場合の通過可能領域は、画面の色調を異ならせる、ハッチングをかける、画面上下端部に表示するなどの表示方法が採用できる。
The superimposing
At this time, whether or not to superimpose the passable area is determined based on a command from an operator, and image superimposition processing is performed only when the
For the passable area when the superimposition process is performed, a display method such as changing the color tone of the screen, hatching, or displaying on the upper and lower ends of the screen can be adopted.
前記データベース15は、前記距離検出センサ53により取得したセンサ情報や、前記障害物マップ及び前記ロボット50の移動軌跡等を記憶させる。
前記自己位置標定装置16は、前記データベース15に登録された過去のセンサ情報に基づき、現在のロボット50と障害物との位置関係から自己位置を標定するものである。
また別の方法として、前記エンコーダにより検出された走行距離及び前記ジャイロより検出された走行方向からなるロボット50の移動実績データから、自分の位置データを更新しながら自己位置を算出しても良い。
前記移動地図及び軌跡生成装置17は、過去の障害物マップ情報と最新の障害物マップ情報とを融合して2次元の移動地図を生成するとともに、前記自己位置標定装置16により導出したロボット50の過去の移動軌跡及び現在位置を移動軌跡として付与して2次元の移動地図を生成する。
The
The self
As another method, the self position may be calculated while updating its own position data from the movement result data of the
The moving map and
前記画像表示装置19は、遠隔操作者の選択により、ロボット50の撮像装置52より送られてくる動画像或いは静止画像等の画像情報や、前記障害物マップ生成装置14にて生成した2次元の障害物マップや、前記移動地図及び軌跡生成装置17にて生成された2次元の移動地図などが適宜表示されるようになっている。このとき、2以上の種類の画像をマルチウィンドウで表示することもできる。また、前記画像表示装置19にタッチパネル機能をもたせて、操作者が画面に触れるのみでロボット50の移動目標点等の各種情報を入力できるようにすると良く、さらに表示画像を拡大・縮小或いは並進・回転移動させて自在に表示できるものとする。該画像表示装置19としては、例えば、液晶ディスプレイ、CRTディスプレイ、或いはプラズマディスプレイ等が挙げられる。
The
前記操作器20は、操作者により操作され、前記ロボット50の操作指令を入力するものであり、少なくとも前記ロボット50の移動方向及び移動速度を入力可能なものである。これは、例えばジョイスティック、十字キー、キーボード、マイク等を用いることができる。該操作器20にジョイスティックを採用した場合には、このジョイスティックの倒れ角及び方向からなる操作情報を読み込んで、ロボットに対してこれらの操作情報に基づいた移動命令を前記ロボット50の駆動制御装置55に送信し、これに対応する移動方向及び移動速度でロボット50が走行するように駆動装置54を制御する。
The
次に、図1を参照して本実施例1に係る遠隔操作支援システムの画面表示処理について説明する。図1(a)は、前記遠隔操作装置10にて、前記ロボット50に搭載された撮像装置52により撮像したロボット50の周囲の画像情報100を前記画像表示装置19に表示した図である。ロボット50の走行環境は室内であり、この室内には椅子102や書棚103等の障害物が存在する。図1(b)は、前記ロボット50の距離検出センサ53により取得したセンサ情報から生成した障害物マップ104であり、該ロボット50の中心から所定距離、所定方向に検出された障害物106を×でプロットしている。図1(a)及び(b)を前記重畳処理装置13にて重畳処理した図が、図1(c)であり、これは、前記障害物マップにおける通過可能領域をハッチングで前記画像情報100に重畳して表示してある。
Next, a screen display process of the remote operation support system according to the first embodiment will be described with reference to FIG. FIG. 1A is a diagram in which
次に、図5を参照して本実施例1に係る遠隔操作アルゴリズムについて詳細に説明する。まず、前記ロボット50に搭載された撮像装置52にて撮像した画像情報を、前記通信装置51を介して前記遠隔操作装置10の画像処理装置12に送信する(S1)。該画像処理装置12では、前記画像情報を通信装置11を介して受信し、遠隔操作者により操作器20から入力された指示に基づき、前記画像情報を前記画像表示装置19に表示する際の位置、画面のズーム、照度等を調整する(S2)。この画像情報を前記画像表示装置19に表示した図を図1(a)に示す。
また前記撮像装置52における画像情報の取得と同時、或いは時間差を以って、前記ロボット50に搭載された距離検出センサ53にて障害物と前記ロボット50との位置関係を含むセンサ情報を検出し、該センサ情報を前記通信装置51を介して前記遠隔操作装置10の障害物マップ生成装置14に送信する(S3)。該障害物マップ生成装置14では、通信装置11を介して前記センサ情報を受信し、ロボット50の周囲の障害物マップを生成する(S4)。この障害物マップを図1(b)に示す。
Next, the remote operation algorithm according to the first embodiment will be described in detail with reference to FIG. First, image information captured by the
Also, sensor information including the positional relationship between the obstacle and the
そして、図2に示したロボット50の車幅Wと、図1(b)に示した障害物の空き幅、即ち狭隘部M1、M2とを夫々比較し、W<Mとなるロボット50の通過可能領域を計算する(S5)。遠隔操作者は、移動可能領域を画面表示する場合には操作器20を操作して切換えスイッチ18をONにし、画面表示しない場合には切換えスイッチ18をOFFにしておく。
前記重畳処理装置13は、前記切換えスイッチ18がONである場合には、前記画像情報に通過可能領域を重畳する処理を行い(S7)、画面表示装置19の画面上に重畳画像を表示する(S9)。一方、前記切換えスイッチ18がOFFである場合には、画像情報に通過領域を重畳する処理を行わず(S8)、そのまま画面表示装置19の画面上に画像情報を表示する(S9)。
Then, the vehicle width W of the
When the
図1(c)に重畳処理を行った画像情報を表示した画面を示す。同図では重畳処理により前記画像情報に通過可能領域をハッチング101にて表示したが、図6に示すように、画像上部、或いは下部に帯状のスペース109を設け、通過可能領域110を示すようにしても良い。このとき、前記スペース109に方角メモリを記すことが好ましい。また、通過可能領域の表示方法として、障害物までの距離やロボット50の移動速度に応じて、通過可能性を色別に表示、或いは濃淡を替えて表示するようにしても良い。例えば、青色:移動可能(3m以内には障害物がなく、当面移動可能)、黄色:注意(1m以上3m以内に障害物があり、暫く移動すると障害物に衝突)、赤色:警告(1m以内に障害物があり、移動すると直ちに衝突)等とする。このように、ロボット50が通過可能な方向を実画面の視認性に影響を与えることなく表示することにより、操作者が容易に確認できるようになる。
FIG. 1C shows a screen displaying image information subjected to the superimposition process. In the figure, the passable area is displayed in hatching 101 in the image information by the superimposition process. However, as shown in FIG. 6, a band-
このようにして表示した画面を目視して、操作者はロボット50の通過可能な方向へ操作器20を操作し、ロボット50の駆動系へ指令を送信する(S11)。この指令に基づきロボット50は移動し(S12)、任務が終了したか否かを判断して(S13)、終了していたら処理を停止し、終了していない場合には前記画像情報及びセンサ情報を取得する処理(S1、S3)に戻る。
このように、ロボット50が通過可能な方向を、画像情報上に重畳して表示することにより、操作者が容易に操作を行なうことができるようになる。また、操作者が撮像画像と障害物マップを併せ見ることができるため、ロボットの通過可能方向を定量的に把握できる。
By visually observing the screen displayed in this way, the operator operates the operating
In this manner, the direction in which the
また、前記障害物マップ生成装置14にて生成した障害物マップを、前記データベース15に記憶させておき(S13)、過去の障害物マップ情報と最新の障害物マップ情報とを比較してロボット50の位置を標定(S14)ようにしても良い。そして、前記データベース15に蓄積された障害物マップを融合し、標定により得られたロボット50の移動軌跡を付与した2次元の移動地図を生成することが好ましく、該移動地図を前記画像情報とともに前記画像表示装置19に表示することも可能である。図3に前記移動地図を示す。107が移動軌跡、106が障害物である。
これによれば、偵察を目的とした場合のように移動体50の走行環境の地図がない時であっても、ロボット50が移動して作る移動地図を重畳画像情報と併用して利用することにより、遠隔操作者の操作を支援することができる。
The obstacle map generated by the
According to this, even when there is no map of the travel environment of the moving
図7乃至図10に本実施例1に係る遠隔操作支援システムに係わる図を示す。
図7に本発明の実施例2に係る遠隔操作支援システムの画面表示処理ついて説明する図で、ロボットの移動目標点をタッチパネルで入力する場合の表示画面を示す図、図8に図7の障害物マップから生成した2次元移動地図及び地図上での移動目標点を示す図、図9に画像情報に移動可能領域を重畳するとともに、ロボットの通過をシミュレーションする場合の表示画面を示す図、図10に図9の障害物マップから生成した2次元移動地図及びロボットの移動予測点を示す図を示す。
FIGS. 7 to 10 show diagrams relating to the remote operation support system according to the first embodiment.
FIG. 7 is a diagram for explaining the screen display processing of the remote operation support system according to the second embodiment of the present invention, showing the display screen when inputting the movement target point of the robot with the touch panel, and FIG. The figure which shows the movement target point on the two-dimensional movement map and map produced | generated from the physical map, The figure which shows the display screen in the case of simulating the passage of a robot while superimposing a movable area on FIG. FIG. 10 shows a two-dimensional movement map generated from the obstacle map of FIG. 9 and a robot movement prediction point.
本実施例2に係る遠隔操作支援システムは、前記実施例1と同様の重畳処理を施した画像情報111に対してロボット50の移動目標点113を教示し、該ロボット50が移動目標点113に従って移動するように構成している。即ち、前記ロボット50に搭載された撮像装置52により取得した画像情報を通信装置51を介して遠隔操作装置の画像処理装置12に送信し、該画像処理装置12にて、通信装置11を介して前記画像情報を受信する。また前記ロボット50の距離検出センサ53により取得した障害物情報を通信装置51を介して前記遠隔操作装置10の障害物マップ生成装置14に送信し、該障害物マップ生成装置14にて、通信装置11を介して障害物情報を受信し、障害物マップを生成する。
The remote operation support system according to the second embodiment teaches the
そして、前記障害物マップからロボット50の通過可能領域112を抽出して前記画像情報111にハッチングにて表示する。さらに、本実施例では、遠隔操作者が前記操作器20、或いはタッチパネルで前記移動可能領域112内に移動目標点113を一又は複数教示する。中間目標点を含めた複数の移動目標点を教示した場合には距離が短い順にロボット50が移動するようにする。
図8に示されるように、これに対応して前記移動地図にも同様に移動目標点113が表示されるようにすると良い。
このように、移動目標点113を一又は複数教示することにより、通信に時間遅れがあり操作器20等によるリアルタイムの遠隔操縦が難しい状況において、ロボット50を円滑に移動させることが可能となる。
Then, the
As shown in FIG. 8, it is preferable that the
Thus, by teaching one or more movement target points 113, it is possible to smoothly move the
また、図9に示されるように、移動可能領域115をハッチングにより重畳した画像情報114中に、該移動可能領域115内の方向にロボット50が移動する様子を事前にシミュレートするようにしても良い。これは、現時点でのロボット50の位置から、ΔT1、ΔT2後のロボットの位置を移動速度及び方向に基づき夫々算出し、ΔT1後のロボット50’、ΔT2後のロボット50”を画像情報114中に表示する。
さらに、図10に示されるように、前記移動地図中にΔT1後のロボット50’、ΔT2後のロボット50”の位置を表示することも好適である。
このように、ロボット50が通過するイメージを実画面上で操作者に提示することで、操作者が操作イメージを容易に確認することができる。
In addition, as shown in FIG. 9, in the image information 114 in which the movable area 115 is superimposed by hatching, it is possible to simulate in advance how the
Furthermore, as shown in FIG. 10, it is also preferable to display the positions of the
Thus, the operator can easily confirm the operation image by presenting the image through which the
本発明における移動体の遠隔操作支援システムは、移動体によるプラントや工場等の巡廻監視等に適用することができる。また、移動体の移動環境の地図を予め取得しておく必要がないため、例えば濃煙や有毒ガス等で作業員による建物内部状況の確認が困難な災害現場や、狭い場所等のように作業員が侵入困難な場所にて情報収集を行なう偵察ロボットの遠隔操作支援に適している。 The mobile body remote operation support system according to the present invention can be applied to patrol monitoring of a plant or factory by the mobile body. In addition, since it is not necessary to obtain a map of the moving environment of the moving body in advance, work can be performed in a disaster site or a narrow place where it is difficult for workers to check the internal situation of the building with dense smoke or toxic gas. Suitable for remote operation support of reconnaissance robots that collect information in places where it is difficult for personnel to enter.
10 遠隔操作装置
12 画像処理装置
13 重畳処理装置
14 障害物マップ生成装置
15 データベース
16 自己位置標定装置
17 移動地図及び軌跡生成装置
18 切換え装置
19 画像表示装置
20 操作器
50 ロボット
52 撮像装置
53 距離検出センサ
100、108、111、114 画像情報表示画面
101、105、110、112 通過可能領域
113 移動目標点
DESCRIPTION OF
Claims (8)
前記遠隔操作部にて、前記距離検出センサにより取得した障害物情報より2次元の障害物マップを生成する障害物マップ生成プロセスと、前記撮像装置により取得した画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理プロセスと、を備え、
前記画像情報と前記重畳処理された前記移動可能領域情報とを前記遠隔操作部の同一の画面上に表示することを特徴とする移動体の遠隔操作支援方法。 In a method for supporting remote operation of a moving body that is mounted with an imaging device that acquires surrounding image information and a distance detection sensor that detects a distance to an obstacle, and that is moved by remote operation of a remote operation unit,
In the remote operation unit, an obstacle map generation process for generating a two-dimensional obstacle map from the obstacle information acquired by the distance detection sensor, and image information acquired by the imaging device is extracted from the obstacle map. A superimposition process for superimposing the movable area information of the moving object,
A method for supporting remote operation of a moving object, comprising: displaying the image information and the movable area information subjected to the superimposition processing on the same screen of the remote operation unit.
前記画像情報を表示する画像表示装置と、前記移動体の操作指示を入力する操作器とを備え、前記移動体を遠隔操作する遠隔操作部と、からなる移動体の遠隔操作支援システムにおいて、
前記遠隔操作部が、前記距離検出センサにより取得した障害物情報に基づき2次元の障害物マップを生成する障害物マップ生成装置と、前記画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理装置と、を備え、
前記画像表示装置の一の画面上に、前記画像情報と前記重畳処理装置にて重畳処理された前記移動可能領域情報とを同時に表示することを特徴とする移動体の遠隔操作支援システム。 A moving body that includes an imaging device that acquires surrounding image information, a distance detection sensor that detects a distance to an obstacle, and moves by remote operation;
In a remote operation support system for a moving body, comprising: an image display device that displays the image information; and an operating device that inputs an operation instruction for the moving body, and a remote operation unit that remotely operates the moving body.
An obstacle map generation device that generates a two-dimensional obstacle map based on the obstacle information acquired by the distance detection sensor by the remote control unit, and a movable body that is extracted from the obstacle map in the image information is movable A superimposition processing device that superimposes region information,
A remote operation support system for a moving object, wherein the image information and the movable area information superimposed by the superimposing processor are simultaneously displayed on one screen of the image display device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004301386A JP2006113858A (en) | 2004-10-15 | 2004-10-15 | Method and system for supporting remote operation for mobile object |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004301386A JP2006113858A (en) | 2004-10-15 | 2004-10-15 | Method and system for supporting remote operation for mobile object |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006113858A true JP2006113858A (en) | 2006-04-27 |
Family
ID=36382327
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004301386A Withdrawn JP2006113858A (en) | 2004-10-15 | 2004-10-15 | Method and system for supporting remote operation for mobile object |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006113858A (en) |
Cited By (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007320024A (en) * | 2006-06-01 | 2007-12-13 | Samsung Electronics Co Ltd | Collision prevention system, apparatus and method for remote control of mobile robot |
| JP2007331061A (en) * | 2006-06-15 | 2007-12-27 | Hitachi Ltd | Manipulator remote control method for mobile robot system |
| JP2008093814A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Work support apparatus and method |
| JP2009136988A (en) * | 2007-12-10 | 2009-06-25 | Honda Motor Co Ltd | Remote controller |
| JP2009169845A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Autonomous mobile robot and map updating method |
| JP2009277063A (en) * | 2008-05-15 | 2009-11-26 | National Institute Of Advanced Industrial & Technology | Apparatus for drive supporting of private-use mobile vehicle |
| JP2010061346A (en) * | 2008-09-03 | 2010-03-18 | Ihi Aerospace Co Ltd | Remote control system |
| JP2010134499A (en) * | 2008-12-02 | 2010-06-17 | Mitsubishi Electric Corp | Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program |
| JP2011085999A (en) * | 2009-10-13 | 2011-04-28 | Ihi Aerospace Co Ltd | Remote control system |
| JP2011170844A (en) * | 2010-01-20 | 2011-09-01 | Ihi Aerospace Co Ltd | Control method for unmanned vehicle |
| JP4850984B2 (en) * | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | Action space presentation device, action space presentation method, and program |
| JP5140889B2 (en) * | 2006-08-10 | 2013-02-13 | サンリツオートメイション株式会社 | Image display method by fluctuation correction and moving object remote control system using the method |
| WO2014125865A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Movement instruction device, computer program, movement instruction method, and mobile body system |
| WO2014125867A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Control device, computer program, mobile-body system, and control method |
| WO2014125866A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Control device, program, control method, and mobile-body system |
| KR101619350B1 (en) * | 2015-06-15 | 2016-05-10 | 엘아이지넥스원 주식회사 | Method for remote controlling unmanned moving object based on location |
| JP2016104512A (en) * | 2016-02-29 | 2016-06-09 | ソニー株式会社 | Controller, control method, and program |
| JP2017021517A (en) * | 2015-07-09 | 2017-01-26 | 株式会社Ihiエアロスペース | Remote control system and method |
| WO2017033360A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| US9766604B2 (en) | 2011-08-02 | 2017-09-19 | Sony Corporation | Control device, control method, computer program product, and robot control system |
| JP2018106676A (en) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing apparatus, operated vehicle, information processing method, and program |
| JP2019030925A (en) * | 2017-08-07 | 2019-02-28 | 三菱重工業株式会社 | Work system and working method of work system |
| KR20190063667A (en) * | 2017-11-30 | 2019-06-10 | 엘지전자 주식회사 | Autonomous vehicle and method of controlling the same |
| JP2019139468A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processor, information processing method, and program |
| JP2019139467A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processing device, information processing method and program |
| JP2019139733A (en) * | 2018-08-24 | 2019-08-22 | 株式会社ビコー | Information processing system, information processing device, information processing method and program |
| KR20190109168A (en) * | 2018-03-17 | 2019-09-25 | 임진국 | Multi-User Operation System and the method using Mixed Reality Device |
| JP2020155149A (en) * | 2020-06-15 | 2020-09-24 | ソニー株式会社 | Control method and control device |
| JP2020192658A (en) * | 2019-05-30 | 2020-12-03 | セイコーエプソン株式会社 | Robot system and portable teaching device |
| JPWO2020085240A1 (en) * | 2018-10-22 | 2021-02-15 | 株式会社ナイルワークス | Driving route generation system, driving route generation method, driving route generation program, coordinate surveying system, and drone |
| JP2021151694A (en) * | 2020-02-17 | 2021-09-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | Systems for measuring location using robots with deformable sensors |
| CN113848952A (en) * | 2021-10-22 | 2021-12-28 | 福建汉特云智能科技有限公司 | Remote control delay judgment and obstacle pre-judgment method and robot system |
| JPWO2022030047A1 (en) * | 2020-08-03 | 2022-02-10 | ||
| US11520334B2 (en) | 2014-10-17 | 2022-12-06 | Sony Corporation | Control device, control method, and computer program |
| WO2023207610A1 (en) * | 2022-04-25 | 2023-11-02 | 追觅创新科技(苏州)有限公司 | Mapping method and apparatus, and storage medium and electronic apparatus |
| WO2024111680A1 (en) * | 2022-11-21 | 2024-05-30 | 엘지전자 주식회사 | Robot, robot control system, and robot control method |
| DE102023201820B4 (en) | 2022-03-07 | 2025-01-09 | Hitachi High-Tech Corporation | Robot stop position adjustment device and mobile robot system |
-
2004
- 2004-10-15 JP JP2004301386A patent/JP2006113858A/en not_active Withdrawn
Cited By (58)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012045706A (en) * | 2006-06-01 | 2012-03-08 | Samsung Electronics Co Ltd | Device and method of preventing collision for remote control of mobile robot |
| KR100791381B1 (en) * | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | Anti-collision system, apparatus and method for remote control of mobile robot |
| US7853372B2 (en) | 2006-06-01 | 2010-12-14 | Samsung Electronics Co., Ltd. | System, apparatus, and method of preventing collision of remote-controlled mobile robot |
| JP2007320024A (en) * | 2006-06-01 | 2007-12-13 | Samsung Electronics Co Ltd | Collision prevention system, apparatus and method for remote control of mobile robot |
| JP2007331061A (en) * | 2006-06-15 | 2007-12-27 | Hitachi Ltd | Manipulator remote control method for mobile robot system |
| JP5140889B2 (en) * | 2006-08-10 | 2013-02-13 | サンリツオートメイション株式会社 | Image display method by fluctuation correction and moving object remote control system using the method |
| JP2008093814A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Work support apparatus and method |
| JP2009136988A (en) * | 2007-12-10 | 2009-06-25 | Honda Motor Co Ltd | Remote controller |
| US9592610B2 (en) | 2007-12-10 | 2017-03-14 | Honda Motor Co., Ltd. | Remote controller |
| JP2009169845A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Autonomous mobile robot and map updating method |
| JP2009277063A (en) * | 2008-05-15 | 2009-11-26 | National Institute Of Advanced Industrial & Technology | Apparatus for drive supporting of private-use mobile vehicle |
| JP2010061346A (en) * | 2008-09-03 | 2010-03-18 | Ihi Aerospace Co Ltd | Remote control system |
| JP2010134499A (en) * | 2008-12-02 | 2010-06-17 | Mitsubishi Electric Corp | Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program |
| JP2011085999A (en) * | 2009-10-13 | 2011-04-28 | Ihi Aerospace Co Ltd | Remote control system |
| JP4850984B2 (en) * | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | Action space presentation device, action space presentation method, and program |
| US8731276B2 (en) | 2009-12-28 | 2014-05-20 | Panasonic Corporation | Motion space presentation device and motion space presentation method |
| JP2011170844A (en) * | 2010-01-20 | 2011-09-01 | Ihi Aerospace Co Ltd | Control method for unmanned vehicle |
| US9766604B2 (en) | 2011-08-02 | 2017-09-19 | Sony Corporation | Control device, control method, computer program product, and robot control system |
| US10890884B2 (en) | 2011-08-02 | 2021-01-12 | Sony Corporation | Control device, control method, computer program product, and robot control system |
| WO2014125865A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Movement instruction device, computer program, movement instruction method, and mobile body system |
| WO2014125866A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Control device, program, control method, and mobile-body system |
| WO2014125867A1 (en) * | 2013-02-12 | 2014-08-21 | 株式会社椿本チエイン | Control device, computer program, mobile-body system, and control method |
| US11520334B2 (en) | 2014-10-17 | 2022-12-06 | Sony Corporation | Control device, control method, and computer program |
| US11927960B2 (en) | 2014-10-17 | 2024-03-12 | Sony Group Corporation | Control device, control method, and computer program |
| KR101619350B1 (en) * | 2015-06-15 | 2016-05-10 | 엘아이지넥스원 주식회사 | Method for remote controlling unmanned moving object based on location |
| JP2017021517A (en) * | 2015-07-09 | 2017-01-26 | 株式会社Ihiエアロスペース | Remote control system and method |
| JPWO2017033360A1 (en) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| WO2017033360A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| US10980606B2 (en) | 2015-08-25 | 2021-04-20 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
| JP2016104512A (en) * | 2016-02-29 | 2016-06-09 | ソニー株式会社 | Controller, control method, and program |
| JP2018106676A (en) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing apparatus, operated vehicle, information processing method, and program |
| JP7029910B2 (en) | 2016-12-22 | 2022-03-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing equipment, information processing methods and programs |
| JP2019030925A (en) * | 2017-08-07 | 2019-02-28 | 三菱重工業株式会社 | Work system and working method of work system |
| KR20190063667A (en) * | 2017-11-30 | 2019-06-10 | 엘지전자 주식회사 | Autonomous vehicle and method of controlling the same |
| US10884412B2 (en) | 2017-11-30 | 2021-01-05 | Lg Electronics Inc. | Autonomous vehicle and method of controlling the same |
| KR102037324B1 (en) * | 2017-11-30 | 2019-10-28 | 엘지전자 주식회사 | Autonomous vehicle and method of controlling the same |
| JP2019139468A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processor, information processing method, and program |
| JP2019139467A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processing device, information processing method and program |
| KR102480986B1 (en) * | 2018-03-17 | 2022-12-22 | 임진국 | Multi-User Operation System and the method using Mixed Reality Device |
| KR20190109168A (en) * | 2018-03-17 | 2019-09-25 | 임진국 | Multi-User Operation System and the method using Mixed Reality Device |
| JP2019139733A (en) * | 2018-08-24 | 2019-08-22 | 株式会社ビコー | Information processing system, information processing device, information processing method and program |
| JP7062314B2 (en) | 2018-10-22 | 2022-05-06 | 株式会社ナイルワークス | Driving route generation system, driving route generation method, driving route generation program, coordinate survey system, and drone |
| US12117297B2 (en) | 2018-10-22 | 2024-10-15 | Nileworks Inc. | Traveling route generating system, traveling route generating method, traveling route generating program, coordinate measuring system, and drone |
| JPWO2020085240A1 (en) * | 2018-10-22 | 2021-02-15 | 株式会社ナイルワークス | Driving route generation system, driving route generation method, driving route generation program, coordinate surveying system, and drone |
| JP2020192658A (en) * | 2019-05-30 | 2020-12-03 | セイコーエプソン株式会社 | Robot system and portable teaching device |
| JP7400217B2 (en) | 2019-05-30 | 2023-12-19 | セイコーエプソン株式会社 | Robot system and portable teaching device |
| JP2021151694A (en) * | 2020-02-17 | 2021-09-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | Systems for measuring location using robots with deformable sensors |
| JP7645655B2 (en) | 2020-02-17 | 2025-03-14 | トヨタ リサーチ インスティテュート,インコーポレイティド | System for measuring position using a robot with deformable sensors. |
| JP2020155149A (en) * | 2020-06-15 | 2020-09-24 | ソニー株式会社 | Control method and control device |
| JP7014261B2 (en) | 2020-06-15 | 2022-02-01 | ソニーグループ株式会社 | Control method and control device |
| JP2022172112A (en) * | 2020-08-03 | 2022-11-15 | 三菱電機株式会社 | Remote control device |
| WO2022030047A1 (en) * | 2020-08-03 | 2022-02-10 | 三菱電機株式会社 | Remote control device |
| JPWO2022030047A1 (en) * | 2020-08-03 | 2022-02-10 | ||
| CN113848952A (en) * | 2021-10-22 | 2021-12-28 | 福建汉特云智能科技有限公司 | Remote control delay judgment and obstacle pre-judgment method and robot system |
| DE102023201820B4 (en) | 2022-03-07 | 2025-01-09 | Hitachi High-Tech Corporation | Robot stop position adjustment device and mobile robot system |
| US12372970B2 (en) | 2022-03-07 | 2025-07-29 | Hitachi High-Tech Corporation | Robot stop position setting device and mobile robot system |
| WO2023207610A1 (en) * | 2022-04-25 | 2023-11-02 | 追觅创新科技(苏州)有限公司 | Mapping method and apparatus, and storage medium and electronic apparatus |
| WO2024111680A1 (en) * | 2022-11-21 | 2024-05-30 | 엘지전자 주식회사 | Robot, robot control system, and robot control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2006113858A (en) | Method and system for supporting remote operation for mobile object | |
| ES2443164T3 (en) | Procedure and assistance system for handling robotic machines in a congested environment | |
| JP6456584B2 (en) | Perimeter monitoring equipment for work machines | |
| WO2019138836A1 (en) | Information processing device, information processing system, information processing method, and program | |
| JP6052881B2 (en) | Perimeter monitoring equipment for work machines | |
| JPH11149315A (en) | Robot control system | |
| JP2019041261A (en) | Image processing system and image processing system setting method | |
| CN107065894B (en) | Unmanned aerial vehicle, flying height control device, method, and computer-readable recording medium | |
| KR101615687B1 (en) | Collision detection robot remote control system and method thereof | |
| JP6080568B2 (en) | Monitoring system | |
| JPWO2016189896A1 (en) | Robot apparatus and movement control method of robot apparatus | |
| JP2020142326A (en) | Robot system | |
| JPH0811071A (en) | Manipulator controller | |
| Duff et al. | The development of a telerobotic rock breaker | |
| KR101664968B1 (en) | Position tracking device for riding basket of high place works car and its method | |
| JP7574820B2 (en) | Regulatory area management system, mobile object management system, regulatory area management method, and program | |
| JPH1034570A (en) | Robot remote control system | |
| Sugasawa et al. | Visualization of dump truck and excavator in bird’s-eye view by fisheye cameras and 3D range sensor | |
| JP2009301175A (en) | Monitoring method | |
| JP3785033B2 (en) | Surveillance camera control system and surveillance camera control device | |
| JP3376029B2 (en) | Robot remote control device | |
| JP6391656B2 (en) | Peripheral monitoring device for work machine and work machine | |
| JPH08123938A (en) | Monitor device for remote control | |
| JP6368503B2 (en) | Obstacle monitoring system and program | |
| JP4558682B2 (en) | Manipulator remote control method for mobile robot system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080108 |