JP2001315080A - Remote observation equipment - Google Patents
Remote observation equipmentInfo
- Publication number
- JP2001315080A JP2001315080A JP2000137549A JP2000137549A JP2001315080A JP 2001315080 A JP2001315080 A JP 2001315080A JP 2000137549 A JP2000137549 A JP 2000137549A JP 2000137549 A JP2000137549 A JP 2000137549A JP 2001315080 A JP2001315080 A JP 2001315080A
- Authority
- JP
- Japan
- Prior art keywords
- observation
- information
- observing
- camera
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
(57)【要約】
【課題】 遠隔地に配置されたロボットが作業者と協調
して作業を行う。具体的には、定点カメラ装置で観測困
難な目標に対しては、移動カメラ装置(ロボット)が観
測を行う。このときに、簡単な手順によりロボットが配
置された環境モデルおよびロボットの動作モデルを作成
する。
【解決手段】 作業者が観測を希望する位置を指定する
と、まず、定点観測手段である定点カメラ装置が観測を
試み、これが困難である場合には、定点観測手段が自動
的に移動観測手段であるロボットに行動指令を発する。
このとき、定点観測結果に対して実環境を考慮してロボ
ットの環境モデルおよび行動モデルを作成する。
(57) [Summary] [PROBLEMS] A robot arranged in a remote place works in cooperation with an operator. Specifically, a mobile camera device (robot) observes a target that is difficult to observe with a fixed-point camera device. At this time, an environment model in which the robot is arranged and an operation model of the robot are created by a simple procedure. SOLUTION: When a worker designates a desired position for observation, first, a fixed-point camera device as a fixed-point observation means attempts observation, and if this is difficult, the fixed-point observation means is automatically moved by the mobile observation means. Issue a command to a robot.
At this time, an environment model and a behavior model of the robot are created in consideration of the real environment with respect to the fixed point observation result.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、作業者が遠隔地の
状況を確認、あるいは、遠隔地の機器を操作しながら自
分の手元で作業を遂行する必要がある状況下で、作業者
の作業を援助する技術に関する。本発明は、ロボット制
御の操作手順を簡単化する技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operation of a worker in a situation where the worker needs to confirm the situation at a remote place or perform the work at his / her own hand while operating a device at a remote place. Related to assisting technology. The present invention relates to a technique for simplifying an operation procedure of robot control.
【0002】[0002]
【従来の技術】いわゆるロボットのテレオペレーション
技術は、遠隔の作業環境内に設置したロボットの遠隔地
操作を可能とする。このシステムは、遠隔地の危険な環
境下で作業を行う場合には有効な方法であるが、テレオ
ペレーションが、本来、遠隔地の作業のみを前提として
いるため、例えば、作業者が手元の作業を行いながら、
遠隔地の機器などの状態参照や操作を行う作業に対し、
そのまま適用することは困難である。2. Description of the Related Art The so-called robot teleoperation technology enables remote operation of a robot installed in a remote work environment. This system is an effective method when working in a hazardous environment in a remote place.However, since teleoperation originally assumes only work in a remote place, for example, the worker While doing
For tasks such as referring to the status of remote devices and performing operations,
It is difficult to apply as it is.
【0003】[0003]
【発明が解決しようとする課題】(a)環境マップ作成
が困難 遠隔地の機器などの操作や状態モニタリングを行う手段
として、テレオペレーション技術を用いたロボットを用
いることが考えられる(例えば、横小路,“マスタ・ス
レーブ制御の理論”,Vol.11,No.6,pp.794-802,日本ロ
ボット学会誌,1993)。このロボットを所望する場所で
作業させるためには、マスタ・スレーブを構成し、マス
タであるロボットに具備したセンサ情報を、スレーブ側
の作業者に高臨場感技術によって提示し、その提示情報
を基にマスタ側を操作することで作業を進める。(A) It is difficult to create an environment map. As a means for operating a remote device or monitoring the status, it is conceivable to use a robot using a teleoperation technology (for example, a horizontal alley). , "Theory of master-slave control", Vol. 11, No. 6, pp. 794-802, Journal of the Robotics Society of Japan, 1993). In order to make this robot work at a desired place, a master / slave is configured, sensor information provided to the master robot is presented to a slave worker by high-sense technology, and the presentation information is used as a basis. Work by operating the master side.
【0004】このマスタ・スレーブによるロボット操作
は、作業者がマスタ側のロボットに逐一動作指令を送る
必要があり、ロボットの制御を行いながら、作業者が手
元の作業を遂行するといった状況は当初より考慮されて
いないため、作業者の手元の作業遂行を阻害する。そこ
で、マスタ側のロボットに自律性を持たせ、作業を遂行
させる方法が提案されている(佐藤,松井,平井,“人
間との協調作業を特徴とする遠隔作業ロボットシステ
ム”,日本ロボット学会誌,Vol.19,No.5,pp.602-613,1
991)。In this robot operation by the master / slave, it is necessary for the worker to send an operation command to the master robot one by one, and the situation in which the worker performs the task at hand while controlling the robot has been known from the beginning. Since it is not taken into account, the work performed by the worker is impeded. Therefore, a method has been proposed in which the master robot has autonomy and performs tasks (Sato, Matsui, Hirai, "Remote work robot system featuring cooperative work with humans", Journal of the Robotics Society of Japan). , Vol.19, No.5, pp.602-613,1
991).
【0005】この手法は、ロボット周辺の環境の形状な
どのモデルを、あらかじめ環境モデルに記述する必要が
ある。この環境モデルの作成には多大な時間がかかり、
テレオペレーションのシステムを容易に導入することは
困難である。In this method, it is necessary to describe a model such as the shape of the environment around the robot in an environment model in advance. Creating this environment model takes a lot of time,
It is difficult to easily introduce a teleoperation system.
【0006】環境内にカメラ装置を分散配置し、個々の
カメラ装置の画像に直接作業者が環境モデルや動作を教
示し、分散配置したカメラ装置からロボットに情報を提
供しながら作業をさせれば、直感的な教示で容易にロボ
ットに作業をさせることができ有効である。環境内に分
散させたカメラ画像の視点でロボットを制御する手法
は、様々な手法が既に提案されている。それらは1)画
像内でのロボットの行動を記述する場合と(例えば,岡
田,石黒,石田,“分散視覚を用いた人間ロボット協調
ナビゲーション”,日本ロボット学会誌,Vol.16,No.7,
pp.985-992,1998)。2)カメラ画像内での目標値を記
述する場合がある(例えば,羽田,高瀬,“情報環境情
報インフラを用いたロボットナビゲーションの研究”,
第17回日本ロボット学会学術講演会,pp.619-620,199
8)。[0006] If camera devices are distributed in an environment, and an operator directly teaches an environment model and operation to an image of each camera device, and a worker works while providing information to the robot from the distributed camera devices. This is effective because the robot can easily work with intuitive teaching. Various methods have already been proposed for controlling the robot from the viewpoint of the camera images dispersed in the environment. They are: 1) When describing the behavior of a robot in an image (for example, Okada, Ishiguro, Ishida, "Human Robot Cooperative Navigation Using Distributed Vision", Journal of the Robotics Society of Japan, Vol.16, No.7,
pp.985-992,1998). 2) The target value in the camera image may be described (for example, Haneda and Takase, "Study on Robot Navigation Using Information Environment Information Infrastructure",
17th Annual Conference of the Robotics Society of Japan, pp.619-620,199
8).
【0007】前者に関しては、ロボット周辺の実環境を
考慮して行動を記述することは困難である。後者に関し
ては、カメラ座標系からロボット座標系へ写像する必要
もある。そこで、実環境を考慮して動作モデルを作成で
き、座標変換をしないで、ロボットに作業をさせること
ができれば有効である。[0007] Regarding the former, it is difficult to describe the behavior in consideration of the real environment around the robot. For the latter, it is necessary to map from the camera coordinate system to the robot coordinate system. Therefore, it is effective if a motion model can be created in consideration of a real environment and a robot can work without performing coordinate conversion.
【0008】遠隔の状況モニタに限定すれば、ロボット
を使う必要はなく、環境内に複数のカメラ装置を固定
し、遠隔の状況をモニタすることで実現できる。しか
し、それらは、デスクトップで操作することが前提であ
り、遠隔の状況をモニタしながら、ハンズフリーで作業
を行うことには適していない。それら画像をハンズフリ
ーで参照可能であれば便利である。If the present invention is limited to a remote situation monitor, it is not necessary to use a robot, but can be realized by fixing a plurality of camera devices in the environment and monitoring the remote situation. However, they are premised on operating on a desktop, and are not suitable for performing a hands-free operation while monitoring a remote situation. It would be convenient if these images could be referenced hands-free.
【0009】ここで、他の課題は、設置されているカメ
ラ装置は固定されているため、カメラ装置のPTZ自由
度、カメラ装置の解像度等により、作業者が所望する映
像を全て得られるわけではない点である。そこで、テレ
オペレーション技術を利用し、固定されたカメラ装置の
代わりに、カメラ装置を具備したスレーブロボットによ
って、固定されたカメラ装置によるモニタができない場
合に、固定されたカメラ装置の機能補間として用いられ
れば有効である。[0009] Another problem here is that since the installed camera device is fixed, not all images desired by the operator can be obtained depending on the degree of freedom of the PTZ of the camera device, the resolution of the camera device, and the like. There is no point. Therefore, using the teleoperation technology, instead of the fixed camera device, the slave robot equipped with the camera device is used as a function interpolation of the fixed camera device when monitoring by the fixed camera device cannot be performed. Is effective.
【0010】(b)遠隔ロボットと作業者間作業協調の
ためのシステムモデルが未検討 テレオペレーションの観点からは、遠隔ロボットが作業
を行うとともに、作業者が作業を行うことについては検
討されていない。装着型パーソナル・コンピュータを用
いることで、作業者が手元作業をしながら、遠隔ロボッ
トと協調作業が可能になると期待できるが、まだ十分に
検討されていない。(B) A system model for coordinating work between a remote robot and a worker has not been studied From the viewpoint of teleoperation, it has not been studied that a remote robot works and a worker does work. . The use of a wearable personal computer can be expected to enable a worker to perform cooperative work with a remote robot while working at hand, but this has not been sufficiently studied.
【0011】このように、従来の技術では遠隔ロボット
に遠隔機器操作や機器モニタを行わせつつ、作業者がハ
ンズフリーで様々な場所で作業を行うことができない。As described above, according to the conventional technique, the operator cannot perform the work in various places in a hands-free manner while the remote robot operates the remote device and monitors the device.
【0012】本発明は、このような背景に行われたもの
であって、遠隔地に配置されたロボットが作業者と協調
して作業を行うことができる遠隔地観測装置を提供する
ことを目的とする。本発明は、簡単な手順によりロボッ
トの配置された環境モデルおよびロボットの動作モデル
を作成することができる遠隔地測定装置を提供すること
を目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above background, and an object of the present invention is to provide a remote observation apparatus in which a robot arranged in a remote place can work in cooperation with an operator. And SUMMARY OF THE INVENTION It is an object of the present invention to provide a remote location measuring device capable of creating an environment model in which a robot is arranged and an operation model of the robot by a simple procedure.
【0013】[0013]
【課題を解決するための手段】本発明は、観測対象地域
内に配置した複数のカメラ装置から得られた定点観測情
報と移動するロボットに具備したカメラ装置から得られ
た移動観測情報とを表示するとともに、これらのカメラ
装置およびロボットを制御するMMI(Man Machine Int
erface)からなる遠隔地観測装置である。The present invention displays fixed-point observation information obtained from a plurality of camera devices arranged in an observation target area and moving observation information obtained from a camera device provided in a moving robot. And MMI (Man Machine Int.) That controls these camera devices and robots.
erface).
【0014】本発明は、定点観測結果に対して実環境を
考慮してロボットの環境モデルおよび動作モデルを作成
し、センサ座標系からロボット座標系への写像なしでロ
ボットを制御できるとともに、作業者が様々な場所にお
いてハンズフリーで作業を行いながら遠隔状況のモニタ
リングや機器操作を簡易にできることを特徴とする。According to the present invention, an environment model and an operation model of a robot are created in consideration of a real environment with respect to a fixed point observation result, and a robot can be controlled without mapping from a sensor coordinate system to a robot coordinate system. Is characterized by being able to easily monitor remote conditions and operate equipment while working hands-free in various places.
【0015】すなわち、本発明は遠隔地観測装置であっ
て、本発明の特徴とするところは、観測対象地域にあら
かじめ複数設置された定点観測手段と、移動手段および
観測手段を備えた移動観測手段と、前記定点観測手段お
よび前記移動観測手段の観測情報を受信する手段と前記
定点観測手段および前記移動観測手段の制御情報を送信
する手段とを備えた遠隔操作手段とが設けられ、前記制
御情報には、前記観測対象地域内の観測位置指定情報を
含み、前記定点観測手段は、この観測位置指定情報によ
り指定された観測位置の観測結果を前記観測情報として
送信する手段と、この観測位置の観測が困難であるとき
には前記移動観測手段にこの観測位置を観測するための
行動指令を発する手段とを備え、前記移動観測手段は、
この行動指令にしたがって前記観測位置に移動する手段
を備えたところにある。That is, the present invention relates to a remote observation apparatus, which is characterized in that the present invention is characterized in that a plurality of fixed point observing means installed in advance in an observation target area, a moving means and a mobile observing means provided with the observing means. Remote control means comprising: means for receiving observation information of the fixed point observation means and the mobile observation means; and means for transmitting control information of the fixed point observation means and the mobile observation means, wherein the control information Includes observation position designation information in the observation target area, the fixed point observation means transmits, as the observation information, an observation result of the observation position designated by the observation position designation information, Means for issuing an action command for observing the observation position to the mobile observation means when observation is difficult, the mobile observation means comprising:
There is a means for moving to the observation position in accordance with the action command.
【0016】このように、本発明では、作業者が観測を
希望する位置を指定すると、まず、定点観測手段が観測
を試み、これが困難である場合には、定点観測手段が自
動的に移動観測手段に行動指令を発する。これにより、
作業者による指令を必要最小限に留め、作業者が手元で
行う作業の遂行を阻害する要素を少なくし、遠隔地に配
置された前記移動観測手段が作業者と協調して作業を行
うことができる。As described above, according to the present invention, when the operator designates a position desired to be observed, first, the fixed point observation means attempts observation, and if it is difficult, the fixed point observation means automatically moves and observes. Issue an action command to the means. This allows
The command by the worker is kept to a necessary minimum, the factor that hinders the performance of the work performed by the worker is reduced, and the mobile observation means arranged at a remote place works in cooperation with the worker. it can.
【0017】前記定点観測手段は、自己の観測エリア内
の前記移動観測手段の有無を検出する手段と、この検出
結果にしたがって自己の観測エリア内に前記移動観測手
段が有るときには自己の設置位置情報を送信する手段と
を備え、前記移動観測手段は、この設置位置情報を受信
する手段と、受信したこの設置位置情報とあらかじめ記
録された前記観測対象地域のマップ情報とにしたがって
自己の現在位置を認識する手段とを備えることができ
る。The fixed point observing means is means for detecting the presence or absence of the mobile observing means in its own observing area, and according to the detection result, when the mobile observing means is present in its own observing area, its own installation position information Means for transmitting, the mobile observation means, the means for receiving the installation position information, the current position of its own according to the received installation position information and map information of the observation target area recorded in advance Recognition means.
【0018】これにより、観測対象地域を新たに設定す
る場合には、観測対象地域内に定点観測手段を任意に設
置し、そのマップ情報を移動観測手段に記録しておけ
ば、移動観測手段は、定点観測手段から送信される設置
位置情報を受信することによって自分の現在位置を認識
することができる。したがって、移動観測手段に自分の
現在位置を認識させるための事前設定を短時間の内に簡
単に行うことができる。With this, when a new observation target area is set, a fixed point observation means is arbitrarily set in the observation target area and its map information is recorded in the mobile observation means. By receiving the installation position information transmitted from the fixed point observation means, the user can recognize his / her current position. Therefore, it is possible to easily perform the pre-setting for causing the mobile observation means to recognize the current position within a short time.
【0019】前記観測位置に移動する手段は、前記行動
指令にしたがって現在位置から前記観測位置までに通過
する前記定点観測手段の順序を前記マップ情報を参照し
て探索する手段と、この順序にしたがって次に通過する
前記定点観測手段の識別符号を送信する手段とを備え、
この識別符号に該当する前記定点観測手段を含む経路情
報を送信する手段が設けられ、前記観測位置に移動する
手段は、この経路情報にしたがって観測位置に移動する
手段を含むことが望ましい。The means for moving to the observation position includes: means for searching for the order of the fixed point observation means passing from the current position to the observation position in accordance with the action command with reference to the map information; Means for transmitting an identification code of the fixed point observation means that passes next,
It is preferable that means for transmitting path information including the fixed point observation means corresponding to the identification code is provided, and that the means for moving to the observation position include means for moving to the observation position in accordance with the path information.
【0020】これによれば、移動観測手段が一つの定点
観測手段から次の定点観測手段まで移動する短い区間の
経路情報を順次移動観測手段に教示すればよいため、複
雑かつ長大な経路情報を作成して教示するといったこと
をしなくてもよい。例えば、定点観測手段をカメラ装置
とした場合には、あるカメラ装置により写し出されてい
る移動観測手段に対し、作業者はその画像を見ながらこ
のカメラ装置の撮影範囲を環境モデルとした行動モデル
を経路情報として教示し、次のカメラ装置の撮影範囲内
に移動観測手段が到着したら作業者は、また、その画像
を見ながらこのカメラ装置の撮影範囲を環境モデルとし
た行動モデルを経路情報として教示するといったことが
可能となる。あるいは、このような経路情報をあらかじ
め作成しておき、移動観測手段が送信する識別符号を受
信したら自動的に送信するようにすることもできる。According to this, since the mobile observation means only needs to sequentially instruct the mobile observation means of the path information of a short section in which the mobile observation means moves from one fixed-point observation means to the next fixed-point observation means, it is necessary to provide complicated and long path information. It is not necessary to create and teach. For example, if the fixed-point observation means is a camera device, the worker observes the moving observation means projected by a certain camera device and looks at the image while creating an action model using the shooting range of the camera device as an environment model. When the movement observation means arrives within the photographing range of the next camera device, the operator also teaches the behavior model using the photographing range of this camera device as an environmental model while observing the image as the route information. It is possible to do. Alternatively, such route information may be created in advance and automatically transmitted when the identification code transmitted by the mobile observation means is received.
【0021】前記経路情報は、前記観測対象地域内に実
際に存在する壁または通路を基準に作成されることが望
ましい。あるいは、前記経路情報は、仮想的に前記観測
対象地域内に設けられた壁を基準に作成されることもで
きる。It is preferable that the route information is created based on a wall or a passage actually existing in the observation target area. Alternatively, the route information may be created virtually based on a wall provided in the observation target area.
【0022】これにより、複雑な座標変換や写像を伴う
経路情報を作成する必要がなく、簡単に経路情報を作成
することができるため、例えば、作業者がカメラ装置に
写し出された移動観測手段の画像を見ながらごく短時間
に経路情報を作成することができる。Thus, it is not necessary to create route information involving complicated coordinate transformation and mapping, and the route information can be easily created. For example, the worker can use the moving observation means projected on the camera device. The route information can be created in a very short time while viewing the image.
【0023】さらに、前記移動観測手段には、前記観測
対象地域内の機器を遠隔操作するための手段を備えるこ
ともできる。これにより、作業者は、単に、前記観測対
象地域内の状況をモニタするだけでなく、前記観測対象
地域内の機器を遠隔操作することもできる。前記遠隔操
作する手段としては、例えば、いわゆるロボットアーム
のようなものを備えることができる。Further, the mobile observation means may include means for remotely controlling equipment in the observation target area. Thereby, the worker can not only monitor the situation in the observation target area, but also remotely control the equipment in the observation target area. The means for remote control may include, for example, a so-called robot arm.
【0024】[0024]
【発明の実施の形態】本発明実施例の遠隔地観測装置の
構成を図1を参照して説明する。図1は本発明実施例の
遠隔地観測装置の全体構成図である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The configuration of a remote observation apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an overall configuration diagram of a remote observation apparatus according to an embodiment of the present invention.
【0025】本発明は遠隔地観測装置であって、本発明
の特徴とするところは、観測対象地域にあらかじめ複数
設置されたCCDカメラを含むカメラ装置10−1、1
0−2を備えた分散カメラ部10と、移動ロボット11
およびカメラ装置12を備えた移動ロボット部13と、
分散カメラ部10および移動ロボット部13の観測情報
を受信するとともにこれらに制御情報を送信する装着型
パーソナル・コンピュータ14とを備えたMMI部15
とが設けられ、前記制御情報には、前記観測対象地域内
の観測位置指定情報を含み、分散カメラ部10は、この
観測位置指定情報により指定された観測位置の観測結果
を前記観測情報として送信し、この観測位置の観測が困
難であるときには移動ロボット部13にこの観測位置を
観測するための行動指令を発し、移動ロボット部13
は、この行動指令にしたがって前記観測位置に移動する
ところにある。The present invention relates to a remote observation device, which is characterized by camera devices 10-1 and 10 including a plurality of CCD cameras installed in advance in an observation target area.
Distributed camera unit 10 provided with 0-2 and mobile robot 11
A mobile robot unit 13 having a camera device 12 and
An MMI unit 15 including a wearable personal computer 14 for receiving observation information of the distributed camera unit 10 and the mobile robot unit 13 and transmitting control information to them;
The control information includes observation position designation information in the observation target area, and the distributed camera unit 10 transmits the observation result of the observation position designated by the observation position designation information as the observation information. However, when it is difficult to observe the observation position, the mobile robot unit 13 issues an action command to observe the observation position.
Moves to the observation position in accordance with this action command.
【0026】分散カメラ部10の各カメラ装置10−1
および10−2は、自己の撮影範囲内の移動ロボット部
13の有無を検出し、この検出結果にしたがって自己の
撮影範囲内に移動ロボット部13が有るときには自己の
設置位置情報を画像処理用パーソナル・コンピュータ1
6を介して無線LANにより送信し、移動ロボット部1
3は、この設置位置情報を受信し、受信したこの設置位
置情報とあらかじめ設定された前記観測対象地域のマッ
プ情報とにしたがって自己の現在位置を認識する。Each camera device 10-1 of the distributed camera unit 10
And 10-2 detect the presence or absence of the mobile robot unit 13 within its own photographing range, and when the mobile robot unit 13 is within its own photographing range, determine its own installation position information according to the detection result.・ Computer 1
6 via the wireless LAN and the mobile robot unit 1
3 receives the installation location information and recognizes its own current location according to the received installation location information and map information of the observation target area set in advance.
【0027】なお、カメラ装置10−1および10−2
が移動ロボット部13の有無を検出する手法としては、
移動ロボット部13の画像パターンを画像処理用パーソ
ナル・コンピュータ16にあらかじめ記憶させておき、
カメラ装置10−1および10−2の撮影画像からこの
画像パターンを検出することにより実現できる。The camera devices 10-1 and 10-2
As a method for detecting the presence or absence of the mobile robot unit 13,
The image pattern of the mobile robot unit 13 is stored in the image processing personal computer 16 in advance,
This can be realized by detecting this image pattern from the images captured by the camera devices 10-1 and 10-2.
【0028】移動ロボット部13は、前記行動指令にし
たがって現在位置から前記観測位置までに通過するカメ
ラ装置10−1または10−2の順序を前記マップ情報
を参照して探索し、この順序にしたがって次に通過する
カメラ装置10−1または10−2の識別符号を送信
し、分散カメラ部10は、この識別符号を受信すると移
動ロボット部13がこの識別符号に該当するカメラ装置
10−1または10−2に到達するために必要な経路情
報を送信し、移動ロボット部13は、この経路情報にし
たがって前記観測位置に移動する。本発明実施例では、
経路情報の送信は、識別符号に該当するカメラ装置10
−1または10−2が画像処理用パーソナル・コンピュ
ータ16を介して無線LANにより行う。The mobile robot unit 13 searches for the order of the camera device 10-1 or 10-2 passing from the current position to the observation position in accordance with the action command with reference to the map information. The identification code of the next passing camera device 10-1 or 10-2 is transmitted, and the distributed camera unit 10 receives the identification code, and the mobile robot unit 13 causes the mobile robot unit 13 to correspond to the identification code of the camera device 10-1 or 10-2. The mobile robot unit 13 transmits route information necessary to reach -2, and moves to the observation position according to the route information. In the embodiment of the present invention,
The transmission of the route information is performed by the camera device 10 corresponding to the identification code.
-1 or 10-2 through the wireless LAN via the image processing personal computer 16.
【0029】前記経路情報は、前記観測対象地域内に実
際に存在する壁または通路を基準に作成される。あるい
は、仮想的に前記観測対象地域内に設けられた壁を基準
に作成される。The route information is created based on walls or passages actually existing in the observation target area. Alternatively, it is created based on a wall virtually provided in the observation target area.
【0030】また、移動ロボット部13に、いわゆるロ
ボットアームのような装置を備え、前記観測対象地域内
の機器を遠隔操作することもできる。Further, the mobile robot unit 13 may be provided with a device such as a so-called robot arm to remotely control devices in the observation target area.
【0031】以下では、本発明実施例の遠隔地観測装置
をさらに詳細に説明する。作業者が手元作業を行いなが
ら、遠隔地の環境状況を確認する作業に対する実施例を
記す。図1は本発明に基づく実施例を示したものであ
る。図1では、観測対象地域に分散配置されたカメラ装
置10−1および10−2とその画像処理用パーソナル
・コンピュータ16、カメラ装置12と超音波センサ1
7を備えた移動ロボット11、および装着型パーソナル
・コンピュータ14からなる。Hereinafter, the remote observation apparatus according to the embodiment of the present invention will be described in more detail. An embodiment will be described for a task in which a worker checks the environmental status of a remote place while performing a task at hand. FIG. 1 shows an embodiment according to the present invention. In FIG. 1, camera devices 10-1 and 10-2 distributed in the observation target area, their personal computers 16 for image processing, camera device 12, and ultrasonic sensor 1 are shown.
The mobile robot 11 includes a mobile robot 11 and a wearable personal computer 14.
【0032】本発明実施例での移動ロボット11は二つ
の車輪を有し、個々の車輪にはアクチュエータとして独
立したモータを有し、回転速度を検出するパルスエンコ
ーダを具備している。この移動ロボット11の各モータ
には、パルスエンコーダからの値のフィードバックとす
るモータ回転速度のサーボループがあらかじめ組んであ
る。また、無線LANによる他の機器とのTCP/IP
通信機能、ロボット周辺環境を計測する超音波センサ1
7を具備している。The mobile robot 11 according to the embodiment of the present invention has two wheels, each of which has an independent motor as an actuator and a pulse encoder for detecting a rotational speed. Each motor of the mobile robot 11 has a servo loop of the motor rotation speed which is used as feedback of a value from the pulse encoder. Also, TCP / IP with other devices via wireless LAN
Ultrasonic sensor 1 for measuring communication function and surrounding environment of robot
7 is provided.
【0033】装着型パーソナル・コンピュータ14と画
像処理用パーソナル・コンピュータ16は、無線LAN
による他の機器とのTCP/IP通信機能を有する。The wearable personal computer 14 and the image processing personal computer 16 are connected to a wireless LAN.
Has a TCP / IP communication function with other devices.
【0034】次に、本発明実施例の動作を説明する。図
2に、MMI部15、分散カメラ部10および移動ロボ
ット部13の個々の情報処理フローの実施例を示した。
以下、図1および図2に基づいて個々の処理フローを記
す。Next, the operation of the embodiment of the present invention will be described. FIG. 2 shows an example of an individual information processing flow of the MMI unit 15, the distributed camera unit 10, and the mobile robot unit 13.
Hereinafter, individual processing flows will be described based on FIGS. 1 and 2.
【0035】1)MMI部 Step1)分散カメラ部10から所望する画像を作業
者が選択し、カメラ画像に領域を指定して環境モデルを
記述し、その環境モデルに対する行動モデルを指定し、
個々のカメラ装置10−1、10−2にTCP/IP通
信を介して送信する(図2の)。図3〜図6に、個々
のカメラ画像に対して教示する環境モデルと行動モデル
の例を示す。1) MMI section Step 1) An operator selects a desired image from the distributed camera section 10, specifies an area in the camera image, describes an environment model, specifies an action model for the environment model,
It is transmitted to each of the camera devices 10-1 and 10-2 via TCP / IP communication (FIG. 2). 3 to 6 show examples of an environment model and an action model taught for each camera image.
【0036】(カメラID=iに対しての環境モデルと
行動モデル例)Aiは、カメラ画像内における可動領域
とそこでの行動を表す。Piは、多角形頂点の位置ベク
トルをあらわし、()は、壁を構成する多角形頂点の組
み合わせを意味し、FCは実際の通路の中心に沿って移
動する通路沿い行動を意味し、FWは実際の壁に沿って
移動する壁沿い行動を意味する。(Example of Environment Model and Action Model for Camera ID = i) Ai represents a movable area in a camera image and an action there. P i represents a position vector of a polygon vertex, () represents a combination of polygon vertices constituting a wall, FC represents an action along a path moving along the center of an actual path, and FW represents an action along a path. Means moving along a real wall.
【0037】C:i行j列は、領域Aiと領域Ajが結
合していれば1、結合していなければ0と定義した領域
間の結合を表現するマトリクスである。gateij:他
のカメラ装置(カメラID=j)と重ね合う領域を多角
形頂点の2点で表す。C: The i-th row and the j-th column are matrices expressing the connection between the areas defined as 1 if the area Ai and the area Aj are connected, and 0 if not. gate ij : A region overlapping with another camera device (camera ID = j) is represented by two polygonal vertices.
【0038】図3に示すようにカメラ装置が〜に配
置された例について説明する。図4はカメラID=1に
対する教示の例であり、An example in which the camera device is arranged at the position as shown in FIG. 3 will be described. FIG. 4 is an example of teaching for camera ID = 1,
【0039】[0039]
【数1】 となる。図5はカメラID=2に対する教示の例であ
り、(Equation 1) Becomes FIG. 5 is an example of teaching for camera ID = 2,
【0040】[0040]
【数2】 となる。図6はカメラID=3に対する教示の例であ
り、(Equation 2) Becomes FIG. 6 is an example of teaching for camera ID = 3,
【0041】[0041]
【数3】 となる。(Equation 3) Becomes
【0042】Step2)作業者が参照したいカメラ装
置(ID=t)の画像を表示し、そこに目標点をカメラ
画像上にポインティングし、目標点位置ベクトルをID
=tのカメラ装置へTCP/IP通信を介して送信す
る。Step 2) An image of the camera device (ID = t) that the operator wants to refer to is displayed, the target point is pointed on the camera image, and the target point position vector is set to the ID.
= T to the camera device via TCP / IP communication.
【0043】Step3)分散カメラ部10または移動
ロボット部13が目標画像を送信してきた場合に、ディ
スプレイ上に表示する(図2のまたは)。Step 3) When the distributed camera unit 10 or the mobile robot unit 13 has transmitted the target image, the target image is displayed on the display (or in FIG. 2).
【0044】2)カメラID=tのカメラ装置 Step1)MMI部15から送信された行動モデルと
環境モデルを記憶する(図2の)。2) Camera device with camera ID = t Step 1) The behavior model and the environment model transmitted from the MMI unit 15 are stored (FIG. 2).
【0045】Step2)MMI部15から送信された
目標点位置ベクトルを受信し、このカメラ装置で定めた
タスクが実行できれば、タスク終了後、画像をMMI部
15へ送信し、実行不可能であれば、移動ロボット部1
3へカメラID=tと目標値ベクトルを送信する。Step 2) The target point position vector transmitted from the MMI unit 15 is received, and if the task determined by this camera device can be executed, an image is transmitted to the MMI unit 15 after the task is completed. , Mobile robot part 1
3, the camera ID = t and the target value vector are transmitted.
【0046】タスクの例として、例えば、目標位置ベク
トルを画像中心に捕えることにした場合には、カメラ装
置のパンチルトを動かすことにより画像中心にすること
ができるかどうか判断し、パンチルトの可動範囲内であ
れば、パンチルトし、画像をMMI部15に送信する。
可動範囲外であれば、移動ロボット部13に送信する
(図2の)。As an example of the task, for example, when the target position vector is to be captured at the center of the image, it is determined whether the image can be positioned at the center of the image by moving the pan / tilt of the camera device. If so, pan and tilt and transmit the image to the MMI unit 15.
If it is out of the movable range, it is transmitted to the mobile robot unit 13 (FIG. 2).
【0047】Step3)あらかじめ与えておいた移動
ロボット部13の画像テンプレートを基に、常にカメラ
画像内から移動ロボット部13を探索し(図2の)、
発見した場合に、その座標値とカメラID=tを、移動
ロボット部13へTCP/IP通信を介して送信する
(図2の)。Step 3) The mobile robot unit 13 is always searched for from the camera image based on the image template of the mobile robot unit 13 given in advance (FIG. 2).
If found, the coordinate value and the camera ID = t are transmitted to the mobile robot unit 13 via TCP / IP communication (FIG. 2).
【0048】Step4)移動ロボット部13からサブ
タスクをTCP/IP通信で受信する。このコマンドか
ら得た移動ロボット部13のサブコール(このカメラ視
野内での目標値まで移動する)と移動ロボット部13の
現在値から、サブタスク(目標値へ移動する)を実現す
るための各Aiでの行動を算出する。Step 4) A subtask is received from the mobile robot unit 13 by TCP / IP communication. Each A i for realizing a subtask (moving to the target value) from the subcall of the mobile robot unit 13 (moving to the target value within the camera field of view) obtained from this command and the current value of the mobile robot unit 13. Calculate the action at.
【0049】図7にカメラID=1のカメラ装置のカメ
ラ画像内における可動領域とそこでの行動の例を示す。
A1は、カメラ画像内における可動領域とそこでの行動
を表し、FIG. 7 shows an example of a movable area in a camera image of a camera device with a camera ID = 1 and an action there.
A 1 represents the movable area in the camera image and the action there,
【0050】[0050]
【数4】 となる。(Equation 4) Becomes
【0051】ここで、FCは通路中心沿い行動を意味す
る。また、()は仮想壁を表し、Nullはここで仮想
壁がないことを表す。この仮想壁情報は、移動ロボット
部13の周辺の実環境に壁がない場合に、目標とするサ
ブタスクを実現するために、仮想的にカメラ視野内で壁
を算出し、移動ロボット部13へ壁情報として利用させ
る目的がある。Here, FC means action along the center of the passage. () Indicates a virtual wall, and Null indicates that there is no virtual wall. This virtual wall information is obtained by calculating a wall virtually in the camera field of view in order to realize a target subtask when there is no wall in the real environment around the mobile robot unit 13, and transmitting the wall to the mobile robot unit 13. There is a purpose to use as information.
【0052】次に、移動ロボット部13が現在存在する
領域に対する行動と、移動ロボット部13に対する仮想
壁の位置ベクトルを算出し、移動ロボット部13へ送信
する。また、移動ロボット部13が目的地に到着した場
合は、以下の行動を移動ロボット部13へ送信する。Next, the action of the mobile robot unit 13 in the area where the mobile robot unit 13 is currently located and the position vector of the virtual wall with respect to the mobile robot unit 13 are calculated and transmitted to the mobile robot unit 13. When the mobile robot unit 13 arrives at the destination, the following action is transmitted to the mobile robot unit 13.
【0053】PutImage:画像を送信させる行動 3)カメラID≠tのカメラ装置 Step1)MMI部15から送信された行動モデルと
環境モデルを記憶する(図2の)。PutImage: action to transmit an image 3) Camera apparatus with camera ID @ t Step 1) The action model and environment model transmitted from MMI unit 15 are stored (FIG. 2).
【0054】Step2)移動ロボット部13の画像テ
ンプレートを基に、常にカメラ画像から移動ロボット部
13を探索し、発見したときには、移動ロボット部13
へその座標値と自分のカメラIDをTCP/IP通信を
介して送信する(図2の)。Step 2) Based on the image template of the mobile robot unit 13, the mobile robot unit 13 is always searched from the camera image.
The umbrella coordinate value and its own camera ID are transmitted via TCP / IP communication (FIG. 2).
【0055】Step3)移動ロボット部13からサブ
タスクをTCP/IP通信で受信する。このコマンドか
ら得た移動ロボット部13のサブコール(カメラID=
sg)と移動ロボット部13の現在地から、サブタスク
(カメラID=sgへ移動する)を実現するための各A
jでの行動を算出する。Step 3) A subtask is received from the mobile robot unit 13 by TCP / IP communication. The subcall of the mobile robot unit 13 obtained from this command (camera ID =
sg) and each A for realizing a subtask (moving to camera ID = sg) from the current position of the mobile robot unit 13
The action at j is calculated.
【0056】図8にカメラID=3のカメラ装置のカメ
ラ画像内における可動領域とそこでの行動の例を示す。
ロボットのサブゴール(本来の目的地に向かう過程にあ
る補助的な目的地)ID=2のカメラ装置(sg=2)
の場合の各Aiでの行動と仮想壁の例であり、A4、A
2、A1は、それぞれカメラ画像内における可動領域と
そこでの行動を表し、FIG. 8 shows an example of a movable area in a camera image of a camera device having a camera ID = 3 and an action there.
Camera device with sub-goal (auxiliary destination in the process of heading for the original destination) ID = 2 of the robot (sg = 2)
Are examples of actions and virtual walls at each A i in the case of A 4 , A 4
2 , A 1 respectively represent the movable area in the camera image and the action there,
【0057】[0057]
【数5】 となる。(Equation 5) Becomes
【0058】ここで、FCは壁沿い行動を意味し、FW
は通話中心沿い行動を意味する。また、()は、仮想壁
を表し、Nullは仮想壁がないことを表す。この仮想
壁情報は、移動ロボット部13の周辺の実環境に壁がな
い場合に、目標とするサブタスクを実現するために、仮
想的にカメラ視野内で壁を算出し、移動ロボット部13
へ壁情報として利用させる目的がある。Here, FC means action along the wall, and FW
Means action along the center of the call. () Indicates a virtual wall, and Null indicates that there is no virtual wall. This virtual wall information is obtained by calculating a wall virtually in the camera field of view in order to realize a target sub-task when there is no wall in the real environment around the mobile robot unit 13.
The purpose is to use it as wall information.
【0059】次に、移動ロボット部13が現在存在する
領域に対する行動と、移動ロボット部13に対する仮想
壁の位置ベクトルを算出し、移動ロボット部13へ送信
する。Next, the action of the mobile robot unit 13 in the area where the mobile robot unit 13 is currently located and the position vector of the virtual wall with respect to the mobile robot unit 13 are calculated and transmitted to the mobile robot unit 13.
【0060】4)移動ロボット部 Step1)カメラID=tからTCP/IP通信を介
してカメラID=tと目標値ベクトルを受信し、各カメ
ラ装置から送信されてくるカメラIDと位置ベクトルを
受信し、現在地を記憶する(図2の)。4) Mobile Robot Unit Step 1) The camera ID = t and the target value vector are received from the camera ID = t via TCP / IP communication, and the camera ID and the position vector transmitted from each camera device are received. , And store the current location (of FIG. 2).
【0061】Step2)あらかじめ定義されたカメラ
装置の配置マトリクスを基に、ID=tのカメラに到達
するためのカメラ装置の順序を探索する(図2の)。
探索に関しては、本実施例では、一般的な横型探索によ
って、カメラ装置の経路順を算出したA*アルゴリズム
等他の探索アルゴリズムを利用しても可能である。Step 2) The order of the camera device to reach the camera with ID = t is searched based on the predefined arrangement matrix of the camera device (FIG. 2).
Regarding the search, in the present embodiment, it is possible to use another search algorithm such as the A * algorithm which calculates the route order of the camera device by a general horizontal search.
【0062】Step3)分散カメラ部10にサブタス
ク(次に到達したいカメラ装置ID)を送信し、そのた
めの行動モデルと仮想壁に対する位置ベクトルを受信し
(図2の)、受信した行動を、超音波センサ17で環
境を計測しながら、車輪を駆動して実行する(図2の
)。なお、カメラ装置から得た仮想壁の位置ベクトル
は、超音波センサ17で算出した壁情報と統合して車輪
制御量を決定する。Step 3) A subtask (camera device ID to be reached next) is transmitted to the distributed camera unit 10, an action model and a position vector with respect to the virtual wall are received (FIG. 2), and the received action is represented by an ultrasonic wave. While the environment is being measured by the sensor 17, the wheel is driven and executed (FIG. 2). The position vector of the virtual wall obtained from the camera device is integrated with the wall information calculated by the ultrasonic sensor 17 to determine the wheel control amount.
【0063】Step4)Step2からStep3を
繰り返してカメラID=tの分散カメラの目標値まで移
動する。Step 4) Step 2 to Step 3 are repeated to move to the target value of the distributed camera with camera ID = t.
【0064】Step5)ID=tのカメラからput
Imageを受信した場合には、MMI部15に具備し
ているカメラ画像を送信する(図2の)。Step 5) Put from camera with ID = t
When the image is received, a camera image provided in the MMI unit 15 is transmitted (FIG. 2).
【0065】本発明実施例では、説明をわかりやすくす
るために、二台のカメラ装置10−1および10−2を
設置した例を説明したが、さらに複数のカメラ装置を備
えることができる。In the embodiment of the present invention, an example in which two camera devices 10-1 and 10-2 are installed has been described for the sake of simplicity, but a plurality of camera devices may be further provided.
【0066】[0066]
【発明の効果】以上説明したように、本発明によれば、
遠隔地に配置されたロボットが作業者と協調して作業を
行うことができる。また、簡単な手順によりロボットの
配置された環境モデルおよびロボットの動作モデルを作
成することができる。As described above, according to the present invention,
A robot located at a remote place can work in cooperation with a worker. Further, an environment model in which the robot is arranged and an operation model of the robot can be created by a simple procedure.
【図1】本発明実施例の遠隔地観測装置の全体構成図。FIG. 1 is an overall configuration diagram of a remote observation apparatus according to an embodiment of the present invention.
【図2】MMI部、分散カメラ部および移動ロボット部
の個々の情報処理フローを示す図。FIG. 2 is a diagram showing an individual information processing flow of an MMI unit, a distributed camera unit, and a mobile robot unit.
【図3】環境モデルおよび行動モデルの教示の例におけ
るカメラ装置の配置例を示す図。FIG. 3 is a diagram showing an example of the arrangement of camera devices in an example of teaching an environment model and a behavior model.
【図4】環境モデルおよび行動モデルの教示の例におけ
るカメラID=1に対する教示の例を示す図。FIG. 4 is a diagram showing an example of teaching for camera ID = 1 in an example of teaching of an environment model and an action model.
【図5】環境モデルおよび行動モデルの教示の例におけ
るカメラID=2に対する教示の例を示す図。FIG. 5 is a diagram showing an example of teaching for camera ID = 2 in an example of teaching of an environment model and an action model.
【図6】環境モデルおよび行動モデルの教示の例におけ
るカメラID=3に対する教示の例を示す図。FIG. 6 is a diagram showing an example of teaching for camera ID = 3 in an example of teaching of an environment model and an action model.
【図7】カメラ画像内における可動領域とそこでの行動
の例を示す図。FIG. 7 is a diagram showing an example of a movable area in a camera image and actions in the movable area.
【図8】カメラ画像内における可動領域とそこでの行動
の例を示す図。FIG. 8 is a diagram showing an example of a movable area in a camera image and an action there.
10 分散カメラ部 10−1、10−2、12 カメラ装置 11 移動ロボット 13 移動ロボット部 14 装着型パーソナル・コンピュータ 15 MMI部 16 画像処理用パーソナル・コンピュータ 17 超音波センサ Reference Signs List 10 Distributed camera unit 10-1, 10-2, 12 Camera device 11 Mobile robot 13 Mobile robot unit 14 Wearable personal computer 15 MMI unit 16 Personal computer for image processing 17 Ultrasonic sensor
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G05D 1/00 G05D 1/00 B 1/02 1/02 J (72)発明者 片山 幸久 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 茂木 学 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 3F059 AA11 AA17 BB07 BC07 BC09 CA05 CA06 DA02 DA05 DA08 DB04 DB06 DB09 DC08 DD01 DD08 DD18 EA01 FA03 FA05 FA10 FB01 FB05 FB12 FB15 FC02 FC07 FC13 FC14 3F060 AA01 AA09 CA12 GA05 GA13 GD14 HA02 HA32 HA35 5H301 AA02 AA10 BB10 BB14 CC03 CC06 DD01 DD05 DD17 FF07 FF11 GG09 GG10 GG12 KK02 KK05 KK10 KK19 9A001 HH34 JJ71 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (reference) // G05D 1/00 G05D 1/00 B 1/02 1/02 J (72) Inventor Yukihisa Katayama Tokyo 2-3-1, Otemachi, Chiyoda-ku Nippon Telegraph and Telephone Corporation (72) Inventor Manabu Mogi 2-3-1, Otemachi, Chiyoda-ku, Tokyo F-Term (in reference) 3F059 AA11 AA17 BB07 BC07 BC09 CA05 CA06 DA02 DA05 DA08 DB04 DB06 DB09 DC08 DD01 DD08 DD18 EA01 FA03 FA05 FA10 FB01 FB05 FB12 FB15 FC02 FC07 FC13 FC14 3F060 AA01 AA09 CA12 GA05 GA13 GD14 HA02 HA32 HA35 5H301 AA02 BB10 DD03 GG09 GG10 GG12 KK02 KK05 KK10 KK19 9A001 HH34 JJ71
Claims (6)
た定点観測手段と、移動手段および観測手段を備えた移
動観測手段と、前記定点観測手段および前記移動観測手
段の観測情報を受信する手段と前記定点観測手段および
前記移動観測手段の制御情報を送信する手段とを備えた
遠隔操作手段とが設けられ、 前記制御情報には、前記観測対象地域内の観測位置指定
情報を含み、 前記定点観測手段は、この観測位置指定情報により指定
された観測位置の観測結果を前記観測情報として送信す
る手段と、この観測位置の観測が困難であるときには前
記移動観測手段にこの観測位置を観測するための行動指
令を発する手段とを備え、 前記移動観測手段は、この行動指令にしたがって前記観
測位置に移動する手段を備えたことを特徴とする遠隔地
観測装置。A plurality of fixed-point observing means installed in advance in an observation target area; a moving observing means having moving means and observing means; a means for receiving observation information of the fixed-point observing means and the moving observing means; Remote control means comprising a fixed point observation means and a means for transmitting control information of the mobile observation means, wherein the control information includes observation position designation information in the observation target area, and the fixed point observation means Means for transmitting an observation result of the observation position designated by the observation position designation information as the observation information, and an action for observing the observation position to the mobile observation means when it is difficult to observe the observation position. Means for issuing a command, and the movement observation means includes means for moving to the observation position in accordance with the action command. apparatus.
内の前記移動観測手段の有無を検出する手段と、この検
出結果にしたがって自己の観測エリア内に前記移動観測
手段が有るときには自己の設置位置情報を送信する手段
とを備え、 前記移動観測手段は、この設置位置情報を受信する手段
と、受信したこの設置位置情報とあらかじめ記録された
前記観測対象地域のマップ情報とにしたがって自己の現
在位置を認識する手段とを備えた請求項1記載の遠隔地
観測装置。2. The fixed point observing means includes means for detecting the presence or absence of the moving observing means in its own observing area, and installing the self observing means when the moving observing means is present in its own observing area according to the detection result. Means for transmitting position information, wherein the mobile observation means includes a means for receiving the installation position information, and the current position of the mobile observation unit according to the received installation position information and the pre-recorded map information of the observation target area. 2. The remote observation device according to claim 1, further comprising means for recognizing a position.
動指令にしたがって現在位置から前記観測位置までに通
過する前記定点観測手段の順序を前記マップ情報を参照
して探索する手段と、この順序にしたがって次に通過す
る前記定点観測手段の識別符号を送信する手段とを備
え、 この識別符号に該当する前記定点観測手段を含む経路情
報を送信する手段が設けられ、 前記観測位置に移動する手段は、この経路情報にしたが
って観測位置に移動する手段を含む請求項1または2記
載の遠隔地観測装置。3. The means for moving to the observation position, the means for searching for the order of the fixed-point observation means passing from the current position to the observation position in accordance with the action command with reference to the map information; Means for transmitting an identification code of the fixed point observing means which passes next according to the following, wherein means for transmitting path information including the fixed point observing means corresponding to the identification code is provided, and means for moving to the observation position The remote observation apparatus according to claim 1 or 2, further comprising means for moving to an observation position according to the route information.
実際に存在する壁または通路を基準に作成された請求項
3記載の遠隔地観測装置。4. The remote observation device according to claim 3, wherein the route information is created based on a wall or a passage actually existing in the observation target area.
地域内に設けられた壁を基準に作成された請求項3記載
の遠隔地観測装置。5. The remote observation apparatus according to claim 3, wherein the route information is created based on a wall virtually provided in the observation target area.
域内の機器を遠隔操作する手段を備えた請求項1ないし
5のいずれかに記載の遠隔地観測装置。6. The remote observation apparatus according to claim 1, wherein said mobile observation means includes means for remotely controlling a device in said observation target area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000137549A JP3657854B2 (en) | 2000-05-10 | 2000-05-10 | Remote location observation equipment |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000137549A JP3657854B2 (en) | 2000-05-10 | 2000-05-10 | Remote location observation equipment |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001315080A true JP2001315080A (en) | 2001-11-13 |
| JP3657854B2 JP3657854B2 (en) | 2005-06-08 |
Family
ID=18645307
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000137549A Expired - Fee Related JP3657854B2 (en) | 2000-05-10 | 2000-05-10 | Remote location observation equipment |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3657854B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007303870A (en) * | 2006-05-09 | 2007-11-22 | Nippon Telegr & Teleph Corp <Ntt> | Position calculation system |
| CN106066338A (en) * | 2016-08-04 | 2016-11-02 | 同方威视技术股份有限公司 | The back scattering detection equipment of autonomous and the localization method of method and apparatus |
| CN110116410A (en) * | 2019-05-28 | 2019-08-13 | 中国科学院自动化研究所 | Mechanical arm target guiding system, the method for view-based access control model servo |
| KR20200003319A (en) * | 2018-06-21 | 2020-01-09 | 한국기계연구원 | Mobile robot navigation system |
| JP2020038588A (en) * | 2018-09-06 | 2020-03-12 | トヨタ自動車株式会社 | Mobile robot, remote terminal, control program for mobile robot, and control program for remote terminal |
| JP2020149349A (en) * | 2019-03-13 | 2020-09-17 | 三菱電機株式会社 | Inspection support system and inspection support method |
| KR102339001B1 (en) * | 2020-07-30 | 2021-12-14 | 네이버랩스 주식회사 | A building that monitors mobile robots in an indoor space using a cloud server |
-
2000
- 2000-05-10 JP JP2000137549A patent/JP3657854B2/en not_active Expired - Fee Related
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007303870A (en) * | 2006-05-09 | 2007-11-22 | Nippon Telegr & Teleph Corp <Ntt> | Position calculation system |
| CN106066338A (en) * | 2016-08-04 | 2016-11-02 | 同方威视技术股份有限公司 | The back scattering detection equipment of autonomous and the localization method of method and apparatus |
| EP3279702A3 (en) * | 2016-08-04 | 2018-05-30 | Nuctech Company Limited | Autonomously mobile backscatter detection apparatus and method, and positioning method for the apparatus |
| US10634627B2 (en) | 2016-08-04 | 2020-04-28 | Nuctech Company Limited | Autonomously mobile backscatter detection apparatus and method, and positioning method for the apparatus |
| KR20200003319A (en) * | 2018-06-21 | 2020-01-09 | 한국기계연구원 | Mobile robot navigation system |
| KR102081093B1 (en) * | 2018-06-21 | 2020-02-25 | 한국기계연구원 | Mobile robot navigation system |
| US11284042B2 (en) | 2018-09-06 | 2022-03-22 | Toyota Jidosha Kabushiki Kaisha | Mobile robot, system and method for capturing and transmitting image data to remote terminal |
| JP2020038588A (en) * | 2018-09-06 | 2020-03-12 | トヨタ自動車株式会社 | Mobile robot, remote terminal, control program for mobile robot, and control program for remote terminal |
| CN110888428A (en) * | 2018-09-06 | 2020-03-17 | 丰田自动车株式会社 | Mobile robot, remote terminal, computer-readable medium, control system, control method |
| US11375162B2 (en) | 2018-09-06 | 2022-06-28 | Toyota Jidosha Kabushiki Kaisha | Remote terminal and method for displaying image of designated area received from mobile robot |
| JP7052652B2 (en) | 2018-09-06 | 2022-04-12 | トヨタ自動車株式会社 | Mobile robots, remote terminals, mobile robot control programs, and remote terminal control programs |
| JP2020149349A (en) * | 2019-03-13 | 2020-09-17 | 三菱電機株式会社 | Inspection support system and inspection support method |
| JP7246211B2 (en) | 2019-03-13 | 2023-03-27 | 三菱電機株式会社 | Inspection support system and inspection support method |
| CN110116410A (en) * | 2019-05-28 | 2019-08-13 | 中国科学院自动化研究所 | Mechanical arm target guiding system, the method for view-based access control model servo |
| JP2022027568A (en) * | 2020-07-30 | 2022-02-10 | ネイバーラボス コーポレーション | Robot control method and system |
| KR102339002B1 (en) * | 2020-07-30 | 2021-12-14 | 네이버랩스 주식회사 | Control method and system for robot |
| JP7199480B2 (en) | 2020-07-30 | 2023-01-05 | ネイバーラボス コーポレーション | Robot control method and system |
| KR102339001B1 (en) * | 2020-07-30 | 2021-12-14 | 네이버랩스 주식회사 | A building that monitors mobile robots in an indoor space using a cloud server |
| US12105508B2 (en) | 2020-07-30 | 2024-10-01 | Naver Labs Corporation | Control method and system for robot |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3657854B2 (en) | 2005-06-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7714895B2 (en) | Interactive and shared augmented reality system and method having local and remote access | |
| CN111459277B (en) | Construction method of manipulator teleoperation system and interactive interface based on mixed reality | |
| US20200055195A1 (en) | Systems and Methods for Remotely Controlling a Robotic Device | |
| JP2005106825A (en) | Method and apparatus for determining position and orientation of image receiving device | |
| CN112634318B (en) | A teleoperating system and method for an underwater maintenance robot | |
| JP2020038588A (en) | Mobile robot, remote terminal, control program for mobile robot, and control program for remote terminal | |
| CN115157261A (en) | Human-computer interaction device and method for teleoperation of flexible manipulator based on mixed reality | |
| CN119501929A (en) | A robot teleoperation method and system based on virtual reality and digital twin | |
| JPH0811071A (en) | Manipulator controller | |
| KR20220165948A (en) | Method and system for remote collaboration | |
| JP2020142326A (en) | Robot system | |
| JP2001315080A (en) | Remote observation equipment | |
| JP5028568B2 (en) | Robot control system | |
| CN110539315B (en) | Construction robot based on virtual reality control | |
| US11262887B2 (en) | Methods and systems for assigning force vectors to robotic tasks | |
| US20230294288A1 (en) | Regulated region management system, mobile body management system, regulated region management method, and non-transitory storage medium | |
| JPH10264065A (en) | Robot remote operation support device | |
| JP2001062766A (en) | User interface system for remote control of bipedal walking robot | |
| JPH03213278A (en) | Remote control support system for robot | |
| KR102497044B1 (en) | Teleoperation Device and Method for Automatic Assignment of Compliant Space | |
| US20240375280A1 (en) | Method of manipulating a construction object, construction robot system, and computer program product | |
| JPH07328971A (en) | Manipulator with TV camera | |
| KR20190091870A (en) | Robot control system using motion sensor and VR | |
| JPH0430981A (en) | Control unit for television camera of remote control type robot | |
| KR102735386B1 (en) | Apparatus and method for controlling a robot manipulator using a gimbal mechanism |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040414 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040525 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040723 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041214 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050308 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050310 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080318 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090318 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090318 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100318 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110318 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110318 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120318 Year of fee payment: 7 |
|
| LAPS | Cancellation because of no payment of annual fees |