JP2003311661A - Remote control device - Google Patents
Remote control deviceInfo
- Publication number
- JP2003311661A JP2003311661A JP2002122796A JP2002122796A JP2003311661A JP 2003311661 A JP2003311661 A JP 2003311661A JP 2002122796 A JP2002122796 A JP 2002122796A JP 2002122796 A JP2002122796 A JP 2002122796A JP 2003311661 A JP2003311661 A JP 2003311661A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- work
- environment
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
Abstract
(57)【要約】
【課題】 作業環境中のロボット遠隔的に操作制御しつ
つ前記ロボットに必要な作業を行わせるようになってい
る遠隔操作制御装置として、ロボットを手動操作する操
作者の負担を軽減することができ、また従来よりも広い
範囲の保守対象や作業内容に適用することを可能な遠隔
操作制御装置を提供する。
【解決手段】 作業環境の映像を捉えるカメラ3、作業
環境中の物体12、13の位置姿勢やロボット1の操作
に必要な位置決めに関する情報などを環境モデルとして
記憶する環境モデル記憶手段5、およびカメラが捉えた
映像と環境モデルから得られる位置決めに関する情報を
図形化して表示した画像とを合成した合成画像を生成す
る合成画像生成手段8を備え、ロボットの手動操作を行
う際に、前記合成画像を表示手段9に表示して手動操作
を誘導できるようにしている。
(57) [Summary] [PROBLEMS] As a remote control device configured to allow a robot to perform necessary work while remotely controlling a robot in a work environment, a burden on an operator who manually operates the robot. And a remote control device that can be applied to a wider range of maintenance targets and work contents than before. SOLUTION: A camera 3 for capturing an image of a work environment, an environment model storage means 5 for storing, as an environment model, information relating to the position and orientation of objects 12 and 13 in the work environment and positioning necessary for operation of the robot 1, and a camera Image generating means 8 for generating a synthesized image by synthesizing the image captured by the camera and the image obtained by graphically displaying the information on the positioning obtained from the environment model. When the robot is manually operated, the synthesized image is generated. It is displayed on the display means 9 so that a manual operation can be guided.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えば保守員が容
易に立ち入ることのできない場所にある装置などをロボ
ットの操作を通じて遠隔的に保守したりするのに用いら
れる遠隔操作制御装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a remote control device used, for example, to remotely maintain a device or the like located in a place where maintenance personnel cannot easily enter it by operating a robot.
【0002】[0002]
【従来の技術】例えば放射線環境下や宇宙環境など人が
容易に立ち入ることのできない環境下にある装置、ある
いは遠隔地にあってそこに保守員が出向くのに手間やコ
ストのかかる場所にある装置を定期的に保守したりする
ためには、作業用のロボットを用いて離れた場所から遠
隔的に作業することが望ましい。この時、保守において
実施すべき作業が既知である場合、あるいは定期的な保
守における作業の内容が毎回同一である場合には、予め
ロボットの動作をプログラミングしておき、人間が操作
することなく自動運転で作業ができると効率的である。
(なお、本明細書において「ロボット」とは、マニピュ
レータなども含めた、遠隔操作で作業を行なわせる機械
装置一般を意味するものとする。)2. Description of the Related Art Equipment that is in an environment where humans cannot easily enter, such as a radiation environment or a space environment, or equipment that is located in a remote place and where maintenance personnel are required to visit it at a time and costly place. In order to perform maintenance on a regular basis, it is desirable to work remotely from a remote location using a work robot. At this time, if the work to be performed in the maintenance is known, or if the contents of the work in the periodic maintenance are the same each time, the robot operation is programmed in advance and the operation is automatically performed without human operation. It is efficient to be able to work while driving.
(In this specification, the term "robot" refers to a general mechanical device including a manipulator and the like, which allows remote operation.)
【0003】しかしながら、たとえ定期的に行われる同
一作業であっても、前回存在しなかった障害物が存在し
たり、保守対象である装置の一部が壊れているなど予期
せぬ状況が発生していることが考えられる。現状のロボ
ット技術においては、このような不測の事態を正しく解
釈してプログラムにより自動的に回避することは困難で
あるため、従来は遠隔地にいる人の手の動きをマニピュ
レータに伝えるマスタースレーブマニピュレータのよう
な装置によって手動で保守作業を行うことが多い。ある
いは、不測の事態が生じたら必ず検出が可能な保守対象
や作業内容に限定したり、不測の事態を検出可能となる
ように、保守対象である装置に特殊な仕掛けを設けるこ
とにより、自動運転の保守作業を実現している。However, even if the same work is performed on a regular basis, an unexpected situation may occur, such as the presence of obstacles that did not exist the previous time or the breakage of some of the devices to be maintained. It is possible that In the current robot technology, it is difficult to correctly interpret such an unexpected situation and avoid it automatically by a program, so conventionally, a master-slave manipulator that conveys the hand movement of a person in a remote place to the manipulator. Maintenance work is often performed manually with a device such as. Alternatively, automatic operation can be performed by limiting the maintenance target and work content that can be detected in the event of an unexpected situation, or by providing a special device to the device to be maintained so that an unexpected situation can be detected. The maintenance work of is realized.
【0004】[0004]
【発明が解決しようとする課題】上記従来の技術におけ
るマスタースレーブマニピュレータを用いた方法では、
マニピュレータの作業現場にテレビカメラを設置し、こ
のカメラが捉えた映像を見ながら作業をするため、作業
がやりづらく、時間がかかると言う問題がある。また、
このような状況でマスターアームを操作する方式では操
作者の疲労が著しく、長時間の作業が難しいと言う問題
がある。In the method using the master-slave manipulator in the above conventional technique,
Since a TV camera is installed at the work site of the manipulator and the user works while watching the image captured by this camera, there is a problem that the work is difficult to do and it takes time. Also,
In the method of operating the master arm in such a situation, there is a problem that operator's fatigue is significant and it is difficult to work for a long time.
【0005】一方、上記従来の技術における自動運転の
方法では、適用可能な保守対象や作業内容が著しく制限
されるという問題がある。また、不測の事態が生じない
場合であっても、部品の着脱など微妙な位置合わせや力
加減を必要とする作業の中には、まだ十分な信頼性を持
って自動化できない作業も多く残っていると言う問題が
ある。On the other hand, the above-mentioned conventional automatic driving method has a problem that applicable maintenance targets and work contents are significantly limited. Even if unexpected situations do not occur, there are still many tasks that require sufficient reliability, such as attachment / detachment of parts, that require subtle positioning and force adjustment, and cannot be automated with sufficient reliability. There is a problem that
【0006】なお、ロボットを用いる遠隔操作制御装置
については、例えば特開平9−254065号公報に開
示の例などが知られている。しかし特開平9−2540
65号公報の技術は、ロボットの遠隔操作のためにロボ
ットとその作業環境をディスプレイ装置に表示するにつ
いて、その表示の効率を高めることを意図しているもの
であり、上記のような問題に対しては解決をもたらして
いない。As a remote control device using a robot, an example disclosed in Japanese Patent Laid-Open No. 9-254065 is known. However, JP-A-9-2540
The technique disclosed in Japanese Patent No. 65 is intended to improve the efficiency of displaying a robot and its working environment on a display device for remote control of the robot. Does not bring a solution.
【0007】そこで、本発明の目的は、操作者の負担を
軽減することができ、また従来よりも広い範囲の保守対
象や作業内容に適用することを可能な遠隔操作制御装置
を提供することにある。Therefore, an object of the present invention is to provide a remote operation control device which can reduce the burden on the operator and can be applied to a wider range of maintenance targets and work contents than before. is there.
【0008】[0008]
【課題を解決するための手段】上記目的のために本発明
では、作業環境中に設置されるロボットを操作制御系で
遠隔的に操作制御しつつ前記ロボットに必要な作業を行
わせるようになっている遠隔操作制御装置において、前
記ロボットを手動で操作するための操作手段、作業環境
の映像を捉えるカメラ、作業環境中で前記ロボットによ
る作業の対象となる物体の位置姿勢や前記ロボットの操
作に必要な作業環境中での位置決めに関する情報などを
環境モデルとして記憶する環境モデル記憶手段、前記カ
メラが捉えた映像と前記環境モデル記憶手段から得られ
る位置決めに関する情報を図形化して表示した画像とを
合成した合成画像を生成する合成画像生成手段、および
この合成画像生成手段で生成された合成画像を表示する
表示手段を備え、前記操作手段により前記ロボットの手
動操作を行う際に、前記合成画像を前記表示手段に表示
して手動操作を誘導できるようにされていることを特徴
としている(第1の発明)。To achieve the above object, the present invention allows a robot installed in a work environment to be remotely operated and controlled by an operation control system while allowing the robot to perform a necessary work. In the remote control device, the operating means for manually operating the robot, the camera for capturing an image of the work environment, the position and orientation of the object to be worked by the robot in the work environment, and the operation of the robot An environment model storage means for storing information about positioning in a necessary work environment as an environment model, an image captured by the camera and an image displayed by graphically displaying the positioning information obtained from the environment model storage means. A composite image generating means for generating the composite image, and a display means for displaying the composite image generated by the composite image generating means, The serial operation unit when performing manual operation of the robot, is characterized in that it is so capable of inducing manual operation to display the composite image on the display unit (first invention).
【0009】また上記目的のために本発明では、作業環
境中に設置されるロボットを操作制御系で遠隔的に操作
制御しつつ前記ロボットに必要な作業を作業環境中で行
わせるようになっている遠隔操作制御装置において、作
業環境の映像を捉えるカメラと作業環境中で前記ロボッ
トによる作業の対象となる物体の位置姿勢や前記ロボッ
トの操作に必要な作業環境中での位置決めに関する情報
などを環境モデルとして記憶する環境モデル記憶手段を
備えるとともに、前記ロボットの自動運転のための動作
司令を生成する動作司令生成手段と前記ロボットを手動
で操作するための操作手段を備え、前記ロボットの自動
運転と手動操作を選択できるようにされており、そして
前記環境モデル中の物体の位置姿勢と前記カメラで捉え
た作業環境中の物体の位置姿勢との比較により両者に一
定以上のずれが生じていることを検出した場合には、自
動運転が停止されて手動操作に自動的に移行するように
されていることを特徴としている(第2の発明)。To achieve the above object, the present invention allows the robot installed in the work environment to be remotely controlled by an operation control system while allowing the robot to perform necessary work in the work environment. In the remote control device, the environment of the camera that captures the image of the work environment and the position and orientation of the object that is the target of the work by the robot in the work environment and the positioning information in the work environment that is necessary for the operation of the robot The robot includes an environment model storage unit for storing as a model, an operation command generation unit for generating an operation command for automatic operation of the robot, and an operation unit for manually operating the robot, and an automatic operation of the robot. The manual operation can be selected, and the position and orientation of the object in the environment model and the object in the working environment captured by the camera When it is detected that there is a certain amount of deviation between the two by comparing with the position and orientation described in (1), the automatic operation is stopped and the manual operation is automatically performed ( Second invention).
【0010】また本発明では上記第2の発明に係る遠隔
操作制御装置について、カメラが捉えた映像と環境モデ
ル記憶手段から得られる位置決めに関する情報を図形化
して表示した画像とを合成した合成画像を生成する合成
画像生成手段およびこの合成画像生成手段で生成された
合成画像を表示する表示手段を設け、手動操作に移行し
た際に、前記合成画像を前記表示手段に表示して手動操
作を誘導できるようにしている(第3の発明)。Further, according to the present invention, in the remote control device according to the second aspect of the present invention, a composite image obtained by synthesizing a video captured by a camera and an image displayed by graphically displaying positioning information obtained from the environment model storage means is displayed. Providing a composite image generating means for generating and a display means for displaying the composite image generated by the composite image generating means, when the manual operation is started, the composite image can be displayed on the display means to guide the manual operation. (Third invention).
【0011】また本発明では上記第1〜3の発明の何れ
か一つに係る遠隔操作制御装置について、環境モデル中
の物体の位置姿勢とカメラで捉えた作業環境中の物体の
位置姿勢とにずれが生じている場合に、そのずれをなく
すように前記環境モデルを修正する環境モデル修正手段
を設けるようにしている(第4の発明)。Further, according to the present invention, in the remote operation control device according to any one of the first to third inventions, the position and orientation of the object in the environment model and the position and orientation of the object in the working environment captured by the camera are determined. When a deviation occurs, an environment model correction means for correcting the environment model is provided so as to eliminate the deviation (fourth invention).
【0012】また本発明では上記第1〜4の発明の何れ
か一つに係る遠隔操作制御装置について、作業中のロボ
ットまたはロボットによる作業を受けている物体がその
作業目的のために作業環境中で位置決めすべき位置決め
点に対応した位置姿勢のマークを表示した画像を位置決
めに関する情報の図形化画像として用いるようにしてい
る(第5の発明)。Further, in the present invention, in the remote operation control device according to any one of the first to fourth inventions, a working robot or an object being worked by the robot is in a working environment for its working purpose. The image in which the mark of the position and orientation corresponding to the positioning point to be positioned is displayed is used as the graphic image of the information regarding the positioning (fifth invention).
【0013】また本発明では上記第1〜5の発明の何れ
か一つに係る遠隔操作制御装置について、作業中のロボ
ットまたはロボットによる作業を受けている物体がその
作業目的のために作業環境中で位置決めすべき位置決め
点に対応した位置姿勢の第1のマークと、前記ロボット
または物体が作業の進行に伴って変える位置姿勢に対応
した位置姿勢の第2のマークを表示した画像を位置決め
に関する情報の図形化画像として用いるようにしている
(第6の発明)。Further, according to the present invention, in the remote operation control device according to any one of the first to fifth inventions, a robot being worked or an object undergoing work by the robot is in a working environment for its working purpose. Information regarding positioning of an image displaying a first mark of a position and orientation corresponding to a positioning point to be positioned by and a second mark of a position and orientation corresponding to the position and orientation changed by the robot or the object as the work progresses. (6th invention).
【0014】また本発明では上記第1〜6の発明の何れ
か一つに係る遠隔操作制御装置について、ロボットによ
る作業を受けている作業環境中の物体がその作業目的の
ために作業環境中で位置決めすべき位置決め点に位置決
めしたら見えるであろう前記物体の外観形状の図形を表
示した画像を位置決めに関する情報の図形化画像として
用いるようにしている(第7の発明)。Further, according to the present invention, in the remote operation control device according to any one of the first to sixth inventions, an object in a work environment undergoing work by a robot is in the work environment for its work purpose. An image displaying a figure of the appearance shape of the object that will be visible after positioning at the positioning point to be positioned is used as a graphic image of information regarding positioning (seventh invention).
【0015】また本発明では上記第1〜7の発明の何れ
か一つに係る遠隔操作制御装置について、作業環境中の
位置決めすべき物体を他の対象物体に組み合わせる作業
をロボットに行わせる場合に、前記ロボットによる作業
を受けている状態の前記位置決めすべき物体に前記対象
物体が組み合わされたら見えるであろう前記対象物体の
外観形状の図形を表示した画像を位置決めに関する情報
の図形化画像として用いるようにしている(第8の発
明)。Further, according to the present invention, in the remote operation control device according to any one of the first to seventh inventions, when the robot is made to perform an operation of combining an object to be positioned with another target object in the work environment. , Using an image displaying a figure of the external shape of the target object that would be visible when the target object is combined with the object to be positioned in the state of being operated by the robot, as a graphic image of information regarding positioning (Eighth invention).
【0016】また本発明では上記第8の発明に係る遠隔
操作制御装置について、ロボットが位置決めすべき物体
を把持した状態で当該位置決めすべき物体をロボットの
把持部位から捉えることができるようにしたカメラを設
け、このカメラが捉えた映像に位置決めに関する情報の
図形化画像を重ね合わせて合成画像を生成するようにし
ている(第9の発明)。Further, according to the present invention, in the remote operation control device according to the eighth aspect of the present invention, a camera capable of capturing an object to be positioned from a gripping portion of the robot while the robot grips an object to be positioned. Is provided, and a graphic image of information regarding positioning is superimposed on the image captured by the camera to generate a composite image (ninth invention).
【0017】また本発明では上記第7の発明または第9
の発明に係る遠隔操作制御装置について、カメラが捉え
た作業環境の映像と位置決めに関する情報の図形化画像
とを奥行も考慮して重ね合わせて合成画像を生成するよ
うにしている(第10の発明)。Further, in the present invention, the seventh invention or the ninth invention is provided.
In the remote operation control device according to the invention described above, the image of the work environment captured by the camera and the graphic image of the information regarding positioning are overlapped in consideration of the depth to generate a composite image (the tenth invention). ).
【0018】また本発明では上記第1〜10の発明の何
れか一つに係る遠隔操作制御装置について、表示手段の
画面上における位置を入力する入力手段と、この入力手
段で入力された位置に関する情報から作業環境中の一つ
の物体を対象物体として選択する対象物体選択手段を設
け、前記入力手段で前記表示手段の画面上に位置が入力
された際には、前記対象物体選択手段が選択した対象物
体に関して位置決めに関する情報の図形化画像を生成す
るようにしている(第11の発明)。Further, according to the present invention, in the remote control device according to any one of the first to tenth inventions, the input means for inputting the position on the screen of the display means and the position input by this input means are related. Target object selecting means for selecting one object in the work environment from information as a target object is provided, and when the position is input on the screen of the display means by the input means, the target object selecting means selects A graphic image of information on positioning of the target object is generated (the eleventh invention).
【0019】また本発明では上記第1〜8の発明または
第10〜11の発明の何れか一つに係る遠隔操作制御装
置について、作業環境の映像を捉えるカメラを複数台設
け、これら各カメラが捉えた作業環境の映像を切り替え
て表示手段に表示できるようにするとともに、この表示
映像の切り替えに応じて位置決めに関する情報の図形化
画像の表示の仕方も切り替えることができるようにして
いる(第12の発明)。Further, in the present invention, the remote operation control device according to any one of the first to eighth inventions or the tenth to eleventh inventions is provided with a plurality of cameras for capturing an image of a work environment. The captured image of the work environment can be switched and displayed on the display means, and the method of displaying the graphic image of the information regarding positioning can also be switched according to the switching of the displayed image (twelfth). Invention).
【0020】[0020]
【発明の実施の形態】以下、本発明の実施の形態を説明
する。図1に、本発明の一実施形態による遠隔操作制御
装置の構成をブロック図にして示す。この遠隔操作制御
装置は、作業現場に設置されて装置や設備の保守等の作
業を行うロボット1と、このロボット1を遠隔的に操作
制御する操作制御系からなる。その操作制御系は、ロボ
ット1を手動で操作するのに用いられる操作手段2、ロ
ボット1が作業する作業環境の映像を捉えるカメラ3、
作業環境に含まれる物体の位置姿勢を認識して環境モデ
ルを修正する環境モデル修正手段4、作業環境に含まれ
る物体の位置姿勢情報やロボット操作に必要な位置決め
に関する情報などを環境モデルとして記憶する環境モデ
ル記憶手段5、ロボット1に対して自動動作に関する動
作司令を生成する動作司令生成手段6、動作司令生成手
段6が生成した動作司令と操作手段2より入力された動
作司令のいずれかを選択してロボット1に転送する切替
え手段7、環境モデル記憶手段5に格納の情報を用いて
ロボット操作に必要な位置決めに関する情報を図形化し
て表示した画像とカメラ3が捉えた映像とを合成した画
像を生成する合成画像生成手段8、合成画像の表示手段
9、カメラ3が捉えた映像上の位置や種々の指令を遠隔
操作制御装置に入力するための入力手段10、および入
力手段10より入力された位置情報に基づいて作業環境
内の物体を選択する対象物体選択手段11を備えてい
る。なお、図1の例では、作業環境に物体12と物体1
3があり、ロボット1で物体12を物体13の穴14に
挿入する作業をなす状況を示してある。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of a remote control device according to an embodiment of the present invention. This remote operation control device comprises a robot 1 installed at a work site for performing work such as maintenance of devices and equipment, and an operation control system for remotely operating and controlling the robot 1. The operation control system includes operation means 2 used for manually operating the robot 1, a camera 3 for capturing an image of a work environment in which the robot 1 operates,
An environment model correction unit 4 that recognizes the position and orientation of an object included in the work environment and corrects the environment model, and stores the position and orientation information of the object included in the work environment and information regarding positioning necessary for robot operation as an environment model. The environment model storage means 5, the operation command generation means 6 for generating an operation command related to an automatic operation for the robot 1, the operation command generated by the operation command generation means 6 and the operation command input from the operation means 2 are selected. Then, the image is displayed by combining the image captured by the camera 3 with the switching means 7 for transferring to the robot 1 and the information stored in the environment model storage means 5 to display the information relating to the positioning necessary for robot operation. The composite image generation means 8 for generating the image, the composite image display means 9, the position on the image captured by the camera 3 and various commands are input to the remote control device. And a target object selecting means 11 for selecting an object in the work environment based on the input unit 10, and the position information inputted from the input means 10 for. In the example of FIG. 1, the object 12 and the object 1 are placed in the work environment.
3, there is shown a situation in which the robot 1 inserts the object 12 into the hole 14 of the object 13.
【0021】ここで、環境モデル修正手段4から対象物
体選択手段11までを含む操作制御系はコンピュータシ
ステムとして構成したものであってもよい。そのように
する場合には、環境モデル修正手段4、動作司令生成手
段6、切替え手段7、合成画像生成手段8および対象物
体選択手段11は、コンピュータシステム上のソフトウ
エアとして、また環境モデル記憶手段5はコンピュータ
システムの記憶装置として、また合成画像の表示手段9
はコンピュータシステムの表示装置として、そして入力
手段10はコンピュータシステムの入力装置として構成
することになる。The operation control system including the environment model correction means 4 to the target object selection means 11 may be configured as a computer system. In such a case, the environment model correction means 4, the action command generation means 6, the switching means 7, the composite image generation means 8 and the target object selection means 11 are used as software on the computer system, and the environment model storage means. Reference numeral 5 denotes a storage device of a computer system, and a display means 9 for displaying a composite image.
Will be configured as a display device of the computer system, and the input means 10 will be configured as an input device of the computer system.
【0022】以下、個々の構成要素の詳細について説明
する。本実施形態におけるロボット1は、回転型の関節
を備え、先端に物体を把持する把持機構を備えたアーム
型のロボットであり、駆動装置によって関節の角度を変
えることで把持機構の位置姿勢を変えることができるよ
うになっている。本発明においては、このよなアーム型
のロボットの他に、例えば脚機構や車輪のような移動機
構を備えた走行型のロボットであってもよい。また、ロ
ボットが物体把持機構を備えている必要は必ずしもない
し、アーム型ロボットであっても回転型の関節を備えて
いる必要もなく、直動型の関節を備えたものであっても
よい。The details of each component will be described below. The robot 1 according to the present embodiment is an arm type robot having a rotary joint and a gripping mechanism for gripping an object at the tip, and the position and orientation of the gripping mechanism is changed by changing the angle of the joint by a driving device. Is able to. In the present invention, in addition to such an arm type robot, a traveling type robot having a moving mechanism such as a leg mechanism or a wheel may be used. Further, the robot does not necessarily have to have an object gripping mechanism, and even an arm type robot does not need to have a rotary joint, and may have a direct acting joint.
【0023】操作手段2は、本実施形態におけるアーム
型のロボット1に対してはその把持機構の取るべき位置
姿勢を入力する装置である。一方、ロボットとして走行
型を用いる場合であれば、操作手段はその走行型ロボッ
トに対してそれ自身の位置姿勢を入力する装置となる。
具体的構成としては、例えばロボット1と同一形状のア
ーム型多関節機構として構成し、把持機構に相当する場
所を手に持って操作するようなマスターアーム型の装置
であってもよい。あるいは、前後左右の位置を入力する
ジョイスティックやコンピュータのマウスのような装置
を用いるものであってもよい。The operation means 2 is a device for inputting the position / orientation to be taken by the gripping mechanism of the arm type robot 1 in this embodiment. On the other hand, when the traveling type robot is used, the operating means is a device for inputting its own position and orientation to the traveling type robot.
As a specific configuration, for example, a master arm type device configured as an arm type multi-joint mechanism having the same shape as the robot 1 and operated by holding a place corresponding to a gripping mechanism in a hand may be used. Alternatively, a device such as a joystick or a computer mouse for inputting front, rear, left and right positions may be used.
【0024】環境モデル記憶手段5は、図2に例示する
ような実際の作業環境における物体の配置状態を図4に
示すような形で記憶するものである。図2の例では、作
業環境内に、floor(作業環境の床の意)と名付け
られる物体100、body(本体)と名付けたられる
物体101およびcap(ふた)と名付けられる物体1
02があり、物体102は穴103を有している。The environment model storage means 5 stores the arrangement state of the objects in the actual work environment as illustrated in FIG. 2 in the form as shown in FIG. In the example of FIG. 2, in the work environment, an object 100 named floor (meaning the floor of the work environment), an object 101 named body (body) and an object 1 named cap (lid).
02, and the object 102 has a hole 103.
【0025】この作業環境については、物体の位置姿勢
や物体の位置決め点を表すための座標系104〜110
が設定される。座標系104は、環境モデル全体の基準
となる座標系(ワールド座標系)であり、環境モデルに
含まれる全ての物体や位置決め点の位置姿勢はこの座標
系に対する座標値として表現される。座標系105、1
06はそれぞれfloorとbodyの位置姿勢を表す
座標系であり、107はbodyに対するcapの位置
決め点を表す座標系であると同時にcapの位置姿勢を
表す座標系である。即ち、図2ではcapがbodyの
位置決め点に位置決めされた状態となっていることを表
している。座標系108は、capをロボットが把持す
る場合の把持機構の位置決め点を表す座標系である。1
09は、capに設けられた穴103に物体を挿入する
場合の物体の位置決め点を表す座標系である。110は
穴103に物体を挿入する際にその物体を挿入する直前
の段階で位置決めする点を表す座標系である。なお、
「位置姿勢」とは、物体等の位置と姿勢(向き)を含ん
だ概念である。Regarding this work environment, coordinate systems 104 to 110 for representing the position and orientation of the object and the positioning points of the object
Is set. The coordinate system 104 is a coordinate system (world coordinate system) that serves as a reference for the entire environment model, and the positions and orientations of all objects and positioning points included in the environment model are expressed as coordinate values for this coordinate system. Coordinate system 105, 1
Reference numeral 06 is a coordinate system that represents the position and orientation of floor and body, respectively, and 107 is a coordinate system that represents the positioning point of cap with respect to body and at the same time is a coordinate system that represents the position and orientation of cap. That is, FIG. 2 shows that the cap is positioned at the body positioning point. The coordinate system 108 is a coordinate system that represents a positioning point of the gripping mechanism when the robot grips the cap. 1
Reference numeral 09 is a coordinate system representing a positioning point of the object when the object is inserted into the hole 103 provided in the cap. Reference numeral 110 is a coordinate system that represents a point to be positioned immediately before the insertion of an object into the hole 103. In addition,
"Position and orientation" is a concept that includes the position and orientation (orientation) of an object or the like.
【0026】ここで、位置決め点109(座標系109
で表される位置決め点)と位置決め点110(座標系1
10で表される位置決め点)の関係について図3を用い
て説明する。capの穴103に例えばボルト111の
ような物体を挿入する作業を行う場合、まず図3(a)
に示すようにボルト111を穴の真上の位置決め点11
0の場所に穴の中心軸とボルトの中心軸が一致するよう
に位置決めし、続いて図3(b)に示すように真っ直ぐ
所定の位置決め点109まで挿入することが望ましい。
同様に、ボルト111を取外す場合にも、位置決め点1
10まで持っていってから取外すことが望ましい。この
ような挿入・取外し動作を行うことで、ボルトが穴の側
壁に引っ掛かるようなトラブルの発生を防ぐことができ
る。Here, the positioning point 109 (coordinate system 109
And the positioning point 110 (coordinate system 1)
The relationship between the positioning points 10) will be described with reference to FIG. When an object such as a bolt 111 is inserted into the hole 103 of the cap, first, FIG.
Set the bolt 111 to the positioning point 11 just above the hole as shown in.
It is desirable to position the hole so that the central axis of the hole and the central axis of the bolt coincide with each other, and then insert straight up to a predetermined positioning point 109 as shown in FIG. 3B.
Similarly, when removing the bolt 111, the positioning point 1
It is desirable to take it to 10 and then remove it. By performing such an insertion / removal operation, it is possible to prevent the occurrence of a trouble in which the bolt is caught on the side wall of the hole.
【0027】このように、位置決め点109は、穴に挿
入された状態においてボルトが取るべき位置姿勢を表す
座標系であるのに対して、位置決め点110は、挿入あ
るいは取外す途中でボルトが位置決めすべき位置姿勢を
表す座標系である。以後、109のような位置決め点を
アタッチ・ポイント(attach point)と呼ぶのに対し
て、110のような位置決め点をアプローチ・ポイント
(approach point)と呼ぶことにする。また、108の
ようにロボットの把持機構を位置決めする位置決め点を
グラスプ・ポイント(grasp point)と呼ぶことにす
る。As described above, the positioning point 109 is a coordinate system that represents the position and orientation of the bolt that should be taken in the state of being inserted into the hole, whereas the positioning point 110 is where the bolt is positioned during insertion or removal. It is a coordinate system that represents the power position and orientation. Hereinafter, a positioning point such as 109 will be referred to as an attach point, while a positioning point such as 110 will be referred to as an approach point. Further, a positioning point for positioning the gripping mechanism of the robot, such as 108, will be referred to as a grasp point.
【0028】環境モデル記憶手段5は、以上のような作
業環境の状況を図4に示すような構造体変数120〜1
26として記憶する。個々の構造体変数(構造体)には
物体名称120a、接続先120b、座標変換パラメー
タ120cの各情報が記憶される。物体名称120aは
構造体が表す物体または位置決め点の名称を表し、接続
先120bは構造体が表す物体または位置決め点が接続
される物体または位置決め点を表し、座標変換パラメー
タ120cは接続先の物体または位置決め点に対する相
対的な位置姿勢を表す。図4において、構造体120、
121、123はそれぞれ図2に示す物体100(fl
oor)、101(body)、102(cap)に対
応し、構造体122、124、125、126は位置決
め点107、108、109、110に対応する。The environment model storage means 5 shows the situation of the work environment as described above as structure variables 120 to 1 as shown in FIG.
It is stored as 26. Information of the object name 120a, the connection destination 120b, and the coordinate conversion parameter 120c is stored in each structure variable (structure). The object name 120a represents the name of the object or positioning point represented by the structure, the connection destination 120b represents the object or positioning point to which the structure represented by the structure or the positioning point is connected, and the coordinate conversion parameter 120c is the connection destination object or It represents the relative position and orientation with respect to the positioning point. In FIG. 4, the structure 120,
121 and 123 are the object 100 (fl shown in FIG. 2 respectively.
oor), 101 (body), and 102 (cap), and the structures 122, 124, 125, and 126 correspond to the positioning points 107, 108, 109, and 110.
【0029】座標変換パラメータは、例えば以下のよう
な4×4行列によって表現する。X軸、Y軸、Z軸まわ
りの回転移動変換行列をそれぞれThe coordinate conversion parameters are expressed by the following 4 × 4 matrix, for example. Rotation movement conversion matrix around the X-axis, Y-axis, and Z-axis, respectively
【数1】 とし、平行移動を表す3次元ベクトルを[Equation 1] And a three-dimensional vector that represents the translation
【数2】 とする時、座標変換パラメータAを以下の式で与える。[Equation 2] Then, the coordinate conversion parameter A is given by the following formula.
【数3】 [Equation 3]
【0030】上記のような座標変換パラメータを用いる
ことにより、ある物体あるいは位置決め点のワールド座
標系に対する位置姿勢は、当該物体あるいは位置決め点
に対応する構造体の座標変換パラメータとその接続先か
ら出発して接続先が末端(root)である構造体までの座
標変換パラメータを全て掛け合せることにより求められ
る。例えば、位置決め点110の位置姿勢は、対応する
構造体126の座標変換パラメータA7とその接続先で
ある構造体125から順次接続先を辿ってゆき、接続先
がrootである構造体120に至るまでの全ての座標変換
パラメータA6、A4、A3、A2、A1を掛け合せる
ことにより得られる。By using the coordinate conversion parameters as described above, the position and orientation of an object or a positioning point with respect to the world coordinate system starts from the coordinate conversion parameter of the structure corresponding to the object or the positioning point and its connection destination. It is obtained by multiplying all coordinate transformation parameters up to the structure whose connection destination is the root. For example, the position / orientation of the positioning point 110 sequentially traces the connection destination from the coordinate conversion parameter A7 of the corresponding structure 126 and the connection target structure 125 to the structure 120 having the connection destination as root. It is obtained by multiplying all the coordinate conversion parameters A6, A4, A3, A2 and A1.
【0031】同様にして、ある物体あるいは位置決め点
Aの座標系に対する物体あるいは位置決め点Bの位置姿
勢は、Bに対応する構造体の座標変換パラメータとその
接続先から出発して接続先がAである構造体までの座標
変換パラメータを全て掛け合せることにより得られる。Similarly, the position and orientation of an object or a positioning point B with respect to a coordinate system of a certain object or a positioning point A starts from the coordinate conversion parameter of the structure corresponding to B and its connection destination, and the connection destination is A. It is obtained by multiplying all the coordinate conversion parameters up to a certain structure.
【0032】構造体には、図示しないが上記のほかに
も、その構造体が物体を表すものであるのか位置決め点
を表すものであるのかを識別するための情報や、物体を
表すものであれば物体の形状の情報や、物体の種類を表
す情報など必要に応じて種々の情報が記憶されている。In addition to the above, the structure does not have to include the above-mentioned information for identifying whether the structure represents an object or a positioning point, or an object. For example, various information such as information on the shape of the object and information indicating the type of the object is stored.
【0033】次に、環境モデル修正手段4の詳細につい
て説明する。環境モデル修正手段4は、図5に示す手順
によって物体の位置姿勢を認識し、環境モデルに記録さ
れている物体の位置姿勢情報を更新する。まず、カメラ
3により取り込んだ作業環境の画像から位置姿勢を認識
すべき物体のエッジ画像を取得する(s10)。エッジ
画像とは、例えば画像の中で明るさが大きく変化する部
分を抽出する等の処理を行うことにより得られる画像で
ある。これは、取り込んだ画像の各画素に対して隣接す
る画素との間で輝度(明るさ)の差を求め、その差が予
め設定したしきい値より大きい画素を残す等の処理を行
うことにより得ることができる。このようにして得られ
た画像は、例えば図6に示す画像133のようなパター
ンの画像となる。この画像133は、物体の輪郭線を多
く含む画像であるが、必ずしも全ての輪郭を含むもので
はない。Next, the details of the environment model correction means 4 will be described. The environment model correction means 4 recognizes the position and orientation of the object by the procedure shown in FIG. 5, and updates the position and orientation information of the object recorded in the environment model. First, an edge image of an object whose position and orientation is to be recognized is acquired from the image of the work environment captured by the camera 3 (s10). The edge image is an image obtained by performing processing such as extraction of a portion of the image in which the brightness greatly changes. This is done by obtaining the difference in brightness (brightness) between each pixel of the captured image and the adjacent pixel, and leaving the pixels whose difference is larger than a preset threshold value. Obtainable. The image thus obtained becomes an image of a pattern such as the image 133 shown in FIG. 6, for example. This image 133 is an image that includes many contour lines of the object, but does not necessarily include all contours.
【0034】次に、位置姿勢を認識すべき物体につい
て、環境モデル記憶手段5に記憶されている情報の中か
らそれの位置姿勢を取り出し、その位置姿勢においてカ
メラ3の位置から眺めた場合に見えるはずの輪郭画像
(参照画像)を生成する(s11)。物体の位置姿勢
は、環境モデルの中の対応する構造体に対して、既に述
べた手順によりワールド座標系に対する位置姿勢を計算
することにより求められる。また、物体の形状データは
環境モデルの中の対応する構造体に記憶されている情報
として得られる。これらのデータとカメラの位置姿勢デ
ータより、コンピュータグラフィック(CG)を生成す
る手順と同様の手段により、例えば図6に示すような物
体の輪郭画像134を生成する。Next, regarding the object whose position and orientation is to be recognized, the position and orientation of the object are extracted from the information stored in the environment model storage means 5, and the position and orientation are visible when viewed from the position of the camera 3. An expected contour image (reference image) is generated (s11). The position / orientation of the object is obtained by calculating the position / orientation with respect to the world coordinate system by the procedure already described for the corresponding structure in the environment model. Further, the shape data of the object is obtained as information stored in the corresponding structure in the environment model. From these data and the position / orientation data of the camera, a contour image 134 of the object as shown in FIG. 6, for example, is generated by means similar to the procedure for generating a computer graphic (CG).
【0035】次に、エッジ画像と参照画像(輪郭画像)
の間に働く仮想的な引力を計算する(s12)。これ
は、例えばエッジ画像のパターンに正の電荷が帯電し、
参照画像のパターンに負の電荷が帯電していると仮定し
た場合に二つのパターンの間に働く2次元的な引力とし
て計算する。この処理は、実際の作業環境中での物体の
状況を表すエッジ画像と環境モデルに記録されている物
体の状況を表す参照画像との間のずれ量を近似的に求め
ることに相当する。Next, the edge image and the reference image (contour image)
The virtual attractive force that acts during the period is calculated (s12). This is because, for example, the edge image pattern is positively charged,
It is calculated as a two-dimensional attractive force that acts between two patterns, assuming that the pattern of the reference image is negatively charged. This process corresponds to approximately obtaining the amount of deviation between the edge image representing the situation of the object in the actual work environment and the reference image representing the situation of the object recorded in the environment model.
【0036】次に、上記二つのパターンを重なり合わせ
るように物体の位置姿勢を修正する(s13)。これ
は、上記引力の働く方向と上記引力により参照パターン
に働くモーメントの方向をもとの三次元空間における平
行移動方向と回転移動方向に変換し、これらの方向に物
体の位置姿勢を移動・回転しながら参照画像のパターン
とエッジ画像のパターンを重ねあわせるようにして行
う。この時、物体の位置姿勢の修正結果は環境モデルの
中の対応する構造体の座標変換パラメータに反映させ
る。Next, the position and orientation of the object are corrected so that the above two patterns are overlapped (s13). This converts the direction in which the attractive force acts and the direction of the moment acting on the reference pattern by the attractive force into the parallel movement direction and the rotational movement direction in the original three-dimensional space, and moves / rotates the position and orientation of the object in these directions. Meanwhile, the pattern of the reference image and the pattern of the edge image are superimposed. At this time, the correction result of the position and orientation of the object is reflected in the coordinate conversion parameter of the corresponding structure in the environment model.
【0037】次に、二つのパターンの一致度を計算する
(s14)。これは、例えば手順s13における物体の
位置姿勢の修正量の大小などによって計算し、修正量が
小さければ一致度が大きい(二つのパターンが十分重な
り合っている)とし、大きければ一致度が小さい(二つ
のパターンがまだ十分重なり合っていない)とするもの
である。Next, the degree of coincidence between the two patterns is calculated (s14). This is calculated by, for example, the amount of correction of the position and orientation of the object in step s13. If the amount of correction is small, the degree of coincidence is large (the two patterns are sufficiently overlapped), and if the amount of correction is large, the degree of coincidence is small (two. The two patterns are not yet sufficiently overlapped).
【0038】最後に、s11からs14で示すパターン
の重ね合せ処理が収束状態であるかを判定する。判定結
果が収束状態であれば処理を終了し、未収束状態ならs
11に戻る(s15)。収束・未収束の判定は、例えば
s14で計算した一致度があるしきい値以上であるなら
収束状態とし、そうでなければ未収束と判定することに
より行う。Finally, it is determined whether or not the superposition processing of the patterns indicated by s11 to s14 is in a converged state. If the determination result is a convergent state, the processing is terminated, and if it is not converged, s
Return to 11 (s15). The determination of convergence / non-convergence is made by, for example, determining the convergence state if the degree of coincidence calculated in s14 is equal to or higher than a threshold value, or determining non-convergence otherwise.
【0039】次に、動作司令生成手段6の詳細について
説明する。動作司令生成手段6には、ロボットを自動的
に運転するための動作司令データが記憶されており、こ
の動作司令データに基いて図7に示す手順によってロボ
ットの動きを制御する。ここで、動作司令データは、例
えばロボットの把持機構をある位置姿勢に移動させるこ
とを指示する指令データや、把持機構に備えられた指の
開閉を指示する指令データや、自動運転から手動運転へ
の切替えを指示する指令データなどから構成される。Next, the details of the action command generation means 6 will be described. The motion command generation means 6 stores motion command data for automatically driving the robot, and the motion of the robot is controlled by the procedure shown in FIG. 7 based on this motion command data. Here, the operation command data is, for example, command data for instructing to move the gripping mechanism of the robot to a certain position / posture, command data for instructing opening / closing of a finger provided in the gripping mechanism, or automatic driving to manual driving. It is composed of command data for instructing switching of the.
【0040】まず、Tを1として最初の動作司令を読込
み(s20、s21)、その動作司令が手動動作への切
替えを指示する指令であれば手動操作を実行し、そうで
なければ自動動作を実行する(s22、s23、s2
4)。そして、Tを1増加して次の動作司令を読み込
み、全ての動作司令を実行するまで同様の処理を繰り返
す(s25、s26)。First, with T set to 1, the first operation command is read (s20, s21), and if the operation command is an instruction to switch to manual operation, manual operation is executed, and if not, automatic operation is performed. Execute (s22, s23, s2
4). Then, T is incremented by 1, the next operation command is read, and the same processing is repeated until all the operation commands are executed (s25, s26).
【0041】図7に示す手順の中の自動動作を実行する
手順s24においては、動作司令生成手段6が生成した
動作司令をロボット1に転送する状態に切替え手段7を
セットする。そして、動作司令がロボットの把持機構を
ある位置姿勢に移動する指令である場合には、それに対
応した関節角度の制御データをロボットに転送する。ま
た、動作司令がロボットの把持機構の開閉を指示する指
令である場合には、把持機構の指の制御データをロボッ
トに転送する。s24の自動動作の実行は現在のステッ
プの動作司令が完了すると終了する。In step s24 of executing the automatic operation in the procedure shown in FIG. 7, the switching means 7 is set to a state in which the operation command generated by the motion command generating means 6 is transferred to the robot 1. Then, when the operation command is a command to move the gripping mechanism of the robot to a certain position and orientation, the control data of the joint angle corresponding thereto is transferred to the robot. If the operation command is a command to open or close the gripping mechanism of the robot, the finger control data of the gripping mechanism is transferred to the robot. Execution of the automatic operation of s24 ends when the operation command of the current step is completed.
【0042】図7に示す手順の中の手動運転を実行する
手順s23においては、操作手段2より入力された動作
司令をロボット1に転送する状態に切替え手段7をセッ
トする。そして、操作手段2より入力された動作司令に
対応した関節角度の制御データや把持機構の指の制御デ
ータをロボットに転送する。s23においては、一旦手
動運転の実行が開始されたなら、操作手段2による手動
運転の状態を継続する。そして、入力装置10から手動
運転の終了を指示する入力があった時に終了する。In the step s23 of executing the manual operation in the procedure shown in FIG. 7, the switching means 7 is set to the state in which the operation command input from the operating means 2 is transferred to the robot 1. Then, the control data of the joint angle and the control data of the finger of the gripping mechanism corresponding to the operation command input from the operation means 2 are transferred to the robot. In s23, once the execution of the manual operation is started, the state of the manual operation by the operating means 2 is continued. Then, when there is an input from the input device 10 instructing the end of the manual operation, the process ends.
【0043】また、手順s23においては、以下に述べ
る合成画像生成手段8により、ロボットや位置決めすべ
き物体の位置決めに関する情報を図形化して表示した画
像を表示装置9に表示する。この時表示すべき位置決め
点は、手動動作への切替えを指示する指令データの中で
指定される。In step s23, the composite image generating means 8 described below displays on the display device 9 a graphic image of the information regarding the positioning of the robot and the object to be positioned. The positioning point to be displayed at this time is specified in the command data for instructing switching to the manual operation.
【0044】合成画像生成手段8は、図8に示す手順に
より合成画像を生成する。まず、手動動作への切り替え
時に動作司令データで指定された位置決め点の接続して
いる物体(対象物体)を特定する(s30)。これは、
環境モデルおいて、位置決め点に対応する構造体の接続
先を順次辿ってゆき、最初に到達した物体を表す構造体
を見つけることにより行われる。例えば、指定された位
置決め点がapproach_point1(126)である場合、対
象物体はcap(123)となる。次に、環境モデル修
正手段4により対象物体の位置姿勢を認識し(s3
1)、環境モデルを更新する(s32)。これは、既に
述べた図5に示した手順により行われる。次に、更新さ
れた環境モデルから対象物体の位置姿勢を取得し、これ
に基いて手動操作誘導用のマークを参照図形として表示
する際の位置姿勢座標を計算する(s33)。それから
マークの形態をとる参照図形をその位置姿勢で描画し、
カメラ3より取り込んだ実際の作業環境の映像に重ね合
せて表示する(s34)。The composite image generating means 8 generates a composite image by the procedure shown in FIG. First, when switching to the manual operation, the object (target object) to which the positioning point designated by the operation command data is connected is specified (s30). this is,
In the environment model, it is performed by sequentially tracing the connection destinations of the structures corresponding to the positioning points, and finding the structure representing the object that reaches first. For example, when the designated positioning point is approach_point1 (126), the target object is cap (123). Next, the environment model correction means 4 recognizes the position and orientation of the target object (s3
1) The environment model is updated (s32). This is performed by the procedure shown in FIG. 5 already described. Next, the position and orientation of the target object is acquired from the updated environment model, and based on this, the position and orientation coordinates when the mark for manual operation guidance is displayed as a reference figure are calculated (s33). Then draw a reference figure in the form of a mark in that position and orientation,
The image of the actual work environment captured by the camera 3 is displayed in an overlapping manner (s34).
【0045】以上の手順において、参照図形の好ましい
表示方法としては以下のような方法が考えられる。例え
ば、図9に示すように物体142上に設けられた穴14
3に物体141を挿入する際のapproach point(14
4)に関する位置決め情報を表示する場合には、例えば
ロボットの把持機構の位置姿勢(または把持機構で把持
されている物体141の位置姿勢)に参照図形(第2の
マーク)145を表示すると同時に、物体141がappr
oach point(144)の位置に位置決めされた時にロボ
ットの把持機構(または把持機構で把持されている物体
141)が来るべき位置姿勢にも参照図形145と対に
なる参照図形146(第1のマーク)を表示する。そし
て、これらの参照図形をカメラ3が取り込んだ画像14
0に重ね合せた映像を見ながらロボットの把持機構を操
作手段2により動かして、二つの参照図形が重なるよう
に持っていけば、物体141を所定の位置決め点に位置
決めすることができる。In the above procedure, the following method can be considered as a preferable display method of the reference graphic. For example, as shown in FIG. 9, the hole 14 provided on the object 142
3 approach point (14 when inserting the object 141 into
When displaying the positioning information regarding 4), for example, at the same time as displaying the reference graphic (second mark) 145 on the position and orientation of the gripping mechanism of the robot (or the position and orientation of the object 141 gripped by the gripping mechanism), Object 141 is appr
When the gripping mechanism (or the object 141 gripped by the gripping mechanism) of the robot is positioned at the position of the oach point (144), the reference pattern 145 (first mark) that is paired with the reference pattern 145 is also present in the position and orientation to come. ) Is displayed. Then, the image 14 obtained by the camera 3 capturing these reference patterns
The object 141 can be positioned at a predetermined positioning point by moving the gripping mechanism of the robot by the operation means 2 while viewing the image superimposed on 0 so that the two reference figures overlap.
【0046】この場合、参照図形145を表示すべき位
置姿勢はロボットの把持機構の位置姿勢である。これ
は、以下の手順で計算される。まず、ロボットについて
も図4に示したものと同様の形のモデルを持っておき、
そのモデルの位置姿勢情報をロボットの関節角度情報な
どに基づいて実際の状態と合うように常に更新してお
く。そして、そのモデルにおける把持機構の位置姿勢を
既に述べた手順により計算することで得ることができ
る。一方、参照図形146を表示すべき位置姿勢は、物
体141の座標系に対する物体141のgrasp pointの
相対的な位置姿勢を求め、これとapproach point(14
4)の位置姿勢を掛け合せることにより求めることがで
きる。In this case, the position / orientation at which the reference graphic 145 should be displayed is the position / orientation of the gripping mechanism of the robot. This is calculated by the following procedure. First, for the robot, have a model similar to that shown in FIG. 4,
The position and orientation information of the model is constantly updated based on the joint angle information of the robot so as to match the actual state. Then, it can be obtained by calculating the position and orientation of the gripping mechanism in the model by the procedure already described. On the other hand, for the position and orientation in which the reference graphic 146 should be displayed, the relative position and orientation of the grasp point of the object 141 with respect to the coordinate system of the object 141 is obtained, and this and approach point (14
It can be obtained by multiplying the position and orientation of 4).
【0047】上記の例は、ロボットのモデルから計算さ
れる把持機構の位置姿勢と実際の位置姿勢が一致する場
合には有効であるが、一般的には必ずしもそうならな
い。例えば、ロボットが重量の大きな物体を把持してい
る場合には、たわみなどが生じて把持機構の位置姿勢が
関節角度などから計算される位置姿勢からずれることが
考えられる。このような場合には、例えば以下のような
方法を用いる。The above example is effective when the position and orientation of the gripping mechanism calculated from the model of the robot and the actual position and orientation match, but in general, this is not always the case. For example, when the robot is gripping a heavy object, it is possible that the position and orientation of the gripping mechanism deviate from the position and orientation calculated from the joint angle or the like due to bending or the like. In such a case, the following method is used, for example.
【0048】図10に示すように、位置決めすべき物体
141の位置決めされた状態において見えるであろう外
観形状を参照図形147として生成させ、これをカメラ
3が取り込んだ実際の作業環境の画像140に重ね合せ
て表示する。この時、参照図形147は物体141の実
際の映像との重なり具合を分かり易くするため、例えば
ワイヤーフレームのような線画により表示する。この映
像を見ながらロボットの把持機構を操作手段2により動
かして、物体141の実際の映像が参照図形147と重
なるように持っていけば、物体141を所定の位置決め
点に位置決めすることができる。As shown in FIG. 10, the external shape that the object 141 to be positioned will look like when it is positioned is generated as a reference graphic 147, and this is displayed on the image 140 of the actual work environment captured by the camera 3. Display on top of each other. At this time, the reference graphic 147 is displayed by a line drawing such as a wire frame in order to make it easy to understand the degree of overlap with the actual image of the object 141. By moving the gripping mechanism of the robot by the operation means 2 while observing this image and bringing it so that the actual image of the object 141 overlaps the reference pattern 147, the object 141 can be positioned at a predetermined positioning point.
【0049】上記の例では、ロボットの把持機構の実際
の位置姿勢が不明であり、対象物体の実際の位置姿勢は
環境モデル修正手段4の機能により既知となっている
が、逆に把持機構の位置姿勢が既知であり、対象物体の
位置姿勢が不明となる場合も考えられる。これは、例え
ば環境モデル修正手段がうまく働かないような状況に該
当する。このような場合には、例えば以下に示すような
方法を用いる。In the above example, the actual position / orientation of the gripping mechanism of the robot is unknown, and the actual position / orientation of the target object is known by the function of the environment model correction means 4. The position and orientation may be known and the position and orientation of the target object may be unknown. This corresponds, for example, to the situation where the environmental model modifying means does not work well. In such a case, the following method is used, for example.
【0050】図11に示すように、位置決めすべき物体
141と対象物体142との相対的な位置関係が、位置
決め点と対象物体との相対的な位置関係と同じになるよ
うな位置姿勢に対象物体142の外観形状を参照図形1
48として生成させ、これをカメラ3が取り込んだ実際
の作業環境の画像140に重ね合せて表示する。この
時、参照図形148は物体142の実際の映像との重な
り具合を分かり易くするため、例えばワイヤーフレーム
のような線画により表示する。この映像を見ながらロボ
ットの把持機構を操作手段2により動かして、参照図形
148が物体142の実際の映像と重なるように持って
いけば、物体141を所定の位置決め点に位置決めする
ことができる。As shown in FIG. 11, the object 141 is positioned and oriented so that the relative positional relationship between the object 141 to be positioned and the target object 142 is the same as the relative positional relationship between the positioning point and the target object. Refer to the external shape of the object 142 Figure 1
The image is generated as 48, and this is displayed by being superimposed on the image 140 of the actual work environment captured by the camera 3. At this time, the reference graphic 148 is displayed by a line drawing such as a wire frame in order to make it easy to understand the degree of overlap with the actual image of the object 142. The object 141 can be positioned at a predetermined positioning point by moving the gripping mechanism of the robot by the operation means 2 while watching this image so that the reference pattern 148 overlaps with the actual image of the object 142.
【0051】図10および図11に示した例では、参照
図形をワイヤフレームのような線画として描画している
が、これに代えて図12に示すように3次元的な奥行情
報を持ったソリッド画像149を参照図形として表示す
るものであってもよい。この場合、ソリッド画像149
は以下の手順により描画する。In the example shown in FIGS. 10 and 11, the reference figure is drawn as a line drawing like a wire frame, but instead of this, a solid having three-dimensional depth information as shown in FIG. The image 149 may be displayed as a reference graphic. In this case, the solid image 149
Is drawn by the following procedure.
【0052】まず、例えばレーザスキャナ等の装置を用
いてカメラ3の位置から見た作業環境の距離画像を得
る。距離画像とは、画像上の画素に対してその点におけ
る奥行情報が付加された画像である。次に、この距離画
像の上に参照図形を奥行も計算しながら描画し、奥行が
距離画像の奥行より手前にある画素については参照図形
の画素を書き込み、奥にある場合にはカメラ3から取り
込んだ画像の画素を書き込むようにする。以上の結果得
られる映像では、参照図形と実際の物体との3次元的な
重なり具合が明確になるので、参照図形と実際の物体の
映像を重ね合わせる操作が容易になる。First, a distance image of the work environment viewed from the position of the camera 3 is obtained using a device such as a laser scanner. A distance image is an image in which depth information at that point is added to a pixel on the image. Next, the reference figure is drawn on the distance image while calculating the depth, and the pixels of the reference figure are written for the pixels whose depth is before the depth of the distance image, and when the pixel is in the depth, it is captured from the camera 3. Then, write the pixels of the image. In the image obtained as a result of the above, the degree of three-dimensional overlap between the reference figure and the actual object becomes clear, so that the operation of superimposing the image of the reference figure and the actual object becomes easy.
【0053】次に、対象物体選択手段11の詳細につい
て説明する。対象物体選択手段11は、ロボットの操作
者が入力装置10を用いて入力した表示装置9の画面上
での位置情報から、操作者が選択した対象物体を図13
に示す手順により特定する。ここで、入力装置10は、
例えばコンピュータの入力装置であるマウスやジョイス
ティックなど位置を入力する装置であればよい。Next, details of the target object selecting means 11 will be described. The target object selecting unit 11 selects the target object selected by the operator from the position information on the screen of the display device 9 input by the operator of the robot using the input device 10 as shown in FIG.
It is specified by the procedure shown in. Here, the input device 10 is
For example, a device such as a mouse or a joystick which is an input device of a computer may be used as a device for inputting a position.
【0054】まず、入力装置10で入力した位置情報を
読み取り、それを画面上での位置に換算する(s1)。
そして、iを1として物体i=1をカメラ3の位置から
見た場合に描画される領域を計算する(s2、s3)。
そして、s1で計算した位置がs3で計算した領域に含
まれる否かを判定し(s4)、含まれていた場合には対
象物体はi=1と判定され、そうで無い場合はiをi+
1として次の物体に進み(s5)、対象物体が特定され
るまで、または環境モデルに含まれる全ての物体につい
て終了するまで同様の調査を行う(s6)。もし、s1
で計算した位置が全ての物体の描画領域に含まれない場
合は、対象物体は無しと判定される。First, the position information input by the input device 10 is read and converted into a position on the screen (s1).
Then, when i is 1 and the object i = 1 is viewed from the position of the camera 3, a region to be drawn is calculated (s2, s3).
Then, it is determined whether or not the position calculated in s1 is included in the region calculated in s3 (s4). If it is included, it is determined that the target object is i = 1, and if not, i is i +
The process proceeds to the next object as 1 (s5), and the same investigation is performed until the target object is specified or until all the objects included in the environment model are completed (s6). If s1
If the positions calculated in step 1 are not included in the drawing areas of all objects, it is determined that there is no target object.
【0055】例えば、カメラ3から見た情景が図14に
示すような状況である場合、物体130、131、ある
いは物体131上に設けられた穴132が描画される領
域は、それぞれ図中の太線で囲まれた領域となる。この
時、物体130において、ロボットの把持機構の指13
3によって隠れる部分は物体130の描画領域とはなら
ない。同様に、物体131において、物体130によっ
て隠れる部分や穴132の領域と重なる部分は物体13
1の描画領域とはならない。このような状況において、
×印で示す位置134が入力装置10で入力されている
場合、対象物体は131となる。For example, when the scene viewed from the camera 3 is as shown in FIG. 14, the areas in which the objects 130 and 131 or the holes 132 provided on the object 131 are drawn are indicated by thick lines in the figure. It becomes the area surrounded by. At this time, in the object 130, the finger 13 of the gripping mechanism of the robot
The portion hidden by 3 does not become the drawing area of the object 130. Similarly, in the object 131, the part hidden by the object 130 and the part overlapping with the area of the hole 132 are the objects 13 and 13.
It does not become the drawing area of 1. In this situation,
When the position 134 indicated by X is input by the input device 10, the target object is 131.
【0056】次に、本発明による遠隔操作制御装置を用
いた遠隔保守作業の全体的な流れについて説明する。ま
ず、保守作業におけるロボットの動作手順を動作司令デ
ータとして作成し、動作司令生成手段6に記憶させてお
く。この時、ボルト穴へのボルトの挿入作業など、自動
化が難しい作業や微妙な位置合わせを必要とする作業に
ついては、その作業に入るところで手動動作への切替え
指令を入れておく。また、実際の作業環境と環境モデル
との間のずれについて、例えばずれ量に関する適当なし
きい値を設定しておき、環境モデル修正手段4による上
述のような物体の位置姿勢認識を通じて実際の作業環境
と環境モデルの間にしきい値以上のずれが生じていたな
らば、そのことを条件に手動操作へ自動的に切替える指
令も入れておく。このようにするのは以下のような理由
による。即ち、一定以上に大きいずれを生じている状況
では、そのずれを環境モデル修正手段4で修正できても
なおロボットの自動運転の遂行に支障を来たすおそれの
ある障害の存在が予測されるからである。言い換えれ
ば、このような対応をとることで、ロボットによる作業
をより安全に行わせることが可能となり、ひいては、よ
り広い範囲の保守対象や作業内容に遠隔操作制御装置を
適用することを可能とする。Next, the overall flow of remote maintenance work using the remote control device according to the present invention will be described. First, the operation procedure of the robot in the maintenance work is created as operation command data and stored in the operation command generation means 6. At this time, for a task that is difficult to automate or a task that requires delicate positioning, such as a task of inserting a bolt into a bolt hole, a command to switch to a manual operation is input at the time of entering the task. With respect to the deviation between the actual work environment and the environment model, for example, an appropriate threshold value for the deviation amount is set, and the actual work environment is recognized by the position and orientation recognition of the object as described above by the environment model correction means 4. If there is a deviation of more than the threshold value between the environment model and the environment model, a command to automatically switch to manual operation is also entered on the condition. The reason for doing this is as follows. That is, in a situation where the magnitude is larger than a certain level, it is predicted that there is an obstacle that may hinder the execution of the automatic driving of the robot even if the deviation can be corrected by the environment model correcting means 4. is there. In other words, by taking such measures, it becomes possible to perform the work by the robot more safely, and in turn, it becomes possible to apply the remote control device to a wider range of maintenance targets and work contents. .
【0057】ロボットを所定の位置に設置して作業を開
始する準備が整ったなら、入力装置10より作業開始の
指示を入力する。すると、動作司令生成手段6は、予め
記憶された動作司令データに基づいてロボット1を制御
して作業を進める。この時、操作者は表示装置9に表示
されるカメラ3が捉えた作業環境の映像により、ロボッ
トの作業状況を監視する。When the robot is set at a predetermined position and the preparation for starting the work is completed, an instruction to start the work is input from the input device 10. Then, the motion command generation means 6 controls the robot 1 based on the motion command data stored in advance to proceed with the work. At this time, the operator monitors the work status of the robot by the video of the work environment captured by the camera 3 displayed on the display device 9.
【0058】動作指令データの実行ステップが手動動作
への切替え指令のところに来ると、動作司令生成手段6
は手動動作モードとなり、切替え手段7は、操作手段2
の入力をロボット1へ転送するように切り替わる。ま
た、合成画像生成手段8は手動動作への切替え指令によ
り指定された位置決め点に関する参照図形をカメラ3の
画像に重ね合せて表示装置9に表示する。When the execution step of the operation command data comes to the instruction to switch to the manual operation, the operation command generating means 6
Is in the manual operation mode, and the switching means 7 is the operation means 2
The input is switched to transfer to the robot 1. Further, the composite image generating means 8 superimposes the reference graphic relating to the positioning point designated by the command for switching to the manual operation on the image of the camera 3 and displays it on the display device 9.
【0059】そして操作者はこの参照図形を見ながらロ
ボットを操作し、所定の作業を実施する。例えば、ボル
トをボルト穴に挿入する作業では、ボルト穴に挿入する
際のapproach pointに関する位置決め情報が参照図形の
形態で表示される。操作者は、参照図形と実際のボルト
の映像が重なるようにロボットを操作することにより、
ボルトを正しい位置に持っていくことができる。そのた
め、この後の挿入操作においてもボルトをボルト穴側壁
に引っ掛けることなく作業を進めることができる。Then, the operator operates the robot while looking at this reference pattern to carry out a predetermined work. For example, in the work of inserting a bolt into a bolt hole, positioning information regarding the approach point when inserting the bolt into the bolt hole is displayed in the form of a reference graphic. The operator operates the robot so that the reference pattern and the actual bolt image overlap,
You can take the bolt to the correct position. Therefore, even in the subsequent insertion operation, the work can proceed without hooking the bolt on the side wall of the bolt hole.
【0060】手動操作による作業が終了したなら、その
旨を入力装置10より入力し、手動動作モードを終了す
る。すると、動作司令生成手段6は、再び自動運転モー
ドとなり、後続する動作司令データの実行を再開する。When the work by the manual operation is completed, the fact is input from the input device 10, and the manual operation mode is completed. Then, the operation command generation means 6 is again in the automatic operation mode, and restarts execution of the subsequent operation command data.
【0061】このように、保守作業の中で自動化が難し
い作業や、微妙な作業のみを手動操作として、他の部分
を自動運転とすることにより、操作者の負担を軽減する
ことができる。また、手動操作においても、操作におけ
る位置決め点を目視で誘導することのできる操作ガイド
情報を参照図形などの形態で表示して操作対象物体の位
置決めをやり易くしているので、容易に手動操作を行う
ことができる。As described above, the operation which is difficult to automate in the maintenance work or the delicate work is manually operated and the other parts are automatically operated, whereby the operator's burden can be reduced. Further, even in manual operation, the operation guide information that can guide visually the positioning point in the operation is displayed in the form of a reference graphic or the like to facilitate the positioning of the operation target object, so that the manual operation can be performed easily. It can be carried out.
【0062】操作者は、自動運転によるロボットの作業
状況を常に表示装置9の画面により監視している。この
時、例えば環境モデルには記録されていないような予期
せぬ障害物が存在してロボットが干渉する可能性がある
と判断したなら、入力装置10より指示して、自動運転
を停止させる。すると、動作司令生成手段6は、手動動
作への切替え指令を受けた時と同様に手動動作モードに
切り替わる。そして、障害物の影響が無くなるところま
で手動操作で作業を進め、再び自動運転に切り替える。
この時、動作司令データにおいて、手動操作で実施され
た部分はスキップするように指示する。The operator constantly monitors the work status of the robot in the automatic operation on the screen of the display device 9. At this time, if it is determined that there is a possibility that the robot interferes with an unexpected obstacle that is not recorded in the environment model, the input device 10 gives an instruction to stop the automatic operation. Then, the operation command generation means 6 is switched to the manual operation mode similarly to when the operation command generation means 6 receives the instruction to switch to the manual operation. Then, the work is manually operated until the influence of the obstacle disappears, and the operation is switched to the automatic operation again.
At this time, the operation command data is instructed to skip the part that is manually operated.
【0063】上記のように、自動運転を中断した状態で
手動操作を行う場合は、参照図形を表示すべき位置決め
点は自動的に指定されない。そこで、対象物体選択手段
11により対象物体を指定して、表示すべき位置決め点
の情報を指定する。例えば、ボルトをボルト穴に挿入す
る作業の直前に作業を中断した場合は、ボルト穴の設け
られている物体を入力装置10で選択する。これによ
り、ボルトを位置決めすべき位置決め点の情報を表示す
ることができる。As described above, when the manual operation is performed while the automatic operation is interrupted, the positioning point where the reference graphic should be displayed is not automatically designated. Therefore, the target object is selected by the target object selection means 11 and the information of the positioning point to be displayed is specified. For example, when the work is interrupted immediately before the work of inserting the bolt into the bolt hole, the object having the bolt hole is selected by the input device 10. As a result, it is possible to display information on the positioning point at which the bolt should be positioned.
【0064】このように、作業環境に予期せぬ障害物が
ある場合には、適宜手動操作に切り替えることにより、
柔軟に対処することが可能である。また、このような場
合にも、対象物体の位置決めをやり易くする情報が表示
されるため、容易に手動操作を行うことができる。In this way, when there is an unexpected obstacle in the work environment, by switching to manual operation as appropriate,
It is possible to deal flexibly. Also in such a case, since information that facilitates positioning of the target object is displayed, a manual operation can be easily performed.
【0065】ここで、環境モデル修正手段4による物体
の位置姿勢の認識方法は、必ずしも以上の実施形態にお
いて説明した手法に限定されるものではなく、画像認識
手法として一般に知られている他の方法を用いることが
できる。Here, the method of recognizing the position and orientation of the object by the environment model correcting means 4 is not necessarily limited to the method described in the above embodiment, and other methods generally known as the image recognizing method. Can be used.
【0066】また以上の実施形態では、動作司令生成手
段6が設けられているが、これは本発明の趣旨にとって
必ずしも必要でない。即ち、本発明は参照図形などを表
示することで手動操作時の操作者の負担軽減を可能とす
るものである。従って、操作者が逐次対象物体を指定
し、その物体に関する位置決め情報を表示しながら、手
動操作により全ての作業を進める構成であっても、操作
者の負担軽減の実をあげることができる。Further, in the above embodiment, the operation command generating means 6 is provided, but this is not always necessary for the purpose of the present invention. That is, the present invention makes it possible to reduce the burden on the operator during manual operation by displaying a reference pattern or the like. Therefore, even if the operator successively designates the target object and displays all the positioning information regarding the object and all the work is manually performed, the burden on the operator can be reduced.
【0067】また、以上の実施形態では作業環境の映像
を捉えるためのカメラを1台だけ設ける構成としていた
が、必要に応じて複数台のカメラを設けるようにしても
よい。複数台のカメラを設ける場合には、表示装置9に
表示する画像を取り込むカメラが切り替わるようにして
おき、あるカメラの画像が表示される時には、それに対
応した視点位置姿勢で参照図形を表示することにより、
対象物を多様な方向から見ることができるので、更に操
作性を高めることができる。また、複数台のカメラを用
いて対象物の多様な方向からの画像を入力することによ
り、物体の位置姿勢の計算精度を向上させることができ
る。即ち、図5に示した手順により物体の位置姿勢を求
める場合、視点の奥行方向に関する情報は物体の大きさ
の変化として現れる。奥行方向の位置の変化に対する画
像上での物体の大きさの変化は、画像の上下・左右方向
の位置の変化に比べて小さいため、一つのカメラからの
画像では、奥行方向の位置精度が悪くなるという問題が
ある。これに対して、第1のカメラと直角な方向から対
象物を捉える第2のカメラがある場合には、その第2の
カメラの画像から第1のカメラの画像における奥行方向
の位置情報を上下・左右方向の情報として得ることがで
きる。従って、これらの情報を合わせることによりカメ
ラが一つの場合よりも高精度に物体の位置姿勢を特定す
ることができる。In the above embodiment, only one camera is provided for capturing the image of the work environment. However, a plurality of cameras may be provided if necessary. When a plurality of cameras are provided, the cameras that capture the images to be displayed on the display device 9 are switched so that when the images of a certain camera are displayed, the reference graphic is displayed with the viewpoint position / orientation corresponding thereto. Due to
Since the object can be viewed from various directions, the operability can be further enhanced. In addition, by inputting images from various directions of the object using a plurality of cameras, it is possible to improve the calculation accuracy of the position and orientation of the object. That is, when the position and orientation of the object are obtained by the procedure shown in FIG. 5, the information regarding the depth direction of the viewpoint appears as a change in the size of the object. Since the change in the size of the object on the image with respect to the change in the position in the depth direction is smaller than the change in the position in the vertical and horizontal directions of the image, the position accuracy in the depth direction is poor in the image from one camera. There is a problem of becoming. On the other hand, when there is a second camera that captures an object from a direction perpendicular to the first camera, the position information in the depth direction in the image of the first camera is moved up and down from the image of the second camera.・ It can be obtained as left-right information. Therefore, by combining these pieces of information, the position and orientation of the object can be specified with higher accuracy than in the case where there is only one camera.
【0068】また、以上の実施形態ではロボット1から
離れた位置にカメラを設けるようにしていたが、これに
代えて、カメラをロボット1の把持機構の部分に設ける
ようにしてもよい。この場合、合成画像生成手段8が表
示する参照図形は以下のようにすればよい。例えば、図
9に示すように物体142上に設けられた穴143に物
体141を挿入する際のapproach point(144)に関
する位置決め情報を表示する場合には、例えば物体14
1が位置決め点144に位置決めされた状態で、把持機
構に備えられたカメラから見えるはずである物体142
あるいは穴143の形状を図15に示すような形で参照
図形150として表示する。これにより、実際の物体1
42や穴143の映像が前記の参照図形と重なるように
把持機構を移動した時に、物体141は所定の位置に位
置決めされることになる。この場合には、対象物体の位
置姿勢データやロボットの把持機構の位置姿勢データは
不要であり、作業環境モデルのデータのみがあれば足り
る。Further, in the above embodiment, the camera is provided at a position distant from the robot 1, but instead of this, the camera may be provided in the gripping mechanism portion of the robot 1. In this case, the reference graphic displayed by the composite image generating means 8 may be as follows. For example, when the positioning information about the approach point (144) when inserting the object 141 into the hole 143 provided on the object 142 as shown in FIG.
The object 142 that should be visible from the camera provided in the gripping mechanism, with 1 being positioned at the positioning point 144.
Alternatively, the shape of the hole 143 is displayed as the reference pattern 150 in the shape shown in FIG. As a result, the actual object 1
When the gripping mechanism is moved so that the images of the holes 42 and the holes 143 overlap the reference pattern, the object 141 is positioned at a predetermined position. In this case, the position / orientation data of the target object and the position / orientation data of the gripping mechanism of the robot are unnecessary, and only the work environment model data is sufficient.
【0069】[0069]
【発明の効果】以上説明したように本発明では、作業環
境中でのロボットや物体の位置決めに関する情報を図形
化して表示し、この表示図形でロボットの手動操作を行
う際の誘導を行えるようにしているので、手動でのロボ
ットの操作をより容易に行えるようになる。したがって
本発明によれば、遠隔操作制御装置の操作に携わる者の
負担を軽減することができる。また本発明では、ロボッ
トの自動運転と手動操作を組み合わせるについて、ロボ
ットの自動運転の基礎となる環境モデルが実際の作業環
境と一定以上にずれている場合に、それを検出して自動
運転から手動操作に自動的に切替えることができるよう
にしているので、ロボットによる作業をより安全に行わ
せることが可能となる。したがって本発明によれば、よ
り広い範囲の保守対象や作業内容に遠隔操作制御装置を
適用することを可能となる。As described above, according to the present invention, information relating to the positioning of a robot or an object in a work environment is displayed in a graphic form, and the displayed graphic can be used to guide the manual operation of the robot. Therefore, it becomes easier to operate the robot manually. Therefore, according to the present invention, it is possible to reduce the burden on a person who operates the remote control device. Further, in the present invention, regarding the combination of the automatic operation and the manual operation of the robot, when the environment model which is the basis of the automatic operation of the robot deviates from the actual work environment by a certain amount or more, it is detected and the automatic operation is manually performed. Since the operation can be automatically switched, it is possible to perform the work by the robot more safely. Therefore, according to the present invention, it becomes possible to apply the remote control device to a wider range of maintenance targets and work contents.
【図1】一実施形態による遠隔操作制御装置の構成を示
すブロック図である。FIG. 1 is a block diagram showing a configuration of a remote control device according to an embodiment.
【図2】作業環境における物体と位置決め点の位置関係
を説明する図である。FIG. 2 is a diagram illustrating a positional relationship between an object and a positioning point in a work environment.
【図3】物体の挿入動作における位置決め点の関係を説
明する図である。FIG. 3 is a diagram illustrating a relationship between positioning points in an object inserting operation.
【図4】作業環境モデル内に記憶される情報を説明する
図である。FIG. 4 is a diagram illustrating information stored in a work environment model.
【図5】環境モデル修正手段の動作手順を説明する図で
ある。FIG. 5 is a diagram illustrating an operation procedure of environment model correction means.
【図6】環境モデル修正手段において使用されるエッジ
画像と参照画像の例を示す図である。FIG. 6 is a diagram showing an example of an edge image and a reference image used in the environment model correction means.
【図7】動作司令生成手段の動作手順を説明する図であ
る。FIG. 7 is a diagram illustrating an operation procedure of an operation command generation unit.
【図8】合成画像生成手段の動作手順を説明する図であ
る。FIG. 8 is a diagram illustrating an operation procedure of a composite image generation unit.
【図9】合成画像生成手段が生成する画像の例を示す図
である。FIG. 9 is a diagram showing an example of an image generated by a composite image generating means.
【図10】合成画像生成手段が生成する画像の例を示す
図である。FIG. 10 is a diagram showing an example of an image generated by a composite image generating means.
【図11】合成画像生成手段が生成する画像の例を示す
図である。FIG. 11 is a diagram showing an example of an image generated by a composite image generating means.
【図12】合成画像生成手段が生成する画像の例を示す
図である。FIG. 12 is a diagram showing an example of an image generated by a composite image generating means.
【図13】対象物体選択手段の動作手順を説明する図で
ある。FIG. 13 is a diagram illustrating an operation procedure of a target object selecting unit.
【図14】物体の描画領域の例を示す図である。FIG. 14 is a diagram showing an example of a drawing area of an object.
【図15】合成画像生成手段が生成する画像の例を示す
図である。FIG. 15 is a diagram showing an example of an image generated by a composite image generating means.
1 ロボット 2 操作手段 3 カメラ 4 環境モデル修正手段 5 環境モデル 6 動作司令生成手段 7 切替え手段 8 合成画像生成手段 9 表示装置 10 入力装置 11 対象物体選択手段 1 robot 2 Operation means 3 cameras 4 Environmental model correction means 5 Environmental model 6 Action command generation means 7 Switching means 8 Synthetic image generation means 9 Display device 10 Input device 11 Target object selection means
Claims (12)
制御系で遠隔的に操作制御しつつ前記ロボットに必要な
作業を行わせるようになっている遠隔操作制御装置にお
いて、前記ロボットを手動で操作するための操作手段、
作業環境の映像を捉えるカメラ、作業環境中で前記ロボ
ットによる作業の対象となる物体の位置姿勢や前記ロボ
ットの操作に必要な作業環境中での位置決めに関する情
報などを環境モデルとして記憶する環境モデル記憶手
段、前記カメラが捉えた映像と前記環境モデル記憶手段
から得られる位置決めに関する情報を図形化して表示し
た画像とを合成した合成画像を生成する合成画像生成手
段、およびこの合成画像生成手段で生成された合成画像
を表示する表示手段を備え、前記操作手段により前記ロ
ボットの手動操作を行う際に、前記合成画像を前記表示
手段に表示して手動操作を誘導できるようにされている
ことを特徴とする遠隔操作制御装置。1. A remote operation control device for remotely operating and controlling a robot installed in a work environment by an operation control system while allowing the robot to perform a required work by manually operating the robot. Operating means for operating,
A camera that captures a video of the work environment, an environment model memory that stores, as an environment model, information about the position and orientation of an object that is a target of work by the robot in the work environment, information about positioning in the work environment necessary for operating the robot, and the like. Means, a synthetic image generating means for generating a synthetic image by synthesizing an image displayed by visualizing the image captured by the camera and the positioning information obtained from the environment model storing means, and the synthetic image generating means. A composite image is displayed on the display means when the robot is manually operated by the operation means, and the manual operation can be guided. Remote control device.
制御系で遠隔的に操作制御しつつ前記ロボットに必要な
作業を作業環境中で行わせるようになっている遠隔操作
制御装置において、作業環境の映像を捉えるカメラと作
業環境中で前記ロボットによる作業の対象となる物体の
位置姿勢や前記ロボットの操作に必要な作業環境中での
位置決めに関する情報などを環境モデルとして記憶する
環境モデル記憶手段を備えるとともに、前記ロボットの
自動運転のための動作司令を生成する動作司令生成手段
と前記ロボットを手動で操作するための操作手段を備
え、前記ロボットの自動運転と手動操作を選択できるよ
うにされており、そして前記環境モデル中の物体の位置
姿勢と前記カメラで捉えた作業環境中の物体の位置姿勢
との比較により両者に一定以上のずれが生じていること
を検出した場合には、自動運転が停止されて手動操作に
自動的に移行するようにされていることを特徴とする遠
隔操作制御装置。2. A remote operation control device, wherein a robot installed in a work environment is remotely controlled by an operation control system to allow the robot to perform a necessary work in the work environment. An environment model storage unit that stores, as an environment model, a camera that captures an image of the environment and the position and orientation of an object that is a target of work by the robot in the work environment, information about positioning in the work environment necessary for operating the robot, and the like. With the operation command generation means for generating an operation command for the automatic operation of the robot and the operation means for manually operating the robot, the automatic operation and the manual operation of the robot can be selected. And by comparing the position and orientation of the object in the environment model with the position and orientation of the object in the work environment captured by the camera, A remote operation control device characterized in that, when it is detected that a deviation of a certain amount or more has occurred, the automatic operation is stopped and a manual operation is automatically started.
段から得られる位置決めに関する情報を図形化して表示
した画像とを合成した合成画像を生成する合成画像生成
手段およびこの合成画像生成手段で生成された合成画像
を表示する表示手段を備え、手動操作に移行した際に、
前記合成画像を前記表示手段に表示して手動操作を誘導
できるようにされている請求項2に記載の遠隔操作制御
装置。3. A composite image generation means for generating a composite image by combining a video image captured by a camera and an image displayed by visualizing information on positioning obtained from the environment model storage means, and the composite image generation means. Equipped with a display means for displaying the combined image, and when shifting to manual operation,
The remote operation control device according to claim 2, wherein the composite image is displayed on the display unit so that a manual operation can be guided.
で捉えた作業環境中の物体の位置姿勢とにずれが生じて
いる場合に、そのずれをなくすように前記環境モデルを
修正する環境モデル修正手段を備えている請求項1〜請
求項3の何れか1項に記載の遠隔操作制御装置。4. An environment model that corrects the environment model so that if there is a deviation between the position and orientation of the object in the environment model and the position and orientation of the object in the work environment captured by the camera, the deviation is eliminated. The remote operation control device according to any one of claims 1 to 3, further comprising a correction unit.
作業を受けている物体がその作業目的のために作業環境
中で位置決めすべき位置決め点に対応した位置姿勢のマ
ークを表示した画像を位置決めに関する情報の図形化画
像として用いるようにされている請求項1〜請求項4の
何れか1項に記載の遠隔操作制御装置。5. An image showing a position / orientation mark corresponding to a positioning point to be positioned in a work environment by a robot being worked or an object being worked by the robot for the purpose of the work The remote operation control device according to any one of claims 1 to 4, which is adapted to be used as a graphic image.
作業を受けている物体がその作業目的のために作業環境
中で位置決めすべき位置決め点に対応した位置姿勢の第
1のマークと、前記ロボットまたは物体が作業の進行に
伴って変える位置姿勢に対応した位置姿勢の第2のマー
クを表示した画像を位置決めに関する情報の図形化画像
として用いるようにされている請求項1〜請求項4の何
れか1項に記載の遠隔操作制御装置。6. A first mark having a position and orientation corresponding to a positioning point to be positioned in a work environment for a working robot or an object being worked by the robot, and the robot or the object. 5. An image displaying a second mark of a position and orientation corresponding to a position and orientation that changes with the progress of work is used as a graphic image of information relating to positioning. A remote control device according to the item.
境中の物体がその作業目的のために作業環境中で位置決
めすべき位置決め点に位置決めしたら見えるであろう前
記物体の外観形状の図形を表示した画像を位置決めに関
する情報の図形化画像として用いるようにされている請
求項1〜請求項4の何れか1項に記載の遠隔操作制御装
置。7. An external shape graphic of an object in a work environment undergoing work by a robot, which would be visible when positioned at a positioning point to be positioned in the work environment for the purpose of the work, is displayed. The remote operation control device according to any one of claims 1 to 4, wherein the image is used as a graphic image of information regarding positioning.
対象物体に組み合わせる作業をロボットに行わせる場合
に、前記ロボットによる作業を受けている状態の前記位
置決めすべき物体に前記対象物体が組み合わされたら見
えるであろう前記対象物体の外観形状の図形を表示した
画像を位置決めに関する情報の図形化画像として用いる
ようにされている請求項1〜請求項4の何れか1項に記
載の遠隔操作制御装置。8. The target object is combined with the object to be positioned in the state of being operated by the robot when the robot is made to combine the object to be positioned in the work environment with another target object. The remote operation according to any one of claims 1 to 4, wherein an image displaying a figure of an external shape of the target object that may be seen when used is used as a graphic image of information regarding positioning. Control device.
た状態で当該位置決めすべき物体をロボットの把持部位
から捉えることができるようにしたカメラを設け、この
カメラが捉えた映像に位置決めに関する情報の図形化画
像を重ね合わせて合成画像を生成するようにされている
請求項8に記載の遠隔操作制御装置。9. A camera is provided which enables a robot to grasp an object to be positioned while grasping the object to be positioned, and a graphic of information relating to positioning in an image captured by the camera. 9. The remote operation control device according to claim 8, wherein the remote control device is configured to superimpose the digitized images to generate a composite image.
決めに関する情報の図形化画像とを奥行も考慮して重ね
合わせて合成画像を生成するようにした請求項7または
請求項9に記載の遠隔操作制御装置。10. The remote according to claim 7, wherein the image of the work environment captured by the camera and the graphic image of information on positioning are overlapped in consideration of the depth to generate a composite image. Operation control device.
する入力手段と、この入力手段で入力された位置に関す
る情報から作業環境中の一つの物体を対象物体として選
択する対象物体選択手段を備え、前記入力手段で前記表
示手段の画面上に位置が入力された際には、前記対象物
体選択手段が選択した対象物体に関して位置決めに関す
る情報の図形化画像を生成するようにされている請求項
1〜請求項10の何れか1項に記載の遠隔操作制御装
置。11. An input means for inputting a position on a screen of a display means, and a target object selecting means for selecting one object in a work environment as a target object from information on the position input by the input means, When the position is input on the screen of the display unit by the input unit, a graphic image of information regarding positioning regarding the target object selected by the target object selection unit is generated. The remote control device according to claim 10.
台備え、これら各カメラが捉えた作業環境の映像を切り
替えて表示手段に表示できるようにされるとともに、こ
の表示映像の切り替えに応じて位置決めに関する情報の
図形化画像の表示の仕方も切り替えることができるよう
にされている請求項1〜請求項8または請求項10〜請
求項11の何れか1項に記載の遠隔操作制御装置。12. A plurality of cameras for capturing an image of a work environment are provided, the images of the work environment captured by these cameras can be switched and displayed on a display unit, and positioning can be performed according to the switching of the display image. The remote operation control device according to any one of claims 1 to 8 or 10 to 11, wherein a method of displaying a graphic image of information regarding the information can be switched.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002122796A JP3924495B2 (en) | 2002-04-24 | 2002-04-24 | Remote control device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002122796A JP3924495B2 (en) | 2002-04-24 | 2002-04-24 | Remote control device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003311661A true JP2003311661A (en) | 2003-11-05 |
| JP3924495B2 JP3924495B2 (en) | 2007-06-06 |
Family
ID=29538312
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002122796A Expired - Fee Related JP3924495B2 (en) | 2002-04-24 | 2002-04-24 | Remote control device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3924495B2 (en) |
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007071660A (en) * | 2005-09-06 | 2007-03-22 | Toshiba Corp | Method and apparatus for measuring work position in remote inspection |
| JP2008080466A (en) * | 2006-09-28 | 2008-04-10 | Daihen Corp | Teaching method of carrier robot |
| JP2008093813A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Work support apparatus and method |
| JP2010064161A (en) * | 2008-09-09 | 2010-03-25 | Fuji Electric Systems Co Ltd | Remote control support device |
| JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
| JP2013111728A (en) * | 2011-11-30 | 2013-06-10 | Ihi Corp | Gripping operation setting method, device and program |
| WO2017033362A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| JP2018126839A (en) * | 2017-02-10 | 2018-08-16 | 川崎重工業株式会社 | Robot system and control method thereof |
| JP2018153874A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Presentation device, presentation method and program, and work system |
| JP2018153873A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Device for controlling manipulator, control method, program and work system |
| JP2018158429A (en) * | 2017-03-23 | 2018-10-11 | 株式会社デンソーウェーブ | Robot system |
| JP2019063953A (en) * | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | Work system, method for controlling work system and program |
| WO2019087738A1 (en) | 2017-10-31 | 2019-05-09 | 川崎重工業株式会社 | Robot system |
| JP2020175453A (en) * | 2019-04-15 | 2020-10-29 | 株式会社Ihi | Remote control device |
| JP2021086609A (en) * | 2019-11-27 | 2021-06-03 | 株式会社安川電機 | Control system, local controller, and control method |
| WO2021117871A1 (en) | 2019-12-13 | 2021-06-17 | 川崎重工業株式会社 | Robot system |
| JPWO2020188661A1 (en) * | 2019-03-15 | 2021-10-14 | オムロン株式会社 | Setting support device, setting support method and program |
| US20220063091A1 (en) * | 2018-12-27 | 2022-03-03 | Kawasaki Jukogyo Kabushiki Kaisha | Robot control device, robot system and robot control method |
| CN114217613A (en) * | 2021-12-09 | 2022-03-22 | 广州小鹏自动驾驶科技有限公司 | Remote control method and device and remote driving system |
| JPWO2022064653A1 (en) * | 2020-09-25 | 2022-03-31 | ||
| JP2022169201A (en) * | 2021-04-27 | 2022-11-09 | 川崎重工業株式会社 | robot system |
| CN116635190A (en) * | 2020-12-24 | 2023-08-22 | 川崎重工业株式会社 | Robot system and robot working method |
| US12275155B2 (en) | 2019-11-27 | 2025-04-15 | Kabushiki Kaisha Yaskawa Denki | Controller for distributed devices |
| US12343873B2 (en) | 2019-11-15 | 2025-07-01 | Kawasaki Jukogyo Kabushiki Kaisha | Control device, control system, robot system, and control method |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11548154B2 (en) | 2018-10-12 | 2023-01-10 | Toyota Research Institute, Inc. | Systems and methods for dimensionally-restricted robotic teleoperation |
-
2002
- 2002-04-24 JP JP2002122796A patent/JP3924495B2/en not_active Expired - Fee Related
Cited By (72)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007071660A (en) * | 2005-09-06 | 2007-03-22 | Toshiba Corp | Method and apparatus for measuring work position in remote inspection |
| US8085296B2 (en) | 2005-09-06 | 2011-12-27 | Kabushiki Kaisha Toshiba | Method and apparatus for measuring an operating position in a remote inspection |
| JP2008080466A (en) * | 2006-09-28 | 2008-04-10 | Daihen Corp | Teaching method of carrier robot |
| JP2008093813A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Work support apparatus and method |
| JP2010064161A (en) * | 2008-09-09 | 2010-03-25 | Fuji Electric Systems Co Ltd | Remote control support device |
| JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
| JP2013111728A (en) * | 2011-11-30 | 2013-06-10 | Ihi Corp | Gripping operation setting method, device and program |
| US11116593B2 (en) | 2015-08-25 | 2021-09-14 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| US10980606B2 (en) | 2015-08-25 | 2021-04-20 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
| WO2017033360A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| CN107848114A (en) * | 2015-08-25 | 2018-03-27 | 川崎重工业株式会社 | Industrial robot and its method of operation |
| KR20180038479A (en) * | 2015-08-25 | 2018-04-16 | 카와사키 주코교 카부시키 카이샤 | Robot system |
| TWI625207B (en) * | 2015-08-25 | 2018-06-01 | Kawasaki Heavy Ind Ltd | Robot system and its operation method |
| JPWO2017033360A1 (en) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| JPWO2017033376A1 (en) * | 2015-08-25 | 2018-06-14 | 川崎重工業株式会社 | Industrial robot and driving method thereof |
| JPWO2017033362A1 (en) * | 2015-08-25 | 2018-06-14 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| US11197730B2 (en) | 2015-08-25 | 2021-12-14 | Kawasaki Jukogyo Kabushiki Kaisha | Manipulator system |
| WO2017033362A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control manipulator system and operation method thereof |
| US20180250831A1 (en) * | 2015-08-25 | 2018-09-06 | Kawasaki Jukogyo Kabushiki Kaisha | Industrial robot and method of operating the same |
| US11147641B2 (en) | 2015-08-25 | 2021-10-19 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| JP2021053802A (en) * | 2015-08-25 | 2021-04-08 | 川崎重工業株式会社 | Industrial robot and operation method thereof |
| US11103322B2 (en) | 2015-08-25 | 2021-08-31 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US11065070B2 (en) | 2015-08-25 | 2021-07-20 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method of operating the same |
| US11039895B2 (en) | 2015-08-25 | 2021-06-22 | Kawasaki Jukogyo Kabushiki Kaisha | Industrial remote control robot system |
| WO2017033376A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Industrial robot and operation method thereof |
| KR102055317B1 (en) | 2015-08-25 | 2020-01-22 | 카와사키 주코교 카부시키 카이샤 | Robot system |
| US10631942B2 (en) | 2015-08-25 | 2020-04-28 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US10631941B2 (en) | 2015-08-25 | 2020-04-28 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| CN107848114B (en) * | 2015-08-25 | 2021-04-20 | 川崎重工业株式会社 | Industrial robot and its operation method |
| US10702350B2 (en) | 2015-08-25 | 2020-07-07 | Kawasaki Jukogyo Kabushik Kaisha | Robot system |
| US10722313B2 (en) | 2015-08-25 | 2020-07-28 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method of operating the same |
| US10792114B2 (en) | 2015-08-25 | 2020-10-06 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system and method of operating the same |
| US10806534B2 (en) | 2015-08-25 | 2020-10-20 | Kawasaki Jukogyo Kabushiki Kaisha | Information sharing system and method of sharing information between a plurality of robot systems |
| US10813709B2 (en) | 2015-08-25 | 2020-10-27 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| US10980605B2 (en) | 2015-08-25 | 2021-04-20 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US10835333B2 (en) | 2015-08-25 | 2020-11-17 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US10842578B2 (en) | 2015-08-25 | 2020-11-24 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| US10856945B2 (en) | 2015-08-25 | 2020-12-08 | Kawasaki Jukogyo Kabushiki Kaisha | Industrial robot and method of operating the same |
| US10905508B2 (en) | 2015-08-25 | 2021-02-02 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US10932874B2 (en) | 2015-08-25 | 2021-03-02 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
| US10959795B2 (en) | 2015-08-25 | 2021-03-30 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
| WO2018147411A1 (en) * | 2017-02-10 | 2018-08-16 | 川崎重工業株式会社 | Robot system and control method therefor |
| CN110267770B (en) * | 2017-02-10 | 2022-04-12 | 川崎重工业株式会社 | Robot system and control method thereof |
| CN110267770A (en) * | 2017-02-10 | 2019-09-20 | 川崎重工业株式会社 | Robot system and its control method |
| JP2018126839A (en) * | 2017-02-10 | 2018-08-16 | 川崎重工業株式会社 | Robot system and control method thereof |
| JP2018153874A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Presentation device, presentation method and program, and work system |
| JP2018153873A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Device for controlling manipulator, control method, program and work system |
| JP2018158429A (en) * | 2017-03-23 | 2018-10-11 | 株式会社デンソーウェーブ | Robot system |
| JP2019063953A (en) * | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | Work system, method for controlling work system and program |
| WO2019087738A1 (en) | 2017-10-31 | 2019-05-09 | 川崎重工業株式会社 | Robot system |
| KR20200067880A (en) | 2017-10-31 | 2020-06-12 | 카와사키 주코교 카부시키 카이샤 | Robot system |
| US12194641B2 (en) | 2017-10-31 | 2025-01-14 | Kawasaki Jukogyo Kabushiki Kaisha | System for correcting robot operations among simultaneously automatically operated robots |
| US11850758B2 (en) | 2017-10-31 | 2023-12-26 | Kawasaki Jukogyo Kabushiki Kaisha | System for correcting robot operations among simultaneously automatically operated robots |
| US12162151B2 (en) * | 2018-12-27 | 2024-12-10 | Kawasaki Jukogyo Kabushiki Kaisha | Robot control device, robot system and robot control method |
| US20220063091A1 (en) * | 2018-12-27 | 2022-03-03 | Kawasaki Jukogyo Kabushiki Kaisha | Robot control device, robot system and robot control method |
| JPWO2020188661A1 (en) * | 2019-03-15 | 2021-10-14 | オムロン株式会社 | Setting support device, setting support method and program |
| JP7164012B2 (en) | 2019-03-15 | 2022-11-01 | オムロン株式会社 | SETTING SUPPORT DEVICE, SETTING SUPPORT METHOD, AND PROGRAM |
| JP2020175453A (en) * | 2019-04-15 | 2020-10-29 | 株式会社Ihi | Remote control device |
| US12343873B2 (en) | 2019-11-15 | 2025-07-01 | Kawasaki Jukogyo Kabushiki Kaisha | Control device, control system, robot system, and control method |
| US12275155B2 (en) | 2019-11-27 | 2025-04-15 | Kabushiki Kaisha Yaskawa Denki | Controller for distributed devices |
| JP2021086609A (en) * | 2019-11-27 | 2021-06-03 | 株式会社安川電機 | Control system, local controller, and control method |
| JP7374867B2 (en) | 2019-11-27 | 2023-11-07 | 株式会社安川電機 | Control system, local controller and control method |
| WO2021117871A1 (en) | 2019-12-13 | 2021-06-17 | 川崎重工業株式会社 | Robot system |
| US12090630B2 (en) | 2019-12-13 | 2024-09-17 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
| JPWO2022064653A1 (en) * | 2020-09-25 | 2022-03-31 | ||
| JP7448024B2 (en) | 2020-09-25 | 2024-03-12 | 日本電気株式会社 | Control device, control method and program |
| EP4219091A4 (en) * | 2020-09-25 | 2023-11-15 | NEC Corporation | Control device, control method, and storage medium |
| WO2022064653A1 (en) * | 2020-09-25 | 2022-03-31 | 日本電気株式会社 | Control device, control method, and storage medium |
| CN116635190A (en) * | 2020-12-24 | 2023-08-22 | 川崎重工业株式会社 | Robot system and robot working method |
| JP2022169201A (en) * | 2021-04-27 | 2022-11-09 | 川崎重工業株式会社 | robot system |
| CN114217613B (en) * | 2021-12-09 | 2024-01-12 | 广州小鹏自动驾驶科技有限公司 | Remote control method and device and remote driving system |
| CN114217613A (en) * | 2021-12-09 | 2022-03-22 | 广州小鹏自动驾驶科技有限公司 | Remote control method and device and remote driving system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3924495B2 (en) | 2007-06-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3924495B2 (en) | Remote control device | |
| US11040451B2 (en) | Teaching device and teaching method | |
| JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
| US10905508B2 (en) | Remote control robot system | |
| CN105666505B (en) | Robot system having display for augmented reality | |
| CN104858876B (en) | Visual debugging of robotic tasks | |
| JP5471355B2 (en) | 3D visual sensor | |
| CN101479082A (en) | Robot device and robot device control method | |
| JP7517803B2 (en) | ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM | |
| CN114670189B (en) | Storage medium, and method and system for generating robot control program | |
| US20240033930A1 (en) | Remote control manipulator system and remote control assistance system | |
| Lee et al. | Reinforcement learning-based virtual fixtures for teleoperation of hydraulic construction machine | |
| US10434650B2 (en) | Programming device which generates operation program and method for generating program | |
| CN113165186A (en) | Robot system, control device and control method for robot system, image pickup device, control program, and storage medium | |
| US12226914B2 (en) | Generation of image for robot operation | |
| JP3940998B2 (en) | Robot equipment | |
| US12311541B2 (en) | Generation method, computer program, and generation system | |
| CN116115385A (en) | Intraoral three-dimensional scanning robot and control method thereof | |
| JP2000042960A (en) | Manipulator remote control device | |
| JPH10249786A (en) | Manipulator control device and operation support device | |
| CN112975988A (en) | Live working robot control system based on VR technique | |
| JP7795163B2 (en) | Data processing device, data processing method and data processing system | |
| JP4949798B2 (en) | Work support apparatus and method | |
| JPH0795560A (en) | Image measuring method of remote control system, its apparatus, and distance measuring method | |
| JPH0760342B2 (en) | Robot support system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050411 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060919 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061116 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070226 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100302 Year of fee payment: 3 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110302 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130302 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130302 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140302 Year of fee payment: 7 |
|
| LAPS | Cancellation because of no payment of annual fees |