[go: up one dir, main page]

JP2024135097A - Remote operation control system, remote control device, remote control method, and program - Google Patents

Remote operation control system, remote control device, remote control method, and program Download PDF

Info

Publication number
JP2024135097A
JP2024135097A JP2023045616A JP2023045616A JP2024135097A JP 2024135097 A JP2024135097 A JP 2024135097A JP 2023045616 A JP2023045616 A JP 2023045616A JP 2023045616 A JP2023045616 A JP 2023045616A JP 2024135097 A JP2024135097 A JP 2024135097A
Authority
JP
Japan
Prior art keywords
operator
remote control
remote
difference
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023045616A
Other languages
Japanese (ja)
Inventor
健 知久
Ken Chiku
謙一郎 杉山
Kenichiro Sugiyama
貢秀 黒田
Mitsuhide Kuroda
智弘 川上
Tomohiro Kawakami
了 水谷
Ryo Mizutani
智大 茶木
Tomohiro Chagi
智美 福井
Tomomi Fukui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2023045616A priority Critical patent/JP2024135097A/en
Publication of JP2024135097A publication Critical patent/JP2024135097A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Selective Calling Equipment (AREA)

Abstract

To provide a remote operation control system by which optimal support function is presented from a difference between a person is good at operation and myself and operation can be easily performed by even a person with low proficiency, a remote control device, a remote control method, and a program.SOLUTION: A remote operation control system, by which an operator remotely controls a remote control object that is a real object or a virtual object in a virtual world, comprises: a score calculation part which calculates a remote control operation score; and a difference presentation part which presents a difference between operations of a first operator and a second operator who has an operation score higher than the first operator.SELECTED DRAWING: Figure 2

Description

本発明は、遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラムに関する。 The present invention relates to a remote control system, a remote control device, a remote control method, and a program.

近年、人手不足の影響等により、遠隔操作ロボットへの期待が高まっている。このため、遠隔操作でロボットに作業させるシステムの開発が進められている。このような遠隔操作を支援する技術の開発が行われている(例えば非特許文献1参照)。 In recent years, expectations for remote-controlled robots have been rising due to factors such as labor shortages. For this reason, development of systems that allow robots to perform tasks remotely is underway. Technologies to support such remote control are being developed (for example, see Non-Patent Document 1).

大野和則、城間直司、“レスキューロボットの遠隔操縦支援技術”、日本ロボット学会誌、Vol 28 No2, pp160-163、2010Kazunori Ohno, Naoji Shiroma, "Remote Control Support Technology for Rescue Robots", Journal of the Robotics Society of Japan, Vol 28 No2, pp160-163, 2010

しかしながら、従来技術では、操作者によって習熟度が違うため、求められる遠隔サポートが異なるという問題点があった。 However, with conventional technology, there was a problem in that different operators had different levels of proficiency, and therefore different types of remote support were required.

本発明は、上記の問題点に鑑みてなされたものであって、作業が上手な人と自分との差異から最適なサポート機能が提示され、習熟度が低い人でも作業が容易になる遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラムを提供することを目的とする。 The present invention has been made in consideration of the above problems, and aims to provide a remote operation control system, a remote control device, a remote control method, and a program that present optimal support functions based on the differences between the user and people who are skilled at the work, making the work easier even for people with low proficiency.

(1)上記目的を達成するため、本発明の一態様に係る遠隔操作制御システムは、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムであって、遠隔操作の作業スコアを算出するスコア算出部と、第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する差異提示部と、を備える遠隔操作制御システムである。 (1) In order to achieve the above object, a remote operation control system according to one aspect of the present invention is a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, and the remote operation control system includes a score calculation unit that calculates an operation score of the remote operation, and a difference presentation unit that presents a difference between the operation of the first operator and an operation of a second operator who has a higher operation score than the first operator.

(2)(1)の遠隔操作制御システムにおいて、遠隔操作ロボットに対して、前記第1の操作者の情報から操作者の操作意図を推定して操作意図に応じた動作補助を行う制御部と、前記動作補助のレベルを前記作業スコアに応じて変更する補助レベル変更部と、
を備えるようにしてもよい。
(2) In the remote operation control system of (1), a control unit is configured to estimate an operation intention of an operator from information about the first operator and to perform operation assistance according to the operation intention for a remote operation robot; and an assistance level change unit is configured to change a level of the operation assistance according to the task score.
The above configuration may be adopted.

(3)(1)または(2)の遠隔操作制御システムにおいて、前記スコア算出部は、作業に要した時間と、作業毎の品質である達成度に重み付けして加算して算出するようにしてもよい。 (3) In the remote operation control system of (1) or (2), the score calculation unit may calculate the score by weighting and adding the time required for the task and the achievement level, which is the quality of each task.

(4)(1)から(3)ののうちのいずれか1つの遠隔操作制御システムにおいて、前記差異提示部は、前記第1の操作者の操作データと、前記第2の操作者の操作データとを比較して前記差異を求め、求めた前記差異に基づいて提示する提示情報を生成し、生成した提示情報を提示するようにしてもよい。 (4) In any one of the remote operation control systems (1) to (3), the difference presentation unit may compare the operation data of the first operator with the operation data of the second operator to determine the difference, generate presentation information to be presented based on the determined difference, and present the generated presentation information.

(5)(4)の遠隔操作制御システムにおいて、前記提示情報は、画像、テキスト、および音声のうちの少なくとも1つであるようにしてもよい。 (5) In the remote operation control system of (4), the presented information may be at least one of an image, text, and audio.

(6)(1)から(3)のうちのいずれか1つの遠隔操作制御システムにおいて、前記差異提示部は、前記第1の操作者の操作状態と、前記第2の操作者の操作状態とを比較して差異を求め、求めた前記差異に基づいて改善提案を提示するようにしてもよい。 (6) In any one of the remote operation control systems (1) to (3), the difference presentation unit may compare an operation state of the first operator with an operation state of the second operator to determine a difference, and present an improvement suggestion based on the determined difference.

(7)(4)または(6)の遠隔操作制御システムにおいて、前記第2の操作者の操作データは、典型パターンの操作データであるようにしてもよい。 (7) In the remote control system of (4) or (6), the operation data of the second operator may be operation data of a typical pattern.

(8)上記目的を達成するため、本発明の一態様に係る遠隔制御装置は、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置であって、遠隔操作の作業スコアを算出するスコア算出部と、第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する差異提示部と、を備える遠隔制御装置である。 (8) In order to achieve the above object, a remote control device according to one embodiment of the present invention is a remote control device for a remote operation control system in which an operator remotely operates a remote operation target that is a real object or a virtual object in a virtual world, and the remote control device is equipped with a score calculation unit that calculates an operation score of the remote operation, and a difference presentation unit that presents a difference between the operation of the first operator and an operation of a second operator who has a higher operation score than the first operator.

(9)上記目的を達成するため、本発明の一態様に係る遠隔制御方法は、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置の遠隔制御方法であって、スコア算出部が、遠隔操作の作業スコアを算出し、差異提示部が、第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する、遠隔制御方法である。 (9) In order to achieve the above object, a remote control method according to one aspect of the present invention is a remote control method for a remote control device of a remote control system in which an operator remotely controls a remote control target, which is a real object or a virtual object in a virtual world, in which a score calculation unit calculates an operation score of the remote operation, and a difference presentation unit presents a difference between the operation of the first operator and an operation of a second operator who has a higher operation score than the first operator.

(10)上記目的を達成するため、本発明の一態様に係るプログラムは、 現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置のコンピュータに、遠隔操作の作業スコアを算出させ、第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示させる、プログラムである。 (10) In order to achieve the above object, a program according to one aspect of the present invention is a program that causes a computer of a remote control device of a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, to calculate an operation score for the remote operation and present the difference between the operation of the first operator and that of a second operator who has a higher operation score than the first operator.

(1)~(10)によれば、作業が上手な人と自分との差異から最適なサポート機能がサジェストされ、習熟度が低い人でも作業が容易になる。 According to (1) to (10), the optimal support functions are suggested based on the differences between you and someone who is skilled at the task, making the task easier even for people with low proficiency.

実施形態に係る遠隔操作制御システムの環境例を示す図である。FIG. 1 is a diagram illustrating an example of an environment of a remote operation control system according to an embodiment. 実施形態に係る遠隔操作制御システムの構成例を示す図である。1 is a diagram illustrating an example of the configuration of a remote operation control system according to an embodiment. 補助サポートの概要を説明するための図である。FIG. 13 is a diagram for explaining an outline of the auxiliary support. 実施形態に係る操作制御装置の記憶部が記憶する情報例を示す図である。4 is a diagram showing an example of information stored in a storage unit of the operation control device according to the embodiment; FIG. 実施形態に係る操作制御装置の記憶部が記憶する情報例を示す図である。4 is a diagram showing an example of information stored in a storage unit of the operation control device according to the embodiment; FIG. 実施形態に係る操作制御装置の記憶部が記憶する情報例を示す図である。4 is a diagram showing an example of information stored in a storage unit of the operation control device according to the embodiment; FIG. 操作者に提示する差異画像の一例を示す図である。FIG. 13 is a diagram showing an example of a difference image presented to an operator. 操作者に提示する差異画像の他の例を示す図である。13A and 13B are diagrams illustrating other examples of difference images presented to the operator. 実施形態に係る遠隔制御装置が行う処理手順例のフローチャートである。10 is a flowchart of an example of a processing procedure performed by a remote control device according to the embodiment.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings used in the following description, the scale of each component is appropriately changed so that each component can be recognized.
In addition, in all the drawings for explaining the embodiments, the same reference numerals are used for the parts having the same functions, and the repeated explanation is omitted.
In addition, "based on XX" in this application means "based on at least XX," and includes cases where it is based on other elements in addition to XX. Furthermore, "based on XX" is not limited to cases where XX is directly used, but also includes cases where it is based on XX that has been calculated or processed. "XX" is any element (for example, any information).

(概要)
早さ、品質が高い人が、スコアが高くなるようにスコア計算式を作る。早さは、時間、品質は作業ごとの達成度に重みをかけて足し算する。スコアが優位な人と自分の映像やデータ(手先の軌道、物体の状態(位置、姿勢情報))を比較し、その差異から作業のやり方をサジェストする、もしくは人間が目視で判断する。典型パターンの把持パターンとマニュアルのパターンが選択できるが、自分の選択パターンと作業記録(速さや品質)から最適な典型パターンのサジェストをデータベースにある複数のパターンから選択して行う。なお、操作対象の物体は、現実の物体であってもよく、仮想世界の仮想物体であってもよい。
(overview)
A score calculation formula is created so that people with high speed and quality get higher scores. Speed is weighted by time, and quality is weighted by the degree of achievement for each task and then added together. Images and data (hand trajectory, object state (position, posture information)) of people with superior scores are compared with those of the person with the highest score, and the system suggests how to do the task based on the differences, or a human makes a visual judgment. A typical grasping pattern and a manual pattern can be selected, and the most suitable typical pattern is suggested from multiple patterns in a database based on the user's selected pattern and work record (speed and quality). The object to be operated may be a real object, or it may be a virtual object in a virtual world.

(遠隔操作制御システムの環境例)
遠隔操作制御システムの環境例を説明する。
図1は、本実施形態に係る遠隔操作制御システムの環境例を示す図である。
図1のように、操作者Usは、例えば、画像表示部3として例えばHMD(ヘッドマウントディスプレイ)を装着し、操作検出部21(21L、21R)等を装着している。
作業空間には、環境センサ4が設置されている。なお、環境センサ4は、ロボット6に取り付けられていてもよい。環境センサ4は、例えば、深度情報Dも得られるRBG(赤青緑)Dカメラである。
ロボット6は、例えば、アーム63(63L、63R)、エンドエフェクタ64(64L、64R)、ボディ66、頭部67を備える。なお、以下の説明では、エンドエフェクタ64をハンドとも言う。なお、ロボット6は、アーム63とエンドエフェクタ64のみであってもよい。また、ロボット6が備えるアームは1つ以上であればよい。なお、ロボット6は、不図示の通信部を備え、遠隔制御装置5と情報の送受信を行う。
(Example of a remote control system environment)
An example of the environment of the remote operation control system will be described.
FIG. 1 is a diagram showing an example of an environment of a remote operation control system according to this embodiment.
As shown in FIG. 1, an operator Us wears, for example, an HMD (head mounted display) as the image display unit 3, and also wears operation detection units 21 (21L, 21R) and the like.
An environmental sensor 4 is installed in the working space. The environmental sensor 4 may be attached to the robot 6. The environmental sensor 4 is, for example, an RGB (red, blue, green) D camera that can also obtain depth information D.
The robot 6 includes, for example, arms 63 (63L, 63R), end effectors 64 (64L, 64R), a body 66, and a head 67. In the following description, the end effector 64 is also referred to as a hand. The robot 6 may include only the arm 63 and the end effector 64. The robot 6 may include one or more arms. The robot 6 includes a communication unit (not shown) and transmits and receives information to and from the remote control device 5.

操作者Usは、画像表示部3に表示された画像を見ながら操作検出部21を装着している手や指を動かすことで、ロボット6を遠隔操作する。図1の例では、操作者Usは、ロボット6を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させる。なお、遠隔操作において、操作者Usは、例えば、ロボット6の動作を直接視認できないが、ロボット6側の映像を画像表示部3で間接的に視認できる状態である。また、作業内容は、例えば、ネジ締め、部品の取り付け、調整等である。 The operator Us remotely controls the robot 6 by moving the hand or fingers wearing the operation detection unit 21 while viewing the image displayed on the image display unit 3. In the example of FIG. 1, the operator Us remotely controls the robot 6 to grasp a plastic bottle obj on the table Tb. In remote control, the operator Us cannot directly see the movement of the robot 6, for example, but can indirectly see the image of the robot 6 on the image display unit 3. The work content includes, for example, tightening screws, attaching parts, adjustments, etc.

(遠隔操作制御システムの構成例)
図2は、本実施形態に係る遠隔操作制御システムの構成例を示す図である。図2のように、遠隔操作制御システム1は、例えば、操作入力部2(2-1,2-2,…)と、画像表示部3(3-1,3-2,…)と、環境センサ4と、遠隔制御装置5と、ロボット6(6-1,6-2,…)と、DB7を備える。
操作入力部2は、例えば、操作検出部21と、視線検出部22を備える。
遠隔制御装置5は、例えば、取得部51と、スコア算出部52と、差異生成部53(差異提示部)と、提供部54(差異提示部)と、補助レベル変更部55と、制御部56と、記憶部57を備える。
ロボット6は、例えば、センサ61と、アーム63と、エンドエフェクタ64と、駆動部65を備える。
(Example of remote control system configuration)
2 is a diagram showing an example of the configuration of the remote operation control system according to this embodiment. As shown in FIG. 2, the remote operation control system 1 includes, for example, an operation input unit 2 (2-1, 2-2, ...), an image display unit 3 (3-1, 3-2, ...), an environment sensor 4, a remote control device 5, a robot 6 (6-1, 6-2, ...), and a DB 7.
The operation input unit 2 includes, for example, an operation detection unit 21 and a gaze detection unit 22 .
The remote control device 5 includes, for example, an acquisition unit 51 , a score calculation unit 52 , a difference generation unit 53 (difference presentation unit), a provision unit 54 (difference presentation unit), an assistance level change unit 55 , a control unit 56 , and a memory unit 57 .
The robot 6 includes, for example, a sensor 61 , an arm 63 , an end effector 64 , and a drive unit 65 .

DB7は、例えば、ロボット6の三次元モデルデータ、操作意図推定のための情報、操作対象物体に関する情報等を格納する。 DB7 stores, for example, three-dimensional model data of the robot 6, information for estimating the operation intention, information on the object to be operated, etc.

操作入力部2は、不図示の通信部を備え、遠隔制御装置5と有線または無線で情報のやりとりを行う。 The operation input unit 2 includes a communication unit (not shown) and exchanges information with the remote control device 5 via wired or wireless communication.

操作検出部21は、操作者が操作して操作入力を検出する。操作検出部21は、例えば、データグローブ、スイッチ等である。操作検出部21は、検出した操作入力情報を遠隔制御装置5に出力する。 The operation detection unit 21 detects operation input by an operator. The operation detection unit 21 is, for example, a data glove or a switch. The operation detection unit 21 outputs the detected operation input information to the remote control device 5.

視線検出部22は、操作者の視線を検出する。視線検出部22は、検出した視線情報を遠隔制御装置5に出力する。なお、視線検出部22は、画像表示部3が備えていてもよい。 The gaze detection unit 22 detects the gaze of the operator. The gaze detection unit 22 outputs the detected gaze information to the remote control device 5. Note that the gaze detection unit 22 may be provided in the image display unit 3.

画像表示部3は、例えば、HMD、液晶画像表示装置、有機EL(Electro Luminescence)画像表示装置、スマートフォン、タブレット端末等、画像表示可能なものである。画像表示部3は、遠隔制御装置5から提供される画像を表示する。画像表示部3は、不図示の通信部を備え、遠隔制御装置5と有線または無線で情報のやりとりを行う。 The image display unit 3 is, for example, an HMD, a liquid crystal image display device, an organic EL (Electro Luminescence) image display device, a smartphone, a tablet terminal, or the like, which is capable of displaying images. The image display unit 3 displays an image provided by the remote control device 5. The image display unit 3 includes a communication unit (not shown), and exchanges information with the remote control device 5 in a wired or wireless manner.

環境センサ4は、例えば深度情報Dも取得可能なRGBDカメラである。環境センサ4は、レーザー等による距離センサとRGBカメラであってもよい。環境センサ4は、2つ以上であってもよい。環境センサ4は、不図示の通信部を備え、遠隔制御装置5と有線または無線で接続されている。 The environmental sensor 4 is, for example, an RGBD camera that can also acquire depth information D. The environmental sensor 4 may be a distance sensor using a laser or the like and an RGB camera. There may be two or more environmental sensors 4. The environmental sensor 4 has a communication unit (not shown) and is connected to the remote control device 5 by wire or wirelessly.

遠隔制御装置5は、操作者が操作した操作情報に基づいてロボット6の動作を、操作者による作業を補助するように制御する。なお、遠隔制御装置5は、例えば、操作者の操作意図を推定して、作業を補助するようにしてもよい。なお、遠隔制御装置5は、複数の操作入力部2から情報を取得し、対応するロボット6を制御するようにしてもよい。例えば、第1の操作者が操作入力部2-1と画像表示部3-1を使用してロボット6-1を遠隔操作し、第2の操作者が操作入力部2-2と画像表示部3-2を使用してロボット6-2を遠隔操作する。 The remote control device 5 controls the operation of the robot 6 based on the operation information operated by the operator so as to assist the operator in performing the work. Note that the remote control device 5 may, for example, estimate the operator's operation intention and assist the work. Note that the remote control device 5 may obtain information from multiple operation input units 2 and control the corresponding robot 6. For example, a first operator remotely operates the robot 6-1 using the operation input unit 2-1 and the image display unit 3-1, and a second operator remotely operates the robot 6-2 using the operation input unit 2-2 and the image display unit 3-2.

取得部51は、操作入力部2から操作入力情報と視線情報、環境センサ4から画像情報、ロボット6からセンサ検出値等を取得する。 The acquisition unit 51 acquires operation input information and gaze information from the operation input unit 2, image information from the environmental sensor 4, sensor detection values from the robot 6, etc.

スコア算出部52は、取得した情報を用いて、操作者毎に作業に対する作業スコアを算出する。スコア算出部52は、例えば、作業の早さ(時間)と、作業毎(1つの作業における各ステップ)の達成度(品質)に例えば重み付けして加算して作業スコアを算出する。なお、作業スコアの算出方法は一例であり、これに限らない。スコア算出部52は、作業者毎かつ作業毎に、算出した作業スコアを記憶部57に記憶させる。 The score calculation unit 52 uses the acquired information to calculate a task score for each operator. The score calculation unit 52 calculates the task score, for example, by weighting and adding the speed (time) of the task and the degree of accomplishment (quality) of each task (each step in a task). Note that the method of calculating the task score is an example and is not limited to this. The score calculation unit 52 stores the calculated task score for each worker and task in the memory unit 57.

差異生成部53は、作業スコアで現在の操作者よりも作業スコアが高い操作者の操作差異を求める。差異生成部53は、例えば、第1の操作者の作業状態と、第1の操作者より作業スコアが高い第2の操作者の作業状態を重ねて提示する差異情報(例えば画像)を生成する。または、差異生成部53は、例えば、第1の操作者の作業状態と、記憶部57に記憶させている典型パターンの作業状態を重ねて提示する差異情報(例えば画像)を生成する。差異生成部53は、作業スコア、操作データ等に基づいて、操作者への提案(テキストまたは音声)を生成する。なお、操作データは、例えば、手先の軌道、物体の状態(位置、姿勢情報)等である。 The difference generation unit 53 finds the operation difference between operators with a higher task score than the current operator. The difference generation unit 53 generates difference information (e.g., an image) that presents, for example, the task state of a first operator and the task state of a second operator with a task score higher than the first operator in an overlapping manner. Alternatively, the difference generation unit 53 generates difference information (e.g., an image) that presents, for example, the task state of the first operator and the task state of a typical pattern stored in the storage unit 57 in an overlapping manner. The difference generation unit 53 generates a suggestion (text or voice) to the operator based on the task score, the operation data, etc. The operation data is, for example, the trajectory of the hand, the state of an object (position, posture information), etc.

提供部54は、差異生成部53が生成した差異情報を、画像表示部3に提示させる。 The providing unit 54 causes the difference information generated by the difference generating unit 53 to be presented on the image display unit 3.

補助レベル変更部55は、補助機能のレベルを作業スコアに応じて変更する。 The assistance level change unit 55 changes the level of the assistance function according to the task score.

制御部56は、取得した操作情報に基づいて、ロボット6を制御する。制御部56は、操作情報から操作者の操作意図を推定して操作意図に応じた動作を行うよう補助しながら、ロボット6を制御する。なお、意図推定方法については後述する。制御部56は、補助レベル変更部55が変更したレベルに応じて、補助レベルを変更する。 The control unit 56 controls the robot 6 based on the acquired operation information. The control unit 56 controls the robot 6 while estimating the operator's operation intention from the operation information and assisting the robot 6 to perform an action according to the operation intention. The intention estimation method will be described later. The control unit 56 changes the assistance level according to the level changed by the assistance level change unit 55.

記憶部57は、遠隔制御装置5が用いるプログラム、閾値等を記憶する。記憶部57は、操作者毎かつ作業毎に作業スコアを記憶する。記憶部57は、操作者毎かつ作業毎に操作データを記憶する。記憶部57は、作業毎に、作業の典型パターンの操作データを記憶する。記憶部57は、環境センサ4が設置されている位置を記憶する。記憶部57は、ロボット6の例えば三次元モデルデータを記憶していてもよい。 The memory unit 57 stores programs, thresholds, etc. used by the remote control device 5. The memory unit 57 stores a task score for each operator and for each task. The memory unit 57 stores operation data for each operator and for each task. The memory unit 57 stores operation data of a typical task pattern for each task. The memory unit 57 stores the position where the environmental sensor 4 is installed. The memory unit 57 may store, for example, three-dimensional model data of the robot 6.

センサ61は、例えば、関節に取り付けられているエンコーダ、エンドエフェクタ64の指先に取り付けられている6軸センサ、力覚センサ等である。 The sensor 61 may be, for example, an encoder attached to a joint, a six-axis sensor attached to the fingertip of the end effector 64, a force sensor, etc.

アーム63は、先端にエンドエフェクタ64が取り付けられている。 An end effector 64 is attached to the tip of the arm 63.

エンドエフェクタ64は、少なくとも2つ以上の指部を備えている。エンドエフェクタ64は、グリッパー等であってもよく、多指を備えていてもよい。また、ロボット6それぞれが備えるエンドエフェクタ64は、例えば作業内容に応じて異なっていてもよい。 The end effector 64 has at least two or more fingers. The end effector 64 may be a gripper or the like, and may have multiple fingers. Furthermore, the end effector 64 of each robot 6 may be different depending on, for example, the work content.

駆動部65は、例えば、駆動回路とアクチュエータを備える。駆動部65は、遠隔制御装置5が出力する制御指示(関節角度指示等)に応じて、アーム63とエンドエフェクタ64を駆動する。 The drive unit 65 includes, for example, a drive circuit and an actuator. The drive unit 65 drives the arm 63 and the end effector 64 in response to control instructions (joint angle instructions, etc.) output by the remote control device 5.

(補助サポート)
次に、補助サポートの概要を説明する。図3は、補助サポートの概要を説明するための図である。
人間がなにげなく行っている把持動作は、複雑なプロセスを経て行われている。プロセスでは、例えば、どの対象物をどのような手の形で持つかを計画し、手を伸ばして把持、しっかりと持てているかを確認して、ずれていれば修正動作をする。
一方、ロボットハンドの遠隔操縦で同様のことを行う場合は、おおよその手の形は作れるものの、カメラ映像を介すと距離感が掴みづらい点や、触った状態が操作者にわからないため感覚とのずれが生じる場合がある。
このため、遠隔制御装置5は、遠隔操作において、図3のように操作者の指令に基づいて制御するだけではなく、例えば操作者の操作意図に基づいて操作をサポートして、スムーズな把持を実現する。
(Assistant support)
Next, an outline of the auxiliary support will be described with reference to Fig. 3.
The grasping action that humans perform casually is a complex process that involves, for example, planning which object to grasp and how to hold it, reaching out and grasping it, checking to see if it is held firmly, and making corrections if it is not.
On the other hand, when trying to do the same thing by remotely controlling a robotic hand, although it is possible to create a rough hand shape, it is difficult to grasp the sense of distance when using camera footage, and there may be a discrepancy between the operator's sense of touch and the actual state of the touch.
Therefore, in remote operation, the remote control device 5 not only controls based on the operator's commands as in FIG. 3, but also supports the operation based on the operator's intention to operate, for example, to achieve smooth grasping.

なお、制御部56は、例えば、選択された動作の分類と物体形状、推定される物体の摩擦や重量などの物理パラメータ、ロボット6の出力可能なトルクなどの制約条件から、例えば物体を落とさず安定的に把持可能なロボット6の手指の物体に対する接触点を求める。そして、制御部56は、例えば、これらから計算される関節角度を目標値として補正動作として補助する(例えば特開2022-155623号公報参照)。 The control unit 56 determines the contact points of the fingers of the robot 6 with respect to the object that can stably grasp the object without dropping it, for example, based on constraints such as the classification of the selected motion, the object shape, estimated physical parameters such as friction and weight of the object, and the torque that the robot 6 can output. The control unit 56 then assists with the correction motion, for example, using the joint angles calculated from these as target values (see, for example, JP 2022-155623 A).

(補助レベル)
次に、補助レベルと、補助レベルの変更について説明する。
補助レベルは、少なくとも2つ以上のレベルで、例えば、「大」と「小」、または「強」と「通常」と「弱」、あるいは「レベル1」と「レベル2」と「レベル3」と「レベル4」等である。
補助レベルが「強」と「通常」と「弱」の3種類の場合、制御部56は、例えば、初期値として「普通」に設定し、算出された作業スコアを予め設定されている閾値と比較して、作業スコアが閾値以上の場合に「弱」に変更し、作業スコアが閾値未満の場合に「強」に変更する。
なお、上述した補助レベルと補助レベルの切り替えは一例であり、これに限らない。
(Support Level)
Next, the assistance level and changes to the assistance level will be described.
The assistance levels are at least two or more levels, for example, "large" and "small", or "strong", "normal" and "weak", or "level 1", "level 2", "level 3" and "level 4", etc.
When there are three assistance levels, "strong,""normal," and "weak," the control unit 56, for example, sets the initial value to "normal," compares the calculated work score with a preset threshold, and changes the level to "weak" if the work score is equal to or greater than the threshold, or changes the level to "strong" if the work score is less than the threshold.
The above-described assistance levels and assistance level switching are merely examples and are not limiting.

(操作意図の推定)
次に、操作意図の推定方法の概要について説明する。
制御部56は、取得部51が取得した情報を用いて、作業者の意図を推定する。なお、制御部56は、例えば、視線情報、操作者腕部情報、および頭部動作情報のうちの少なくとも1つを用いて操作者の動作意図を推定する。なお、制御部56は、環境センサ4が検出した検出値も用いて意図推定するようにしてもよい。
(Estimation of Operation Intention)
Next, an outline of a method for estimating an operational intention will be described.
The control unit 56 estimates the operator's intention using the information acquired by the acquisition unit 51. Note that the control unit 56 estimates the operator's intention using at least one of, for example, gaze information, operator arm information, and head movement information. Note that the control unit 56 may also estimate the intention using a detection value detected by the environmental sensor 4.

制御部56は、例えば、作業が把持を含む場合、グラスプタクソノミー(GRASP Taxonomy)手法(例えば参考文献1参照)によって、操作者の操作意図を推定する。
制御部56は、例えば、グラスプタクソノミー手法によって操作者あるいはロボット6の姿勢すなわち把持姿勢を分類することで操作者状態を分類して、操作者の操作意図を推定する。制御部56は、例えば、記憶部57が記憶する学習済みのモデルに操作情報を入力して、操作者の操作意図を推定する。なお、把持姿勢の分類には、他の手法を用いてもよい。また、制御部56は、視線と腕部の動きを用いて統合的に推定するようにしてもよい。この場合、制御部56は、視線情報と、手の動き情報とテーブル上の物体の位置情報とを学習済みのモデルに入力して、操作者の操作意図を推定するようにしてもよい。
For example, when the task includes grasping, the control unit 56 estimates the operator's intention to operate using the GRASP Taxonomy method (see, for example, Reference 1).
The control unit 56 classifies the operator state by classifying the posture of the operator or the robot 6, i.e., the gripping posture, using, for example, a grasptaxonomy method, and estimates the operator's operational intention. The control unit 56, for example, inputs operation information into a trained model stored in the storage unit 57 to estimate the operator's operational intention. Note that other methods may be used to classify the gripping posture. The control unit 56 may also perform an integrated estimation using the gaze and the movement of the arm. In this case, the control unit 56 may input gaze information, hand movement information, and position information of an object on a table into a trained model to estimate the operator's operational intention.

参考文献1;Thomas Feix, Javier Romero,他,“The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems ( Volume: 46, Issue: 1, Feb.2016),IEEE,p66-77 Reference 1: Thomas Feix, Javier Romero, et al., “The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems (Volume: 46, Issue: 1, Feb.2016), IEEE, p66-77

なお、制御部56は、例えば、視線情報に基づいて把持させた物体を推定するようにしてもよい。次に、制御部56は、推定した把持させたい物体に基づいて、操作者の手の姿勢を推定する。または、制御部56は、例えば、操作者が入力した操作情報に基づいて、操作者の手の姿勢を推定する。制御部56は、操作情報と、ロボット6の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に推定するようにしてもよい。なお、制御部56は、環境センサ4が撮影した画像を画像処理した結果等も用いて、操作したい物体と、物体の位置を推定するようにしてもよい(例えば特願2022-006498号参照)。 The control unit 56 may estimate the object to be grasped based on, for example, line-of-sight information. Next, the control unit 56 estimates the posture of the operator's hand based on the estimated object to be grasped. Alternatively, the control unit 56 may estimate the posture of the operator's hand based on, for example, operation information input by the operator. The control unit 56 may estimate in advance the future trajectory of the operator's intended hand based on the operation information and state information of the robot 6. The control unit 56 may estimate the object to be manipulated and its position using the results of image processing of images captured by the environmental sensor 4 (see, for example, Japanese Patent Application No. 2022-006498).

(記憶部が記憶する情報例)
次に、記憶部57が記憶する情報例を説明する。
図4~図6は、本実施形態に係る操作制御装置の記憶部が記憶する情報例を示す図である。
図4のように、記憶部57は、操作者に少なくとも作業スコアを関連付けて記憶する。なお、記憶部57は、作業スコアに、作業の早さと達成度も関連付けて記憶するようにしてもよい。また、記憶部57は、このような作業者毎の作業スコアを、作業毎に記憶する。なお、操作者を示す情報は、例えば名前や識別子である。
(Example of information stored in the storage unit)
Next, an example of information stored in the storage unit 57 will be described.
4 to 6 are diagrams showing examples of information stored in the storage unit of the operation control device according to the present embodiment.
4, the storage unit 57 stores at least an operation score in association with an operator. The storage unit 57 may also store the operation score in association with the speed and completion of the operation. The storage unit 57 stores such an operation score for each operator for each operation. The information indicating the operator is, for example, a name or an identifier.

図5のように、記憶部57は、操作者毎に操作データを記憶する。なお、操作データは、1つの作業に関する時系列の操作指示や、操作指示に基づくロボット6への時系列の関節角度情報、操作指示に基づくロボット6の動作画像(静止画または動画)である。 As shown in FIG. 5, the memory unit 57 stores operation data for each operator. The operation data includes time-series operation instructions for one task, time-series joint angle information for the robot 6 based on the operation instructions, and motion images (still images or video) of the robot 6 based on the operation instructions.

図6のように、記憶部57は、操作毎に典型的な操作データを記憶する。典型的な操作データは、例えば模範的な早さで作業を達成した場合のデータであり、熟練者の操作データであってもよい。 As shown in FIG. 6, the storage unit 57 stores typical operation data for each operation. The typical operation data is, for example, data for completing a task with exemplary speed, and may be operation data of an expert.

(提示画像例)
次に、操作者に提示する差異画像例を説明する。
図7は、操作者に提示する差異画像の一例を示す図である。
符号g101は、操作者の操作指示に応じて動作した場合のロボット6の画像である。なお、画像は実画像であってもシミュレーション画像であってもよい。
符号g102の線画は、操作者より作業スコアの高い第2の作業者が同じ作業を行った場合のロボット6の線画、または典型的な操作データに基づくロボット6の線画である。
図7の例では、操作者の操作画像に、お手本となる線画を重ねて表示する例である。
(Example of image)
Next, an example of a difference image presented to the operator will be described.
FIG. 7 is a diagram showing an example of a difference image presented to the operator.
Reference symbol g101 denotes an image of the robot 6 when it operates in accordance with an operation instruction from an operator. Note that the image may be a real image or a simulation image.
The line drawing g102 is a line drawing of the robot 6 when a second worker with a higher task score than the operator performs the same task, or a line drawing of the robot 6 based on typical operation data.
In the example of FIG. 7, a model line drawing is displayed superimposed on the operation image of the operator.

なお、画像表示部3が、例えばパーソナルコンピュータのモニターやスマートフォンの画面またはタブレット端末の画面の場合は、図8のように、操作者が操作しているロボット6の画像g121と、操作者より作業スコアの高い第2の作業者が同じ作業を行った場合のロボット6の画像(または典型的な操作データに基づくロボット6の画像)g122を左右又は上下に並べて表示させるようにしてもよい。図8は、操作者に提示する差異画像の他の例を示す図である。 When the image display unit 3 is, for example, a personal computer monitor, a smartphone screen, or a tablet terminal screen, as shown in FIG. 8, an image g121 of the robot 6 being operated by the operator and an image g122 of the robot 6 when a second worker with a higher task score than the operator performs the same task (or an image of the robot 6 based on typical operation data) may be displayed side-by-side or vertically. FIG. 8 shows another example of a difference image presented to the operator.

なお、図7、図8に示した提示画像は一例であり、これに限らない。
なお、図7、図8のように差異を画像で提示する以外に、差異生成部53は、テキストまたは音声で提案するようにしてもよい。例えば、差異生成部53は、図8の符号g131のように、第1の操作者の操作データと、第1の操作者作業のスコアより高い第2の操作者の操作データを比較した結果に基づいて、または算出した作業スコアに基づいて、指の位置、動かすタイミング等を、どのように修正すると作業スコアを向上できるか提案するようにしてもよい。
Note that the presentation images shown in FIG. 7 and FIG. 8 are merely examples, and the present invention is not limited to these.
Note that the difference generation unit 53 may suggest the difference by text or voice, other than presenting the difference by image as in Fig. 7 and Fig. 8. For example, as shown by reference symbol g131 in Fig. 8, the difference generation unit 53 may suggest how to correct the finger position, movement timing, etc. to improve the task score based on a result of comparing the operation data of a first operator with the operation data of a second operator having a higher task score than the first operator, or based on the calculated task score.

(処理手順例)
次に、遠隔制御装置5が行う処理手順例を説明する。図9は、本実施形態に係る遠隔制御装置が行う処理手順例のフローチャートである。
(Example of processing procedure)
Next, a description will be given of an example of a processing procedure performed by the remote control device 5. Fig. 9 is a flowchart of an example of a processing procedure performed by the remote control device according to this embodiment.

(ステップS1)取得部51は、環境センサ4が撮影した画像を取得する。 (Step S1) The acquisition unit 51 acquires the image captured by the environmental sensor 4.

(ステップS2)取得部51は、センサ61が検出したセンサ情報を取得する。 (Step S2) The acquisition unit 51 acquires the sensor information detected by the sensor 61.

(ステップS3)取得部51は、操作入力部2が検出した操作情報を取得する。 (Step S3) The acquisition unit 51 acquires the operation information detected by the operation input unit 2.

(ステップS4)制御部56は、取得された情報を用いて、操作意図を推定する。 (Step S4) The control unit 56 uses the acquired information to estimate the operation intention.

(ステップS5)制御部56は、取得された情報と推定した操作意図に基づいて、制御指令値(関節角度指令値等)を生成する。 (Step S5) The control unit 56 generates a control command value (joint angle command value, etc.) based on the acquired information and the estimated operation intention.

(ステップS6)制御部56は、生成した制御指令値に基づいて、ロボット6を駆動する。 (Step S6) The control unit 56 drives the robot 6 based on the generated control command value.

(ステップS7)制御部56は、所望の一連の作業が終了したか否かを判別する。制御部56は、作業が終了した場合(ステップS7;YES)、ステップS8の処理に進める。制御部56は、作業が終了していない場合(ステップS7;NO)、ステップS1の処理に戻す。 (Step S7) The control unit 56 determines whether or not the desired series of tasks has been completed. If the tasks have been completed (Step S7; YES), the control unit 56 proceeds to the process of Step S8. If the tasks have not been completed (Step S7; NO), the control unit 56 returns to the process of Step S1.

(ステップS8)スコア算出部52は、終了した作業について作業スコアを算出する。 (Step S8) The score calculation unit 52 calculates the task score for the completed task.

(ステップS9)差異生成部53は、作業スコアで現在の操作者よりも作業スコアが高い操作者の操作差異を求めて、提示する差異情報を生成する。差異生成部53は、作業スコア、操作データ等に基づいて、操作者への提案(テキストまたは音声)を生成する。提供部54は、差異生成部53が生成した差異情報と提案を、画像表示部3に提示させる。 (Step S9) The difference generation unit 53 obtains operation differences between operators with higher work scores than the current operator, and generates difference information to be presented. The difference generation unit 53 generates a proposal (text or voice) to the operator based on the work score, operation data, etc. The provision unit 54 causes the image display unit 3 to present the difference information and proposal generated by the difference generation unit 53.

(ステップS10)補助レベル変更部55は、補助機能のレベルを作業スコアに応じて変更する。制御部56は、補助レベル変更部55が変更したレベルに応じて、補助レベルを変更する。制御部56は、処理後、ステップS1の処理に戻す。 (Step S10) The assistance level change unit 55 changes the level of the assistance function according to the task score. The control unit 56 changes the assistance level according to the level changed by the assistance level change unit 55. After processing, the control unit 56 returns to the processing of step S1.

なお、図9に示した処理内容と処理手順は一例であり、これに限らない。遠隔制御装置5は、例えば、いくつかの処理を同時に行ってもよく、または処理手順を入れ替えてもよい。 Note that the process contents and process procedures shown in FIG. 9 are merely examples and are not limited to these. For example, the remote control device 5 may perform several processes simultaneously, or may switch between process procedures.

以上のように、本実施形態では、作業スコアが優位な人の作業データと、自分の映像や操作データを比較し、その差異から作業のやり方を提案または人間が目視で判断するようにした。なお、典型パターンの把持パターンとマニュアルのパターンを選択するようにしてもよい。このような場合、遠隔制御装置5は、操作者が選択したパターンと作業記録(速さや品質)から最適な典型パターンのサジェストをデータベースにある複数のパターンから選択して行うようにしてもよい。 As described above, in this embodiment, the work data of the person with the superior work score is compared with the person's own video and operation data, and the method of work is suggested or visually judged by a human based on the differences. Note that a typical gripping pattern and a manual pattern may also be selected. In such a case, the remote control device 5 may suggest the most suitable typical pattern from multiple patterns in the database based on the pattern selected by the operator and the work record (speed and quality).

これにより本実施形態によれば、上手な人と自分との差異から最適なサポート機能が提案され、習熟度が低い人でも作業が容易になる。 As a result, this embodiment suggests optimal support functions based on the differences between you and a skilled person, making work easier even for people with low proficiency.

なお、本発明における遠隔制御装置5の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより遠隔制御装置5が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 In addition, a program for implementing all or part of the functions of the remote control device 5 in the present invention may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform all or part of the processing performed by the remote control device 5. Note that the term "computer system" here includes hardware such as an OS and peripheral devices. The term "computer system" also includes a WWW system equipped with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. The term "computer-readable recording medium" also includes those that hold a program for a certain period of time, such as volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may also be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium, or by transmission waves in the transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has the function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The above program may also be one that realizes part of the above-mentioned functions. Furthermore, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is not limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.

1…遠隔操作制御システム、2,2-1,2-2…操作入力部、3,3-1,3-2…画像表示部、4…環境センサ、5…遠隔制御装置、6,6-1,6-2…ロボット、7…DB、21…操作検出部、22…視線検出部、51…取得部、52…スコア算出部、53…差異生成部、54…提供部、55…補助レベル変更部、56…制御部、57…記憶部、61…センサ、63…アーム、64…エンドエフェクタ、65…駆動部 1...Remote control system, 2, 2-1, 2-2...Operation input unit, 3, 3-1, 3-2...Image display unit, 4...Environment sensor, 5...Remote control device, 6, 6-1, 6-2...Robot, 7...DB, 21...Operation detection unit, 22...Gaze detection unit, 51...Acquisition unit, 52...Score calculation unit, 53...Difference generation unit, 54...Provision unit, 55...Assistance level change unit, 56...Control unit, 57...Memory unit, 61...Sensor, 63...Arm, 64...End effector, 65...Drive unit

Claims (10)

現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムであって、
遠隔操作の作業スコアを算出するスコア算出部と、
第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する差異提示部と、
を備える遠隔操作制御システム。
A remote control system in which an operator remotely controls a remote control target which is a real object or a virtual object in a virtual world,
a score calculation unit that calculates a task score of the remote operation;
a difference presentation unit that presents a difference between the operation of the first operator and an operation of a second operator having a higher task score than the first operator;
A remote control system comprising:
遠隔操作ロボットに対して、前記第1の操作者の情報から操作者の操作意図を推定して操作意図に応じた動作補助を行う制御部と、
前記動作補助のレベルを前記作業スコアに応じて変更する補助レベル変更部と、
を備える請求項1に記載の遠隔操作制御システム。
a control unit that estimates an operation intention of the operator from the information of the first operator and performs operation assistance according to the operation intention on the remote-controlled robot;
an assistance level change unit that changes a level of the action assistance in accordance with the task score;
The remote control system according to claim 1 .
前記スコア算出部は、作業に要した時間と、作業毎の品質である達成度に重み付けして加算して算出する、
請求項1または請求項2に記載の遠隔操作制御システム。
The score calculation unit calculates the score by weighting and adding the time required for the task and the achievement level, which is the quality of each task.
3. The remote control system according to claim 1 or 2.
前記差異提示部は、
前記第1の操作者の操作データと、前記第2の操作者の操作データとを比較して前記差異を求め、求めた前記差異に基づいて提示する提示情報を生成し、生成した提示情報を提示する、
請求項1または請求項2に記載の遠隔操作制御システム。
The difference presentation unit is
comparing the operation data of the first operator with the operation data of the second operator to obtain the difference, generating presentation information to be presented based on the obtained difference, and presenting the generated presentation information;
3. The remote control system according to claim 1 or 2.
前記提示情報は、画像、テキスト、および音声のうちの少なくとも1つである、
請求項4に記載の遠隔操作制御システム。
The presentation information is at least one of an image, a text, and a sound.
The remote control system according to claim 4.
前記差異提示部は、
前記第1の操作者の操作状態と、前記第2の操作者の操作状態とを比較して差異を求め、求めた前記差異に基づいて改善提案を提示する、
請求項1または請求項2に記載の遠隔操作制御システム。
The difference presentation unit is
comparing an operation state of the first operator with an operation state of the second operator to obtain a difference, and presenting an improvement proposal based on the obtained difference;
3. The remote control system according to claim 1 or 2.
前記第2の操作者の操作データは、典型パターンの操作データである、
請求項4に記載の遠隔操作制御システム。
The operation data of the second operator is operation data of a typical pattern.
The remote control system according to claim 4.
現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置であって、
遠隔操作の作業スコアを算出するスコア算出部と、
第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する差異提示部と、
を備える遠隔制御装置。
A remote control device of a remote operation control system in which an operator remotely operates a remote operation target which is a real object or a virtual object in a virtual world,
a score calculation unit that calculates a task score of the remote operation;
a difference presentation unit that presents a difference between the operation of the first operator and an operation of a second operator having a higher task score than the first operator;
A remote control device comprising:
現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置の遠隔制御方法であって、
スコア算出部が、遠隔操作の作業スコアを算出し、
差異提示部が、第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示する、
遠隔制御方法。
A remote control method for a remote control device of a remote operation control system in which an operator remotely controls a remote operation target which is a real object or a virtual object in a virtual world, comprising:
The score calculation unit calculates a task score of the remote operation,
a difference presentation unit presents a difference between the operation of the first operator and an operation of a second operator having a higher task score than the first operator;
Remote control method.

現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムの遠隔制御装置のコンピュータに、
遠隔操作の作業スコアを算出させ、
第1の操作者よりも前記作業スコアが高い第2の操作者の操作との差異を提示させる、
プログラム。

A computer of a remote control device of a remote control system in which an operator remotely controls a remote control target which is a real object or a virtual object in a virtual world,
Calculate the remote operation work score,
a difference between the operation of the first operator and an operation of a second operator having a higher task score than the first operator is displayed;
program.
JP2023045616A 2023-03-22 2023-03-22 Remote operation control system, remote control device, remote control method, and program Pending JP2024135097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023045616A JP2024135097A (en) 2023-03-22 2023-03-22 Remote operation control system, remote control device, remote control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023045616A JP2024135097A (en) 2023-03-22 2023-03-22 Remote operation control system, remote control device, remote control method, and program

Publications (1)

Publication Number Publication Date
JP2024135097A true JP2024135097A (en) 2024-10-04

Family

ID=92911597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023045616A Pending JP2024135097A (en) 2023-03-22 2023-03-22 Remote operation control system, remote control device, remote control method, and program

Country Status (1)

Country Link
JP (1) JP2024135097A (en)

Similar Documents

Publication Publication Date Title
JP6401858B2 (en) Robot operating device and program
US9744672B2 (en) Systems and methods for communicating robot intentions to human beings
CN110709211B (en) Robot system and control method for robot system
CN103128729B (en) Robot apparatus and method for controlling the same
Clark et al. On the role of wearable haptics for force feedback in teleimpedance control for dual-arm robotic teleoperation
Fritsche et al. First-person tele-operation of a humanoid robot
JPWO2018097223A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
JPWO2019059364A1 (en) Remote control manipulator system and control device
JP2009531184A (en) Intelligent interface device for gripping an object by an operating robot and method of operating this device
JP2015520040A (en) Training and operating industrial robots
US12459128B2 (en) Tele-operation assistance system and tele-operation assistance method
Luo et al. Team northeastern's approach to ana xprize avatar final testing: A holistic approach to telepresence and lessons learned
Liu et al. Virtual reality based tactile sensing enhancements for bilateral teleoperation system with in-hand manipulation
Devine et al. Real time robotic arm control using hand gestures with multiple end effectors
JP2018089736A (en) Master-slave system
JPWO2018105045A1 (en) Medical system and control method thereof
JP5938780B2 (en) Motion command device, motion command method, and motion pattern creation device
JP7565848B2 (en) ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP2024135097A (en) Remote operation control system, remote control device, remote control method, and program
Lai et al. Gesture-based steering framework for redundant soft robots
JP7588545B2 (en) Remote operation control system, remote operation control method, and program
Negishi et al. Operation assistance using visual feedback with considering human intention on master-slave systems
JP2024135098A (en) Remote Control System
JP7624862B2 (en) ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7185749B2 (en) ROBOT SYSTEM AND ROBOT SYSTEM CONTROL METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20251121