[go: up one dir, main page]

JP2025060080A - Training data generation device, training data generation method, and program - Google Patents

Training data generation device, training data generation method, and program Download PDF

Info

Publication number
JP2025060080A
JP2025060080A JP2023170584A JP2023170584A JP2025060080A JP 2025060080 A JP2025060080 A JP 2025060080A JP 2023170584 A JP2023170584 A JP 2023170584A JP 2023170584 A JP2023170584 A JP 2023170584A JP 2025060080 A JP2025060080 A JP 2025060080A
Authority
JP
Japan
Prior art keywords
user
robot
learning data
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023170584A
Other languages
Japanese (ja)
Inventor
裕之 番場
Hiroyuki Banba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2023170584A priority Critical patent/JP2025060080A/en
Publication of JP2025060080A publication Critical patent/JP2025060080A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a learning data generation device, a learning data generation method, and a program, capable of improving the accuracy of movement of a robot even by the learning based on operation of an unskilled operator.SOLUTION: A learning data generation device 40 generates learning data for imitative learning of a robot 30. The learning data generation device 40 comprises an acquisition part 43 which acquires movement information when a first user operates the robot 30, and a reaction when a second user recognizes the movement information. The learning data generation device 40 further comprises a generation part 46 which generates learning data on the basis of the reaction of the second user and the movement information.SELECTED DRAWING: Figure 1

Description

本開示は、学習データ生成装置、学習データ生成方法、及びプログラムに関する。 The present disclosure relates to a training data generation device, a training data generation method, and a program.

従来、ロボットの状態を指示する操作情報と、ロボットの状態に影響を与えない非操作情報とに基づいて、ロボットの操作を学習する装置が知られている(特許文献1参照)。 Conventionally, there is known a device that learns how to operate a robot based on operation information that indicates the state of the robot and non-operation information that does not affect the state of the robot (see Patent Document 1).

国際公開第2016/189924号International Publication No. 2016/189924

熟練していない操作者の操作の精度は、熟練操作者の操作の精度よりも低い。非操作情報を参照したとしても、操作者が操作に熟練していない場合、当該操作に基づく学習によってロボットの動作の精度を高めることは難しい。 The accuracy of operations by an unskilled operator is lower than that of an experienced operator. Even if non-operation information is referenced, if the operator is not skilled in an operation, it is difficult to improve the accuracy of the robot's movements by learning based on that operation.

本開示の目的は、熟練していない操作者の操作に基づく学習によってもロボットの動作の精度を向上できる学習データ生成装置、学習データ生成方法、及びプログラムを提供することにある。 The objective of the present disclosure is to provide a learning data generation device, a learning data generation method, and a program that can improve the accuracy of a robot's movements even through learning based on the operations of an unskilled operator.

本開示の一実施形態に係る学習データ生成装置は、
ロボットの模倣学習の学習データを生成する学習データ生成装置であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部と
を備える。
A training data generation device according to an embodiment of the present disclosure includes:
A learning data generation device for generating learning data for imitation learning of a robot, comprising:
an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A generation unit generates the learning data based on a reaction of the second user and the motion information.

本開示の一実施形態に係る学習データ生成方法は、
ロボットの模倣学習の学習データを生成する学習データ生成方法であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することと
を含む。
A learning data generating method according to an embodiment of the present disclosure includes:
A learning data generation method for generating learning data for imitation learning of a robot, comprising the steps of:
acquiring operation information when a first user operates the robot and a reaction of a second user when the second user recognizes the operation information;
The learning data is generated based on a reaction of the second user and the motion information.

本開示の一実施形態に係るプログラムは、
ロボットの動作を学習させる学習データ生成装置を作動させるプログラムであって、
前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる。
A program according to an embodiment of the present disclosure includes:
A program for operating a learning data generation device for learning a robot's movement, comprising:
causing the learning data generation device to acquire motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
The learning data is generated based on the reaction of the second user and the motion information.

本開示の一実施形態に係る学習データ生成装置、学習データ生成方法、及びプログラムによれば、熟練していない操作者の操作に基づく学習によってもロボットの動作の精度が高められ得る。 According to a learning data generation device, a learning data generation method, and a program according to an embodiment of the present disclosure, the accuracy of a robot's movements can be improved even through learning based on the operations of an unskilled operator.

一実施形態に係るロボット制御システムの構成例を示すブロック図である。1 is a block diagram showing an example of the configuration of a robot control system according to an embodiment. ロボットの動作情報の一例を示す図である。FIG. 11 is a diagram showing an example of operation information of a robot. 図2Aの動作情報のうち、操作ミスの部分を削除して予定の動作情報に補正した例を示す図である。2B is a diagram showing an example in which the operation information in FIG. 2A is corrected to the planned operation information by deleting the operation error portion. FIG. 図2Aの動作情報のうち、熟練者が指示する動作に適合しない部分を削除してリファレンスデータで置換した例を示す図である。FIG. 2B is a diagram showing an example in which a part of the motion information in FIG. 2A that does not match the motion instructed by an expert is deleted and replaced with reference data. 図2Aの動作情報のうち、熟練者が指示する動作に適合しない部分を削除して補間した例を示す図である。2B is a diagram showing an example in which a portion of the motion information in FIG. 2A that does not match the motion instructed by an expert is deleted and interpolated. FIG. 熟練者の視線と非熟練者の視線との違いの一例を示す図である。FIG. 1 is a diagram showing an example of a difference between the gaze of an expert and that of an unexpert. 一実施形態に係る学習データ生成方法の手順例を示すフローチャートである。1 is a flowchart illustrating an example of a procedure of a training data generating method according to an embodiment.

(ロボット制御システム1の構成例)
図1に示されるように、一実施形態に係るロボット制御システム1は、ロボット30と、ロボットコントローラ20と、教示データ生成装置10と、学習データ生成装置40とを備える。ロボット制御システム1の少なくとも1つの構成部は、ネットワークを介して通信可能に接続されてもよいし、ネットワークを介さずに通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、有線又は無線で通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、専用回線を介して通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、これらの例に限られず他の種々の形態で互いに通信可能に接続されてもよい。以下、ロボット制御システム1の各構成が具体的に説明される。ロボット30とロボットコントローラ20とを含む構成は、ロボットシステムとも称される。
(Configuration example of robot control system 1)
As shown in FIG. 1, a robot control system 1 according to an embodiment includes a robot 30, a robot controller 20, a teaching data generating device 10, and a learning data generating device 40. At least one component of the robot control system 1 may be communicatively connected via a network, or may be communicatively connected without a network. At least one component of the robot control system 1 may be communicatively connected by wire or wirelessly. At least one component of the robot control system 1 may be communicatively connected via a dedicated line. At least one component of the robot control system 1 may be communicatively connected to each other in various other forms, without being limited to these examples. Each component of the robot control system 1 will be specifically described below. A configuration including the robot 30 and the robot controller 20 is also referred to as a robot system.

<教示データ生成装置10>
教示データ生成装置10は、制御部11と、記憶部12と、通信部13とを備える。制御部11は、学習部14を含む。教示データ生成装置10は、通信部13によって、学習データ生成装置40から学習データを取得する。教示データ生成装置10は、学習部14によって、学習データを用いた学習を実行して教示データを生成する。教示データは、ロボット30に作業を実行させるように、ロボットコントローラ20がロボット30を自動で制御する情報である。
<Teaching Data Generating Device 10>
The teaching data generation device 10 includes a control unit 11, a storage unit 12, and a communication unit 13. The control unit 11 includes a learning unit 14. The teaching data generation device 10 acquires learning data from the learning data generation device 40 via the communication unit 13. The teaching data generation device 10 generates teaching data by performing learning using the learning data via the learning unit 14. The teaching data is information that causes the robot controller 20 to automatically control the robot 30 to perform a task.

制御部11又は学習部14は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、教示データ生成装置10の種々の機能を実現するプログラムを実行しうる。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)とも称される。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、CPU(Central Processing Unit)を含んで構成されてよい。プロセッサは、DSP(Digital Signal Processor)又はGPU(Graphics Processing Unit)を含んで構成されてもよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。専用回路は、例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでよい。 The control unit 11 or the learning unit 14 may be configured to include at least one processor or dedicated circuit. The processor may execute a program that realizes various functions of the teaching data generating device 10. The processor may be realized as a single integrated circuit. The integrated circuit is also called an IC (Integrated Circuit). The processor may be realized as multiple communicatively connected integrated circuits and discrete circuits. The processor may be configured to include a CPU (Central Processing Unit). The processor may be configured to include a DSP (Digital Signal Processor) or a GPU (Graphics Processing Unit). The processor may be realized based on various other known technologies. The dedicated circuit may include, for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit), etc.

記憶部12は、磁気ディスク等の電磁記憶媒体を含んで構成されてよいし、半導体メモリ又は磁気メモリ等のメモリを含んで構成されてもよい。記憶部12は、HDD(Hard Disk Drive)として構成されてもよいしSSD(Solid State Drive)として構成されてもよい。記憶部12は、各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部12は、プロセッサ又は専用回路のワークメモリとして機能してよい。記憶部12の少なくとも一部は、プロセッサ又は専用回路に含まれてもよい。記憶部12の少なくとも一部は、教示データ生成装置10と別体の記憶装置として構成されてもよい。 The storage unit 12 may be configured to include an electromagnetic storage medium such as a magnetic disk, or may be configured to include a memory such as a semiconductor memory or a magnetic memory. The storage unit 12 may be configured as a HDD (Hard Disk Drive) or an SSD (Solid State Drive). The storage unit 12 stores various information and programs executed by the processor. The storage unit 12 may function as a work memory for the processor or a dedicated circuit. At least a part of the storage unit 12 may be included in the processor or the dedicated circuit. At least a part of the storage unit 12 may be configured as a storage device separate from the teaching data generation device 10.

通信部13は、他の装置と有線又は無線で通信可能に構成される通信デバイスを含んで構成されてよい。通信デバイスは、種々の通信規格に基づく通信方式で通信可能に構成されてよい。また、教示データ生成装置10は、有線又は無線を問わない回線によって、ロボット制御システム1の少なくとも1つの構成と通信可能に接続される。教示データ生成装置10と、ロボット制御システム1の少なくとも1つの構成とは、相互に標準的なプロトコルを用いたインタフェースを具備しており、双方向のコミュニケーションをとることができる。 The communication unit 13 may be configured to include a communication device configured to be able to communicate with other devices in a wired or wireless manner. The communication device may be configured to be able to communicate using a communication method based on various communication standards. Furthermore, the teaching data generation device 10 is communicatively connected to at least one component of the robot control system 1 via a line, whether wired or wireless. The teaching data generation device 10 and at least one component of the robot control system 1 are provided with an interface that uses a mutual standard protocol, and can communicate bidirectionally.

教示データ生成装置10は、1又は複数のサーバを含んで構成されてよい。教示データ生成装置10は、複数のサーバに並列処理を実行させるように構成されてよい。教示データ生成装置10は、物理的な筐体を含んで構成される必要はなく、ヴァーチャルマシン又はコンテナオーケストレイションシステム等の仮想化技術に基づいて構成されてもよい。教示データ生成装置10は、クラウドサービスを用いて構成されてもよい。教示データ生成装置10がクラウドサービスを用いて構成される場合、マネージドサービスを組み合わせることで構成され得る。つまり、教示データ生成装置10の機能は、クラウドサービスとして実現され得る。 The teaching data generating device 10 may be configured to include one or more servers. The teaching data generating device 10 may be configured to cause multiple servers to execute parallel processing. The teaching data generating device 10 does not need to be configured to include a physical housing, and may be configured based on virtualization technology such as a virtual machine or a container orchestration system. The teaching data generating device 10 may be configured using a cloud service. When the teaching data generating device 10 is configured using a cloud service, it may be configured by combining managed services. In other words, the functions of the teaching data generating device 10 may be realized as a cloud service.

教示データ生成装置10は、少なくとも1つのサーバと、少なくとも1つのデータベースとを備えてよい。サーバは、制御部11又は学習部14として機能する。データベースは、記憶部12として機能する。サーバの数は、1つであってもよいし2つ以上であってもよい。サーバの数が1つである場合、1つのサーバで実現される機能が複数のサーバで実現される機能を包含する。各サーバは、互いに有線又は無線で通信可能に接続される。データベースの数は、1つであってもよいし2つ以上であってもよい。データベースの数は、教示データ生成装置10で管理するデータの容量と教示データ生成装置10に求められる可用性要件とに基づいて適宜増減されてよい。データベースは、各サーバと有線又は無線で通信可能に接続される。教示データ生成装置10は、外部のデータベースに接続されてもよい。教示データ生成装置10と外部のデータベースとを備える教示データ生成システムが構成されてもよい。 The teaching data generating device 10 may include at least one server and at least one database. The server functions as the control unit 11 or the learning unit 14. The database functions as the storage unit 12. The number of servers may be one or two or more. When the number of servers is one, the functions realized by one server include functions realized by multiple servers. The servers are connected to each other so as to be able to communicate with each other via wired or wireless communication. The number of databases may be one or two or more. The number of databases may be appropriately increased or decreased based on the capacity of data managed by the teaching data generating device 10 and the availability requirements required for the teaching data generating device 10. The databases are connected to each server so as to be able to communicate with each other via wired or wireless communication. The teaching data generating device 10 may be connected to an external database. A teaching data generating system may be configured that includes the teaching data generating device 10 and an external database.

教示データ生成装置10は、図1において1つの構成として記載されているが、必要に応じて複数の構成を1つのシステムとみなして運用され得る。つまり、教示データ生成装置10は、容量可変なプラットフォームとして構成される。教示データ生成装置10として複数の構成が用いられることによって、1つの構成が天災等の不測の事態の発生時に運用できなくなった場合も、その他の構成を用いてシステムの運用が継続される。この場合、複数の構成それぞれは、有線又は無線を問わない回線によって接続され、相互に通信可能に構成されている。この複数の構成は、クラウドサービスとオンプレミス環境とに跨って構築されてもよい。 Although the teaching data generating device 10 is shown as one configuration in FIG. 1, multiple configurations can be operated as one system as necessary. In other words, the teaching data generating device 10 is configured as a platform with variable capacity. By using multiple configurations as the teaching data generating device 10, even if one configuration becomes inoperable due to an unforeseen event such as a natural disaster, the operation of the system can continue using the other configurations. In this case, each of the multiple configurations is connected by a line, whether wired or wireless, and is configured to be able to communicate with each other. The multiple configurations may be constructed across cloud services and on-premise environments.

<ロボットコントローラ20>
ロボットコントローラ20は、教示データ生成装置10から教示データを取得し、教示データに基づいてロボット30を制御することによって、ロボット30に作業を実行させる。なお、教示データ生成装置10が教示データとしてシナリオデータのみを生成する場合、ロボットコントローラ20は、シナリオデータに基づいてロボット30を制御可能なソースコードを生成してもよい。
<Robot Controller 20>
The robot controller 20 acquires teaching data from the teaching data generation device 10 and controls the robot 30 based on the teaching data, thereby causing the robot 30 to perform a task. When the teaching data generation device 10 generates only scenario data as teaching data, the robot controller 20 may generate source code capable of controlling the robot 30 based on the scenario data.

ロボットコントローラ20は、例えば、工場等の施設に設置されているメータを読み取る作業をロボット30に実行させてよい。ロボットコントローラ20は、これに限られず種々の作業をロボット30に実行させてよい。ロボットコントローラ20は、クラウドコンピューティング環境に接続されてもよいし接続されなくてもよい。ロボットコントローラ20がクラウドコンピューティング環境に接続されない場合、ロボットコントローラ20の動作は、オンプレミス環境で完結する。ロボットコントローラ20の動作がオンプレミス環境で完結する場合、教示データ生成装置10の動作は、ロボットコントローラ20によって実行されてもよい。 The robot controller 20 may, for example, cause the robot 30 to perform the task of reading a meter installed in a facility such as a factory. The robot controller 20 may cause the robot 30 to perform various tasks, including but not limited to this. The robot controller 20 may or may not be connected to a cloud computing environment. When the robot controller 20 is not connected to a cloud computing environment, the operation of the robot controller 20 is completed in an on-premise environment. When the operation of the robot controller 20 is completed in an on-premise environment, the operation of the teaching data generation device 10 may be executed by the robot controller 20.

ロボットコントローラ20は、制御部21と記憶部22と入力部23とを有する。制御部21は、記憶部22に教示データ生成装置10から取得した教示データ等を記憶したり、取得した教示データに基づいてロボット30を制御したりできる。また、制御部21は、ロボットコントローラ20の各機能を制御することができる。記憶部22は、ロボット30又はロボットコントローラ20自体の制御に必要な情報を記憶することができる。 The robot controller 20 has a control unit 21, a memory unit 22, and an input unit 23. The control unit 21 can store teaching data and the like acquired from the teaching data generating device 10 in the memory unit 22, and can control the robot 30 based on the acquired teaching data. The control unit 21 can also control each function of the robot controller 20. The memory unit 22 can store information necessary for controlling the robot 30 or the robot controller 20 itself.

入力部23は、ロボット30を手動で操作するコマンドの入力を受け付ける。ロボット30を手動で操作するコマンドが入力部23に入力された場合、制御部21は、入力されたコマンドに基づいてロボット30を制御する。制御部21は、ロボット30を制御した結果として、ロボット30がどのように動作したかを表す情報を生成し、学習データ生成装置40に出力する。ロボット30がどのように動作したかを表す情報は、動作情報とも称される。 The input unit 23 accepts input of a command to manually operate the robot 30. When a command to manually operate the robot 30 is input to the input unit 23, the control unit 21 controls the robot 30 based on the input command. As a result of controlling the robot 30, the control unit 21 generates information indicating how the robot 30 operated, and outputs the information to the learning data generation device 40. The information indicating how the robot 30 operated is also referred to as operation information.

制御部21は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、教示データ生成装置10の種々の機能を実現するプログラムを実行しうる。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)とも称される。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、CPU(Central Processing Unit)を含んで構成されてよい。プロセッサは、DSP(Digital Signal Processor)又はGPU(Graphics Processing Unit)を含んで構成されてもよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。専用回路は、例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでよい。 The control unit 21 may be configured to include at least one processor or dedicated circuit. The processor may execute a program that realizes various functions of the teaching data generating device 10. The processor may be realized as a single integrated circuit. The integrated circuit is also called an IC (Integrated Circuit). The processor may be realized as multiple communicatively connected integrated circuits and discrete circuits. The processor may be configured to include a CPU (Central Processing Unit). The processor may be configured to include a DSP (Digital Signal Processor) or a GPU (Graphics Processing Unit). The processor may be realized based on various other known technologies. The dedicated circuit may include, for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit), etc.

記憶部22は、磁気ディスク等の電磁記憶媒体を含んで構成されてよいし、半導体メモリ又は磁気メモリ等のメモリを含んで構成されてもよい。記憶部22は、HDD(Hard Disk Drive)として構成されてもよいしSSD(Solid State Drive)として構成されてもよい。記憶部22は、各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部22は、プロセッサ又は専用回路のワークメモリとして機能してよい。記憶部22の少なくとも一部は、プロセッサ又は専用回路に含まれてもよい。記憶部22の少なくとも一部は、ロボットコントローラ20と別体の記憶装置として構成されてもよい。 The storage unit 22 may be configured to include an electromagnetic storage medium such as a magnetic disk, or may be configured to include a memory such as a semiconductor memory or a magnetic memory. The storage unit 22 may be configured as a HDD (Hard Disk Drive) or an SSD (Solid State Drive). The storage unit 22 stores various information and programs executed by the processor. The storage unit 22 may function as a work memory for the processor or a dedicated circuit. At least a part of the storage unit 22 may be included in the processor or the dedicated circuit. At least a part of the storage unit 22 may be configured as a storage device separate from the robot controller 20.

入力部23は、入力デバイスを備えてよい。入力デバイスは、例えば、ジョイスティック等を含んで構成されてよい。入力デバイスは、例えば、タッチパネル若しくはタッチセンサ、又はマウス等のポインティングデバイスを含んで構成されてよい。入力デバイスは、物理キーを含んで構成されてもよい。入力デバイスは、マイク等の音声入力デバイスを含んで構成されてもよい。入力デバイスは、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。 The input unit 23 may include an input device. The input device may include, for example, a joystick. The input device may include, for example, a touch panel or a touch sensor, or a pointing device such as a mouse. The input device may include physical keys. The input device may include a voice input device such as a microphone. The input device is not limited to these examples and may include various other devices.

入力部23は、ロボットコントローラ20と別体の入力端末として実現されてもよい。入力端末の数は、1台に限られず、2台以上であってよい。入力端末は、タブレット端末として構成されてよいし、デスクトップPC(Personal Computer)又はノートPC等のPC端末として構成されてよい。入力端末は、これらの例に限られず、種々のデバイスとして構成されてよい。 The input unit 23 may be realized as an input terminal separate from the robot controller 20. The number of input terminals is not limited to one, and may be two or more. The input terminal may be configured as a tablet terminal, or as a PC terminal such as a desktop PC (Personal Computer) or a notebook PC. The input terminal is not limited to these examples, and may be configured as various devices.

ロボットコントローラ20は、教示データを教示データ生成装置10から取得する通信デバイスを備えてよい。ロボットコントローラ20の通信デバイスは、教示データ生成装置10の通信デバイスと同一又は類似に構成されてよい。 The robot controller 20 may be equipped with a communication device that acquires teaching data from the teaching data generating device 10. The communication device of the robot controller 20 may be configured in the same manner as or similarly to the communication device of the teaching data generating device 10.

図1に例示される構成において、1台のロボットコントローラ20が1台のロボット30に接続されている。1台のロボットコントローラ20が2台以上のロボット30に接続されてもよい。1台のロボットコントローラ20は、1台のロボット30だけを制御してもよいし、2台以上のロボット30を制御してもよい。ロボットコントローラ20及びロボット30の数は、1台に限られず、2台以上であってもよい。 In the configuration illustrated in FIG. 1, one robot controller 20 is connected to one robot 30. One robot controller 20 may be connected to two or more robots 30. One robot controller 20 may control only one robot 30, or may control two or more robots 30. The number of robot controllers 20 and robots 30 is not limited to one, and may be two or more.

<ロボット30>
ロボット30は、アームを備えるロボットアームとして構成されてよい。アームは、例えば、6軸又は7軸の垂直多関節ロボットとして構成されてよい。アームは、3軸又は4軸の水平多関節ロボット又はスカラロボットとして構成されてもよい。アームは、2軸又は3軸の直交ロボットとして構成されてもよい。アームは、パラレルリンクロボット等として構成されてもよい。アームを構成する軸の数は、例示したものに限られない。
<Robot 30>
The robot 30 may be configured as a robot arm having an arm. The arm may be configured as, for example, a 6-axis or 7-axis vertical articulated robot. The arm may be configured as a 3-axis or 4-axis horizontal articulated robot or a SCARA robot. The arm may be configured as a 2-axis or 3-axis Cartesian robot. The arm may be configured as a parallel link robot or the like. The number of axes constituting the arm is not limited to those exemplified.

ロボット30は、アームに取り付けられるエンドエフェクタを備えてよい。エンドエフェクタは、例えば、作業対象物を把持できるように構成される把持ハンドを含んでよい。把持ハンドは、複数の指を有してよい。把持ハンドの指の数は、2つ以上であってよい。把持ハンドの指は、1つ以上の関節を有してよい。エンドエフェクタは、作業対象物を吸着できるように構成される吸着ハンドを含んでもよい。エンドエフェクタは、作業対象物を掬うことができるように構成される掬いハンドを含んでもよい。エンドエフェクタは、ドリル等の工具を含み、作業対象物に穴を開ける作業等の種々の加工を実施できるように構成されてもよい。エンドエフェクタは、これらの例に限られず、他の種々の動作ができるように構成されてよい。 The robot 30 may include an end effector attached to the arm. The end effector may include, for example, a gripping hand configured to grip a work object. The gripping hand may have multiple fingers. The number of fingers on the gripping hand may be two or more. The fingers on the gripping hand may have one or more joints. The end effector may include a suction hand configured to pick up the work object. The end effector may include a scooping hand configured to scoop up the work object. The end effector may include a tool such as a drill and be configured to perform various processes such as drilling holes in the work object. The end effector is not limited to these examples and may be configured to perform various other operations.

ロボット30は、アームを動作させることによって、エンドエフェクタの位置を制御できる。エンドエフェクタは、作業対象物に対して作用する方向の基準となる軸を有してもよい。エンドエフェクタが軸を有する場合、ロボット30は、アームを動作させることによって、エンドエフェクタの軸の方向を制御できる。ロボット30は、エンドエフェクタが作業対象物に作用する動作の開始及び終了を制御する。ロボット30は、エンドエフェクタの位置、又は、エンドエフェクタの軸の方向を制御しつつ、エンドエフェクタの動作を制御することによって、作業対象物を動かしたり加工したりすることができる。 The robot 30 can control the position of the end effector by operating the arm. The end effector may have an axis that is a reference for the direction in which it acts on the workpiece. If the end effector has an axis, the robot 30 can control the direction of the axis of the end effector by operating the arm. The robot 30 controls the start and end of the operation of the end effector acting on the workpiece. The robot 30 can move or process the workpiece by controlling the operation of the end effector while controlling the position of the end effector or the direction of the axis of the end effector.

ロボット30は、例えば、AGV(Automated Guided Vehicle)、AMR(Autonomous Mobile Robot)又はドローン等を含んでもよい。ロボット30は、これらに限られず、乗り物、電子機器又は制御機械等の他の種々の形態で構成されてもよい。 The robot 30 may include, for example, an automated guided vehicle (AGV), an autonomous mobile robot (AMR), or a drone. The robot 30 is not limited to these, and may be configured in various other forms, such as a vehicle, electronic device, or controlled machine.

ロボット30は、ロボット30の少なくとも1つの構成部の状態を検出するセンサを更に備えてよい。センサは、ロボット30の少なくとも1つの構成部の現実の位置若しくは姿勢、又は、ロボット30の少なくとも1つの構成部の速度若しくは加速度に関する情報を検出してよい。センサは、ロボット30の少なくとも1つの構成部に作用する力を検出してもよい。センサは、ロボット30の少なくとも1つの構成部を駆動するモータに流れる電流又はモータのトルクを検出してもよい。センサは、ロボット30の実際の動作の結果として得られる情報を検出できる。ロボットコントローラ20は、センサの検出結果を取得することによって、ロボット30の実際の動作の結果を把握することができる。 The robot 30 may further include a sensor that detects the state of at least one component of the robot 30. The sensor may detect information about the actual position or posture of at least one component of the robot 30, or the speed or acceleration of at least one component of the robot 30. The sensor may detect a force acting on at least one component of the robot 30. The sensor may detect a current flowing through a motor that drives at least one component of the robot 30, or a torque of the motor. The sensor can detect information obtained as a result of the actual operation of the robot 30. The robot controller 20 can grasp the result of the actual operation of the robot 30 by acquiring the detection result of the sensor.

<学習データ生成装置40>
学習データ生成装置40は、制御部41と、記憶部42と、取得部43と、出力部44とを備える。制御部41は、分析部45と生成部46とを含む。学習データ生成装置40は、取得部43によって、ロボットコントローラ20から、操作者が手動でロボット30を操作したときのロボット30の動作情報を取得する。学習データ生成装置40は、出力部44によって、ロボット30の動作情報を出力し、動作情報を表す映像を操作者以外のユーザに視聴させる。操作者は、第1ユーザとも称される。動作情報を表す映像を視聴するユーザは、第2ユーザとも称される。
<Learning Data Generating Device 40>
The learning data generating device 40 includes a control unit 41, a storage unit 42, an acquisition unit 43, and an output unit 44. The control unit 41 includes an analysis unit 45 and a generation unit 46. The learning data generating device 40 acquires, via the acquisition unit 43, from the robot controller 20, operation information of the robot 30 when an operator manually operates the robot 30. The learning data generating device 40 outputs, via the output unit 44, the operation information of the robot 30, and allows a user other than the operator to view a video representing the operation information. The operator is also referred to as a first user. A user who views the video representing the operation information is also referred to as a second user.

学習データ生成装置40は、取得部43によって、第2ユーザが動作情報を表す映像を視聴したときの第2ユーザの反応を取得する。学習データ生成装置40は、分析部45によって第2ユーザの反応を分析する。学習データ生成装置40は、生成部46によって、第2ユーザの反応の分析結果と動作情報とに基づいて学習データを生成する。学習データ生成装置40は、生成した学習データを、出力部44から教示データ生成装置10に出力する。 The learning data generating device 40 acquires, by the acquisition unit 43, the reaction of the second user when the second user watches the video representing the motion information. The learning data generating device 40 analyzes the reaction of the second user by the analysis unit 45. The learning data generating device 40 generates learning data by the generation unit 46 based on the analysis result of the reaction of the second user and the motion information. The learning data generating device 40 outputs the generated learning data from the output unit 44 to the teaching data generating device 10.

制御部41は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、学習データ生成装置40の種々の機能を実現するプログラムを実行しうる。制御部41は、教示データ生成装置10の制御部11と同一又は類似に構成されてよい。 The control unit 41 may be configured to include at least one processor or dedicated circuit. The processor may execute a program that realizes various functions of the training data generation device 40. The control unit 41 may be configured in the same manner as or similarly to the control unit 11 of the teaching data generation device 10.

記憶部42は、学習データ生成装置40で用いられる各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部42は、教示データ生成装置10の記憶部12と同一又は類似に構成されてよい。 The memory unit 42 stores various information used by the learning data generating device 40 and programs executed by the processor. The memory unit 42 may be configured in the same manner as or similarly to the memory unit 12 of the teaching data generating device 10.

取得部43及び出力部44は、他の装置と有線又は無線で通信可能に構成される。取得部43及び出力部44は、教示データ生成装置10の通信部13と同一又は類似に構成されてよい。 The acquisition unit 43 and the output unit 44 are configured to be capable of wired or wireless communication with other devices. The acquisition unit 43 and the output unit 44 may be configured in the same manner as or similar to the communication unit 13 of the teaching data generation device 10.

取得部43は、第1ユーザがロボット30を操作しているときの状態を取得するデバイスを含んでよい。取得部43は、ロボット30が動作している環境、又は、第1ユーザを撮影するカメラを含んでよい。取得部43は、ロボット30が動作している環境の音声、又は、第1ユーザの発話内容を取得するマイクを含んでよい。取得部43は、第1ユーザの頭に装着させる360度カメラを含んでよい。360度カメラは、ロボット30を操作しているときの第1ユーザの状態を再現するための映像を撮影してよい。取得部43は、第1ユーザの視線を検出するセンサを含んでよい。 The acquisition unit 43 may include a device that acquires the state when the first user is operating the robot 30. The acquisition unit 43 may include a camera that captures the environment in which the robot 30 is operating or the first user. The acquisition unit 43 may include a microphone that captures the sound of the environment in which the robot 30 is operating or the contents of the speech of the first user. The acquisition unit 43 may include a 360-degree camera that is worn on the head of the first user. The 360-degree camera may capture video to reproduce the state of the first user when operating the robot 30. The acquisition unit 43 may include a sensor that detects the line of sight of the first user.

取得部43は、第1ユーザがロボット30を操作しているときの動作情報を第2ユーザが視聴しているときの第2ユーザの反応を取得するデバイスを含んでよい。取得部43は、第2ユーザの発話内容を取得するマイクを含んでよい。取得部43は、第2ユーザの視線を検出するセンサを含んでよい。 The acquisition unit 43 may include a device that acquires the reaction of the second user when the second user is viewing the operation information when the first user is operating the robot 30. The acquisition unit 43 may include a microphone that acquires the contents of the speech of the second user. The acquisition unit 43 may include a sensor that detects the line of sight of the second user.

取得部43は、第1ユーザの操作に対する第2ユーザの指示又はアドバイス等の入力を受け付ける入力デバイスを含んでよい。入力デバイスは、例えば、タッチパネル若しくはタッチセンサ、又はマウス等のポインティングデバイスを含んで構成されてよい。入力デバイスは、物理キーを含んで構成されてもよい。入力デバイスは、マイク等の音声入力デバイスを含んで構成されてもよい。入力デバイスは、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。 The acquisition unit 43 may include an input device that accepts input of instructions or advice from the second user in response to the operation of the first user. The input device may include, for example, a touch panel or a touch sensor, or a pointing device such as a mouse. The input device may include physical keys. The input device may include a voice input device such as a microphone. The input device is not limited to these examples and may include various other devices.

入力デバイスは、学習データ生成装置40と別体の入力端末として実現されてもよい。入力端末の数は、1台に限られず、2台以上であってよい。入力端末は、タブレット端末として構成されてよいし、デスクトップPC(Personal Computer)又はノートPC等のPC端末として構成されてよい。入力端末は、これらの例に限られず、種々のデバイスとして構成されてよい。 The input device may be realized as an input terminal separate from the learning data generation device 40. The number of input terminals is not limited to one, and may be two or more. The input terminal may be configured as a tablet terminal, or as a PC terminal such as a desktop PC (Personal Computer) or a notebook PC. The input terminal is not limited to these examples, and may be configured as various devices.

出力部44は、表示デバイスを含んでよい。表示デバイスは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイ若しくは無機ELディスプレイ、又は、プラズマディスプレイ(PDP:Plasma Display Panel)等を含んで構成されてよい。表示デバイスは、これらのディスプレイに限られず、他の種々の方式のディスプレイを含んで構成されてよい。表示デバイスは、LED(Light Emitting Diode)等の発光デバイスを含んで構成されてよい。表示デバイスは、他の種々のデバイスを含んで構成されてよい。 The output unit 44 may include a display device. The display device may be configured to include, for example, a liquid crystal display (LCD), an organic electroluminescence (EL) display or an inorganic electroluminescence (EL) display, or a plasma display panel (PDP). The display device is not limited to these displays, and may be configured to include various other types of displays. The display device may be configured to include a light-emitting device such as an LED (Light Emitting Diode). The display device may be configured to include various other devices.

出力部44は、音声等の聴覚情報を出力するスピーカ等の音声出力デバイスを含んで構成されてもよい。出力部44は、VR(Virtual Reality)環境を提供するデバイスを含んで構成されてよい。出力部44は、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。 The output unit 44 may be configured to include an audio output device such as a speaker that outputs auditory information such as voice. The output unit 44 may be configured to include a device that provides a VR (Virtual Reality) environment. The output unit 44 is not limited to these examples and may be configured to include various other devices.

学習データ生成装置40は、1又は複数のサーバを含んで構成されてよい。学習データ生成装置40は、複数のサーバに並列処理を実行させるように構成されてよい。学習データ生成装置40は、物理的な筐体を含んで構成される必要はなく、ヴァーチャルマシン又はコンテナオーケストレイションシステム等の仮想化技術に基づいて構成されてもよい。学習データ生成装置40は、クラウドサービスを用いて構成されてもよい。学習データ生成装置40がクラウドサービスを用いて構成される場合、マネージドサービスを組み合わせることで構成され得る。つまり、学習データ生成装置40の機能は、クラウドサービスとして実現され得る。 The training data generating device 40 may be configured to include one or more servers. The training data generating device 40 may be configured to cause multiple servers to execute parallel processing. The training data generating device 40 does not need to be configured to include a physical housing, and may be configured based on virtualization technology such as a virtual machine or a container orchestration system. The training data generating device 40 may be configured using a cloud service. When the training data generating device 40 is configured using a cloud service, it may be configured by combining managed services. In other words, the functions of the training data generating device 40 may be realized as a cloud service.

学習データ生成装置40は、少なくとも1つのサーバと、少なくとも1つのデータベースとを備えてよい。サーバは、制御部41として機能する。データベースは、記憶部42として機能する。サーバの数は、1つであってもよいし2つ以上であってもよい。サーバの数が1つである場合、1つのサーバで実現される機能が複数のサーバで実現される機能を包含する。各サーバは、互いに有線又は無線で通信可能に接続される。データベースの数は、1つであってもよいし2つ以上であってもよい。データベースの数は、学習データ生成装置40で管理するデータの容量と学習データ生成装置40に求められる可用性要件とに基づいて適宜増減されてよい。データベースは、各サーバと有線又は無線で通信可能に接続される。学習データ生成装置40は、外部のデータベースに接続されてもよい。学習データ生成装置40と外部のデータベースとを備える教示データ生成システムが構成されてもよい。 The learning data generating device 40 may include at least one server and at least one database. The server functions as a control unit 41. The database functions as a storage unit 42. The number of servers may be one or may be two or more. When the number of servers is one, the functions realized by one server include functions realized by multiple servers. The servers are connected to each other so as to be able to communicate with each other via wired or wireless communication. The number of databases may be one or may be two or more. The number of databases may be appropriately increased or decreased based on the capacity of data managed by the learning data generating device 40 and the availability requirements required for the learning data generating device 40. The databases are connected to each server so as to be able to communicate with each other via wired or wireless communication. The learning data generating device 40 may be connected to an external database. A teaching data generating system may be configured that includes the learning data generating device 40 and an external database.

学習データ生成装置40は、図1において1つの構成として記載されているが、必要に応じて複数の構成を1つのシステムとみなして運用され得る。つまり、学習データ生成装置40は、容量可変なプラットフォームとして構成される。学習データ生成装置40として複数の構成が用いられることによって、1つの構成が天災等の不測の事態の発生時に運用できなくなった場合も、その他の構成を用いてシステムの運用が継続される。この場合、複数の構成それぞれは、有線又は無線を問わない回線によって接続され、相互に通信可能に構成されている。この複数の構成は、クラウドサービスとオンプレミス環境とに跨って構築されてもよい。 Although the training data generation device 40 is shown as one configuration in FIG. 1, multiple configurations can be operated as one system as necessary. In other words, the training data generation device 40 is configured as a platform with variable capacity. By using multiple configurations as the training data generation device 40, even if one configuration becomes inoperable due to an unforeseen event such as a natural disaster, the operation of the system can continue using the other configurations. In this case, each of the multiple configurations is connected by a line, whether wired or wireless, and is configured to be able to communicate with each other. The multiple configurations may be constructed across cloud services and on-premise environments.

(ロボット制御システム1の動作例)
ロボット制御システム1において、ロボットコントローラ20は、入力部23で第1ユーザによるロボット30の手動操作を受け付ける。ロボットコントローラ20は、第1ユーザの手動操作に基づいてロボット30を制御し、ロボット30が第1ユーザによって手動で操作されたときの動作情報を生成する。ロボットコントローラ20は、ロボット30の動作情報を学習データ生成装置40に出力する。入力部23は、遠隔操作でもよい。
(Operation example of robot control system 1)
In the robot control system 1, the robot controller 20 accepts manual operation of the robot 30 by a first user through the input unit 23. The robot controller 20 controls the robot 30 based on the manual operation of the first user, and generates operation information when the robot 30 is manually operated by the first user. The robot controller 20 outputs the operation information of the robot 30 to the learning data generation device 40. The input unit 23 may be remotely operated.

学習データ生成装置40は、ロボット30の動作情報を取得する。学習データ生成装置40は、ロボット30の動作情報を表す映像を第2ユーザに視聴させ、第2ユーザの反応を取得する。学習データ生成装置40は、第2ユーザの反応を分析した結果と動作情報とに基づいて学習データを生成し、教示データ生成装置10に学習データを出力する。具体的には、ロボット30の動作情報を、第2ユーザの反応を分析した結果に基づいて、その一部を学習データとして抽出する動作、又は、学習データとして使用できるように修正する動作等を実行して、学習データを生成することができる。 The learning data generating device 40 acquires the motion information of the robot 30. The learning data generating device 40 has the second user watch a video representing the motion information of the robot 30, and acquires the second user's reaction. The learning data generating device 40 generates learning data based on the results of analyzing the reaction of the second user and the motion information, and outputs the learning data to the teaching data generating device 10. Specifically, the learning data can be generated by performing an operation of extracting a portion of the motion information of the robot 30 as learning data based on the results of analyzing the reaction of the second user, or an operation of modifying the motion information so that it can be used as learning data, etc.

教示データ生成装置10は、学習データを用いて、第1ユーザがロボット30を手動で操作したときのロボット30の動作を模倣可能なように学習を実行し、ロボット30の教示データを生成する。具体的には、教示データ生成装置10は、ロボット30の動作環境等の情報に取得した学習データをラベル付けして、ロボット30の機械学習を実行できる。なお、ロボット30の動作環境等の情報は、適宜取得されてよい。第1ユーザがロボット30を手動で操作したときのロボット30の動作を模倣した学習は、模倣学習とも称される。ロボットコントローラ20は、学習によって生成された学習済みモデルによって教示データを生成し、教示データに基づいて、第1ユーザの操作によるロボット30の動作を模倣するようにロボット30を自動で制御する。具体的には、ロボット30を例えば自律動作させるときに、ロボット30の動作環境などの情報を学習済みモデルに入力して、教示データが出力されればよい。なお、学習済みモデルは、例えば、ニューラルネットワーク等のAIであってよい。 The teaching data generating device 10 uses the learning data to perform learning so as to be able to imitate the behavior of the robot 30 when the first user manually operates the robot 30, and generates teaching data for the robot 30. Specifically, the teaching data generating device 10 can perform machine learning of the robot 30 by labeling information such as the operating environment of the robot 30 with the acquired learning data. Note that information such as the operating environment of the robot 30 may be acquired as appropriate. Learning that imitates the behavior of the robot 30 when the first user manually operates the robot 30 is also called imitation learning. The robot controller 20 generates teaching data using a learned model generated by learning, and automatically controls the robot 30 so as to imitate the behavior of the robot 30 operated by the first user based on the teaching data. Specifically, when the robot 30 is operated autonomously, for example, information such as the operating environment of the robot 30 may be input to the learned model, and teaching data may be output. Note that the learned model may be, for example, an AI such as a neural network.

本開示に係るロボット制御システム1において、第1ユーザが熟練していない操作者である場合でも、熟練した操作者である第2ユーザの反応に基づいて学習データが生成される。熟練した操作者は、熟練者とも称される。熟練していない操作者は、非熟練者とも称される。熟練者の反応に基づいて学習データが生成されることによって、熟練者がロボット30を操作せずに、非熟練者が操作したときのロボット30の動作情報を表す映像を視聴するだけで、熟練者によるロボット30の操作を模倣した学習が実行される。結果として、学習によって生成される教示データの精度が高められる。以下、学習データ生成装置40の具体的な動作例が説明される。 In the robot control system 1 according to the present disclosure, even if the first user is an unskilled operator, learning data is generated based on the reaction of the second user who is a skilled operator. A skilled operator is also called an expert. An unskilled operator is also called an unskilled. By generating learning data based on the reaction of an expert, learning that imitates the operation of the robot 30 by an expert is performed simply by watching a video showing the operation information of the robot 30 when operated by an unskilled person, without the expert operating the robot 30. As a result, the accuracy of the teaching data generated by learning is improved. A specific operation example of the learning data generation device 40 is described below.

<学習データ生成装置40が取得する情報>
学習データ生成装置40は、取得部43によって、上述してきたように、ロボット30を第1ユーザが操作したときのロボット30の動作情報を取得する。取得部43は、ロボット30の動作情報に限られず他の種々の情報を取得してよい。
<Information acquired by the learning data generating device 40>
As described above, the learning data generation device 40 acquires, by the acquisition unit 43, the operation information of the robot 30 when the first user operates the robot 30. The acquisition unit 43 may acquire not only the operation information of the robot 30 but also various other information.

取得部43は、例えば、ロボット30が動作している場所に存在する人間又は物体等の情報を取得してよい。つまり、取得部43は、ロボット30が動作している環境を表す情報を取得してよい。ロボット30が動作している環境を表す情報は、環境情報とも称される。環境情報は、ロボット30が動作している環境を撮影した俯瞰映像等の映像を含んでよい。環境情報は、ロボット30が動作している環境で聞こえる、ロボット30の動作音、ロボットコントローラ20の入力部23の操作音、他の物体の音、又は、第1ユーザ以外の人間の発話内容等の音声を含んでよい。 The acquisition unit 43 may acquire information on, for example, humans or objects present in the location where the robot 30 is operating. In other words, the acquisition unit 43 may acquire information representing the environment in which the robot 30 is operating. Information representing the environment in which the robot 30 is operating is also referred to as environmental information. The environmental information may include video such as an overhead video of the environment in which the robot 30 is operating. The environmental information may include audio that can be heard in the environment in which the robot 30 is operating, such as the operating sound of the robot 30, the operating sound of the input unit 23 of the robot controller 20, the sound of other objects, or the speech of a human other than the first user.

取得部43は、例えば、ロボット30を操作している間の第1ユーザの状態に関する情報を取得してよい。第1ユーザの状態に関する情報は、状態情報とも称される。状態情報は、第1ユーザの発話内容を含んでよい。状態情報は、第1ユーザの視線を含んでよい。状態情報は、第1ユーザの心拍数等の心身の状態を表す生体情報を含んでよい。状態情報は、第1ユーザを撮影した映像を含んでよい。 The acquisition unit 43 may acquire information regarding the state of the first user while operating the robot 30, for example. The information regarding the state of the first user is also referred to as state information. The state information may include the content of the first user's speech. The state information may include the first user's line of sight. The state information may include biometric information representing the first user's physical and mental state, such as the first user's heart rate. The state information may include a video of the first user.

<第2ユーザの反応の取得>
学習データ生成装置40は、取得部43で取得した情報を出力部44で出力して第2ユーザに認識させ、第1ユーザの操作を体験させる。例えば、出力部44は、ロボット30の動作情報を表す映像を表示して第2ユーザに視聴させてよい。出力部44は、環境情報又は状態情報の少なくとも一部を出力して第2ユーザに認識させてよい。出力部44は、状態情報として、第1ユーザの発話内容又は視線の検出結果を出力してよい。
<Acquisition of a response from a second user>
The learning data generation device 40 outputs the information acquired by the acquisition unit 43 through the output unit 44 to allow the second user to recognize the information and experience the operation of the first user. For example, the output unit 44 may display a video showing the operation information of the robot 30 to allow the second user to view the video. The output unit 44 may output at least a part of the environmental information or state information to allow the second user to recognize the information. The output unit 44 may output the speech content or the line of sight detection result of the first user as the state information.

第1ユーザが非熟練者である場合、第1ユーザの操作によるロボット30の動作情報は、第2ユーザがロボット30を操作するときの動作と異なる動作を含むことがある。したがって、第2ユーザは、第1ユーザの操作によるロボット30の動作情報の映像を視聴しながら、第2ユーザ自身がロボット30を操作した場合の動作と異なる点を、発話によって指摘したり入力デバイスへの入力によって指摘したりする。また、第2ユーザは、ロボット30の動作情報の映像又は環境情報若しくは状態情報を認識したときの没入感によって、思わず発話したり身体又は目線等を動かしたりする。第2ユーザがロボット30の動作情報の映像を視聴したり環境情報又は状態情報を認識したりしながら行う動作は、第2ユーザの反応とも総称される。学習データ生成装置40は、取得部43によって第2ユーザの反応を取得する。 When the first user is an unskilled person, the motion information of the robot 30 operated by the first user may include motions different from those of the robot 30 operated by the second user. Therefore, while watching the video of the motion information of the robot 30 operated by the first user, the second user may point out by speech or input to an input device the differences from the motion of the robot 30 operated by the second user himself. In addition, the second user may speak or move his body or eyes involuntarily due to a sense of immersion when recognizing the video of the motion information of the robot 30 or the environmental information or state information. The motions performed by the second user while watching the video of the motion information of the robot 30 or recognizing the environmental information or state information are also collectively referred to as the reaction of the second user. The learning data generation device 40 acquires the reaction of the second user by the acquisition unit 43.

非熟練者である第1ユーザの操作を、熟練者である第2ユーザが評価する環境として、以下に例示される3つのモードが準備されてよい。第2ユーザが評価する環境として、例示されるモードに限られず、他の種々のモードが準備されてもよい。 The three modes illustrated below may be prepared as environments in which an expert second user evaluates an operation performed by an unskilled first user. The environment in which the second user performs evaluation is not limited to the illustrated modes, and various other modes may be prepared.

<<ロボット30の動作情報のVR体験>>
第1のモードとして、出力部44は、第1ユーザがロボット30を操作する環境を遠隔地にいる第2ユーザがVR体験できるように、ロボット30の動作情報をVRデバイスで出力してよい。出力部44は、第1ユーザがロボット30を操作していたときの第1ユーザの視線にかかわらず第2ユーザが自由な視点でロボット30の動作情報の映像を視聴できるように、動作情報を出力してよい。
<<VR experience of operation information of robot 30>>
In the first mode, the output unit 44 may output the operation information of the robot 30 to a VR device so that a second user in a remote location can VR experience an environment in which the first user operates the robot 30. The output unit 44 may output the operation information so that the second user can view the video of the operation information of the robot 30 from a viewpoint of his/her choice regardless of the line of sight of the first user when the first user operated the robot 30.

取得部43は、第1ユーザの操作をVR体験しているときの第2ユーザの視線、又は、発話等の第2ユーザの反応を検出する。このときの第2ユーザの反応は、第1ユーザの操作によるロボット30の動作情報の評価に用いられる。 The acquisition unit 43 detects the second user's gaze or the second user's reaction, such as speech, while experiencing the first user's operation in VR. The second user's reaction at this time is used to evaluate the operation information of the robot 30 as a result of the first user's operation.

<<第1ユーザと第2ユーザとの間の視線又は発話の差異の認識>>
第2のモードとして、出力部44は、第2ユーザがロボット30の動作情報に加えて環境情報又は状態情報を更にVR体験できるように、ロボット30の動作情報及び環境情報又は状態情報をVRデバイスで出力してよい。
<<Recognition of differences in gaze or speech between a first user and a second user>>
In a second mode, the output unit 44 may output the operation information and environmental information or status information of the robot 30 via a VR device so that the second user can further experience VR with the environmental information or status information in addition to the operation information of the robot 30.

取得部43は、第1ユーザの操作によるロボット30の動作情報と環境情報又は状態情報とをVR体験しているときの第2ユーザの視線、又は、発話等の第2ユーザの反応を検出する。 The acquisition unit 43 detects the second user's gaze or the second user's reaction, such as speech, when the second user is experiencing the operation information of the robot 30 as operated by the first user in VR, and the environmental information or status information.

出力部44は、第1のモードで第2ユーザに映像を視聴させたときに取得した第2ユーザの視線又は発話を、状態情報に含まれる第1ユーザの視線又は発話と比較できるように再生してもよい。つまり、出力部44は、第1ユーザと第2ユーザとの間の視線又は発話の差異を第2ユーザが認識できるように情報を出力してよい。 The output unit 44 may play back the gaze or speech of the second user acquired when the second user watches the video in the first mode so that it can be compared with the gaze or speech of the first user included in the state information. In other words, the output unit 44 may output information so that the second user can recognize the difference in gaze or speech between the first user and the second user.

取得部43は、第1ユーザと第2ユーザとの間の視線又は発話の差異に対する第2ユーザの反応を検出する。出力部44は、第2ユーザに対して、第1ユーザと第2ユーザとの間の差異について、自然な反応ではなく、意識的な発話又は入力デバイスへの入力によって解説することを促してよい。解説は、自然言語によって行われてよい。取得部43は、第2ユーザが自然言語で発話したり入力したりした解説を取得してよい。取得部43は、解説の言語解析を実行して解析結果を取得してもよい。 The acquisition unit 43 detects the reaction of the second user to the difference in gaze or speech between the first user and the second user. The output unit 44 may prompt the second user to explain the difference between the first user and the second user by consciously speaking or inputting into an input device, rather than by a natural reaction. The explanation may be given in natural language. The acquisition unit 43 may acquire the explanation spoken or input by the second user in natural language. The acquisition unit 43 may perform language analysis of the explanation to acquire the analysis result.

<<第2ユーザによる動作の添削>>
出力部44は、ロボット30が動作する環境の俯瞰映像を第2ユーザに視聴させるように、VRデバイスではないディスプレイ等に俯瞰映像を出力してよい。出力部44は、俯瞰映像において、第1ユーザが操作したときのロボット30の動作経路を表示してよい。
<<Correction of Action by Second User>>
The output unit 44 may output the overhead video to a display or the like other than a VR device so that the second user can view the overhead video of the environment in which the robot 30 operates. The output unit 44 may display, in the overhead video, the movement path of the robot 30 when operated by the first user.

出力部44は、第2ユーザに対して、第2ユーザ自身がロボット30を操作したときに想定するロボット30の動作経路の入力を促してよい。取得部43は、第2ユーザが入力した、第2ユーザが想定する動作経路を取得してよい。つまり、取得部43は、第1ユーザが操作したときのロボット30の動作経路を第2ユーザが添削する情報を取得してよい。第2ユーザによる添削は、第2ユーザの反応に含まれる。出力部44は、第1ユーザが操作したときのロボット30の動作経路と、第2ユーザが想定する動作経路とを比較できるように表示してもよい。 The output unit 44 may prompt the second user to input the motion path of the robot 30 that the second user envisions when operating the robot 30. The acquisition unit 43 may acquire the motion path that the second user envisions, input by the second user. In other words, the acquisition unit 43 may acquire information that the second user corrects the motion path of the robot 30 when operated by the first user. The corrections by the second user are included in the reaction of the second user. The output unit 44 may display the motion path of the robot 30 when operated by the first user and the motion path that the second user envisions so that they can be compared.

<第2ユーザの反応に基づく分析>
学習データ生成装置40は、分析部45によって第2ユーザの反応を分析する。分析部45は、例えば、第2ユーザの反応に基づいて、ロボット30の動作情報のうち、そのままで学習データに採用できる部分と、そのままで学習データに採用できない部分とを判別してよい。分析部45は、そのままで学習データに採用できない部分について、その部分を変更すれば学習データに採用できるかを判定してよい。分析部45は、そのままで学習データに採用できない部分について、その部分を削除して別の動作に置換する必要があるかを判定してよい。
<Analysis based on second user responses>
The learning data generation device 40 analyzes the reaction of the second user by the analysis unit 45. The analysis unit 45 may, for example, determine, based on the reaction of the second user, a portion of the operation information of the robot 30 that can be used as is in the learning data and a portion that cannot be used as is in the learning data. The analysis unit 45 may determine, for a portion that cannot be used as is in the learning data, whether the portion can be used in the learning data if the portion is modified. The analysis unit 45 may determine, for a portion that cannot be used as is in the learning data, whether the portion needs to be deleted and replaced with another operation.

分析部45は、第1ユーザの操作によるロボット30の動作情報の映像を視聴しているときの第2ユーザの発話内容について、その声の調子又は強弱等に基づいて、第1ユーザの操作に対する第2ユーザの評価結果を分析してよい。 The analysis unit 45 may analyze the second user's evaluation of the first user's operation based on the tone or strength of the second user's voice when watching the video of the operation information of the robot 30 as operated by the first user.

評価結果は、例えば、第1ユーザの操作を否定することを含んでよい。分析部45は、否定された操作に対応する動作情報を、そのままで学習データに採用できない部分として判別する。 The evaluation result may include, for example, denying the operation of the first user. The analysis unit 45 determines that the motion information corresponding to the denied operation is a part that cannot be used as is in the learning data.

評価結果は、例えば、第1ユーザの操作に対して改善のアドバイスを送ることを含んでよい。分析部45は、第1ユーザの操作を尊重して、改善のアドバイスを受けていない操作に対応する動作情報を、そのままで学習データに採用できる部分として判別してもよい。分析部45は、改善のアドバイスを受けた操作に対応する動作情報を、そのままで学習データに採用できない部分として判別してもよい。 The evaluation result may include, for example, sending improvement advice for the first user's operation. The analysis unit 45 may respect the first user's operation and determine that the operation information corresponding to the operation for which improvement advice has not been received is a part that can be used as is in the learning data. The analysis unit 45 may determine that the operation information corresponding to the operation for which improvement advice has been received is a part that cannot be used as is in the learning data.

評価結果は、例えば、第1ユーザの操作を褒めたり肯定したりすることを含んでよい。分析部45は、褒められたり肯定されたりした操作に対応する動作情報を、そのままで学習データに採用できる部分として判別する。 The evaluation result may include, for example, praising or affirming the operation of the first user. The analysis unit 45 determines that the motion information corresponding to the operation that was praised or affirmed is a part that can be used as is in the learning data.

分析部45は、例えば表1に示されるようにあらかじめ決められている関係に、第2ユーザの発話を当てはめることによって、第2ユーザの評価結果を分析してもよい。 The analysis unit 45 may analyze the evaluation results of the second user by applying the second user's utterance to a predetermined relationship, for example, as shown in Table 1.

Figure 2025060080000002
Figure 2025060080000002

分析部45は、第2ユーザの発話を、叱咤激励、アドバイス、軽微な指示、又は、大幅な改善の4つの区分に分類してよい。分析部45は、各区分に対応する発話例と第2ユーザの発話とを比較してよい。分析部45は、各区分に対応する発話が、動作情報に対応する第1ユーザの操作データに及ぼす影響に基づいて、第2ユーザの評価結果を分析してよい。 The analysis unit 45 may classify the second user's utterance into four categories: criticism, encouragement, advice, minor instructions, or major improvement. The analysis unit 45 may compare the utterance of the second user with an example utterance corresponding to each category. The analysis unit 45 may analyze the evaluation result of the second user based on the effect that the utterance corresponding to each category has on the operation data of the first user corresponding to the motion information.

分析部45は、第2ユーザの発話の語尾に基づいて、第2ユーザの評価結果を分析してもよい。例えば、分析部45は、「~した方がよい」又は「~すべき」という語尾の発話がアドバイスに該当すると分析してよい。分析部45は、「~してください」又は「~するように」という語尾の発話が指示に該当すると分析してもよい。分析部45は、これらの例に限られず、発話の種々のパターンに基づいて、第2ユーザの発話を分析してよい。 The analysis unit 45 may analyze the evaluation result of the second user based on the ending of the second user's utterance. For example, the analysis unit 45 may analyze that an utterance ending with "You should do this" or "You should do this" corresponds to advice. The analysis unit 45 may analyze that an utterance ending with "Please do this" or "Please do this" corresponds to instructions. The analysis unit 45 is not limited to these examples and may analyze the second user's utterance based on various utterance patterns.

<リファレンスデータの蓄積>
分析部45は、第2ユーザによる添削内容を分析し、熟練者が操作した場合のロボット30の動作のリファレンスデータを見本として生成してもよい。分析部45は、リファレンスデータを蓄積したライブラリを生成して記憶部42に格納してもよい。リファレンスデータは、ロボット30の動作情報のうち、そのままで学習データに採用できない部分を置き換えるために用いられてよい。
<Accumulation of reference data>
The analysis unit 45 may analyze the corrections made by the second user and generate reference data of the operation of the robot 30 when operated by an expert as a sample. The analysis unit 45 may generate a library that accumulates the reference data and store it in the storage unit 42. The reference data may be used to replace a part of the operation information of the robot 30 that cannot be used as is in the learning data.

<学習データの生成>
学習データ生成装置40の生成部46は、取得部43で取得したロボット30の動作情報と、分析部45による分析結果に基づいて学習データを生成する。生成部46は、生成した学習データを教示データ生成装置10に出力する。
<Generating learning data>
The generation unit 46 of the learning data generation device 40 generates learning data based on the operation information of the robot 30 acquired by the acquisition unit 43 and the analysis result by the analysis unit 45. The generation unit 46 outputs the generated learning data to the teaching data generation device 10.

<<操作ミスに対応する動作の変更>>
例えば図2Aに示されるように、取得部43が第1ユーザの操作ミスを含むロボット30の動作情報を取得したとする。一方で、第1ユーザが当初予定していたロボット30の動作経路は、予定の動作情報として破線で表されている。予定経路が折れ曲がっている点をロボット30が通り過ぎて戻る動作が第1ユーザの操作ミスに該当する。
<<Changes in behavior in response to operational mistakes>>
For example, as shown in Fig. 2A, it is assumed that the acquisition unit 43 acquires the motion information of the robot 30 including the operation error of the first user. Meanwhile, the motion path of the robot 30 originally planned by the first user is shown by a dashed line as the planned motion information. The motion of the robot 30 passing a point where the planned path is bent and returning corresponds to the operation error of the first user.

分析部45は、ロボット30の動作情報に第1ユーザの操作ミスに該当する動作が含まれていることを、第1ユーザの状態情報に基づいて判別してよい。分析部45は、ロボット30の動作情報のうち第1ユーザの操作ミスに該当する動作を、第1ユーザの状態情報に基づいて特定してよい。分析部45は、例えば、第1ユーザがミスを自覚している旨を発話していることに基づいて第1ユーザの操作ミスに該当する動作を特定してよい。分析部45は、例えば、第1ユーザの心拍数の増加に基づいて第1ユーザの操作ミスに該当する動作を特定してよい。分析部45は、ロボット30の動作情報に第1ユーザの操作ミスに該当する動作が含まれていることを第2ユーザの反応に基づいて判別してよい。分析部45は、第1ユーザの操作ミスに該当する動作を第2ユーザの反応に基づいて特定してもよい。 The analysis unit 45 may determine that the operation information of the robot 30 includes an operation corresponding to an operation error by the first user based on the state information of the first user. The analysis unit 45 may identify an operation corresponding to an operation error by the first user from among the operation information of the robot 30 based on the state information of the first user. The analysis unit 45 may identify an operation corresponding to an operation error by the first user, for example, based on the first user uttering an utterance that the first user is aware of the error. The analysis unit 45 may identify an operation corresponding to an operation error by the first user, for example, based on an increase in the heart rate of the first user. The analysis unit 45 may determine that the operation information of the robot 30 includes an operation corresponding to an operation error by the first user based on the reaction of the second user. The analysis unit 45 may identify an operation corresponding to an operation error by the first user based on the reaction of the second user.

生成部46は、分析部45によって特定された、第1ユーザの操作ミスに該当する動作に関する情報を取得する。生成部46は、図2Bに例示されるように、ロボット30の動作情報のうち、第1ユーザの操作ミスに該当する部分を削除し、予定の動作情報に変更した情報を学習データとして生成してよい。 The generation unit 46 acquires information about the operation corresponding to the operation error of the first user identified by the analysis unit 45. As illustrated in FIG. 2B, the generation unit 46 may delete the part of the operation information of the robot 30 that corresponds to the operation error of the first user, and generate the information changed to the planned operation information as learning data.

<<熟練者の操作による動作から乖離している動作の置換>>
図2Aにおいて、第2ユーザがロボット30を操作した場合のロボット30の経路は、熟練者が指示する動作として一点鎖線で表されている。第1ユーザの予定経路は、第2ユーザの操作による経路と大きく異なる。つまり、第1ユーザの操作によるロボット30の動作は、熟練者である第2ユーザの操作による動作から乖離している。熟練者である第2ユーザの操作による動作は、学習データとして適しているとみなされる。
<<Replacing movements that deviate from those performed by an expert>>
In Fig. 2A, the path of the robot 30 when the second user operates the robot 30 is shown by a dashed line as the motion instructed by an expert. The planned path of the first user is significantly different from the path operated by the second user. In other words, the motion of the robot 30 operated by the first user deviates from the motion of the second user who is an expert. The motion of the second user who is an expert is considered to be suitable as learning data.

分析部45は、ロボット30の動作情報に第2ユーザの操作による動作から乖離している動作が含まれていることを、第2ユーザの反応に基づいて判別してよい。分析部45は、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を、第2ユーザの反応に基づいて特定してよい。 The analysis unit 45 may determine, based on the reaction of the second user, that the motion information of the robot 30 includes a motion that deviates from a motion resulting from the operation of the second user. The analysis unit 45 may identify, based on the reaction of the second user, a motion among the motion information of the robot 30 that deviates from a motion resulting from the operation of the second user.

例えば、分析部45は、図2Aに示されるロボット30の動作情報に対してロボット30を斜めに動かせばよいと第2ユーザが発話したことに基づいて、第2ユーザが意図している動作が一点鎖線で表されている動作であると推定してよい。分析部45は、第1ユーザの操作によるロボット30の動作情報と第2ユーザが意図している動作の推定結果との比較によって、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を特定してよい。 For example, the analysis unit 45 may estimate that the movement intended by the second user is the movement represented by the dashed line based on the second user's utterance that the robot 30 should be moved diagonally in relation to the movement information of the robot 30 shown in FIG. 2A. The analysis unit 45 may identify, among the movement information of the robot 30, any movement that deviates from the movement intended by the second user's operation by comparing the movement information of the robot 30 operated by the first user with the estimated result of the movement intended by the second user.

分析部45は、第2ユーザがロボット30を斜めに動かす経路を入力したことに基づいて、第2ユーザが入力した経路そのものを第2ユーザの操作によるロボット30の動作として採用してよい。分析部45は、第1ユーザの操作によるロボット30の動作情報と第2ユーザが入力した動作との比較によって、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を特定してよい。 The analysis unit 45 may adopt the path input by the second user as the motion of the robot 30 operated by the second user, based on the second user inputting a path for moving the robot 30 diagonally. The analysis unit 45 may identify, among the motion information of the robot 30, motions that deviate from the motions operated by the second user by comparing the motion information of the robot 30 operated by the first user with the motions input by the second user.

生成部46は、分析部45によって特定された、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を取得する。生成部46は、図2C又は図2Dに例示されるように、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を削除し、有効な部分として実線で表される動作を残してよい。 The generation unit 46 acquires, from the motion information of the robot 30 identified by the analysis unit 45, motions that deviate from motions resulting from the operation of the second user. As illustrated in FIG. 2C or FIG. 2D, the generation unit 46 may delete, from the motion information of the robot 30, motions that deviate from motions resulting from the operation of the second user, and leave motions represented by solid lines as valid portions.

生成部46は、残った有効な動作の間をつなぐ動作に対応するリファレンスデータが存在する場合、図2Cに例示されるように、削除した動作をリファレンスデータによって置換した情報を学習データとして生成してよい。 When there is reference data corresponding to an action that connects the remaining valid actions, the generation unit 46 may generate information in which the deleted action is replaced by the reference data as learning data, as illustrated in FIG. 2C.

生成部46は、削除した動作を置換する場合に、環境情報を考慮して置換する動作を選択したりカスタマイズしたりしてよい。例えば、生成部46は、リファレンスデータが取得されたときの環境と現在の環境との差異を考慮して、現在の環境において予測される危険を避けるように、置換する動作を選択したりカスタマイズしたりしてよい。生成部46は、リファレンスデータが存在する場合であっても、削除した動作をリファレンスデータで置き換えずに他の動作で置き換えてもよい。 When replacing a deleted action, the generation unit 46 may select or customize a replacement action taking into consideration environmental information. For example, the generation unit 46 may select or customize a replacement action so as to avoid a predicted danger in the current environment, taking into consideration a difference between the environment when the reference data was acquired and the current environment. Even if reference data exists, the generation unit 46 may replace the deleted action with another action rather than replacing it with the reference data.

生成部46は、リファレンスデータが存在する場合であっても、現在の環境において予測される危険を考慮した結果としてリファレンスデータによって置換できないと判定してもよい。 Even if reference data exists, the generation unit 46 may determine that it is not possible to replace the reference data as a result of taking into account predicted dangers in the current environment.

生成部46は、残った有効な動作の間をつなぐ動作に対応するリファレンスデータが存在しない場合、又は、リファレンスデータによって置換できないと判定した場合、図2Dに例示されるように、削除した動作を他の動作で置換せずに空白にした情報を学習データとして生成する。空白の部分を含む学習データを用いて学習することによって生成された教示データは、空白の部分の動作をロボット30の判断に任せるように構成されてよい。 When there is no reference data corresponding to the motion connecting the remaining valid motions, or when the generation unit 46 determines that the motion cannot be replaced by reference data, the generation unit 46 generates information as learning data in which the deleted motion is left blank without replacing it with another motion, as exemplified in FIG. 2D. The teaching data generated by learning using the learning data including blank portions may be configured to leave the motion in the blank portion to the discretion of the robot 30.

<<重みづけの設定>>
生成部46は、ロボット30の動作情報に基づいて学習データを生成する際に重みづけを設定する。学習データの重みづけは、学習データに含まれる複数のデータのうち特徴的なデータを特定するために設定される。ロボット30の動作情報における重みづけは、ロボット30の動作に設定される。重みづけが設定された動作情報を学習データとして用いた学習によって生成された教示データによって再現される動作は、重い重みづけが設定された動作に近づけられる。
<< Weighting Settings >>
The generating unit 46 sets weighting when generating learning data based on the operation information of the robot 30. The weighting of the learning data is set in order to identify characteristic data among a plurality of data included in the learning data. The weighting in the operation information of the robot 30 is set for the operation of the robot 30. The operation reproduced by the teaching data generated by learning using the operation information to which weighting is set as learning data is made to approach the operation to which a heavy weighting is set.

分析部45は、第1ユーザの操作によるロボット30の動作情報に対して重みづけを設定してよい。分析部45は、動作情報を複数の動作に分割し、分割した各動作について重みづけを設定してよい。 The analysis unit 45 may set a weighting for the movement information of the robot 30 based on the operation of the first user. The analysis unit 45 may divide the movement information into a plurality of movements and set a weighting for each divided movement.

分析部45は、第1ユーザの発話内容又は第1ユーザの生体情報等に基づいて、ロボット30の動作情報に重みづけを設定してもよい。分析部45は、第2ユーザの反応に基づいて、ロボット30の動作情報に重みづけを設定してもよい。 The analysis unit 45 may set a weighting on the operation information of the robot 30 based on the content of the first user's utterance or the biometric information of the first user, etc. The analysis unit 45 may set a weighting on the operation information of the robot 30 based on the reaction of the second user.

例えば、分析部45は、図3に示されるように、非熟練者である第2ユーザの視線と、熟練者である第1ユーザの視線との比較に基づいて、ロボット30の動作情報に重みづけを設定してよい。図3の例において、非熟練者の視線は、ロボット30の現在位置にある。一方で、熟練者の視線は、ロボット30の現在位置よりもロボット30の予定経路の先にある。分析部45は、熟練者の視線に着目して、ロボット30の動作情報のうち、熟練者の視線が無い部分の動作に軽い重みづけを設定し、熟練者の視線がある部分の動作に重い重みづけを設定してよい。 For example, as shown in FIG. 3, the analysis unit 45 may set a weighting on the motion information of the robot 30 based on a comparison between the gaze of the second user who is an unskilled person and the gaze of the first user who is an expert. In the example of FIG. 3, the gaze of the unskilled person is at the current position of the robot 30. On the other hand, the gaze of the expert is further along the planned path of the robot 30 than the current position of the robot 30. The analysis unit 45 may focus on the gaze of the expert and set a light weighting on the motion information of the robot 30 that is not in the gaze of the expert, and a heavy weighting on the motion that is in the gaze of the expert.

<教示データの生成>
教示データ生成装置10は、通信部13によって学習データ生成装置40から学習データを取得する。教示データ生成装置10は、取得した学習データを用いた学習を学習部14によって実行し、ロボット30を自動制御で動作させるための教示データを生成する。教示データ生成装置10は、生成した教示データを通信部13によってロボットコントローラ20に出力する。教示データ生成装置10は、生成した教示データを記憶部12に格納してもよい。
<Generation of teaching data>
The teaching data generation device 10 acquires learning data from the learning data generation device 40 via the communication unit 13. The teaching data generation device 10 executes learning using the acquired learning data via the learning unit 14, and generates teaching data for operating the robot 30 under automatic control. The teaching data generation device 10 outputs the generated teaching data to the robot controller 20 via the communication unit 13. The teaching data generation device 10 may store the generated teaching data in the memory unit 12.

<ロボット30の制御>
ロボットコントローラ20の制御部21は、教示データ生成装置10で生成された教示データに基づいてロボット30を制御する。制御部21は、教示データを、例えばロボット30のモータ等の制御命令に変換し、制御命令をロボット30に送信することによってロボット30を制御し、第1ユーザの操作による動作を模倣した動作をロボット30に実行させる。
<Control of Robot 30>
The control unit 21 of the robot controller 20 controls the robot 30 based on the teaching data generated by the teaching data generating device 10. The control unit 21 converts the teaching data into, for example, control commands for the motors of the robot 30, and controls the robot 30 by transmitting the control commands to the robot 30, causing the robot 30 to execute actions that mimic actions performed by the first user.

<学習データ生成方法の手順例>
学習データ生成装置40は、図4に例示されるフローチャートの手順を含む学習データ生成方法を実行してもよい。学習データ生成方法は、学習データ生成装置40の制御部41等を構成するプロセッサに実行させる学習データ生成プログラムとして実現されてもよい。学習データ生成プログラムは、学習データ生成装置40を作動させるプログラムであってよい。学習データ生成プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
<Example of procedure for generating training data>
The training data generation device 40 may execute a training data generation method including the steps of the flowchart illustrated in Fig. 4. The training data generation method may be realized as a training data generation program executed by a processor constituting the control unit 41 or the like of the training data generation device 40. The training data generation program may be a program that operates the training data generation device 40. The training data generation program may be stored in a non-transitory computer-readable medium.

取得部43は、ロボットコントローラ20から、非熟練者である第1ユーザの操作によるロボット30の動作情報を取得する(ステップS1)。出力部44は、ロボット30の動作情報を再生する(ステップS2)。具体的に、出力部44は、ロボット30の動作情報の映像を表示して熟練者である第2ユーザに視聴させてよい。取得部43は、熟練者である第2ユーザがロボット30の動作情報を視聴したときの熟練者の反応を取得する(ステップS3)。 The acquisition unit 43 acquires, from the robot controller 20, operation information of the robot 30 operated by the first user who is an unskilled person (step S1). The output unit 44 plays the operation information of the robot 30 (step S2). Specifically, the output unit 44 may display a video of the operation information of the robot 30 to be viewed by the second user who is an expert. The acquisition unit 43 acquires the reaction of the expert when the second user who is an expert views the operation information of the robot 30 (step S3).

制御部41は、熟練者である第2ユーザの反応に基づいて、ロボット30の動作情報の中に変更対象が有るか判定する(ステップS4)。変更対象は、ロボット30の動作情報のうちそのままで学習データに採用できない部分である。制御部41は、変更対象が無い場合(ステップS4:NO)、ステップS9の手順に進む。 Based on the reaction of the second user, who is an expert, the control unit 41 determines whether there is anything to be changed in the operation information of the robot 30 (step S4). The change object is a part of the operation information of the robot 30 that cannot be used as is in the learning data. If there is no change object (step S4: NO), the control unit 41 proceeds to the procedure of step S9.

制御部41は、変更対象が有る場合(ステップS4:YES)、置換対象が有るか判定する(ステップS5)。置換対象は、変更対象のうち、熟練者である第2ユーザの操作による動作から大きく乖離している動作であってよい。制御部41は、置換対象が無い場合(ステップS5:NO)、ステップS8の手順に進む。 If there is a change target (step S4: YES), the control unit 41 determines whether there is a replacement target (step S5). The replacement target may be an action among the change targets that deviates significantly from the action performed by the second user who is an expert. If there is no replacement target (step S5: NO), the control unit 41 proceeds to the procedure of step S8.

制御部41は、置換対象が有る場合(ステップS5:YES)、置換対象を置換するリファレンスデータが有るか判定する(ステップS6)。制御部41は、リファレンスデータが有る場合(ステップS6:YES)、置換対象をリファレンスデータによって置換する(ステップS7)。制御部41は、リファレンスデータが無い場合(ステップS6:NO)、置換対象を置換せずに、ステップS8の手順に進む。 If there is a replacement target (step S5: YES), the control unit 41 determines whether there is reference data to replace the replacement target (step S6). If there is reference data (step S6: YES), the control unit 41 replaces the replacement target with the reference data (step S7). If there is no reference data (step S6: NO), the control unit 41 does not replace the replacement target and proceeds to the procedure of step S8.

制御部41は、変更対象を変更する(ステップS8)。制御部41は、置換されなかった置換対象が残っている場合、置換対象を削除してもよいし、置換対象を変更してもよい。 The control unit 41 changes the replacement target (step S8). If there are replacement targets that have not been replaced, the control unit 41 may delete the replacement targets or may change the replacement targets.

制御部41は、動作情報に重みづけを設定する(ステップS9)。制御部41は、動作情報の変更又は置換を実行した場合、変更後又は置換後の動作情報に対して重みづけを設定する。制御部41は、ステップS9までの手順を実行することによって学習データを生成し、生成した学習データを教示データ生成装置10に出力する。学習データ生成装置40は、ステップS9の手順の実行後、図4のフローチャートの手順の実行を終了する。 The control unit 41 sets a weighting to the motion information (step S9). When the control unit 41 changes or replaces the motion information, it sets a weighting to the changed or replaced motion information. The control unit 41 generates learning data by executing the procedure up to step S9, and outputs the generated learning data to the teaching data generating device 10. After executing the procedure of step S9, the learning data generating device 40 ends the execution of the procedure in the flowchart of FIG. 4.

(まとめ)
以上述べてきたように、本実施形態に係るロボット制御システム1において、学習データ生成装置40は、非熟練者である第1ユーザの操作によるロボット30の動作情報を、熟練者である第2ユーザの反応に基づいて補正できる。その結果、非熟練者の操作に基づく学習によってもロボット30の動作の精度が高められ得る。熟練者がロボット30を操作する現場にいなくても、熟練者の知見がロボット30の学習に適用され得る。
(summary)
As described above, in the robot control system 1 according to this embodiment, the learning data generation device 40 can correct the motion information of the robot 30 operated by the first user who is an unskilled person, based on the reaction of the second user who is an expert. As a result, the accuracy of the motion of the robot 30 can be improved even by learning based on the operation of the unskilled person. Even if an expert is not present at the site where the robot 30 is operated, the knowledge of the expert can be applied to the learning of the robot 30.

(他の実施形態)
以下、他の実施形態に係るロボット制御システム1及び学習データ生成装置40の構成例が説明される。
Other Embodiments
Hereinafter, configuration examples of a robot control system 1 and a learning data generating device 40 according to another embodiment will be described.

熟練者である第2ユーザの反応に関する情報は、非熟練者である第1ユーザに対してフィードバックされてもよい。第1ユーザは、第1ユーザ自身の操作と第2ユーザが指摘する操作とを比較することによって、ロボット30の操作を改善できる。また、第1ユーザは、ロボット30の動作情報における重みづけを確認することによって、ロボット30の一連の動作のうち特に注目すべき動作を理解してロボット30の操作を改善できる。 Information regarding the reaction of the second user, who is an expert, may be fed back to the first user, who is an unskilled person. The first user can improve the operation of the robot 30 by comparing the first user's own operation with the operation pointed out by the second user. In addition, the first user can understand which operations of the robot 30 should be particularly noted among the series of operations of the robot 30 by checking the weighting in the operation information of the robot 30, and improve the operation of the robot 30.

第1ユーザは、ロボットシステムの販売先でロボット30を実際に使用する作業者であってよい。第2ユーザは、ロボットシステムの販売元の技術者又はトレーナー等であってよい。本開示に係る学習データ生成装置40によれば、ロボットシステムの販売先の作業者が熟練していない段階であっても、作業者がロボット30を操作したときの動作情報を、熟練した技術者又はトレーナー等が添削できる。その結果、ロボットシステムの販売元の技術者又はトレーナー等がロボットシステムの販売先まで行かずにロボット30の動作の精度を高めることができる。また、ロボットシステムの販売先の作業者のトレーニングが効果的に実行される。 The first user may be a worker who actually uses the robot 30 at the customer of the robot system. The second user may be an engineer or trainer of the seller of the robot system. According to the learning data generation device 40 of the present disclosure, even if the worker at the customer of the robot system is not yet skilled, a skilled engineer or trainer can correct the motion information when the worker operates the robot 30. As a result, the engineer or trainer of the seller of the robot system can improve the accuracy of the robot 30's motion without visiting the customer of the robot system. In addition, training of the worker at the customer of the robot system is effectively carried out.

以上、ロボット制御システム1の実施形態を説明してきたが、本開示の実施形態としては、システム又は装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク、又はメモリカード等)としての実施態様をとることも可能である。プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。 The above describes an embodiment of the robot control system 1. However, the present disclosure can also be embodied as a method or program for implementing the system or device, or as a storage medium on which a program is recorded (for example, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a magnetic tape, a hard disk, or a memory card). The program may be stored in a non-transitory computer-readable medium.

また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であってもよい。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてもよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットに
よってその一部又は全部が実施されるように構成されてもよい。
The form of implementation of the program is not limited to application programs such as object code compiled by a compiler or program code executed by an interpreter, but may be a program module incorporated into an operating system, etc. Furthermore, the program may or may not be configured so that all processing is performed only by the CPU on the control board. The program may be configured so that a part or all of it is executed by another processing unit mounted on an expansion board or expansion unit added to the board as necessary.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、少なくとも1つの構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that a person skilled in the art would be able to make various modifications or alterations based on the present disclosure. Therefore, it should be noted that these modifications or alterations are included in the scope of the present disclosure. For example, the functions, etc. included in at least one component, etc. can be rearranged so as not to cause logical inconsistencies, and multiple components, etc. can be combined into one or divided.

上記の例において、学習データ生成装置40と教示データ生成装置10とロボットコントローラ20が別々に設けられていた。他の例として、学習データ生成装置40が教示データ生成装置10又はロボットコントローラ20と一体に設けられていてもよい。この場合、学習データ生成装置40の制御部41は、教示データ生成装置10の制御部11又はロボットコントローラ20の制御部21によって実現されてもよい。 In the above example, the learning data generating device 40, the teaching data generating device 10, and the robot controller 20 are provided separately. As another example, the learning data generating device 40 may be provided integrally with the teaching data generating device 10 or the robot controller 20. In this case, the control unit 41 of the learning data generating device 40 may be realized by the control unit 11 of the teaching data generating device 10 or the control unit 21 of the robot controller 20.

上記の例において、第2ユーザは、VR体験等によって第1ユーザのロボット操作を確認する例を説明したが、本開示は、これに限られない。例えば、第2ユーザがモニタなどを介して第1ユーザのロボット操作を確認してもよいし、第2ユーザが第1ユーザの近場に控えており、第1ユーザの操作を直接確認してもよい。また、この場合、モニタ、又は、第1ユーザ若しくは第2ユーザ等のユーザの周囲に設置されたカメラ若しくはマイクなどによって、第2ユーザの視線又は音声などを取得することによって、第2ユーザの反応が取得されてもよい。 In the above example, the second user checks the robot operation of the first user through a VR experience or the like, but the present disclosure is not limited to this. For example, the second user may check the robot operation of the first user through a monitor or the like, or the second user may be present near the first user and check the operation of the first user directly. In this case, the reaction of the second user may be acquired by acquiring the line of sight or voice of the second user through a monitor or a camera or microphone installed around the first user or the second user, etc.

上記の例において、第2ユーザの反応は、カメラ又はマイク等を介して取得している例を説明したが、第2ユーザの反応は、例えば、予め第2ユーザの反応が割り当てられたコマンド又はボタン等によって取得されてもよい。具体的には、第1ユーザのロボット操作が良かった場合、表示部を含む入力デバイスを介して高評価を示すコマンドがクリック操作によって入力されてもよい。 In the above example, the second user's reaction is acquired via a camera or microphone, but the second user's reaction may be acquired, for example, via a command or button to which the second user's reaction is assigned in advance. Specifically, if the first user's robot operation is good, a command indicating high evaluation may be input by clicking via an input device including a display unit.

本開示に記載された構成要件の全て、及び/又は、開示された全ての方法、又は、処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。また、本開示に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的、又は類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一、又は、均等となる特徴の一例にすぎない。 All of the features described in this disclosure and/or all of the steps of all of the disclosed methods or processes may be combined in any combination except those combinations in which the features are mutually exclusive. Furthermore, each feature described in this disclosure may be replaced by an alternative feature serving the same, equivalent or similar purpose, unless expressly denied. Thus, unless expressly denied, each disclosed feature is merely one example of a generic series of the same or equivalent features.

さらに、本開示に係る実施形態は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本開示に係る実施形態は、本開示に記載された全ての新規な特徴、又は、それらの組合せ、あるいは記載された全ての新規な方法、又は、処理のステップ、又は、それらの組合せに拡張することができる。 Furthermore, the embodiments of the present disclosure are not limited to the specific configurations of any of the embodiments described above. The embodiments of the present disclosure may extend to any novel feature or combination of features described herein, or any novel method or process step or combination of features described herein.

本開示に係るロボット制御システム1及び教示データ生成装置10は、工業製品の生産現場、食材を扱う食品加工の現場、又は、化粧品若しくは医薬品を製造する現場に展開され得る。 The robot control system 1 and teaching data generation device 10 disclosed herein can be deployed in industrial product production sites, food processing sites that handle ingredients, or sites that manufacture cosmetics or pharmaceuticals.

一実施形態において、(1)学習データ生成装置は、ロボットの模倣学習の学習データを生成する。前記学習データ生成装置は、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部とを備える。 In one embodiment, (1) a learning data generation device generates learning data for imitation learning of a robot. The learning data generation device includes an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information, and a generation unit that generates the learning data based on the reaction of the second user and the motion information.

(2)上記(1)に記載の学習データ生成装置において、前記取得部は、前記ロボットを前記第1ユーザが操作したときの、前記ロボットの環境情報又は前記第1ユーザの状態情報の少なくとも一方を取得してよい。前記生成部は、前記環境情報又は前記状態情報に更に基づいて前記学習データを生成してよい。 (2) In the learning data generation device described in (1) above, the acquisition unit may acquire at least one of environmental information of the robot or state information of the first user when the robot is operated by the first user. The generation unit may further generate the learning data based on the environmental information or the state information.

(3)上記(1)又は(2)に記載の学習データ生成装置は、前記第2ユーザの反応を分析する分析部を更に備えてよい。前記分析部は、前記第2ユーザの反応に基づいて、前記動作情報のうち前記学習データに採用できる部分と前記学習データに採用できない部分とを判別してよい。前記生成部は、前記学習データに採用できない部分を変更、置換又は削除することによって前記学習データを生成してよい。 (3) The learning data generation device described in (1) or (2) above may further include an analysis unit that analyzes a reaction of the second user. The analysis unit may determine, based on the reaction of the second user, a portion of the motion information that can be used in the learning data and a portion that cannot be used in the learning data. The generation unit may generate the learning data by modifying, replacing, or deleting the portion that cannot be used in the learning data.

(4)上記(3)に記載の学習データ生成装置において、前記生成部は、前記学習データに採用できない部分を、前記第2ユーザが前記ロボットを操作した場合の前記ロボット30の動作の見本となるリファレンスデータによって置換してよい。 (4) In the learning data generation device described in (3) above, the generation unit may replace a portion of the learning data that cannot be used with reference data that serves as a model of the behavior of the robot 30 when the second user operates the robot.

(5)上記(1)から(4)までのいずれか1つに記載の学習データ生成装置は、前記動作情報をVR環境で前記第2ユーザに視聴させる出力部を更に備えてよい。 (5) The learning data generation device described in any one of (1) to (4) above may further include an output unit that allows the second user to view the motion information in a VR environment.

(6)上記(5)に記載の学習データ生成装置において、前記取得部は、前記第2ユーザの反応として、前記第2ユーザの視線を取得してよい。 (6) In the learning data generation device described in (5) above, the acquisition unit may acquire the second user's gaze as the second user's reaction.

(7)上記(1)から(6)までのいずれか1つに記載の学習データ生成装置において、前記取得部は、前記第2ユーザの反応として、前記第2ユーザの発話を取得してよい。 (7) In the learning data generation device described in any one of (1) to (6) above, the acquisition unit may acquire an utterance of the second user as the reaction of the second user.

一実施形態において、(8)学習データ生成方法は、ロボットの模倣学習の学習データを生成することを含む。前記学習データ生成方法は、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することとを含む。 In one embodiment, (8) the learning data generation method includes generating learning data for imitation learning of a robot. The learning data generation method includes acquiring motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information, and generating the learning data based on the reaction of the second user and the motion information.

一実施形態において、(9)プログラムは、ロボットの動作を学習させる学習データ生成装置を作動させる。前記プログラムは、前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる。 In one embodiment, (9) the program operates a learning data generation device that learns the robot's movements. The program causes the learning data generation device to acquire movement information when a first user operates the robot and a reaction of a second user when the second user recognizes the movement information, and generates the learning data based on the reaction of the second user and the movement information.

1 ロボット制御システム
10 教示データ生成装置(11:制御部、12:記憶部、13:通信部、14:学習部)
20 ロボットコントローラ(21:制御部、22:記憶部、23:入力部)
30 ロボット
40 学習データ生成装置(41:制御部、42:記憶部、43:取得部、44:出力部、45:分析部、46:生成部)
1 Robot control system 10 Teaching data generating device (11: control unit, 12: memory unit, 13: communication unit, 14: learning unit)
20 Robot controller (21: control unit, 22: memory unit, 23: input unit)
30 Robot 40 Learning data generation device (41: control unit, 42: storage unit, 43: acquisition unit, 44: output unit, 45: analysis unit, 46: generation unit)

Claims (9)

ロボットの模倣学習の学習データを生成する学習データ生成装置であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部と
を備える、学習データ生成装置。
A learning data generation device for generating learning data for imitation learning of a robot, comprising:
an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A learning data generation device comprising: a generation unit that generates the learning data based on a reaction of the second user and the action information.
前記取得部は、前記ロボットを前記第1ユーザが操作したときの、前記ロボットの環境情報又は前記第1ユーザの状態情報の少なくとも一方を取得し、
前記生成部は、前記環境情報又は前記状態情報に更に基づいて前記学習データを生成する、請求項1に記載の学習データ生成装置。
The acquisition unit acquires at least one of environmental information of the robot and state information of the first user when the robot is operated by the first user,
The training data generating device according to claim 1 , wherein the generating unit generates the training data further based on the environmental information or the state information.
前記第2ユーザの反応を分析する分析部を更に備え、
前記分析部は、前記第2ユーザの反応に基づいて、前記動作情報のうち前記学習データに採用できる部分と前記学習データに採用できない部分とを判別し、
前記生成部は、前記学習データに採用できない部分を変更、置換又は削除することによって前記学習データを生成する、請求項1に記載の学習データ生成装置。
An analysis unit that analyzes a reaction of the second user is further provided,
The analysis unit determines, based on a response of the second user, a portion of the motion information that can be adopted in the learning data and a portion that cannot be adopted in the learning data;
The training data generation device according to claim 1 , wherein the generation unit generates the training data by modifying, replacing, or deleting a portion that cannot be used in the training data.
前記生成部は、前記学習データに採用できない部分を、前記第2ユーザが前記ロボットを操作した場合の前記ロボット30の動作の見本となるリファレンスデータによって置換する、請求項3に記載の学習データ生成装置。 The learning data generating device according to claim 3, wherein the generating unit replaces the portion of the learning data that cannot be used with reference data that serves as a model of the behavior of the robot 30 when the second user operates the robot. 前記動作情報をVR環境で前記第2ユーザに視聴させる出力部を更に備える、請求項1から4までのいずれか一項に記載の学習データ生成装置。 The learning data generation device according to any one of claims 1 to 4, further comprising an output unit that allows the second user to view the motion information in a VR environment. 前記取得部は、前記第2ユーザの反応として、前記第2ユーザの視線を取得する、請求項5に記載の学習データ生成装置。 The learning data generation device according to claim 5, wherein the acquisition unit acquires the second user's gaze as the second user's reaction. 前記取得部は、前記第2ユーザの反応として、前記第2ユーザの発話を取得する、請求項5に記載の学習データ生成装置。 The learning data generation device according to claim 5, wherein the acquisition unit acquires the second user's utterance as the second user's reaction. ロボットの模倣学習の学習データを生成する学習データ生成方法であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することと
を含む、学習データ生成方法。
A learning data generation method for generating learning data for imitation learning of a robot, comprising the steps of:
acquiring operation information when a first user operates the robot and a reaction of a second user when the second user recognizes the operation information;
A learning data generating method comprising: generating the learning data based on a reaction of the second user and the motion information.
ロボットの動作を学習させる学習データ生成装置を作動させるプログラムであって、
前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる、プログラム。
A program for operating a learning data generation device for learning a robot's movements, comprising:
causing the learning data generation device to acquire motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A program that generates the learning data based on the reaction of the second user and the motion information.
JP2023170584A 2023-09-29 2023-09-29 Training data generation device, training data generation method, and program Pending JP2025060080A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023170584A JP2025060080A (en) 2023-09-29 2023-09-29 Training data generation device, training data generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023170584A JP2025060080A (en) 2023-09-29 2023-09-29 Training data generation device, training data generation method, and program

Publications (1)

Publication Number Publication Date
JP2025060080A true JP2025060080A (en) 2025-04-10

Family

ID=95289650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023170584A Pending JP2025060080A (en) 2023-09-29 2023-09-29 Training data generation device, training data generation method, and program

Country Status (1)

Country Link
JP (1) JP2025060080A (en)

Similar Documents

Publication Publication Date Title
US9387589B2 (en) Visual debugging of robotic tasks
JP7427113B2 (en) Robot demonstration learning skills template
JP6314134B2 (en) User interface for robot training
EP2224303B1 (en) Robot with automatic selection of task-specific representations for imitation learning
WO2022211403A1 (en) Hybrid robotic motion planning system using machine learning and parametric trajectories
JP2020104216A (en) Robot controller, robot system, and robot control method
CN111527461A (en) Information processing apparatus, information processing method, and program
US10960540B2 (en) Robot orchestration architecture
JP2024023927A (en) Robot control device, robot control method, terminal device, terminal control method, and robot control system
Bonaiuto et al. Tele-operation of robot teams: a comparison of gamepad-, mobile device and hand tracking-based user interfaces
JP7487338B2 (en) Distributed Robot Demonstration Learning
US20240066694A1 (en) Robot control system, robot control method, and robot control program
US11571810B2 (en) Arithmetic device, control program, machine learner, grasping apparatus, and control method
JP2025060080A (en) Training data generation device, training data generation method, and program
US20240408757A1 (en) Human-in-loop robot training and testing system with generative artificial intelligence (ai)
CN112757273A (en) Method, system and device for editing and visualizing track of mechanical arm and storage medium
JP7506180B2 (en) Teaching support device, work system, teaching support method, and teaching support program
WO2024253174A1 (en) Teaching data generation device, robot controller, robot control system, and teaching data generation method
US20210247758A1 (en) Teleoperation with a wearable sensor system
RU2813444C1 (en) Mixed reality human-robot interaction system
US20250319601A1 (en) Systems, Computer Program Products, and Methods for Controlling Robots
Li Learning Algorithm Design for Human-Robot Skill Transfer
JP2024175376A (en) Information processing device, information processing method, robot system, article manufacturing method, program, and recording medium
JP2025093156A (en) Operation command generation device
Gorjup On Human to Robot Skill Transfer for Robust Grasping and Dexterous Manipulation