JP2025060080A - Training data generation device, training data generation method, and program - Google Patents
Training data generation device, training data generation method, and program Download PDFInfo
- Publication number
- JP2025060080A JP2025060080A JP2023170584A JP2023170584A JP2025060080A JP 2025060080 A JP2025060080 A JP 2025060080A JP 2023170584 A JP2023170584 A JP 2023170584A JP 2023170584 A JP2023170584 A JP 2023170584A JP 2025060080 A JP2025060080 A JP 2025060080A
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- learning data
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本開示は、学習データ生成装置、学習データ生成方法、及びプログラムに関する。 The present disclosure relates to a training data generation device, a training data generation method, and a program.
従来、ロボットの状態を指示する操作情報と、ロボットの状態に影響を与えない非操作情報とに基づいて、ロボットの操作を学習する装置が知られている(特許文献1参照)。 Conventionally, there is known a device that learns how to operate a robot based on operation information that indicates the state of the robot and non-operation information that does not affect the state of the robot (see Patent Document 1).
熟練していない操作者の操作の精度は、熟練操作者の操作の精度よりも低い。非操作情報を参照したとしても、操作者が操作に熟練していない場合、当該操作に基づく学習によってロボットの動作の精度を高めることは難しい。 The accuracy of operations by an unskilled operator is lower than that of an experienced operator. Even if non-operation information is referenced, if the operator is not skilled in an operation, it is difficult to improve the accuracy of the robot's movements by learning based on that operation.
本開示の目的は、熟練していない操作者の操作に基づく学習によってもロボットの動作の精度を向上できる学習データ生成装置、学習データ生成方法、及びプログラムを提供することにある。 The objective of the present disclosure is to provide a learning data generation device, a learning data generation method, and a program that can improve the accuracy of a robot's movements even through learning based on the operations of an unskilled operator.
本開示の一実施形態に係る学習データ生成装置は、
ロボットの模倣学習の学習データを生成する学習データ生成装置であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部と
を備える。
A training data generation device according to an embodiment of the present disclosure includes:
A learning data generation device for generating learning data for imitation learning of a robot, comprising:
an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A generation unit generates the learning data based on a reaction of the second user and the motion information.
本開示の一実施形態に係る学習データ生成方法は、
ロボットの模倣学習の学習データを生成する学習データ生成方法であって、
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することと
を含む。
A learning data generating method according to an embodiment of the present disclosure includes:
A learning data generation method for generating learning data for imitation learning of a robot, comprising the steps of:
acquiring operation information when a first user operates the robot and a reaction of a second user when the second user recognizes the operation information;
The learning data is generated based on a reaction of the second user and the motion information.
本開示の一実施形態に係るプログラムは、
ロボットの動作を学習させる学習データ生成装置を作動させるプログラムであって、
前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる。
A program according to an embodiment of the present disclosure includes:
A program for operating a learning data generation device for learning a robot's movement, comprising:
causing the learning data generation device to acquire motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
The learning data is generated based on the reaction of the second user and the motion information.
本開示の一実施形態に係る学習データ生成装置、学習データ生成方法、及びプログラムによれば、熟練していない操作者の操作に基づく学習によってもロボットの動作の精度が高められ得る。 According to a learning data generation device, a learning data generation method, and a program according to an embodiment of the present disclosure, the accuracy of a robot's movements can be improved even through learning based on the operations of an unskilled operator.
(ロボット制御システム1の構成例)
図1に示されるように、一実施形態に係るロボット制御システム1は、ロボット30と、ロボットコントローラ20と、教示データ生成装置10と、学習データ生成装置40とを備える。ロボット制御システム1の少なくとも1つの構成部は、ネットワークを介して通信可能に接続されてもよいし、ネットワークを介さずに通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、有線又は無線で通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、専用回線を介して通信可能に接続されてもよい。ロボット制御システム1の少なくとも1つの構成部は、これらの例に限られず他の種々の形態で互いに通信可能に接続されてもよい。以下、ロボット制御システム1の各構成が具体的に説明される。ロボット30とロボットコントローラ20とを含む構成は、ロボットシステムとも称される。
(Configuration example of robot control system 1)
As shown in FIG. 1, a robot control system 1 according to an embodiment includes a
<教示データ生成装置10>
教示データ生成装置10は、制御部11と、記憶部12と、通信部13とを備える。制御部11は、学習部14を含む。教示データ生成装置10は、通信部13によって、学習データ生成装置40から学習データを取得する。教示データ生成装置10は、学習部14によって、学習データを用いた学習を実行して教示データを生成する。教示データは、ロボット30に作業を実行させるように、ロボットコントローラ20がロボット30を自動で制御する情報である。
<Teaching
The teaching
制御部11又は学習部14は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、教示データ生成装置10の種々の機能を実現するプログラムを実行しうる。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)とも称される。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、CPU(Central Processing Unit)を含んで構成されてよい。プロセッサは、DSP(Digital Signal Processor)又はGPU(Graphics Processing Unit)を含んで構成されてもよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。専用回路は、例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでよい。
The
記憶部12は、磁気ディスク等の電磁記憶媒体を含んで構成されてよいし、半導体メモリ又は磁気メモリ等のメモリを含んで構成されてもよい。記憶部12は、HDD(Hard Disk Drive)として構成されてもよいしSSD(Solid State Drive)として構成されてもよい。記憶部12は、各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部12は、プロセッサ又は専用回路のワークメモリとして機能してよい。記憶部12の少なくとも一部は、プロセッサ又は専用回路に含まれてもよい。記憶部12の少なくとも一部は、教示データ生成装置10と別体の記憶装置として構成されてもよい。
The
通信部13は、他の装置と有線又は無線で通信可能に構成される通信デバイスを含んで構成されてよい。通信デバイスは、種々の通信規格に基づく通信方式で通信可能に構成されてよい。また、教示データ生成装置10は、有線又は無線を問わない回線によって、ロボット制御システム1の少なくとも1つの構成と通信可能に接続される。教示データ生成装置10と、ロボット制御システム1の少なくとも1つの構成とは、相互に標準的なプロトコルを用いたインタフェースを具備しており、双方向のコミュニケーションをとることができる。
The
教示データ生成装置10は、1又は複数のサーバを含んで構成されてよい。教示データ生成装置10は、複数のサーバに並列処理を実行させるように構成されてよい。教示データ生成装置10は、物理的な筐体を含んで構成される必要はなく、ヴァーチャルマシン又はコンテナオーケストレイションシステム等の仮想化技術に基づいて構成されてもよい。教示データ生成装置10は、クラウドサービスを用いて構成されてもよい。教示データ生成装置10がクラウドサービスを用いて構成される場合、マネージドサービスを組み合わせることで構成され得る。つまり、教示データ生成装置10の機能は、クラウドサービスとして実現され得る。
The teaching
教示データ生成装置10は、少なくとも1つのサーバと、少なくとも1つのデータベースとを備えてよい。サーバは、制御部11又は学習部14として機能する。データベースは、記憶部12として機能する。サーバの数は、1つであってもよいし2つ以上であってもよい。サーバの数が1つである場合、1つのサーバで実現される機能が複数のサーバで実現される機能を包含する。各サーバは、互いに有線又は無線で通信可能に接続される。データベースの数は、1つであってもよいし2つ以上であってもよい。データベースの数は、教示データ生成装置10で管理するデータの容量と教示データ生成装置10に求められる可用性要件とに基づいて適宜増減されてよい。データベースは、各サーバと有線又は無線で通信可能に接続される。教示データ生成装置10は、外部のデータベースに接続されてもよい。教示データ生成装置10と外部のデータベースとを備える教示データ生成システムが構成されてもよい。
The teaching
教示データ生成装置10は、図1において1つの構成として記載されているが、必要に応じて複数の構成を1つのシステムとみなして運用され得る。つまり、教示データ生成装置10は、容量可変なプラットフォームとして構成される。教示データ生成装置10として複数の構成が用いられることによって、1つの構成が天災等の不測の事態の発生時に運用できなくなった場合も、その他の構成を用いてシステムの運用が継続される。この場合、複数の構成それぞれは、有線又は無線を問わない回線によって接続され、相互に通信可能に構成されている。この複数の構成は、クラウドサービスとオンプレミス環境とに跨って構築されてもよい。
Although the teaching
<ロボットコントローラ20>
ロボットコントローラ20は、教示データ生成装置10から教示データを取得し、教示データに基づいてロボット30を制御することによって、ロボット30に作業を実行させる。なお、教示データ生成装置10が教示データとしてシナリオデータのみを生成する場合、ロボットコントローラ20は、シナリオデータに基づいてロボット30を制御可能なソースコードを生成してもよい。
<
The
ロボットコントローラ20は、例えば、工場等の施設に設置されているメータを読み取る作業をロボット30に実行させてよい。ロボットコントローラ20は、これに限られず種々の作業をロボット30に実行させてよい。ロボットコントローラ20は、クラウドコンピューティング環境に接続されてもよいし接続されなくてもよい。ロボットコントローラ20がクラウドコンピューティング環境に接続されない場合、ロボットコントローラ20の動作は、オンプレミス環境で完結する。ロボットコントローラ20の動作がオンプレミス環境で完結する場合、教示データ生成装置10の動作は、ロボットコントローラ20によって実行されてもよい。
The
ロボットコントローラ20は、制御部21と記憶部22と入力部23とを有する。制御部21は、記憶部22に教示データ生成装置10から取得した教示データ等を記憶したり、取得した教示データに基づいてロボット30を制御したりできる。また、制御部21は、ロボットコントローラ20の各機能を制御することができる。記憶部22は、ロボット30又はロボットコントローラ20自体の制御に必要な情報を記憶することができる。
The
入力部23は、ロボット30を手動で操作するコマンドの入力を受け付ける。ロボット30を手動で操作するコマンドが入力部23に入力された場合、制御部21は、入力されたコマンドに基づいてロボット30を制御する。制御部21は、ロボット30を制御した結果として、ロボット30がどのように動作したかを表す情報を生成し、学習データ生成装置40に出力する。ロボット30がどのように動作したかを表す情報は、動作情報とも称される。
The
制御部21は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、教示データ生成装置10の種々の機能を実現するプログラムを実行しうる。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)とも称される。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、CPU(Central Processing Unit)を含んで構成されてよい。プロセッサは、DSP(Digital Signal Processor)又はGPU(Graphics Processing Unit)を含んで構成されてもよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。専用回路は、例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでよい。
The
記憶部22は、磁気ディスク等の電磁記憶媒体を含んで構成されてよいし、半導体メモリ又は磁気メモリ等のメモリを含んで構成されてもよい。記憶部22は、HDD(Hard Disk Drive)として構成されてもよいしSSD(Solid State Drive)として構成されてもよい。記憶部22は、各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部22は、プロセッサ又は専用回路のワークメモリとして機能してよい。記憶部22の少なくとも一部は、プロセッサ又は専用回路に含まれてもよい。記憶部22の少なくとも一部は、ロボットコントローラ20と別体の記憶装置として構成されてもよい。
The
入力部23は、入力デバイスを備えてよい。入力デバイスは、例えば、ジョイスティック等を含んで構成されてよい。入力デバイスは、例えば、タッチパネル若しくはタッチセンサ、又はマウス等のポインティングデバイスを含んで構成されてよい。入力デバイスは、物理キーを含んで構成されてもよい。入力デバイスは、マイク等の音声入力デバイスを含んで構成されてもよい。入力デバイスは、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。
The
入力部23は、ロボットコントローラ20と別体の入力端末として実現されてもよい。入力端末の数は、1台に限られず、2台以上であってよい。入力端末は、タブレット端末として構成されてよいし、デスクトップPC(Personal Computer)又はノートPC等のPC端末として構成されてよい。入力端末は、これらの例に限られず、種々のデバイスとして構成されてよい。
The
ロボットコントローラ20は、教示データを教示データ生成装置10から取得する通信デバイスを備えてよい。ロボットコントローラ20の通信デバイスは、教示データ生成装置10の通信デバイスと同一又は類似に構成されてよい。
The
図1に例示される構成において、1台のロボットコントローラ20が1台のロボット30に接続されている。1台のロボットコントローラ20が2台以上のロボット30に接続されてもよい。1台のロボットコントローラ20は、1台のロボット30だけを制御してもよいし、2台以上のロボット30を制御してもよい。ロボットコントローラ20及びロボット30の数は、1台に限られず、2台以上であってもよい。
In the configuration illustrated in FIG. 1, one
<ロボット30>
ロボット30は、アームを備えるロボットアームとして構成されてよい。アームは、例えば、6軸又は7軸の垂直多関節ロボットとして構成されてよい。アームは、3軸又は4軸の水平多関節ロボット又はスカラロボットとして構成されてもよい。アームは、2軸又は3軸の直交ロボットとして構成されてもよい。アームは、パラレルリンクロボット等として構成されてもよい。アームを構成する軸の数は、例示したものに限られない。
<
The
ロボット30は、アームに取り付けられるエンドエフェクタを備えてよい。エンドエフェクタは、例えば、作業対象物を把持できるように構成される把持ハンドを含んでよい。把持ハンドは、複数の指を有してよい。把持ハンドの指の数は、2つ以上であってよい。把持ハンドの指は、1つ以上の関節を有してよい。エンドエフェクタは、作業対象物を吸着できるように構成される吸着ハンドを含んでもよい。エンドエフェクタは、作業対象物を掬うことができるように構成される掬いハンドを含んでもよい。エンドエフェクタは、ドリル等の工具を含み、作業対象物に穴を開ける作業等の種々の加工を実施できるように構成されてもよい。エンドエフェクタは、これらの例に限られず、他の種々の動作ができるように構成されてよい。
The
ロボット30は、アームを動作させることによって、エンドエフェクタの位置を制御できる。エンドエフェクタは、作業対象物に対して作用する方向の基準となる軸を有してもよい。エンドエフェクタが軸を有する場合、ロボット30は、アームを動作させることによって、エンドエフェクタの軸の方向を制御できる。ロボット30は、エンドエフェクタが作業対象物に作用する動作の開始及び終了を制御する。ロボット30は、エンドエフェクタの位置、又は、エンドエフェクタの軸の方向を制御しつつ、エンドエフェクタの動作を制御することによって、作業対象物を動かしたり加工したりすることができる。
The
ロボット30は、例えば、AGV(Automated Guided Vehicle)、AMR(Autonomous Mobile Robot)又はドローン等を含んでもよい。ロボット30は、これらに限られず、乗り物、電子機器又は制御機械等の他の種々の形態で構成されてもよい。
The
ロボット30は、ロボット30の少なくとも1つの構成部の状態を検出するセンサを更に備えてよい。センサは、ロボット30の少なくとも1つの構成部の現実の位置若しくは姿勢、又は、ロボット30の少なくとも1つの構成部の速度若しくは加速度に関する情報を検出してよい。センサは、ロボット30の少なくとも1つの構成部に作用する力を検出してもよい。センサは、ロボット30の少なくとも1つの構成部を駆動するモータに流れる電流又はモータのトルクを検出してもよい。センサは、ロボット30の実際の動作の結果として得られる情報を検出できる。ロボットコントローラ20は、センサの検出結果を取得することによって、ロボット30の実際の動作の結果を把握することができる。
The
<学習データ生成装置40>
学習データ生成装置40は、制御部41と、記憶部42と、取得部43と、出力部44とを備える。制御部41は、分析部45と生成部46とを含む。学習データ生成装置40は、取得部43によって、ロボットコントローラ20から、操作者が手動でロボット30を操作したときのロボット30の動作情報を取得する。学習データ生成装置40は、出力部44によって、ロボット30の動作情報を出力し、動作情報を表す映像を操作者以外のユーザに視聴させる。操作者は、第1ユーザとも称される。動作情報を表す映像を視聴するユーザは、第2ユーザとも称される。
<Learning
The learning
学習データ生成装置40は、取得部43によって、第2ユーザが動作情報を表す映像を視聴したときの第2ユーザの反応を取得する。学習データ生成装置40は、分析部45によって第2ユーザの反応を分析する。学習データ生成装置40は、生成部46によって、第2ユーザの反応の分析結果と動作情報とに基づいて学習データを生成する。学習データ生成装置40は、生成した学習データを、出力部44から教示データ生成装置10に出力する。
The learning
制御部41は、少なくとも1つのプロセッサ又は専用回路を含んで構成されてよい。プロセッサは、学習データ生成装置40の種々の機能を実現するプログラムを実行しうる。制御部41は、教示データ生成装置10の制御部11と同一又は類似に構成されてよい。
The
記憶部42は、学習データ生成装置40で用いられる各種情報及びプロセッサで実行されるプログラム等を格納する。記憶部42は、教示データ生成装置10の記憶部12と同一又は類似に構成されてよい。
The
取得部43及び出力部44は、他の装置と有線又は無線で通信可能に構成される。取得部43及び出力部44は、教示データ生成装置10の通信部13と同一又は類似に構成されてよい。
The
取得部43は、第1ユーザがロボット30を操作しているときの状態を取得するデバイスを含んでよい。取得部43は、ロボット30が動作している環境、又は、第1ユーザを撮影するカメラを含んでよい。取得部43は、ロボット30が動作している環境の音声、又は、第1ユーザの発話内容を取得するマイクを含んでよい。取得部43は、第1ユーザの頭に装着させる360度カメラを含んでよい。360度カメラは、ロボット30を操作しているときの第1ユーザの状態を再現するための映像を撮影してよい。取得部43は、第1ユーザの視線を検出するセンサを含んでよい。
The
取得部43は、第1ユーザがロボット30を操作しているときの動作情報を第2ユーザが視聴しているときの第2ユーザの反応を取得するデバイスを含んでよい。取得部43は、第2ユーザの発話内容を取得するマイクを含んでよい。取得部43は、第2ユーザの視線を検出するセンサを含んでよい。
The
取得部43は、第1ユーザの操作に対する第2ユーザの指示又はアドバイス等の入力を受け付ける入力デバイスを含んでよい。入力デバイスは、例えば、タッチパネル若しくはタッチセンサ、又はマウス等のポインティングデバイスを含んで構成されてよい。入力デバイスは、物理キーを含んで構成されてもよい。入力デバイスは、マイク等の音声入力デバイスを含んで構成されてもよい。入力デバイスは、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。
The
入力デバイスは、学習データ生成装置40と別体の入力端末として実現されてもよい。入力端末の数は、1台に限られず、2台以上であってよい。入力端末は、タブレット端末として構成されてよいし、デスクトップPC(Personal Computer)又はノートPC等のPC端末として構成されてよい。入力端末は、これらの例に限られず、種々のデバイスとして構成されてよい。
The input device may be realized as an input terminal separate from the learning
出力部44は、表示デバイスを含んでよい。表示デバイスは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイ若しくは無機ELディスプレイ、又は、プラズマディスプレイ(PDP:Plasma Display Panel)等を含んで構成されてよい。表示デバイスは、これらのディスプレイに限られず、他の種々の方式のディスプレイを含んで構成されてよい。表示デバイスは、LED(Light Emitting Diode)等の発光デバイスを含んで構成されてよい。表示デバイスは、他の種々のデバイスを含んで構成されてよい。
The
出力部44は、音声等の聴覚情報を出力するスピーカ等の音声出力デバイスを含んで構成されてもよい。出力部44は、VR(Virtual Reality)環境を提供するデバイスを含んで構成されてよい。出力部44は、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。
The
学習データ生成装置40は、1又は複数のサーバを含んで構成されてよい。学習データ生成装置40は、複数のサーバに並列処理を実行させるように構成されてよい。学習データ生成装置40は、物理的な筐体を含んで構成される必要はなく、ヴァーチャルマシン又はコンテナオーケストレイションシステム等の仮想化技術に基づいて構成されてもよい。学習データ生成装置40は、クラウドサービスを用いて構成されてもよい。学習データ生成装置40がクラウドサービスを用いて構成される場合、マネージドサービスを組み合わせることで構成され得る。つまり、学習データ生成装置40の機能は、クラウドサービスとして実現され得る。
The training
学習データ生成装置40は、少なくとも1つのサーバと、少なくとも1つのデータベースとを備えてよい。サーバは、制御部41として機能する。データベースは、記憶部42として機能する。サーバの数は、1つであってもよいし2つ以上であってもよい。サーバの数が1つである場合、1つのサーバで実現される機能が複数のサーバで実現される機能を包含する。各サーバは、互いに有線又は無線で通信可能に接続される。データベースの数は、1つであってもよいし2つ以上であってもよい。データベースの数は、学習データ生成装置40で管理するデータの容量と学習データ生成装置40に求められる可用性要件とに基づいて適宜増減されてよい。データベースは、各サーバと有線又は無線で通信可能に接続される。学習データ生成装置40は、外部のデータベースに接続されてもよい。学習データ生成装置40と外部のデータベースとを備える教示データ生成システムが構成されてもよい。
The learning
学習データ生成装置40は、図1において1つの構成として記載されているが、必要に応じて複数の構成を1つのシステムとみなして運用され得る。つまり、学習データ生成装置40は、容量可変なプラットフォームとして構成される。学習データ生成装置40として複数の構成が用いられることによって、1つの構成が天災等の不測の事態の発生時に運用できなくなった場合も、その他の構成を用いてシステムの運用が継続される。この場合、複数の構成それぞれは、有線又は無線を問わない回線によって接続され、相互に通信可能に構成されている。この複数の構成は、クラウドサービスとオンプレミス環境とに跨って構築されてもよい。
Although the training
(ロボット制御システム1の動作例)
ロボット制御システム1において、ロボットコントローラ20は、入力部23で第1ユーザによるロボット30の手動操作を受け付ける。ロボットコントローラ20は、第1ユーザの手動操作に基づいてロボット30を制御し、ロボット30が第1ユーザによって手動で操作されたときの動作情報を生成する。ロボットコントローラ20は、ロボット30の動作情報を学習データ生成装置40に出力する。入力部23は、遠隔操作でもよい。
(Operation example of robot control system 1)
In the robot control system 1, the
学習データ生成装置40は、ロボット30の動作情報を取得する。学習データ生成装置40は、ロボット30の動作情報を表す映像を第2ユーザに視聴させ、第2ユーザの反応を取得する。学習データ生成装置40は、第2ユーザの反応を分析した結果と動作情報とに基づいて学習データを生成し、教示データ生成装置10に学習データを出力する。具体的には、ロボット30の動作情報を、第2ユーザの反応を分析した結果に基づいて、その一部を学習データとして抽出する動作、又は、学習データとして使用できるように修正する動作等を実行して、学習データを生成することができる。
The learning
教示データ生成装置10は、学習データを用いて、第1ユーザがロボット30を手動で操作したときのロボット30の動作を模倣可能なように学習を実行し、ロボット30の教示データを生成する。具体的には、教示データ生成装置10は、ロボット30の動作環境等の情報に取得した学習データをラベル付けして、ロボット30の機械学習を実行できる。なお、ロボット30の動作環境等の情報は、適宜取得されてよい。第1ユーザがロボット30を手動で操作したときのロボット30の動作を模倣した学習は、模倣学習とも称される。ロボットコントローラ20は、学習によって生成された学習済みモデルによって教示データを生成し、教示データに基づいて、第1ユーザの操作によるロボット30の動作を模倣するようにロボット30を自動で制御する。具体的には、ロボット30を例えば自律動作させるときに、ロボット30の動作環境などの情報を学習済みモデルに入力して、教示データが出力されればよい。なお、学習済みモデルは、例えば、ニューラルネットワーク等のAIであってよい。
The teaching
本開示に係るロボット制御システム1において、第1ユーザが熟練していない操作者である場合でも、熟練した操作者である第2ユーザの反応に基づいて学習データが生成される。熟練した操作者は、熟練者とも称される。熟練していない操作者は、非熟練者とも称される。熟練者の反応に基づいて学習データが生成されることによって、熟練者がロボット30を操作せずに、非熟練者が操作したときのロボット30の動作情報を表す映像を視聴するだけで、熟練者によるロボット30の操作を模倣した学習が実行される。結果として、学習によって生成される教示データの精度が高められる。以下、学習データ生成装置40の具体的な動作例が説明される。
In the robot control system 1 according to the present disclosure, even if the first user is an unskilled operator, learning data is generated based on the reaction of the second user who is a skilled operator. A skilled operator is also called an expert. An unskilled operator is also called an unskilled. By generating learning data based on the reaction of an expert, learning that imitates the operation of the
<学習データ生成装置40が取得する情報>
学習データ生成装置40は、取得部43によって、上述してきたように、ロボット30を第1ユーザが操作したときのロボット30の動作情報を取得する。取得部43は、ロボット30の動作情報に限られず他の種々の情報を取得してよい。
<Information acquired by the learning
As described above, the learning
取得部43は、例えば、ロボット30が動作している場所に存在する人間又は物体等の情報を取得してよい。つまり、取得部43は、ロボット30が動作している環境を表す情報を取得してよい。ロボット30が動作している環境を表す情報は、環境情報とも称される。環境情報は、ロボット30が動作している環境を撮影した俯瞰映像等の映像を含んでよい。環境情報は、ロボット30が動作している環境で聞こえる、ロボット30の動作音、ロボットコントローラ20の入力部23の操作音、他の物体の音、又は、第1ユーザ以外の人間の発話内容等の音声を含んでよい。
The
取得部43は、例えば、ロボット30を操作している間の第1ユーザの状態に関する情報を取得してよい。第1ユーザの状態に関する情報は、状態情報とも称される。状態情報は、第1ユーザの発話内容を含んでよい。状態情報は、第1ユーザの視線を含んでよい。状態情報は、第1ユーザの心拍数等の心身の状態を表す生体情報を含んでよい。状態情報は、第1ユーザを撮影した映像を含んでよい。
The
<第2ユーザの反応の取得>
学習データ生成装置40は、取得部43で取得した情報を出力部44で出力して第2ユーザに認識させ、第1ユーザの操作を体験させる。例えば、出力部44は、ロボット30の動作情報を表す映像を表示して第2ユーザに視聴させてよい。出力部44は、環境情報又は状態情報の少なくとも一部を出力して第2ユーザに認識させてよい。出力部44は、状態情報として、第1ユーザの発話内容又は視線の検出結果を出力してよい。
<Acquisition of a response from a second user>
The learning
第1ユーザが非熟練者である場合、第1ユーザの操作によるロボット30の動作情報は、第2ユーザがロボット30を操作するときの動作と異なる動作を含むことがある。したがって、第2ユーザは、第1ユーザの操作によるロボット30の動作情報の映像を視聴しながら、第2ユーザ自身がロボット30を操作した場合の動作と異なる点を、発話によって指摘したり入力デバイスへの入力によって指摘したりする。また、第2ユーザは、ロボット30の動作情報の映像又は環境情報若しくは状態情報を認識したときの没入感によって、思わず発話したり身体又は目線等を動かしたりする。第2ユーザがロボット30の動作情報の映像を視聴したり環境情報又は状態情報を認識したりしながら行う動作は、第2ユーザの反応とも総称される。学習データ生成装置40は、取得部43によって第2ユーザの反応を取得する。
When the first user is an unskilled person, the motion information of the
非熟練者である第1ユーザの操作を、熟練者である第2ユーザが評価する環境として、以下に例示される3つのモードが準備されてよい。第2ユーザが評価する環境として、例示されるモードに限られず、他の種々のモードが準備されてもよい。 The three modes illustrated below may be prepared as environments in which an expert second user evaluates an operation performed by an unskilled first user. The environment in which the second user performs evaluation is not limited to the illustrated modes, and various other modes may be prepared.
<<ロボット30の動作情報のVR体験>>
第1のモードとして、出力部44は、第1ユーザがロボット30を操作する環境を遠隔地にいる第2ユーザがVR体験できるように、ロボット30の動作情報をVRデバイスで出力してよい。出力部44は、第1ユーザがロボット30を操作していたときの第1ユーザの視線にかかわらず第2ユーザが自由な視点でロボット30の動作情報の映像を視聴できるように、動作情報を出力してよい。
<<VR experience of operation information of
In the first mode, the
取得部43は、第1ユーザの操作をVR体験しているときの第2ユーザの視線、又は、発話等の第2ユーザの反応を検出する。このときの第2ユーザの反応は、第1ユーザの操作によるロボット30の動作情報の評価に用いられる。
The
<<第1ユーザと第2ユーザとの間の視線又は発話の差異の認識>>
第2のモードとして、出力部44は、第2ユーザがロボット30の動作情報に加えて環境情報又は状態情報を更にVR体験できるように、ロボット30の動作情報及び環境情報又は状態情報をVRデバイスで出力してよい。
<<Recognition of differences in gaze or speech between a first user and a second user>>
In a second mode, the
取得部43は、第1ユーザの操作によるロボット30の動作情報と環境情報又は状態情報とをVR体験しているときの第2ユーザの視線、又は、発話等の第2ユーザの反応を検出する。
The
出力部44は、第1のモードで第2ユーザに映像を視聴させたときに取得した第2ユーザの視線又は発話を、状態情報に含まれる第1ユーザの視線又は発話と比較できるように再生してもよい。つまり、出力部44は、第1ユーザと第2ユーザとの間の視線又は発話の差異を第2ユーザが認識できるように情報を出力してよい。
The
取得部43は、第1ユーザと第2ユーザとの間の視線又は発話の差異に対する第2ユーザの反応を検出する。出力部44は、第2ユーザに対して、第1ユーザと第2ユーザとの間の差異について、自然な反応ではなく、意識的な発話又は入力デバイスへの入力によって解説することを促してよい。解説は、自然言語によって行われてよい。取得部43は、第2ユーザが自然言語で発話したり入力したりした解説を取得してよい。取得部43は、解説の言語解析を実行して解析結果を取得してもよい。
The
<<第2ユーザによる動作の添削>>
出力部44は、ロボット30が動作する環境の俯瞰映像を第2ユーザに視聴させるように、VRデバイスではないディスプレイ等に俯瞰映像を出力してよい。出力部44は、俯瞰映像において、第1ユーザが操作したときのロボット30の動作経路を表示してよい。
<<Correction of Action by Second User>>
The
出力部44は、第2ユーザに対して、第2ユーザ自身がロボット30を操作したときに想定するロボット30の動作経路の入力を促してよい。取得部43は、第2ユーザが入力した、第2ユーザが想定する動作経路を取得してよい。つまり、取得部43は、第1ユーザが操作したときのロボット30の動作経路を第2ユーザが添削する情報を取得してよい。第2ユーザによる添削は、第2ユーザの反応に含まれる。出力部44は、第1ユーザが操作したときのロボット30の動作経路と、第2ユーザが想定する動作経路とを比較できるように表示してもよい。
The
<第2ユーザの反応に基づく分析>
学習データ生成装置40は、分析部45によって第2ユーザの反応を分析する。分析部45は、例えば、第2ユーザの反応に基づいて、ロボット30の動作情報のうち、そのままで学習データに採用できる部分と、そのままで学習データに採用できない部分とを判別してよい。分析部45は、そのままで学習データに採用できない部分について、その部分を変更すれば学習データに採用できるかを判定してよい。分析部45は、そのままで学習データに採用できない部分について、その部分を削除して別の動作に置換する必要があるかを判定してよい。
<Analysis based on second user responses>
The learning
分析部45は、第1ユーザの操作によるロボット30の動作情報の映像を視聴しているときの第2ユーザの発話内容について、その声の調子又は強弱等に基づいて、第1ユーザの操作に対する第2ユーザの評価結果を分析してよい。
The
評価結果は、例えば、第1ユーザの操作を否定することを含んでよい。分析部45は、否定された操作に対応する動作情報を、そのままで学習データに採用できない部分として判別する。
The evaluation result may include, for example, denying the operation of the first user. The
評価結果は、例えば、第1ユーザの操作に対して改善のアドバイスを送ることを含んでよい。分析部45は、第1ユーザの操作を尊重して、改善のアドバイスを受けていない操作に対応する動作情報を、そのままで学習データに採用できる部分として判別してもよい。分析部45は、改善のアドバイスを受けた操作に対応する動作情報を、そのままで学習データに採用できない部分として判別してもよい。
The evaluation result may include, for example, sending improvement advice for the first user's operation. The
評価結果は、例えば、第1ユーザの操作を褒めたり肯定したりすることを含んでよい。分析部45は、褒められたり肯定されたりした操作に対応する動作情報を、そのままで学習データに採用できる部分として判別する。
The evaluation result may include, for example, praising or affirming the operation of the first user. The
分析部45は、例えば表1に示されるようにあらかじめ決められている関係に、第2ユーザの発話を当てはめることによって、第2ユーザの評価結果を分析してもよい。
The
分析部45は、第2ユーザの発話を、叱咤激励、アドバイス、軽微な指示、又は、大幅な改善の4つの区分に分類してよい。分析部45は、各区分に対応する発話例と第2ユーザの発話とを比較してよい。分析部45は、各区分に対応する発話が、動作情報に対応する第1ユーザの操作データに及ぼす影響に基づいて、第2ユーザの評価結果を分析してよい。
The
分析部45は、第2ユーザの発話の語尾に基づいて、第2ユーザの評価結果を分析してもよい。例えば、分析部45は、「~した方がよい」又は「~すべき」という語尾の発話がアドバイスに該当すると分析してよい。分析部45は、「~してください」又は「~するように」という語尾の発話が指示に該当すると分析してもよい。分析部45は、これらの例に限られず、発話の種々のパターンに基づいて、第2ユーザの発話を分析してよい。
The
<リファレンスデータの蓄積>
分析部45は、第2ユーザによる添削内容を分析し、熟練者が操作した場合のロボット30の動作のリファレンスデータを見本として生成してもよい。分析部45は、リファレンスデータを蓄積したライブラリを生成して記憶部42に格納してもよい。リファレンスデータは、ロボット30の動作情報のうち、そのままで学習データに採用できない部分を置き換えるために用いられてよい。
<Accumulation of reference data>
The
<学習データの生成>
学習データ生成装置40の生成部46は、取得部43で取得したロボット30の動作情報と、分析部45による分析結果に基づいて学習データを生成する。生成部46は、生成した学習データを教示データ生成装置10に出力する。
<Generating learning data>
The
<<操作ミスに対応する動作の変更>>
例えば図2Aに示されるように、取得部43が第1ユーザの操作ミスを含むロボット30の動作情報を取得したとする。一方で、第1ユーザが当初予定していたロボット30の動作経路は、予定の動作情報として破線で表されている。予定経路が折れ曲がっている点をロボット30が通り過ぎて戻る動作が第1ユーザの操作ミスに該当する。
<<Changes in behavior in response to operational mistakes>>
For example, as shown in Fig. 2A, it is assumed that the
分析部45は、ロボット30の動作情報に第1ユーザの操作ミスに該当する動作が含まれていることを、第1ユーザの状態情報に基づいて判別してよい。分析部45は、ロボット30の動作情報のうち第1ユーザの操作ミスに該当する動作を、第1ユーザの状態情報に基づいて特定してよい。分析部45は、例えば、第1ユーザがミスを自覚している旨を発話していることに基づいて第1ユーザの操作ミスに該当する動作を特定してよい。分析部45は、例えば、第1ユーザの心拍数の増加に基づいて第1ユーザの操作ミスに該当する動作を特定してよい。分析部45は、ロボット30の動作情報に第1ユーザの操作ミスに該当する動作が含まれていることを第2ユーザの反応に基づいて判別してよい。分析部45は、第1ユーザの操作ミスに該当する動作を第2ユーザの反応に基づいて特定してもよい。
The
生成部46は、分析部45によって特定された、第1ユーザの操作ミスに該当する動作に関する情報を取得する。生成部46は、図2Bに例示されるように、ロボット30の動作情報のうち、第1ユーザの操作ミスに該当する部分を削除し、予定の動作情報に変更した情報を学習データとして生成してよい。
The
<<熟練者の操作による動作から乖離している動作の置換>>
図2Aにおいて、第2ユーザがロボット30を操作した場合のロボット30の経路は、熟練者が指示する動作として一点鎖線で表されている。第1ユーザの予定経路は、第2ユーザの操作による経路と大きく異なる。つまり、第1ユーザの操作によるロボット30の動作は、熟練者である第2ユーザの操作による動作から乖離している。熟練者である第2ユーザの操作による動作は、学習データとして適しているとみなされる。
<<Replacing movements that deviate from those performed by an expert>>
In Fig. 2A, the path of the
分析部45は、ロボット30の動作情報に第2ユーザの操作による動作から乖離している動作が含まれていることを、第2ユーザの反応に基づいて判別してよい。分析部45は、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を、第2ユーザの反応に基づいて特定してよい。
The
例えば、分析部45は、図2Aに示されるロボット30の動作情報に対してロボット30を斜めに動かせばよいと第2ユーザが発話したことに基づいて、第2ユーザが意図している動作が一点鎖線で表されている動作であると推定してよい。分析部45は、第1ユーザの操作によるロボット30の動作情報と第2ユーザが意図している動作の推定結果との比較によって、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を特定してよい。
For example, the
分析部45は、第2ユーザがロボット30を斜めに動かす経路を入力したことに基づいて、第2ユーザが入力した経路そのものを第2ユーザの操作によるロボット30の動作として採用してよい。分析部45は、第1ユーザの操作によるロボット30の動作情報と第2ユーザが入力した動作との比較によって、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を特定してよい。
The
生成部46は、分析部45によって特定された、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を取得する。生成部46は、図2C又は図2Dに例示されるように、ロボット30の動作情報のうち第2ユーザの操作による動作から乖離している動作を削除し、有効な部分として実線で表される動作を残してよい。
The
生成部46は、残った有効な動作の間をつなぐ動作に対応するリファレンスデータが存在する場合、図2Cに例示されるように、削除した動作をリファレンスデータによって置換した情報を学習データとして生成してよい。
When there is reference data corresponding to an action that connects the remaining valid actions, the
生成部46は、削除した動作を置換する場合に、環境情報を考慮して置換する動作を選択したりカスタマイズしたりしてよい。例えば、生成部46は、リファレンスデータが取得されたときの環境と現在の環境との差異を考慮して、現在の環境において予測される危険を避けるように、置換する動作を選択したりカスタマイズしたりしてよい。生成部46は、リファレンスデータが存在する場合であっても、削除した動作をリファレンスデータで置き換えずに他の動作で置き換えてもよい。
When replacing a deleted action, the
生成部46は、リファレンスデータが存在する場合であっても、現在の環境において予測される危険を考慮した結果としてリファレンスデータによって置換できないと判定してもよい。
Even if reference data exists, the
生成部46は、残った有効な動作の間をつなぐ動作に対応するリファレンスデータが存在しない場合、又は、リファレンスデータによって置換できないと判定した場合、図2Dに例示されるように、削除した動作を他の動作で置換せずに空白にした情報を学習データとして生成する。空白の部分を含む学習データを用いて学習することによって生成された教示データは、空白の部分の動作をロボット30の判断に任せるように構成されてよい。
When there is no reference data corresponding to the motion connecting the remaining valid motions, or when the
<<重みづけの設定>>
生成部46は、ロボット30の動作情報に基づいて学習データを生成する際に重みづけを設定する。学習データの重みづけは、学習データに含まれる複数のデータのうち特徴的なデータを特定するために設定される。ロボット30の動作情報における重みづけは、ロボット30の動作に設定される。重みづけが設定された動作情報を学習データとして用いた学習によって生成された教示データによって再現される動作は、重い重みづけが設定された動作に近づけられる。
<< Weighting Settings >>
The generating
分析部45は、第1ユーザの操作によるロボット30の動作情報に対して重みづけを設定してよい。分析部45は、動作情報を複数の動作に分割し、分割した各動作について重みづけを設定してよい。
The
分析部45は、第1ユーザの発話内容又は第1ユーザの生体情報等に基づいて、ロボット30の動作情報に重みづけを設定してもよい。分析部45は、第2ユーザの反応に基づいて、ロボット30の動作情報に重みづけを設定してもよい。
The
例えば、分析部45は、図3に示されるように、非熟練者である第2ユーザの視線と、熟練者である第1ユーザの視線との比較に基づいて、ロボット30の動作情報に重みづけを設定してよい。図3の例において、非熟練者の視線は、ロボット30の現在位置にある。一方で、熟練者の視線は、ロボット30の現在位置よりもロボット30の予定経路の先にある。分析部45は、熟練者の視線に着目して、ロボット30の動作情報のうち、熟練者の視線が無い部分の動作に軽い重みづけを設定し、熟練者の視線がある部分の動作に重い重みづけを設定してよい。
For example, as shown in FIG. 3, the
<教示データの生成>
教示データ生成装置10は、通信部13によって学習データ生成装置40から学習データを取得する。教示データ生成装置10は、取得した学習データを用いた学習を学習部14によって実行し、ロボット30を自動制御で動作させるための教示データを生成する。教示データ生成装置10は、生成した教示データを通信部13によってロボットコントローラ20に出力する。教示データ生成装置10は、生成した教示データを記憶部12に格納してもよい。
<Generation of teaching data>
The teaching
<ロボット30の制御>
ロボットコントローラ20の制御部21は、教示データ生成装置10で生成された教示データに基づいてロボット30を制御する。制御部21は、教示データを、例えばロボット30のモータ等の制御命令に変換し、制御命令をロボット30に送信することによってロボット30を制御し、第1ユーザの操作による動作を模倣した動作をロボット30に実行させる。
<Control of
The
<学習データ生成方法の手順例>
学習データ生成装置40は、図4に例示されるフローチャートの手順を含む学習データ生成方法を実行してもよい。学習データ生成方法は、学習データ生成装置40の制御部41等を構成するプロセッサに実行させる学習データ生成プログラムとして実現されてもよい。学習データ生成プログラムは、学習データ生成装置40を作動させるプログラムであってよい。学習データ生成プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
<Example of procedure for generating training data>
The training
取得部43は、ロボットコントローラ20から、非熟練者である第1ユーザの操作によるロボット30の動作情報を取得する(ステップS1)。出力部44は、ロボット30の動作情報を再生する(ステップS2)。具体的に、出力部44は、ロボット30の動作情報の映像を表示して熟練者である第2ユーザに視聴させてよい。取得部43は、熟練者である第2ユーザがロボット30の動作情報を視聴したときの熟練者の反応を取得する(ステップS3)。
The
制御部41は、熟練者である第2ユーザの反応に基づいて、ロボット30の動作情報の中に変更対象が有るか判定する(ステップS4)。変更対象は、ロボット30の動作情報のうちそのままで学習データに採用できない部分である。制御部41は、変更対象が無い場合(ステップS4:NO)、ステップS9の手順に進む。
Based on the reaction of the second user, who is an expert, the
制御部41は、変更対象が有る場合(ステップS4:YES)、置換対象が有るか判定する(ステップS5)。置換対象は、変更対象のうち、熟練者である第2ユーザの操作による動作から大きく乖離している動作であってよい。制御部41は、置換対象が無い場合(ステップS5:NO)、ステップS8の手順に進む。
If there is a change target (step S4: YES), the
制御部41は、置換対象が有る場合(ステップS5:YES)、置換対象を置換するリファレンスデータが有るか判定する(ステップS6)。制御部41は、リファレンスデータが有る場合(ステップS6:YES)、置換対象をリファレンスデータによって置換する(ステップS7)。制御部41は、リファレンスデータが無い場合(ステップS6:NO)、置換対象を置換せずに、ステップS8の手順に進む。
If there is a replacement target (step S5: YES), the
制御部41は、変更対象を変更する(ステップS8)。制御部41は、置換されなかった置換対象が残っている場合、置換対象を削除してもよいし、置換対象を変更してもよい。
The
制御部41は、動作情報に重みづけを設定する(ステップS9)。制御部41は、動作情報の変更又は置換を実行した場合、変更後又は置換後の動作情報に対して重みづけを設定する。制御部41は、ステップS9までの手順を実行することによって学習データを生成し、生成した学習データを教示データ生成装置10に出力する。学習データ生成装置40は、ステップS9の手順の実行後、図4のフローチャートの手順の実行を終了する。
The
(まとめ)
以上述べてきたように、本実施形態に係るロボット制御システム1において、学習データ生成装置40は、非熟練者である第1ユーザの操作によるロボット30の動作情報を、熟練者である第2ユーザの反応に基づいて補正できる。その結果、非熟練者の操作に基づく学習によってもロボット30の動作の精度が高められ得る。熟練者がロボット30を操作する現場にいなくても、熟練者の知見がロボット30の学習に適用され得る。
(summary)
As described above, in the robot control system 1 according to this embodiment, the learning
(他の実施形態)
以下、他の実施形態に係るロボット制御システム1及び学習データ生成装置40の構成例が説明される。
Other Embodiments
Hereinafter, configuration examples of a robot control system 1 and a learning
熟練者である第2ユーザの反応に関する情報は、非熟練者である第1ユーザに対してフィードバックされてもよい。第1ユーザは、第1ユーザ自身の操作と第2ユーザが指摘する操作とを比較することによって、ロボット30の操作を改善できる。また、第1ユーザは、ロボット30の動作情報における重みづけを確認することによって、ロボット30の一連の動作のうち特に注目すべき動作を理解してロボット30の操作を改善できる。
Information regarding the reaction of the second user, who is an expert, may be fed back to the first user, who is an unskilled person. The first user can improve the operation of the
第1ユーザは、ロボットシステムの販売先でロボット30を実際に使用する作業者であってよい。第2ユーザは、ロボットシステムの販売元の技術者又はトレーナー等であってよい。本開示に係る学習データ生成装置40によれば、ロボットシステムの販売先の作業者が熟練していない段階であっても、作業者がロボット30を操作したときの動作情報を、熟練した技術者又はトレーナー等が添削できる。その結果、ロボットシステムの販売元の技術者又はトレーナー等がロボットシステムの販売先まで行かずにロボット30の動作の精度を高めることができる。また、ロボットシステムの販売先の作業者のトレーニングが効果的に実行される。
The first user may be a worker who actually uses the
以上、ロボット制御システム1の実施形態を説明してきたが、本開示の実施形態としては、システム又は装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク、又はメモリカード等)としての実施態様をとることも可能である。プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。 The above describes an embodiment of the robot control system 1. However, the present disclosure can also be embodied as a method or program for implementing the system or device, or as a storage medium on which a program is recorded (for example, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a magnetic tape, a hard disk, or a memory card). The program may be stored in a non-transitory computer-readable medium.
また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であってもよい。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてもよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットに
よってその一部又は全部が実施されるように構成されてもよい。
The form of implementation of the program is not limited to application programs such as object code compiled by a compiler or program code executed by an interpreter, but may be a program module incorporated into an operating system, etc. Furthermore, the program may or may not be configured so that all processing is performed only by the CPU on the control board. The program may be configured so that a part or all of it is executed by another processing unit mounted on an expansion board or expansion unit added to the board as necessary.
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、少なくとも1つの構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that a person skilled in the art would be able to make various modifications or alterations based on the present disclosure. Therefore, it should be noted that these modifications or alterations are included in the scope of the present disclosure. For example, the functions, etc. included in at least one component, etc. can be rearranged so as not to cause logical inconsistencies, and multiple components, etc. can be combined into one or divided.
上記の例において、学習データ生成装置40と教示データ生成装置10とロボットコントローラ20が別々に設けられていた。他の例として、学習データ生成装置40が教示データ生成装置10又はロボットコントローラ20と一体に設けられていてもよい。この場合、学習データ生成装置40の制御部41は、教示データ生成装置10の制御部11又はロボットコントローラ20の制御部21によって実現されてもよい。
In the above example, the learning
上記の例において、第2ユーザは、VR体験等によって第1ユーザのロボット操作を確認する例を説明したが、本開示は、これに限られない。例えば、第2ユーザがモニタなどを介して第1ユーザのロボット操作を確認してもよいし、第2ユーザが第1ユーザの近場に控えており、第1ユーザの操作を直接確認してもよい。また、この場合、モニタ、又は、第1ユーザ若しくは第2ユーザ等のユーザの周囲に設置されたカメラ若しくはマイクなどによって、第2ユーザの視線又は音声などを取得することによって、第2ユーザの反応が取得されてもよい。 In the above example, the second user checks the robot operation of the first user through a VR experience or the like, but the present disclosure is not limited to this. For example, the second user may check the robot operation of the first user through a monitor or the like, or the second user may be present near the first user and check the operation of the first user directly. In this case, the reaction of the second user may be acquired by acquiring the line of sight or voice of the second user through a monitor or a camera or microphone installed around the first user or the second user, etc.
上記の例において、第2ユーザの反応は、カメラ又はマイク等を介して取得している例を説明したが、第2ユーザの反応は、例えば、予め第2ユーザの反応が割り当てられたコマンド又はボタン等によって取得されてもよい。具体的には、第1ユーザのロボット操作が良かった場合、表示部を含む入力デバイスを介して高評価を示すコマンドがクリック操作によって入力されてもよい。 In the above example, the second user's reaction is acquired via a camera or microphone, but the second user's reaction may be acquired, for example, via a command or button to which the second user's reaction is assigned in advance. Specifically, if the first user's robot operation is good, a command indicating high evaluation may be input by clicking via an input device including a display unit.
本開示に記載された構成要件の全て、及び/又は、開示された全ての方法、又は、処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。また、本開示に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的、又は類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一、又は、均等となる特徴の一例にすぎない。 All of the features described in this disclosure and/or all of the steps of all of the disclosed methods or processes may be combined in any combination except those combinations in which the features are mutually exclusive. Furthermore, each feature described in this disclosure may be replaced by an alternative feature serving the same, equivalent or similar purpose, unless expressly denied. Thus, unless expressly denied, each disclosed feature is merely one example of a generic series of the same or equivalent features.
さらに、本開示に係る実施形態は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本開示に係る実施形態は、本開示に記載された全ての新規な特徴、又は、それらの組合せ、あるいは記載された全ての新規な方法、又は、処理のステップ、又は、それらの組合せに拡張することができる。 Furthermore, the embodiments of the present disclosure are not limited to the specific configurations of any of the embodiments described above. The embodiments of the present disclosure may extend to any novel feature or combination of features described herein, or any novel method or process step or combination of features described herein.
本開示に係るロボット制御システム1及び教示データ生成装置10は、工業製品の生産現場、食材を扱う食品加工の現場、又は、化粧品若しくは医薬品を製造する現場に展開され得る。
The robot control system 1 and teaching
一実施形態において、(1)学習データ生成装置は、ロボットの模倣学習の学習データを生成する。前記学習データ生成装置は、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部とを備える。 In one embodiment, (1) a learning data generation device generates learning data for imitation learning of a robot. The learning data generation device includes an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information, and a generation unit that generates the learning data based on the reaction of the second user and the motion information.
(2)上記(1)に記載の学習データ生成装置において、前記取得部は、前記ロボットを前記第1ユーザが操作したときの、前記ロボットの環境情報又は前記第1ユーザの状態情報の少なくとも一方を取得してよい。前記生成部は、前記環境情報又は前記状態情報に更に基づいて前記学習データを生成してよい。 (2) In the learning data generation device described in (1) above, the acquisition unit may acquire at least one of environmental information of the robot or state information of the first user when the robot is operated by the first user. The generation unit may further generate the learning data based on the environmental information or the state information.
(3)上記(1)又は(2)に記載の学習データ生成装置は、前記第2ユーザの反応を分析する分析部を更に備えてよい。前記分析部は、前記第2ユーザの反応に基づいて、前記動作情報のうち前記学習データに採用できる部分と前記学習データに採用できない部分とを判別してよい。前記生成部は、前記学習データに採用できない部分を変更、置換又は削除することによって前記学習データを生成してよい。 (3) The learning data generation device described in (1) or (2) above may further include an analysis unit that analyzes a reaction of the second user. The analysis unit may determine, based on the reaction of the second user, a portion of the motion information that can be used in the learning data and a portion that cannot be used in the learning data. The generation unit may generate the learning data by modifying, replacing, or deleting the portion that cannot be used in the learning data.
(4)上記(3)に記載の学習データ生成装置において、前記生成部は、前記学習データに採用できない部分を、前記第2ユーザが前記ロボットを操作した場合の前記ロボット30の動作の見本となるリファレンスデータによって置換してよい。
(4) In the learning data generation device described in (3) above, the generation unit may replace a portion of the learning data that cannot be used with reference data that serves as a model of the behavior of the
(5)上記(1)から(4)までのいずれか1つに記載の学習データ生成装置は、前記動作情報をVR環境で前記第2ユーザに視聴させる出力部を更に備えてよい。 (5) The learning data generation device described in any one of (1) to (4) above may further include an output unit that allows the second user to view the motion information in a VR environment.
(6)上記(5)に記載の学習データ生成装置において、前記取得部は、前記第2ユーザの反応として、前記第2ユーザの視線を取得してよい。 (6) In the learning data generation device described in (5) above, the acquisition unit may acquire the second user's gaze as the second user's reaction.
(7)上記(1)から(6)までのいずれか1つに記載の学習データ生成装置において、前記取得部は、前記第2ユーザの反応として、前記第2ユーザの発話を取得してよい。 (7) In the learning data generation device described in any one of (1) to (6) above, the acquisition unit may acquire an utterance of the second user as the reaction of the second user.
一実施形態において、(8)学習データ生成方法は、ロボットの模倣学習の学習データを生成することを含む。前記学習データ生成方法は、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することとを含む。 In one embodiment, (8) the learning data generation method includes generating learning data for imitation learning of a robot. The learning data generation method includes acquiring motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information, and generating the learning data based on the reaction of the second user and the motion information.
一実施形態において、(9)プログラムは、ロボットの動作を学習させる学習データ生成装置を作動させる。前記プログラムは、前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる。 In one embodiment, (9) the program operates a learning data generation device that learns the robot's movements. The program causes the learning data generation device to acquire movement information when a first user operates the robot and a reaction of a second user when the second user recognizes the movement information, and generates the learning data based on the reaction of the second user and the movement information.
1 ロボット制御システム
10 教示データ生成装置(11:制御部、12:記憶部、13:通信部、14:学習部)
20 ロボットコントローラ(21:制御部、22:記憶部、23:入力部)
30 ロボット
40 学習データ生成装置(41:制御部、42:記憶部、43:取得部、44:出力部、45:分析部、46:生成部)
1
20 Robot controller (21: control unit, 22: memory unit, 23: input unit)
30
Claims (9)
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得する取得部と、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成する生成部と
を備える、学習データ生成装置。 A learning data generation device for generating learning data for imitation learning of a robot, comprising:
an acquisition unit that acquires motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A learning data generation device comprising: a generation unit that generates the learning data based on a reaction of the second user and the action information.
前記生成部は、前記環境情報又は前記状態情報に更に基づいて前記学習データを生成する、請求項1に記載の学習データ生成装置。 The acquisition unit acquires at least one of environmental information of the robot and state information of the first user when the robot is operated by the first user,
The training data generating device according to claim 1 , wherein the generating unit generates the training data further based on the environmental information or the state information.
前記分析部は、前記第2ユーザの反応に基づいて、前記動作情報のうち前記学習データに採用できる部分と前記学習データに採用できない部分とを判別し、
前記生成部は、前記学習データに採用できない部分を変更、置換又は削除することによって前記学習データを生成する、請求項1に記載の学習データ生成装置。 An analysis unit that analyzes a reaction of the second user is further provided,
The analysis unit determines, based on a response of the second user, a portion of the motion information that can be adopted in the learning data and a portion that cannot be adopted in the learning data;
The training data generation device according to claim 1 , wherein the generation unit generates the training data by modifying, replacing, or deleting a portion that cannot be used in the training data.
前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得することと、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成することと
を含む、学習データ生成方法。 A learning data generation method for generating learning data for imitation learning of a robot, comprising the steps of:
acquiring operation information when a first user operates the robot and a reaction of a second user when the second user recognizes the operation information;
A learning data generating method comprising: generating the learning data based on a reaction of the second user and the motion information.
前記学習データ生成装置に、前記ロボットを第1ユーザが操作したときの動作情報と、第2ユーザが前記動作情報を認識したときの反応とを取得させ、
前記第2ユーザの反応と前記動作情報とに基づいて前記学習データを生成させる、プログラム。 A program for operating a learning data generation device for learning a robot's movements, comprising:
causing the learning data generation device to acquire motion information when a first user operates the robot and a reaction of a second user when the second user recognizes the motion information;
A program that generates the learning data based on the reaction of the second user and the motion information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023170584A JP2025060080A (en) | 2023-09-29 | 2023-09-29 | Training data generation device, training data generation method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023170584A JP2025060080A (en) | 2023-09-29 | 2023-09-29 | Training data generation device, training data generation method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025060080A true JP2025060080A (en) | 2025-04-10 |
Family
ID=95289650
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023170584A Pending JP2025060080A (en) | 2023-09-29 | 2023-09-29 | Training data generation device, training data generation method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025060080A (en) |
-
2023
- 2023-09-29 JP JP2023170584A patent/JP2025060080A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9387589B2 (en) | Visual debugging of robotic tasks | |
| JP7427113B2 (en) | Robot demonstration learning skills template | |
| JP6314134B2 (en) | User interface for robot training | |
| EP2224303B1 (en) | Robot with automatic selection of task-specific representations for imitation learning | |
| WO2022211403A1 (en) | Hybrid robotic motion planning system using machine learning and parametric trajectories | |
| JP2020104216A (en) | Robot controller, robot system, and robot control method | |
| CN111527461A (en) | Information processing apparatus, information processing method, and program | |
| US10960540B2 (en) | Robot orchestration architecture | |
| JP2024023927A (en) | Robot control device, robot control method, terminal device, terminal control method, and robot control system | |
| Bonaiuto et al. | Tele-operation of robot teams: a comparison of gamepad-, mobile device and hand tracking-based user interfaces | |
| JP7487338B2 (en) | Distributed Robot Demonstration Learning | |
| US20240066694A1 (en) | Robot control system, robot control method, and robot control program | |
| US11571810B2 (en) | Arithmetic device, control program, machine learner, grasping apparatus, and control method | |
| JP2025060080A (en) | Training data generation device, training data generation method, and program | |
| US20240408757A1 (en) | Human-in-loop robot training and testing system with generative artificial intelligence (ai) | |
| CN112757273A (en) | Method, system and device for editing and visualizing track of mechanical arm and storage medium | |
| JP7506180B2 (en) | Teaching support device, work system, teaching support method, and teaching support program | |
| WO2024253174A1 (en) | Teaching data generation device, robot controller, robot control system, and teaching data generation method | |
| US20210247758A1 (en) | Teleoperation with a wearable sensor system | |
| RU2813444C1 (en) | Mixed reality human-robot interaction system | |
| US20250319601A1 (en) | Systems, Computer Program Products, and Methods for Controlling Robots | |
| Li | Learning Algorithm Design for Human-Robot Skill Transfer | |
| JP2024175376A (en) | Information processing device, information processing method, robot system, article manufacturing method, program, and recording medium | |
| JP2025093156A (en) | Operation command generation device | |
| Gorjup | On Human to Robot Skill Transfer for Robust Grasping and Dexterous Manipulation |