JP2024072051A - Movement modification system, movement modification method, and working robot - Google Patents
Movement modification system, movement modification method, and working robot Download PDFInfo
- Publication number
- JP2024072051A JP2024072051A JP2022182641A JP2022182641A JP2024072051A JP 2024072051 A JP2024072051 A JP 2024072051A JP 2022182641 A JP2022182641 A JP 2022182641A JP 2022182641 A JP2022182641 A JP 2022182641A JP 2024072051 A JP2024072051 A JP 2024072051A
- Authority
- JP
- Japan
- Prior art keywords
- model
- robot
- behavior
- standard
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、動作改変システム、動作改変方法及び作業ロボットに関する。 The present invention relates to a motion modification system, a motion modification method, and a work robot.
近年、例えば工場でのライン作業など、人による作業を作業ロボットに行わせる技術が検討されている。例えば、特許文献1には、作業員ごとの収集データの傾向に応じた作業員ごとの最適な学習モデルを生成する学習モデル生成方法が開示されている。生成された学習モデルは、作業員の代替として、あるいは作業員と共同して作業する作業ロボットの作動に活用することができる。 In recent years, technology has been developed to allow work robots to perform tasks performed by humans, such as line work in factories. For example, Patent Literature 1 discloses a learning model generation method that generates an optimal learning model for each worker according to the tendencies of the collected data for each worker. The generated learning model can be used to operate a work robot that replaces a worker or works in collaboration with a worker.
作業員の作業は、肉体的な能力の限界から、その作業速度を速めるにも一定の限界がある。そのため、作業員の所定動作が学習された学習モデルをそのまま作業ロボットに行わせたのでは、作業ロボットが効率的に作業を行えない場合がある。 Due to limitations in the physical abilities of workers, there is a certain limit to how fast they can work. For this reason, if a work robot were to simply use a learning model that has learned the specific movements of a worker, the work robot might not be able to perform the work efficiently.
そこで、本発明は、作業員の作業が学習された学習モデルを用いて作業する作業ロボットにおいて、作業ロボットが効率的に作業することを可能とする動作改変システム、動作改変方法及び作業ロボットを提供することを目的とする。 The present invention aims to provide a behavior modification system, a behavior modification method, and a work robot that enables a work robot to work efficiently using a learning model that has learned the work of a worker.
本発明に係る動作改変システムは、作業ロボットと、センサと、前記作業ロボット及び前記センサと通信可能な管理制御装置と、を備え、前記管理制御装置は、前記センサを用いて取得した前記センシング対象の所定動作に対応するセンシング情報に基づいて、前記センシング対象の所定動作に対応した標準動作モデルを学習する学習部と、前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成するモデル生成部と、前記改変動作モデルを参照して前記作業ロボットを作動させる制御部と、を備える、ことを特徴とする。 The behavior modification system according to the present invention comprises a work robot, a sensor, and a management control device capable of communicating with the work robot and the sensor. The management control device comprises a learning unit that learns a standard behavior model corresponding to a predetermined motion of the sensing target based on sensing information corresponding to the predetermined motion of the sensing target acquired using the sensor, a model generation unit that references the standard behavior model and generates a modified behavior model in which the execution time of each motion in the standard behavior model is set shorter than the time required for each motion when the standard behavior model was generated, and a control unit that operates the work robot by referring to the modified behavior model.
また、本発明に係る動作改変システムは、作業ロボットと、複数の異なるセンシング対象をそれぞれセンシングするための複数のセンサと、前記作業ロボット及び前記複数のセンサと通信可能な管理制御装置と、を備え、前記管理制御装置は、前記複数のセンサを用いて取得した前記複数のセンシング対象の所定動作に対応する複数のセンシング情報に基づいて、前記複数のセンシング対象の各所定動作、及び前記複数のセンシング対象の各所定動作に対応した複数の標準動作モデルを学習する学習部と、前記複数の標準動作モデルを参照して、前記複数のセンシング対象による所定動作の少なくとも一部を統合した改変動作モデルを生成するモデル生成部と、前記改変動作モデルを参照して前記作業ロボットを作動させる制御部と、を備える、ことを特徴とする。 The behavior modification system according to the present invention comprises a work robot, a plurality of sensors for sensing a plurality of different sensing targets, and a management control device capable of communicating with the work robot and the plurality of sensors. The management control device comprises a learning unit that learns each of the predetermined behaviors of the plurality of sensing targets and a plurality of standard behavior models corresponding to each of the predetermined behaviors of the plurality of sensing targets based on a plurality of sensing information corresponding to the predetermined behaviors of the plurality of sensing targets obtained using the plurality of sensors, a model generation unit that generates a modified behavior model that integrates at least a portion of the predetermined behaviors of the plurality of sensing targets by referring to the plurality of standard behavior models, and a control unit that operates the work robot by referring to the modified behavior model.
また、本発明に係る動作改変方法は、センサを用いて取得したセンシング対象の所定動作に対応するセンシング情報に基づいて、前記センシング対象の所定動作に対応した標準動作モデルを学習し、前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成し、前記改変動作モデルを参照して前記作業ロボットを作動させる、ことを特徴とする。 The movement modification method according to the present invention is characterized in that it learns a standard movement model corresponding to a predetermined movement of a sensing target based on sensing information corresponding to the predetermined movement of the sensing target obtained using a sensor, generates a modified movement model by referring to the standard movement model in which the execution time of each movement in the standard movement model is set shorter than the time required for each movement when the standard movement model was generated, and operates the work robot by referring to the modified movement model.
また、本発明に係る作業ロボットは、 前記作業ロボットを動作させるための駆動機構と、センサを用いて取得したセンシング対象の所定動作に対応するセンシング情報に基づいて、前記センシング対象の所定動作に対応した標準動作モデルを学習する学習部と、前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成するモデル生成部と、前記改変動作モデルを参照して前記駆動機構を制御させる作業ロボットを作動させる制御部と、を有することを特徴とする。 The working robot according to the present invention is characterized by having a drive mechanism for operating the working robot, a learning unit that learns a standard motion model corresponding to a predetermined motion of a sensing target based on sensing information corresponding to the predetermined motion of the sensing target obtained using a sensor, a model generation unit that references the standard motion model and generates a modified motion model in which the execution time of each motion in the standard motion model is set shorter than the time required for each motion when the standard motion model was generated, and a control unit that operates the working robot to control the drive mechanism by reference to the modified motion model.
本発明によれば、作業員の作業が学習された学習モデルを用いて作業する作業ロボットにおいて、作業ロボットが効率的に作業することを可能とする動作改変方法及び作業ロボットが提供される。 The present invention provides a method for modifying the behavior of a work robot that performs work using a learning model that has learned the work of a worker, and a work robot that enables the work robot to perform work efficiently.
以下、図面を参照して、動作改変システム、動作改変方法及び作業ロボットについて説明する。ただし、本発明の技術的範囲はそれらの実施の形態には限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 The movement modification system, movement modification method, and working robot will be described below with reference to the drawings. However, please note that the technical scope of the present invention is not limited to these embodiments, but extends to the inventions described in the claims and their equivalents.
(実施形態1)
図1は、動作改変システムを説明するための図である。
(Embodiment 1)
FIG. 1 is a diagram for explaining the operation modification system.
図1(a)は、本発明に係る実施形態1の動作改変システムでの、システム構成の一例を示す図である。本動作改変システムでは、作業ロボットとして機能する第1人型ロボット20a及び第2人型ロボット20bと、移動式ロボットとして機能する第3人型ロボット20cとを備える。なお、人型ロボットの数はこれに限定されない。
Figure 1 (a) is a diagram showing an example of the system configuration of a behavior modification system according to a first embodiment of the present invention. This behavior modification system comprises a first
各人型ロボット20a~cは、後述する管理制御装置60(図3参照)からの指示を受け、又は各人型ロボット20a~cに設けられた各情報処理装置からの指示により、作業場200の作業ライン201で作業する作業員400の付近に移動する。そして、本動作改変システムは、第3人型ロボット20cに備えられた第3ロボット用センサ23c(第3ロボット用撮像装置24c)により、作業員400の所定動作をセンシングする。所定動作は多岐にわたり、例えば部品の組付けや部品の移動、製品の塗装、作業員自身の移動等が挙げられる。なお、作業員400のセンシングにあたっては、既知の画像認識技術を用いてもよいし、学習部663(図4参照)による学習によって作業員400やその所定動作を認識してもよい。
Each
本動作改変システムは、第3ロボット用センサ23c(第3ロボット用撮像装置24c)を用いて取得した、作業員400の所定動作に対応するセンシング情報に基づいて、作業員400の所定動作に対応した標準動作モデルを学習する。標準動作モデルは、作業員400の作業項目の内容、言い換えると作業項目において指定された各動作の集合を表すモデルである。そして、本動作改変システムは、標準動作モデルを参照して、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成する。
This movement modification system learns a standard movement model corresponding to a specific movement of the
本動作改変システムは、管理制御装置60からの指示、又は各人型ロボットに設けられた情報処理装置からの指示により、作業ロボットとして機能する第1人型ロボット20a及び第2人型ロボット20bを作動させる。この際、本動作改変システムは、改変動作モデルを参照する。
This behavior modification system operates the first
本動作改変システムは、各動作の実行時間が短く設定された改変動作モデルを参照して第1人型ロボット20a及び第2人型ロボット20bを作動させることにより、各人型ロボットの作業効率を向上させることができる。一例として、作業場200の1つの作業ライン201で、6名の作業員がいて、もともとは1時間当たり100個の製品を完成させていた場合、当該ライン201に6台の人型ロボットを配置させたうえで、標準動作モデルの10倍の速度で作動させる。言い換えると、本動作改変システムは、標準動作モデルにおける動作の10分の1の実行時間で動作するよう設定された動作改変モデルを参照して各人型ロボットを作動させる。これにより、1時間当たり1000個の製品を完成させることを可能とする。
This behavior modification system can improve the work efficiency of each humanoid robot by operating the first
なお、本動作改変システムにおいて、作業用ロボットとして機能する第1人型ロボット20a及び第2人型ロボット20bは、それぞれに備えられた第1ロボット用センサ23a(第1ロボット用撮像装置24a)及び第2ロボット用センサ23b(第2ロボット用撮像装置24b)を用いて、各々のロボット動作をセンシングしてもよい。
In addition, in this behavior modification system, the first
一例として、第1人型ロボット20aは、管理制御装置60からの指示を受け、又は第1情報処理装置25aの指示により、第1ロボット用センサ23a(第1ロボット用撮像装置24a)のセンシング領域230a(撮像領域240a)が第1人型ロボット20aの第1把持部265a、266aを対象とするよう、第1胴体/頭部駆動機構21a(図3参照)を作動させる。同様に、第2人型ロボット20bも、第2ロボット用センサ23b(第2ロボット用撮像装置24b)のセンシング領域230b(撮像領域240b)が第2人型ロボット20bの第2把持部265b、266bを対象とするよう、第2胴体/頭部駆動機構を作動させる。これにより、各人型ロボットのロボット動作が、改変動作モデルを参照したロボット動作となっているか否かを確認することが可能となる。
As an example, the first
図1(b)は、(a)に示す人型ロボットの一例を示す図である。作業ロボット及び移動式ロボットとして機能する人型ロボット20は、ロボット本体21と、ロボット移動機構22と、ロボット用センサ23と、ロボット用センサ23に含まれるロボット用撮像装置24と、情報処理装置25と、ロボット腕部26と、を備える。
Figure 1 (b) is a diagram showing an example of the humanoid robot shown in (a). The
人型ロボット20は、ロボット本体21の下方に設けられたロボット移動機構22により移動することが可能であり、例えば管理制御装置60といった人型ロボット20の外部から指示を受けて、あるいは情報処理装置25に記憶されたプログラムを参照して、作業場200の作業ライン201付近に移動する。
The
ロボット本体21は、ロボット胴体211と、ロボット頭部212とを備える。ロボット胴体211とロボット頭部212とは、胴体/頭部駆動機構を構成し、ロボット用センサ23(ロボット用撮像装置24)のセンシング領域230(撮像領域240)を変更することが可能である。駆動機構の構成は特に限定されず、例えば図示しないサーボモータにより、ロボット頭部212がロボット胴体211に対して所定角度回転したり、ロボット胴体211がロボット移動機構22に対して所定角度回転したりする構成であってもよい。
The robot
ロボット胴体211の下方にはロボット移動機構22、ロボット胴体211の側方にはロボット腕部26、ロボット頭部212にはロボット用センサ23がそれぞれ設けられている。また、ロボット本体21の内部には、情報処理装置25が設けられている。
A
ロボット移動機構22は、任意の構成でよく、例えばモーターで駆動する回転体を設けたものでもよいし、脚部として人の脚に形状を似せた構成であってもよい。一例として、ロボット移動機構22を人の脚の形状に似せた構成にする場合、人の関節に相当する箇所にサーボモータを設けて、所定角度回転させることで移動機構を構成する。
The
ロボット用センサ23は、好ましくはロボット頭部212に設けられ、作業員400、他の作業ロボット、あるいは人型ロボット20のロボット動作、好ましくはロボット腕部26のロボット動作、さらに好ましくは把持部255、256のロボット動作をセンシングする。また、ロボット用センサ23は、人型ロボット20の周辺にある、人型ロボット20が作業する物体とロボット腕部26との距離及び角度を少なくとも表す情報を逐次取得する。ロボット用センサ23の一例としては、最高性能のカメラ、サーモカメラ、高画素・望遠・超広角・360度・高性能カメラ、レーダー、ソリッドステートLiDAR、LiDAR、マルチカラーレーザ同軸変位計、ビジョン認識、又はその他様々なセンサ群が採用され得る。これらは、ロボット用撮像装置24の一例でもある。また他には、ロボット用センサ23の他の一例としては、振動計、硬度計、微小振動計、超音波測定器、振動測定器、赤外線測定器、紫外線測定器、電磁波測定器、温度計、湿度計、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。
The
ロボット用センサ23から取得するセンシング情報の一例としては、画像、距離、振動、熱、匂い、色、音、超音波、電波、紫外線、赤外線、湿度等が挙げられ、好ましくはロボット用撮像装置24により、画像、距離の情報が取得される。ロボット用センサ23(ロボット用撮像装置24)は、これらのセンシングを、一例としてナノ秒毎に実施する。センシング情報は、例えば、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析に用いられる。
Examples of sensing information acquired from the
ロボット腕部26は、右腕部261と左腕部262とを備える。また、右腕部261は、右把持支持部263及び右把持部265を、左腕部262は、左把持支持部264及び左把持部266を、それぞれ備える。右把持支持部263は右把持部265を、左把持支持部264は左把持部266を、それぞれ支持するための機構であり、一例としては人の腕に形状を似せたものであってもよい。把持部265、266は、例えば作業用の部品等を把持するための機構であり、一例としては人の手の形状に似せたものであってもよい。
The
ロボット腕部26は、腕部駆動機構を構成する。駆動機構の構成は特に限定されず、例えば、ロボット腕部26を人の形状に似せる場合、サーボモータを、人の肩に相当する箇所、肘に相当する箇所、手首に相当する箇所、指関節に相当する箇所等の各関節箇所に設け、所定角度回転させる構成を採用してもよい。
The
なお、人型ロボット20は、例えばロボット胴体部211にセンサをさらに設けてもよい(図7(b)参照)。この場合、当該センサは、ロボット頭部212に設けられたロボット用センサ23とは、その高さ位置が異なる。高さ位置が異なることで、センサは作業員400の動作を異なる角度からセンシングすることができる。
The
図2は、本動作改変システムでの、標準動作モデルと動作改変モデルとの関係の一例を示す図である。 Figure 2 shows an example of the relationship between the standard behavior model and the behavior modification model in this behavior modification system.
標準動作モデルは、前述のとおり、作業項目において指定された各動作の集合を表すモデルであり、複数の動作を備える。一例として、作業項目で指定された動作が合計で26個あり、各動作を、動作A、動作B、動作C~動作Zとする。 As mentioned above, the standard action model is a model that represents a set of actions specified in a work item, and includes multiple actions. As an example, there are a total of 26 actions specified in the work item, and the actions are designated as action A, action B, action C, and action Z.
これに対し、動作改変モデルは、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定したモデルである。例えば、標準動作モデルにおける各動作の所要時間として、動作AにTA秒、動作BにTB秒掛かっていたとする。この場合、動作改変モデルでは、同じ動作Aに対してTA秒より短いtA秒、動作Bに対してTB秒より短いtB秒を実行時間として設定する。動作Cから動作Zについても同様である。これにより、動作改変モデルを用いて作業ロボットを実行した場合の実行時間は、標準動作モデルを用いて作業ロボットを実行した場合よりも短くすることができる。 In contrast, the movement modification model is a model in which the execution time of each movement in the standard movement model is set shorter than the time required for each movement when the standard movement model was generated. For example, assume that the required times for each movement in the standard movement model are T A seconds for movement A and T B seconds for movement B. In this case, the movement modification model sets the execution time for movement A to t A seconds, which is shorter than T A seconds , and for movement B to t B seconds, which is shorter than T B seconds. The same applies to movements C to Z. This makes it possible to shorten the execution time when a work robot is executed using the movement modification model than when the work robot is executed using the standard movement model.
なお、動作改変モデルでは、少なくとも一つの動作につき、その動作の実行時間を標準動作モデルにおける動作の所要時間未満にすればよく、標準動作モデルに含まれる全ての各動作につき、その実行時間を標準動作モデルにおける動作の所要時間未満としなくてもよい。言い換えると、少なくとも一つの動作につき、その動作の実行時間を標準動作モデルにおける動作の所要時間未満にすれば、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定したこととなる。 In addition, in the behavior modification model, it is sufficient that the execution time of at least one behavior is less than the time required for that behavior in the standard behavior model, and it is not necessary that the execution time of all of the behaviors included in the standard behavior model is less than the time required for that behavior in the standard behavior model. In other words, if the execution time of at least one behavior is less than the time required for that behavior in the standard behavior model, then the execution time of each behavior in the standard behavior model will be set shorter than the time required for each behavior when the standard behavior model was generated.
図3は、本実施形態の動作改変システム100での、構成及び機能の一例を示すブロック図である。
Figure 3 is a block diagram showing an example of the configuration and functions of the
動作改変システム100は、第1人型ロボット20aと、第2人型ロボット20bと、第3人型ロボット20cと、管理制御装置60と、を含んで構成されている。第1人型ロボット20a、第2人型ロボット20b及び第3人型ロボット20cは、管理制御装置60の通信部64と、各々無線又は有線通信を介して接続され、管理制御装置60からの指示を受けると共に、各センサにより取得される情報を送信する。なお、各人型ロボット20a~c同士も、無線又は有線通信を介して接続され、各センサにより取得される情報や指示を送受信してもよい。
The
作業ロボットとして機能する第1人型ロボット20aは、第1胴体/頭部駆動機構21aと、第1ロボット移動機構22aと、第1ロボット用センサ23aと、第1ロボット用センサ23aに含まれる第1ロボット用撮像装置24aと、第1情報処理装置25aと、第1腕部駆動機構26aと、を備える。本実施形態では、作業ロボットとして機能する第2人型ロボット20b及び移動式ロボットとして機能する第3人型ロボット20cも、その構成は第1人型ロボット20aと同一である。
The first
本実施形態による第1情報処理装置25aは、CPU(Central Processing Unit)1212、RAM(Random Access Memory)1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。第1情報処理装置25aはまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。第1情報処理装置25aはまた、ROM(Read Only Memory)1230及びキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The first
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、第1情報処理装置25a内のCPU1212によって使用されるプログラム及びデータを格納する。また、記憶装置1224は、センシング情報を記憶してもよい。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
The
ROM1230はその中に、アクティブ化時に第1情報処理装置25aによって実行されるブートプログラム等、及び/又は第1情報処理装置25aのハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
The
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、第1情報処理装置25aに読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、第1情報処理装置25aの使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card. The programs are read from the computer-readable storage medium, installed in the
例えば、通信が第1情報処理装置25a及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between the first
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
The
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。
Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium and undergo information processing.
上で説明したプログラム又はソフトウエアモジュールは、第1情報処理装置25a上又は第1情報処理装置25a近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介して第1情報処理装置25aに提供する。
The above-described program or software module may be stored in a computer-readable storage medium on the first
本実施形態におけるフローチャート及び図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, etc., so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or the programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
ここまで説明してきた内容は、第2人型ロボット20b及び第3人型ロボット20cのそれぞれに備えられた各情報処理装置についても同様である。
The contents described so far also apply to each information processing device provided in the second
管理制御装置60は、動作改変システム100を実現するため、各人型ロボット20a~cに対して指示を与える制御装置である。また、管理制御装置60は、各情報処理装置の記憶装置に蓄積されたセンシング情報を取得する。
The
管理制御装置60は、CPU60A、RAM60B、ROM60C、入出力部(I/O)60D、及びこれらを接続するデータバスやコントロールバス等のバス60E、並びに通信部64で構成されている。I/O60Dには、記憶媒体62が接続されている。
The
また、I/O60Dには、人型ロボット20の制御系との間でセンシング情報や作業マニュアル情報、工程表情報等を送受信する通信部64が接続されている。作業マニュアル情報には、例えば各作業項目の名称及び内容、作業項目の順序、各作業項目に要する標準的な作業時間の情報等が含まれる。また、工程表情報には、例えば作業全体の作業時間や開始時刻/終了時刻を示す情報、各作業項目の作業時間や開始時刻/終了時刻を示す情報、各作業項目の作業員を示す情報等が含まれる。
A
図4は、本実施形態の動作改変システムでの、管理制御装置60の機能の一例を示すブロック図である。
Figure 4 is a block diagram showing an example of the functions of the
管理制御装置60は、記憶媒体62と、通信部64と、処理部66とを備える。
The
記憶媒体62は、例えば、半導体記憶装置、磁気テープ装置、磁気ディスク装置、又は光ディスク装置のうちの少なくとも一つを備える。記憶媒体62は、処理部66での処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶媒体62は、センシング情報を記憶する。また、記憶媒体62は、作業員400の作業マニュアル情報及び/又は工程表情報を記憶する。
The
通信部64は、Wi-Fi(登録商標)等の無線の通信インタフェース回路及び/又はイーサネット(登録商標)等の有線の通信インタフェース回路を有する。通信部64は、人型ロボット20a、20bと、インタフェース回路を通じて各種情報を送受信する。
The
処理部66は、一又は複数個のプロセッサ及びその周辺回路を有する。処理部66は、動作改変システム100の全体的な動作を統括的に制御するものであり、例えば、CPUである。処理部66は、記憶媒体62に記憶されているプログラム(ドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム等)を参照して処理を実行する。また、処理部66は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。
The
処理部66は、判定部661と、制御部662と、学習部663と、モデル生成部664と、を備える。これらの各部は、処理部66が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、ファームウェアとして処理部66に実装されてもよい。
The
判定部661は、センシング対象が複数あり、かつセンシングするセンサが複数ある場合に、複数のセンサがそれぞれ異なるセンシング対象をセンシングしているか否かを判定する。当該判定にあたっては、既知の画像認識技術を用いてもよいし、学習部663による学習を参照する方法であってもよい。
When there are multiple sensing targets and multiple sensors that sense the targets, the
制御部662は、モデル生成部664により生成された改変動作モデルを参照して、作業ロボットとして機能する第1人型ロボット20a及び/又は第2人型ロボット20bを作動させる。好ましくは、制御部662は、改変動作モデルを参照して、各人型ロボットのロボット移動機構、胴体/頭部駆動機構及び/又は腕部駆動機構を作動させる。
The
学習部663は、第3ロボット用センサ23c(第3ロボット用撮像装置24c)を用いて取得した、作業員400の所定動作に対応するセンシング情報に基づいて、作業員400の所定動作に対応した標準動作モデルを学習する。この学習は、例えば、学習済みモデルを自動的に作成したり、学習済みモデルを使用して判定/解析を自動的に行ったりする学習である自動学習により行われる。なお、学習部663は、標準動作モデルを生成する際、作業マニュアル情報及び/又は工程表情報を参照してもよい。これにより、作業員400の所定動作に不適切なものがあっても、その所定動作は反映させず、適切な動作(作業)を各人型ロボット20に行わせることが可能となる。
The
モデル生成部664は、標準動作モデルを参照して、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成する。
The
(本発明に係る実施形態1の動作改変システムの処理)
図5は、本実施形態の動作改変システムの処理を示すフローチャートの一例である。
(Processing of the behavior modification system according to the first embodiment of the present invention)
FIG. 5 is an example of a flowchart showing the processing of the operation modification system of this embodiment.
まず、管理制御装置60の指示により、あるいは記憶媒体62又は第3人型ロボット20cの第3情報処理装置の記憶装置に記憶されたプログラムの読み出し指示により、第3人型ロボット20cの第3情報処理装置は、移動式ロボットとして機能する第3人型ロボット20cを作業場200に移動するよう指示する(ステップS101)。移動は、人型ロボット20cの第3ロボット移動機構の作動による。なお、作業ロボットとして機能する人型ロボット20a、20bについても、この際に移動指示を与えてもよい。
First, in response to an instruction from the
移動に際しては、第3人型ロボット20cの第3ロボット用センサ23c(第3ロボット用撮像装置24c)のセンシング領域230c(撮像領域240c)が作業員400を対象とするよう、指示が与えられる。このような第3人型ロボット20cの配置は、例えば予め作業場200のフロア図面を第3人型ロボット20cの記憶装置及び/又は記憶媒体62に記憶させ、第3人型ロボット20cの位置を、当該記憶されたフロア図面に対応付けることにより行われる。あるいは、第3人型ロボット20cの配置は、機械学習を通じて最適化された位置に基づいてもよい。同様のことは、第1人型ロボット20a及び第2人型ロボット20bの配置についても当てはまる。
When moving, an instruction is given so that the
次に、第3ロボット用センサ23c(第3ロボット用撮像装置24c)により、作業員400の作業ライン201での所定動作がセンシングされる(ステップS102)。本実施形態では、制御部662は、第3ロボット用センサ23c(第3ロボット用撮像装置24c)のセンシング領域230c(撮像領域240c)が作業員400を対象とするよう指示を与え、第3人型ロボット20cの第3ロボット移動機構や各駆動機構が作動する。
Next, the
第3ロボット用センサ23c(第3ロボット用撮像装置24c)により取得されるセンシング情報は、第3人型ロボット20cの記憶装置及び/又は通信部64を介して記憶媒体62に記憶される。各人型ロボットの記憶装置及び記憶媒体62は、記憶部として機能する。
The sensing information acquired by the
管理制御装置60は、記憶部に蓄積された、言い換えると記憶されたセンシング情報に基づいて作業員400の所定動作に対応した標準動作モデルを学習し、標準動作モデルを参照して、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成する(ステップS103)。一例として、標準動作モデルにおける動作の一つの所要時間が10秒であった場合、改変動作モデルでは、当該動作の実行時間が5秒として設定される。
The
制御部662は、生成された改変動作モデルを参照して、作業ロボットとして機能する第1人型ロボット20a及び第2人型ロボット20bを作動させる(ステップS104)。生成された改変動作モデルを参照することにより、第1人型ロボット20a及び第2人型ロボット20bは、作業員400の作業(所定動作)を、その所定動作より早く行うことが可能となる。例えば、先に示した一例によれば、改変動作モデルでは、標準動作モデルにおける動作の半分の実行時間で動作するよう設定されているので、各人型ロボット20は作業員400の所定動作の2倍速で作業を行うことができる。
The
図6は、図5のステップS103で示される改変動作モデル処理の、より詳細な処理を示すフローチャートの一例である。 Figure 6 is an example of a flowchart showing more detailed processing of the modified motion model processing shown in step S103 of Figure 5.
センシング情報は記憶部に記憶されるところ(ステップS201)、学習部663は、第3ロボット用センサ23c(第3撮像装置24c)を用いて取得した作業員400の所定動作に対応するセンシング情報に基づいて、作業員400の所定動作に対応した標準動作モデルを学習する(ステップS202)。
The sensing information is stored in the memory unit (step S201), and the
学習部663は、学習結果に基づき標準動作モデルを生成する(ステップS203)。なお、学習部663は、標準動作モデル生成の際に、作業員400の作業マニュアル情報及び/又は工程表情報を参照してもよい。
The
モデル生成部664は、標準動作モデルを参照して、改変動作モデルを生成する(ステップS204)。改変動作モデルは、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定したモデルであることから、改変動作モデルを参照して作動される各人型ロボット20a、20bのロボット動作は、標準動作モデルを参照して作動される同ロボットのロボット動作よりも早い動作となる。
The
(実施形態1に係る動作改変システムの作用効果)
本実施形態に係る動作改変システム100によれば、標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを参照して作業ロボットを作動させることができるため、作業ロボットに効率的に作業させることを可能とする。
(Effects of the behavior modification system according to the first embodiment)
According to the
また、本実施形態に係る動作改変システム100によれば、標準動作モデル生成の際に、作業マニュアル情報及び/又は工程表情報が参照された上で、標準動作モデルが生成される。作業員400は、いつでも作業に忠実な動作をするとは限らず、場合によっては無駄な動作をしたり、あるいは必要な動作を省いたりすることもある。そこで、作業マニュアル情報と工程表情報とを参照することで、作業員400による不要ないしは不適切な所定動作が標準動作モデルに反映されることを抑制することができる。
Furthermore, according to the
(実施形態1の変形例1)
図7は、本実施形態の変形例1に係る動作改変システムの一例を示す図である。
(First Modification of First Embodiment)
FIG. 7 is a diagram showing an example of an operation modification system according to the first modification of the present embodiment.
図7(a)本発明に係る実施形態1の変形例1に係る動作改変システムでの、システム構成の一例を示す図である。本動作改変システムでは、複数のセンシング対象(作業員400a、400b)の各所定動作をセンシングし、学習する点が特徴の一つとなっている。また、移動式ロボット兼作業ロボットとして機能する人型ロボット20'に、胴体センサ23''(胴体撮像装置24'')が設けられている点も特徴となっている。加えて、本動作改変システムでは、管理制御装置60は必ずしも必要ではなく、人型ロボット20'単体で動作改変システムを構成することができる。
Figure 7 (a) is a diagram showing an example of the system configuration of a movement modification system according to Variation 1 of the first embodiment of the present invention. One of the features of this movement modification system is that it senses and learns each of the predetermined movements of multiple sensing targets (
図7(b)は、図7(a)に示す人型ロボットの一例を示す図である。移動式兼作業ロボットとして機能する人型ロボット20'は、ロボット本体21'と、ロボット移動機構22'と、頭部センサ23'と、頭部センサ23'に含まれる頭部撮像装置24'と、胴体センサ23''と、胴体センサ23''に含まれる胴体撮像装置24''と、情報処理装置25'と、ロボット腕部26'と、を備える。 Figure 7(b) is a diagram showing an example of the humanoid robot shown in Figure 7(a). The humanoid robot 20', which functions as a mobile and working robot, comprises a robot main body 21', a robot movement mechanism 22', a head sensor 23', a head image capture device 24' included in the head sensor 23', a body sensor 23'', a body image capture device 24'' included in the body sensor 23'', an information processing device 25', and a robot arm 26'.
ロボット本体21'は、ロボット胴体211'と、ロボット頭部212'とを備える。ロボット胴体211'とロボット頭部212'とは、胴体/頭部駆動機構21'(図8参照)を構成し、頭部センサ23'(頭部撮像装置24')のセンシング領域230'(撮像領域240')及び胴体センサ23''(胴体撮像装置24'')のセンシング領域230''(撮像領域240'')を変更することが可能である。 The robot main body 21' comprises a robot torso 211' and a robot head 212'. The robot torso 211' and the robot head 212' constitute a torso/head drive mechanism 21' (see FIG. 8), and are capable of changing the sensing area 230' (imaging area 240') of the head sensor 23' (head imaging device 24') and the sensing area 230'' (imaging area 240'') of the torso sensor 23'' (torso imaging device 24'').
頭部センサ23'(頭部撮像装置24')と胴体センサ23''(胴体撮像装置24'')とは、高さ位置が異なる箇所に配置されることから、胴体センサ23''(胴体撮像装置24'')は、頭部センサ23'(頭部撮像装置24')と異なる位置から各センシング対象(作業員400a、400b)の所定動作をセンシングすることとなる。
The head sensor 23' (head imaging device 24') and the torso sensor 23'' (torso imaging device 24'') are positioned at different height positions, so the torso sensor 23'' (torso imaging device 24'') senses the specified movements of each sensing target (
図8は、本動作改変システムでの、人型ロボットの機能の一例を示すブロック図である。動作改変システム100'では、情報処理装置25'は、情報処理部66'と、通信インタフェース1222'と、記憶装置1224'とを備え、情報処理部66'は、判定部661'と、制御部662'と、学習部663'と、モデル生成部664'と、を備える。すなわち、動作改変システム100'では、情報処理部66'が管理制御装置60の処理部66と同様の処理を行う。なお、情報処理装置25'は、頭部センサ23'(頭部撮像装置24')、胴体センサ23''(頭部撮像装置24'')、胴体/頭部駆動機構21'、ロボット移動機構22'、及び腕部駆動機構26'と通信可能に構成されている。
Figure 8 is a block diagram showing an example of the functions of a humanoid robot in this movement modification system. In the movement modification system 100', the information processing device 25' includes an information processing unit 66', a communication interface 1222', and a storage device 1224', and the information processing unit 66' includes a determination unit 661', a control unit 662', a learning unit 663', and a model generation unit 664'. That is, in the movement modification system 100', the information processing unit 66' performs the same processing as the
動作改変システム100'の人型ロボット20'は、情報処理装置25'に情報処理部66'が備えられていることから、人型ロボット20'単体で動作改変システムを構成する。 The humanoid robot 20' of the behavior modification system 100' is equipped with an information processing device 25' and an information processing section 66', so the humanoid robot 20' alone constitutes the behavior modification system.
図7(a)を参照して、例えば人型ロボット20'の制御部662'は、胴体センサ23''(胴体撮像装置24'')が作業員400aを、頭部センサ23'(頭部撮像装置24')が作業員400bを、それぞれセンシングするよう指示する。言い換えると、本動作改変システム100'では、複数の異なるセンシング対象をそれぞれセンシングするための複数のセンサを備え、複数のセンサを用いて取得した複数の作業員の所定動作に対応する複数のセンシング情報を取得することとなる。なお、頭部センサ23'(頭部撮像装置24')と胴体センサ23''(胴体撮像装置24'')との役割は、逆であってもよい。また、各センサがセンシングする際、判定部661'は、各センサがそれぞれ異なる対象をセンシングしているか否かを判定してもよい。
Referring to FIG. 7(a), for example, the control unit 662' of the humanoid robot 20' instructs the torso sensor 23'' (torso image capture device 24'') to sense the
図9は、発明に係る実施形態1の変形例1に係る動作改変システムでの、改変動作モデル生成処理の、より詳細な処理を示すフローチャートの一例である。 Figure 9 is an example of a flowchart showing more detailed processing of the modified behavior model generation process in the behavior modification system related to variant 1 of embodiment 1 of the present invention.
本動作改変システムでは、実施形態1と比較して、S102にて、複数のセンサにより、複数作業員の所定動作のセンシングが行われる点で違いがある。また、本動作改変システムでは、S103の代わりとなるステップS103'を備える。 This movement modification system is different from the first embodiment in that in S102, multiple sensors sense the predetermined movements of multiple workers. In addition, this movement modification system includes step S103', which replaces S103.
ステップS103'において、まず、頭部センサ23'(頭部撮像装置24')及び胴体センサ23''(胴体撮像装置24'')でそれぞれ取得される各センシング情報は、記憶部(記憶装置1224')に記憶される(ステップS201')。学習部663'は、複数(本変形例では2つ)のセンシング情報に基づき、複数の作業員(本変形例では2人)の各所定動作を学習する(ステップS202')。 In step S103', first, each piece of sensing information acquired by the head sensor 23' (head image capture device 24') and the torso sensor 23'' (torso image capture device 24'') is stored in the memory unit (memory device 1224') (step S201'). The learning unit 663' learns each of the predetermined movements of multiple workers (two in this modified example) based on multiple pieces of sensing information (two in this modified example) (step S202').
また、学習部663'は、複数のセンシング情報に基づき、複数の作業員の各所定動作に対応した複数(本変形例では2つ)の標準動作モデルを学習する(ステップS203')。例えば、作業員400aの作業が動作A~Mからなる動作であった一方、作業員400bの作業が動作N~Zからなる動作であった場合、標準動作モデルは、動作A~Mからなる第1標準動作モデル及び動作N~Zからなる第2標準動作モデルとなる。なお、標準動作モデルを生成する際、学習部663'は作業マニュアル情報及び/又は工程表情報を参照してもよい。
The learning unit 663' also learns multiple (two in this modified example) standard action models corresponding to the respective predetermined actions of the multiple workers based on the multiple pieces of sensing information (step S203'). For example, if the work of
モデル生成部664'は、複数の作業員による所定動作の少なくとも一部を統合した改変動作モデルを生成する(ステップS204')。 The model generation unit 664' generates a modified action model that integrates at least a portion of the specified actions performed by multiple workers (step S204').
図10は、本発明に係る実施形態1の変形例1に係る動作改変システムでの、標準動作モデルと動作改変モデルとの関係の一例を示す図である。 Figure 10 is a diagram showing an example of the relationship between a standard behavior model and a behavior modification model in a behavior modification system related to variant 1 of embodiment 1 of the present invention.
例えば、動作A~Mからなる第1標準動作モデルにおいて、動作Mが、ある部品を渡すための移動の動作であったとする。同様に、動作N~Zからなる第2標準動作モデルにおいて、動作Nが、当該部品を受け取るための移動の動作であったとする。この場合、動作M及び動作Nは一体の作業ロボットで行う場合には不要となる。そこで、モデル生成部664'は、第1標準動作モデルにおけるその一部の動作である動作A~Lと、第2標準動作モデルにおけるその一部の動作である動作O~Zを統合し、動作A~L及び動作O~Zからなる改変動作モデルを生成する。これにより、本動作改変システム100では、生成された改変動作モデルを参照して、作業ロボットとしても機能する人型ロボット20'を作動させる際に、複数の作業員が行っていた所定動作を、必要に応じて不要な動作を省略したうえで、1台の人型ロボット20'に行わせることが可能となる。その結果、作業ロボットに効率的に作業させることができる。
For example, in a first standard motion model consisting of motions A to M, motion M is a motion of movement to hand over a certain part. Similarly, in a second standard motion model consisting of motions N to Z, motion N is a motion of movement to receive the part. In this case, motions M and N are unnecessary when performed by a single working robot. Therefore, the model generation unit 664' integrates motions A to L, which are part of the motions in the first standard motion model, and motions O to Z, which are part of the motions in the second standard motion model, to generate a modified motion model consisting of motions A to L and motions O to Z. In this way, the
本動作改変システムの一例として、作業場200の一つのライン201に、当初は6名の作業員により1時間当たり100個の製品を完成させていた場合、ライン201に3台の人型ロボット20'を配置することで、1時間当たり100個の製品を完成させるといったことが可能となる。特に、前述にもあるように、複数の作業員がそれぞれ異なる作業を行っていた場合、人型ロボット20'は、それら作業を、まとめて、かつ必要に応じて不要な動作を省略した上で、行うことができる。
As an example of this behavior modification system, if one
なお、モデル生成部664'は、当該改変動作モデルにつき、各動作の実行時間を、当該改変動作モデル生成時の各動作の所要時間よりも短く設定した第2改変動作モデルを生成してもよい。この場合、先に示した一例であれば、改変動作モデルにおいて、当該改変動作モデル生成時における動作の半分の実行時間で動作するよう設定した第2改変動作モデルを参照して人型ロボット20'を作動させることで、1時間あたり200個の製品を完成させることが可能となる。 The model generation unit 664' may generate a second modified motion model for the modified motion model in which the execution time of each motion is set shorter than the time required for each motion when the modified motion model was generated. In this case, in the example shown above, by operating the humanoid robot 20' with reference to the second modified motion model set to perform the motions in half the execution time of the motions when the modified motion model was generated, it becomes possible to complete 200 products per hour.
(変形例1の作用効果)
本動作改変システムによれば、人型ロボット20'は単独で動作改変システムを構成することができることから、例えば、管理制御装置60との通信ができないような場所においても、作業員の作業が学習された学習モデルを用いて作業する作業ロボットにおいて、作業ロボットが効率的に作業できるようになる。
(Effects of Modification 1)
According to this behavior modification system, the humanoid robot 20' can constitute a behavior modification system by itself, so that even in places where communication with the
また、本人型ロボット20'は、複数(本変形例では2つ)のセンサ(撮像装置)を備えていることから、例えば、複数の作業員をセンシングするには狭い場所においても、作業員の作業学習を行うことが可能となる。 In addition, the self-acting robot 20' is equipped with multiple (two in this modified example) sensors (imaging devices), making it possible to conduct work learning for workers even in a space that is too small to sense multiple workers, for example.
また、本動作改変システムによれば、複数の作業員の各所定動作に対応した複数の標準動作モデルを学習し、標準動作モデルを参照して、複数の作業員による所定動作の少なくとも一部を統合した改変動作モデルを生成することから、複数作業員の作業(所定動作)を、当該作業員よりも少ない数の作業ロボットで代替することが可能となり、作業効率を上げることができる。加えて、当該改変動作モデルにおいて、各動作の実行時間を、当該改変動作モデル生成時の各動作の所要時間よりも短く設定した第2改変モデルを生成し、第2改変モデルを参照して作業ロボットを作動させることで、より効率的に作業ロボットに作業させることが可能となる。 Furthermore, according to this movement modification system, multiple standard movement models corresponding to the respective predetermined movements of multiple workers are learned, and a modified movement model that integrates at least some of the predetermined movements of the multiple workers is generated by referring to the standard movement models. This makes it possible to substitute for the work (predetermined movements) of multiple workers with a smaller number of work robots than the number of workers, thereby improving work efficiency. In addition, a second modified model is generated in the modified movement model in which the execution time of each movement is set shorter than the time required for each movement at the time the modified movement model was generated, and the second modified model is referred to in operating the work robot, making it possible to have the work robot work more efficiently.
なお、本動作改変システムにおいて、移動式ロボット兼作業ロボットとして機能する人型ロボットは、一例で示したとおり1台である必要はなく、複数台であってもよい。この場合、人型ロボットの数が増えるだけ、センサの数は人型ロボットの倍数分増えることとなり、一度にセンシング情報を多く取得することができると共に、作業ロボットの数も増加することから、例えば同一の作業を各作業ロボットに行わせる場合において、作業効率を上げることも可能となる。 In this operation modification system, the humanoid robot that functions as both a mobile robot and a work robot does not have to be one, as shown in the example, but may be multiple. In this case, as the number of humanoid robots increases, the number of sensors increases by a multiple of the number of humanoid robots, making it possible to obtain more sensing information at one time, and since the number of work robots also increases, it becomes possible to improve work efficiency, for example, when making each work robot perform the same task.
以上、本発明の実施の形態について説明したが、本発明は、上述した本発明の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above-mentioned embodiment of the present invention, and various modifications and applications are possible without departing from the gist of the present invention.
本実施形態の動作改変システム100では、作業員400をセンシングする移動式ロボット(人型ロボット)は1台として説明した。しかし、移動式ロボットの数はこれ以上であってもよい。例えば、センサと移動機構とを備える移動式ロボットの台数が多ければ、それぞれ異なる位置、高さ及び/又は向きから作業員400の所定動作をセンシングするよう複数のセンサを配置することが可能となる。これにより、作業員400の所定動作の学習に必要な様々なデータを取得しやすくなると共に、作業員400の各所定動作を全体的にカバーできるようにセンシングすることができる。
In the present embodiment, the
また、本実施形態では、作業員400のセンシング(S102)後に標準動作モデルが生成される(S103)ものとして説明した。もっとも、センシングから標準動作モデル生成までは、必ずしも時間として連続的に実行される必要はない。例えば、S102にてセンシングが行われる際にセンシング情報が記憶される(S201)ところ、センシング情報を参照した学習(S202)は、センシングから所定時間(24時間後や一週間後等)空いた後に実施されてもよい。同様のことは、各S101~S105の各ステップ間についても当てはまる。また、前記例とは逆に、S103~S105は、S102が行われている最中に実行されてもよい。この場合、作業員400が所定動作をしている最中から、改変動作モデルを参照して作業ロボットが作動されることから、作業効率をより向上させることができる。
In the present embodiment, the standard action model is generated (S103) after sensing (S102) of the
また、本実施形態では、作業員の所定動作の学習を自動学習により行うものとして説明した。しかし、学習は必ずしも自動学習である必要はなく、他の既知の機械学習、例えばディープラーニング(深層学習)や教師なし/あり学習、強化学習等であってもよい。 In addition, in this embodiment, the learning of the predetermined actions of the worker has been described as being performed by automatic learning. However, the learning does not necessarily have to be automatic learning, and may be other known machine learning methods, such as deep learning, unsupervised/supervised learning, reinforcement learning, etc.
また、本実施形態では、移動式ロボットと作業ロボットとは同じ人型ロボットであるものして説明した。この場合、移動式ロボットを作業ロボットに併用するといったことが可能となり、ロボット作製に係る費用及びコストを節約できる。もっとも、移動式ロボットと作業ロボットとは、異なるロボットであってもよい。 In addition, in this embodiment, the mobile robot and the working robot are described as being the same humanoid robot. In this case, it is possible to use the mobile robot in combination with the working robot, which can reduce the expenses and costs associated with robot production. However, the mobile robot and the working robot may be different robots.
また、本実施形態では、標準動作モデルにおける動作の半分の実行時間や10分の1の実行時間で動作するよう設定された改変動作モデルの例を説明した。しかし、本動作改変システムは、標準動作モデルにおける各動作の実行時間を、標準動作モデル生成時の各動作の所要時間よりも短く設定したものであれば特に限定されない。 In addition, in this embodiment, an example of a modified behavior model that is set to execute in half the execution time or one-tenth the execution time of the behavior in the standard behavior model has been described. However, this behavior modification system is not particularly limited as long as the execution time of each behavior in the standard behavior model is set to be shorter than the time required for each behavior when the standard behavior model was generated.
100、100'、100'’ 動作改変システム
20、20a、20b、20c、20' 人型ロボット(移動式ロボット、作業ロボット)
23、23a、23b、23c、23'、23'' ロボット用センサ
230、230a、230b、230c、230'、230'' センシング領域
24、24a、24b、24c、24'、24'' ロボット用撮像装置
240、240a、240b、240c、240'、240'' 撮像領域
25、25a、25' 情報処理装置
60 管理制御装置
62 記憶媒体(記憶部)
1224、1224' 記憶装置(記憶部)
100, 100', 100''
23, 23a, 23b, 23c, 23', 23''
1224, 1224' storage device (storage unit)
Claims (6)
センサと、
前記作業ロボット及び前記センサと通信可能な管理制御装置と、を備え、
前記管理制御装置は、
前記センサを用いて取得した前記センシング対象の所定動作に対応するセンシング情報に基づいて、前記センシング対象の所定動作に対応した標準動作モデルを学習する学習部と、
前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成するモデル生成部と、
前記改変動作モデルを参照して前記作業ロボットを作動させる制御部と、を備える、
ことを特徴とする動作改変システム。 A working robot,
A sensor;
a management control device capable of communicating with the work robot and the sensor,
The management control device includes:
a learning unit that learns a standard action model corresponding to a predetermined action of the sensing target based on sensing information corresponding to the predetermined action of the sensing target acquired by using the sensor;
a model generation unit that references the standard behavior model and generates a modified behavior model in which an execution time of each behavior in the standard behavior model is set shorter than a required time of each behavior when the standard behavior model was generated;
a control unit that operates the working robot by referring to the modified motion model.
A behavior modification system comprising:
前記学習部は、前記センシング情報、及び、前記センシング対象の作業マニュアル情報又は工程表情報を参照して、前記標準動作モデルを生成する、
請求項1に記載の動作改変システム。 The management control device further includes a storage unit that stores work manual information or process chart information of the sensing target,
The learning unit generates the standard operation model by referring to the sensing information and work manual information or work schedule information of the sensing target.
The behavior modification system of claim 1 .
複数の異なるセンシング対象をそれぞれセンシングするための複数のセンサと、
前記作業ロボット及び前記複数のセンサと通信可能な管理制御装置と、を備え、
前記管理制御装置は、
前記複数のセンサを用いて取得した前記複数のセンシング対象の所定動作に対応する複数のセンシング情報に基づいて、前記複数のセンシング対象の各所定動作、及び前記複数のセンシング対象の各所定動作に対応した複数の標準動作モデルを学習する学習部と、
前記複数の標準動作モデルを参照して、前記複数のセンシング対象による所定動作の少なくとも一部を統合した改変動作モデルを生成するモデル生成部と、
前記改変動作モデルを参照して前記作業ロボットを作動させる制御部と、を備える、
ことを特徴とする動作改変システム。 A working robot,
A plurality of sensors for sensing a plurality of different sensing targets,
a management control device capable of communicating with the work robot and the plurality of sensors;
The management control device includes:
a learning unit that learns each of the predetermined movements of the plurality of sensing targets and a plurality of standard action models corresponding to each of the predetermined movements of the plurality of sensing targets based on a plurality of sensing information corresponding to the predetermined movements of the plurality of sensing targets acquired using the plurality of sensors;
a model generation unit that generates a modified action model by integrating at least a part of predetermined actions by the plurality of sensing subjects with reference to the plurality of standard action models;
a control unit that operates the working robot by referring to the modified motion model.
A behavior modification system comprising:
前記制御部は、前記複数台の作業ロボットを作動させる、
請求項1から3のいずれか一項に記載の動作改変システム。 A plurality of the work robots are provided,
The control unit operates the plurality of work robots.
A behavior modification system according to any one of claims 1 to 3.
前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成し、
前記改変動作モデルを参照して前記作業ロボットを作動させる、
ことを特徴とする動作改変方法。 learning a standard motion model corresponding to a predetermined motion of a sensing target based on sensing information corresponding to the predetermined motion of the sensing target obtained by using a sensor;
generating a modified behavior model by referring to the standard behavior model, the execution time of each behavior in the standard behavior model being set shorter than the required time of each behavior at the time of generating the standard behavior model;
operating the working robot by referring to the modified motion model;
A method for modifying behavior comprising:
前記作業ロボットを動作させるための駆動機構と、
センサを用いて取得したセンシング対象の所定動作に対応するセンシング情報に基づいて、前記センシング対象の所定動作に対応した標準動作モデルを学習する学習部と、
前記標準動作モデルを参照して、前記標準動作モデルにおける各動作の実行時間を、前記標準動作モデル生成時の各動作の所要時間よりも短く設定した改変動作モデルを生成するモデル生成部と、
前記改変動作モデルを参照して前記駆動機構を制御させる作業ロボットを作動させる制御部と、
を有することを特徴とする作業ロボット。 A work robot,
a drive mechanism for operating the working robot;
a learning unit that learns a standard motion model corresponding to a predetermined motion of a sensing target based on sensing information corresponding to the predetermined motion of the sensing target obtained by using a sensor;
a model generation unit that references the standard behavior model and generates a modified behavior model in which an execution time of each behavior in the standard behavior model is set shorter than a required time of each behavior when the standard behavior model was generated;
a control unit that operates the working robot to control the drive mechanism by referring to the modified motion model;
A working robot comprising:
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022182641A JP2024072051A (en) | 2022-11-15 | 2022-11-15 | Movement modification system, movement modification method, and working robot |
| CN202380073373.9A CN120076904A (en) | 2022-10-18 | 2023-10-17 | Work robot adjustment method, sensing system, sensing method, mobile robot, motion changing system, motion changing method, work robot, work reproduction system, work reproduction method, work familiarity system, work familiarity method, and work reproduction robot |
| PCT/JP2023/037595 WO2024085159A1 (en) | 2022-10-18 | 2023-10-17 | Work robot adjustment method, sensing system, sensing method, mobile robot, operation modification system, operation modification method, work robot, work reproduction system, work reproduction method, work mastering system, work mastering method, and work reproducing robot |
| EP23879802.9A EP4606530A1 (en) | 2022-10-18 | 2023-10-17 | Work robot adjustment method, sensing system, sensing method, mobile robot, operation modification system, operation modification method, work robot, work reproduction system, work reproduction method, work mastering system, work mastering method, and work reproducing robot |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022182641A JP2024072051A (en) | 2022-11-15 | 2022-11-15 | Movement modification system, movement modification method, and working robot |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024072051A true JP2024072051A (en) | 2024-05-27 |
| JP2024072051A5 JP2024072051A5 (en) | 2025-05-19 |
Family
ID=91194034
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022182641A Pending JP2024072051A (en) | 2022-10-18 | 2022-11-15 | Movement modification system, movement modification method, and working robot |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024072051A (en) |
-
2022
- 2022-11-15 JP JP2022182641A patent/JP2024072051A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11256240B2 (en) | Planning and adapting projects based on a buildability analysis | |
| Kokkas et al. | An Augmented Reality approach to factory layout design embedding operation simulation | |
| US10173319B1 (en) | Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives | |
| US12400133B2 (en) | Training collaborative robots through user demonstrations | |
| Tzimas et al. | Machine tool setup instructions in the smart factory using augmented reality: a system construction perspective | |
| CN107422686B (en) | Apparatus for enabling remote control of one or more devices | |
| Moshayedi et al. | Integrating virtual reality and robotic operation system (ROS) for AGV navigation | |
| US11908337B2 (en) | Information processing device, intermediation device, simulation system, and information processing method | |
| US20220172107A1 (en) | Generating robotic control plans | |
| JP2005515903A (en) | Abstraction and aggregation within the hardware abstraction layer of robot sensors and actuators | |
| Rohacz et al. | Concept for the comparison of intralogistics designs with real factory layout using augmented reality, SLAM and marker-based tracking | |
| US20200122331A1 (en) | Visual annotations in simulated robot environments | |
| CN109388096A (en) | Information processing unit and method and non-volatile computer readable recording medium | |
| Blankemeyer et al. | Intuitive assembly support system using augmented reality | |
| JP2024072051A (en) | Movement modification system, movement modification method, and working robot | |
| US20220043455A1 (en) | Preparing robotic operating environments for execution of robotic control plans | |
| JP2024068441A (en) | Sensing system, sensing method, and mobile robot | |
| JP2024073888A (en) | Work mastery system, work mastery method, and work reproduction robot | |
| JP2024070031A (en) | Sensing system, sensing method, and working robot | |
| JP2024073243A (en) | Work reproduction system, work reproduction method, and work reproduction robot | |
| CN111185902B (en) | Robotic character writing method, device and writing system based on visual recognition | |
| JP2024061572A (en) | Simulation system and program | |
| WO2024085160A1 (en) | Simulation system and program | |
| KR102926250B1 (en) | Generation of robot control plans | |
| JP2025104898A (en) | Human shaped robot and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250509 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250509 |