JP2024072129A - Computer system and robot control method - Google Patents
Computer system and robot control method Download PDFInfo
- Publication number
- JP2024072129A JP2024072129A JP2022182814A JP2022182814A JP2024072129A JP 2024072129 A JP2024072129 A JP 2024072129A JP 2022182814 A JP2022182814 A JP 2022182814A JP 2022182814 A JP2022182814 A JP 2022182814A JP 2024072129 A JP2024072129 A JP 2024072129A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- computer
- environment
- measurement data
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの制御方法、及びロボット制御装置に関する。 The present invention relates to a robot control method and a robot control device.
組立作業等、ワークの把持及びワークの移動を含む作業を行うロボットを自動制御する技術がある。自動制御では、ロボットに取り付けたセンサから取得される計測データを入力とするモデルが用いられる。モデルは機械学習によって生成される。例えば、特許文献1に記載の技術が知られている。
There is a technology for automatically controlling a robot that performs tasks, such as assembly work, that involve gripping and moving a workpiece. In automatic control, a model is used that inputs measurement data obtained from a sensor attached to the robot. The model is generated by machine learning. For example, the technology described in
既存のモデルを活用する場合、実際の作業の環境(制御環境)が機械学習における作業の環境(学習環境)と同じであることが前提となる。しかし、センサ取り付け位置、ワークの形状及び姿勢、並びに、位置決めピンの位置等、制御環境が学習環境と異なる場合、ロボットのワークに加える力の大きさ及び向きが変化するため、モデルの再学習が必要となる。 When utilizing an existing model, it is assumed that the actual work environment (control environment) is the same as the work environment (learning environment) in machine learning. However, if the control environment differs from the learning environment in terms of the sensor mounting position, the shape and orientation of the workpiece, and the position of the positioning pins, the magnitude and direction of the force applied to the workpiece by the robot will change, and the model will need to be re-learned.
既存のモデルを流用するために、モデルに入力する計測データを変換する方法が考えられる。計測データを変換する技術として特許文献2に記載の技術が知られている。
In order to reuse an existing model, a method of converting the measurement data to be input to the model can be considered. The technology described in
特許文献1には、「加速度センサー200から検出加速度を取得する加速度情報取得部110と、第1の座標変換補正値を取得する補正値取得部120と、第1の座標変換補正値に基づいて、加速度センサー座標系から運動解析座標系へ、検出加速度の座標変換処理を行う座標変換部130と、座標変換処理後の検出加速度に基づいて、運動解析処理を行う運動解析部140と、を含む」状態検出装置が開示されている。
特許文献2に記載の技術を用いれば、環境間の座標系の差異を解消することができる。しかし、特許文献2に記載の技術を用いても、環境間の作業を表す力学系の差異を解消することができない。
By using the technology described in
本発明は、環境間の作業の力学系の差異を解消するように計測データを変換することによって、既存のモデルを用いてロボットが行う作業を自動制御するための技術を提供する。 The present invention provides a technology for automatically controlling tasks performed by a robot using an existing model by converting measurement data to eliminate differences in the dynamics of the tasks between environments.
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。 To solve the above problem, the configuration described in the claims is adopted, for example.
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、機械学習によって生成されたモデルを用いて、ワークの把持及びの移動を含む作業を行うロボットを制御する計算機システムであって、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、学習環境における作業を表す第1力学系と、制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットの稼働状態を示す計測データを変換するための第1変換式を生成し、前記計測データを取得した場合、前記第1変換式を用いて前記計測データを変換し、変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御する。 A representative example of the invention disclosed in this application is as follows. That is, a computer system that uses a model generated by machine learning to control a robot that performs tasks including grasping and moving a workpiece, includes a calculation device, a storage device connected to the calculation device, and a computer having a network interface connected to the calculation device, and generates a first conversion formula for converting measurement data indicating the operating state of the robot based on a difference between a first dynamic system representing tasks in a learning environment and a second dynamic system representing tasks in a control environment so that the second dynamic system matches the first dynamic system, and when the measurement data is acquired, converts the measurement data using the first conversion formula, inputs the converted measurement data to the model, and controls the robot based on the output of the model.
本発明によれば、環境間の作業の力学系の差異を解消するように計測データを変換することによって、既存のモデルを用いてロボットが行う作業を自動制御できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, by converting measurement data so as to eliminate differences in the dynamics of the tasks between environments, tasks performed by a robot can be automatically controlled using an existing model. Problems, configurations, and effects other than those described above will become clear from the description of the embodiments below.
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。 The following describes an embodiment of the present invention with reference to the drawings. However, the present invention should not be interpreted as being limited to the description of the embodiment shown below. It will be easily understood by those skilled in the art that the specific configuration can be changed without departing from the concept or spirit of the present invention.
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 In the configuration of the invention described below, the same or similar configurations or functions are given the same reference symbols, and duplicate explanations are omitted.
本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。 The terms "first," "second," "third," and the like used in this specification are used to identify components and do not necessarily limit the number or order.
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。 The position, size, shape, range, etc. of each component shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not limited to the position, size, shape, range, etc. disclosed in the drawings, etc.
図1は、実施例1のシステムの構成例を示す図である。システムは、計算機100及びロボット101から構成される。計算機100及びロボット101は、直接又はネットワークを介して接続される。
Figure 1 is a diagram showing an example of the configuration of a system according to a first embodiment. The system is composed of a
計算機100は、演算装置110、記憶装置111、通信装置112、入力装置113、及び出力装置114を備える。各ハードウェア要素は、例えば内部バスを介して接続されるが、この方法に限らない。
The
入力装置113は、計算機100にデータ及びコマンド等を入力する装置である。入力装置113は、例えば、キーボード、マウス等がある。
The
出力装置114は、制御値変更結果等を出力する装置である。出力装置114は、例えば、ディスプレイ、プリンタ等がある。
The
記憶装置111は、演算装置110が実行するプログラム及び情報を格納する装置である。記憶装置111は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等である。記憶装置111は、入力装置113を介して入力された情報及びプログラムの演算結果も格納する。また、記憶装置111はワークエリアとしても用いられる。
The
記憶装置111は、設備管理情報130、軌道管理情報131、モデル管理情報132、変換式管理情報133、及びワーク管理情報134を格納する。
The
設備管理情報130は、ロボット101による作業が行われる設備の構成に関する設備構成情報を格納する。設備管理情報130のデータ構造については図2A及び図2Bを用いて後述する。
The
軌道管理情報131は、作業におけるロボットの軌道を制御するための制御値を含む軌道情報を格納する。軌道管理情報131のデータ構造については図3を用いて後述する。
The
モデル管理情報132は、ロボットの制御に用いるデータ値を出力するモデルを格納する。モデル管理情報132のデータ構造については図4を用いて後述する。
モデルは、例えば、ニューラルネットワークであり、強化学習、深層学習、及び深層強化学習等によって生成される。実施例1のモデルは、軌道情報、ロボットの稼働状態情報、及び計測データを入力として受け付け、軌道情報に含まれる制御値に対する補正量を出力する。なお、本発明は、モデルの構造、モデルの出力、及びモデルの学習方法に限定されない。 The model is, for example, a neural network, and is generated by reinforcement learning, deep learning, deep reinforcement learning, and the like. The model of Example 1 receives trajectory information, robot operating status information, and measurement data as input, and outputs a correction amount for the control value included in the trajectory information. Note that the present invention is not limited to the model structure, model output, and model learning method.
変換式管理情報133は、計測データの変換式を格納する。変換式管理情報133のデータ構造については図5を用いて後述する。
The conversion
ワーク管理情報134は、ワークに関するワーク情報を格納する。ワーク管理情報134のデータ構造については図5を用いて後述する。
演算装置110は、計算機100を制御する装置であり、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びFPGA(Field Programmable Gate Array)等である。演算装置110は記憶装置111に格納されるプログラムを実行する。演算装置110がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、演算装置110が当該機能部を実現するプログラムを実行していることを示す。実施例1の演算装置110は、設備位置姿勢算出部120、設備解析部121、変換式生成部122、計測データ変換部123、補正量決定部124、及び制御値算出部125として機能する。
The
設備位置姿勢算出部120は、設備構成情報及び軌道情報に基づいて、設備を構成する機器及びワークの位置及び姿勢を算出する。
The equipment position and
設備解析部121は、学習環境及び制御環境の各々の設備構成情報に基づいて、環境間の差異を解析する。設備解析部121は、例えば、各環境のロボット101の先端部に取り付けられたセンサの位置及び姿勢の差分量等を算出し、また、各環境のワークの位置決めピンの有無を判定する。
The
変換式生成部122は、環境間の差異がなくなるように計測データを変換するための変換式を生成する。
The conversion
計測データ変換部123は、変換式生成部122によって生成された変換式を用いて、後述する計測装置140から取得した計測データを変換する。
The measurement
補正量決定部124は、変換された計測データをモデルに入力することによって補正量を算出する。
The correction
制御値算出部125は、軌道情報及び補正量決定部124によって算出された補正量に基づいて、ロボット101に送信する制御値を算出する。
The control
なお、計算機100が有する機能部については、複数の機能部を一つの機能部にまとめてもよいし、一つの機能部を機能毎に複数の機能部に分けてもよい。
Regarding the functional units of the
通信装置112は、外部装置と通信するための装置であり、例えば、NIC(Network Interface Card)である。
The
ロボット101は、計算機100によって算出された制御値を含む制御情報に基づいて、ワークの把持及び始点から終点までの移動を含む作業を行う。
The
ロボット101は、計測装置140、作業装置群141、及びコントローラ142を備える。
The
計測装置140は、ロボット101の作業によるワークの状態を把握するための値を計測し、計測データを生成する。計測装置140は、例えば、加速度センサ、力覚センサ、カメラ、接触センサ、及び電流センサ等の一般的なセンシングデバイスである。
The measuring
作業装置群141は、ワークの把持及び移動を実現する装置群であり、例えば、ツール、リンク、及び駆動モータ等の一般的な機械要素群である。
The
コントローラ142は、計算機100から受信した制御値に基づいて作業装置群141を制御する。例えば、コントローラ142は、制御値にしたがって、関節として機能するリンク間を接続する駆動モータを制御することによってツールを移動させる。コントローラ142は、関節の角度、角速度、及び角加速度、並びに、駆動モータのトルク及び電流値等を含む稼働状態情報を計算機100に出力する。
The
図2A及び図2Bは、実施例1の設備管理情報130のデータ構造の一例を示す図である。
2A and 2B are diagrams showing an example of the data structure of
設備管理情報130は、ID201、設備名202、分類203、項目204、及び内容205を含むエントリを格納する。一つのエントリが一つの設備構成情報に対応する。一つのエントリには、設備を構成する複数の要素の行が含まれる。
The
ID201は、設備構成情報の識別情報を格納するフィールドである。設備名202は、設備の名称を格納するフィールドである。分類203は、設備を構成する要素の分類を格納するフィールドである。分類203には、オブジェクト、ロボット、リンク、ジョイント等が格納される。項目204は、要素の管理項目を格納するフィールドである。内容205は、管理項目の内容を格納するフィールドである。内容205には、ファイル、数値、及び文字列等が格納される。
要素「組立セル架台」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「力覚センサ」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「ハンド」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「ワーク」では、名称、ワークタイプ、位置決めピンの有無、重量、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「Robo」では、名称、取り付け対象、相対位置、及び相対姿勢が管理される。要素「Link」では、形状ファイル情報が管理される。要素「Joint」では、親リンク、子リンク、関節タイプ、関節角度下限、関節角度上限、及び関節角度速度上限が格納されている。 The "assembly cell stand" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "force sensor" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "hand" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "work" element manages the name, work type, presence or absence of positioning pins, weight, attachment target, relative position, relative orientation, and shape file information. The "Robo" element manages the name, attachment target, relative position, and relative orientation. The "Link" element manages shape file information. The "Joint" element stores the parent link, child link, joint type, joint angle lower limit, joint angle upper limit, and joint angle speed upper limit.
要素の相対位置及び相対姿勢は、取り付け対象に対する要素の位置及び姿勢である。組立セル架台は、設備の基準(Root)であり、組立セル架台の任意の点を原点とする絶対座標系を設定している。 The relative position and orientation of an element are the position and orientation of the element relative to the object to which it is attached. The assembly cell stand is the reference point (Root) of the equipment, and an absolute coordinate system is set with any point on the assembly cell stand as the origin.
図3は、実施例1の軌道管理情報131のデータ構造の一例を示す図である。
Figure 3 is a diagram showing an example of the data structure of
軌道管理情報131は、ID301、軌道名302、姿勢303、及びTime304を含むエントリを格納する。一つのエントリが一つの軌道情報に対応する。
The
ID301は、軌道情報の識別情報を格納するフィールドである。軌道名302は、軌道情報の名称を格納するフィールドである。姿勢303は、経由点における関節軸の角度を格納するフィールド群である。Time304は、開始経由点から移動を開始してから経由点に到着する時間を格納するフィールドである。開始経由点のTime304は「0.0」である。
図4は、実施例1のモデル管理情報132のデータ構造の一例を示す図である。
Figure 4 is a diagram showing an example of the data structure of
モデル管理情報132は、ID401、モデル402、設備名403、及び軌道名404を含むエントリを格納する。一つのエントリが一つのモデルに対応する。
The
ID401は、モデルの識別情報を格納するフィールドである。モデル402は、モデルを格納するフィールドである。設備名403は、モデルの学習時の設備の名称を格納するフィールドである。設備名403は設備名202に対応する。軌道名404は、モデルの学習時の軌道の名称を格納するフィールドである。軌道名404は軌道名302に対応する。
図5は、実施例1の変換式管理情報133のデータ構造の一例を示す図である。
Figure 5 is a diagram showing an example of the data structure of the conversion
変換式管理情報133は、ID501、モデル502、設備名503、軌道名504、変換式(A)505、及び変換式(B)506を含むエントリを格納する。一つのエントリが一つの作業に対応する。
The conversion
ID501は、作業の識別情報を格納するフィールドである。モデル502は、作業を制御するために適用するモデルを格納するフィールドである。設備名503は、作業における設備の名称を格納するフィールドである。設備名503は設備名202に対応する。軌道名504は、作業における軌道の名称を格納するフィールドである。軌道名504は軌道名302に対応する。変換式(A)505及び変換式(B)506は、計測データを変換するための変換式を格納するフィールドである。変換式(A)505に格納される変換式は、二つの環境のセンサの座標系をそろえるための式である。変換式(B)506に格納される変換式は、二つの環境の力学系をそろえるための式である。ここで、環境の力学系とは、ワークの把持及び移動に関する力学系を意味する。環境の力学系は、ワークに作用する力及びモーメントに関連するパラメータ(力覚パラメータ)を用いて記述される。
図6は、実施例1のワーク管理情報134のデータ構造の一例を示す図である。
Figure 6 is a diagram showing an example of the data structure of
ワーク管理情報134は、ID601、設備名602、ワークタイプ603、慣性モーメントパラメータ604、及び位置決めピンパラメータ605を含むエントリを格納する。一つのエントリが一つのワーク情報に対応する。
The
ID601は、ワーク情報の識別情報を格納するフィールドである。設備名602は、ワークを扱う設備の名称を格納するフィールドである。設備名602は設備名202に対応する。ワークタイプ603は、ワークのタイプを格納するフィールドである。慣性モーメントパラメータ604は、ワークの慣性モーメントを求めるためのパラメータを格納するフィールド群である。位置決めピンパラメータ605は、ワークの位置決めピンの位置に関するパラメータを格納するフィールド群である。
慣性モーメントパラメータ604及び位置決めピンパラメータ605には、力覚パラメータを算出するためのパラメータが格納される。なお、慣性モーメントパラメータ604及び位置決めピンパラメータ605は一例であってこれに限定されない。例えば、材質、剛性等に関するパラメータを格納するフィールドを含んでもよい。
Parameters for calculating the force sense parameters are stored in the moment of
図7は、実施例1の計算機100が実行するロボット制御処理の一例を説明するフローチャートである。図8及び図9は、実施例1の計算機100が提示する画面の一例を示す図である。
Figure 7 is a flowchart illustrating an example of a robot control process executed by the
計算機100は、出力装置114を介して図8に示す画面800を表示し、作業におけるモデル、設備、及び軌道等についてユーザ入力を受け付ける(ステップS101)。
The
画面800は、入力エリア801、環境表示エリア802、変換式表示エリア803、及び操作ボタンエリア804を含む。 The screen 800 includes an input area 801, an environment display area 802, a conversion formula display area 803, and an operation button area 804.
入力エリア801は、モデル、設備、及び軌道等を入力するためのエリアであり、選択欄811、813、815、読込ボタン812、814、816、及び表示欄817を含む。 The input area 801 is an area for inputting models, facilities, orbits, etc., and includes selection fields 811, 813, 815, load buttons 812, 814, 816, and a display field 817.
選択欄811は、モデルを選択する欄である。読込ボタン812が操作された場合、モデル管理情報132から選択欄811にて指定されたモデルが読み出される。選択欄813は、設備を選択する欄である。読込ボタン814が操作された場合、設備管理情報130から選択欄813にて指定された設備の設備構成情報が読み出される。選択欄815は、軌道を選択する欄である。読込ボタン816が操作された場合、軌道管理情報131から選択欄815にて指定された軌道の軌道情報が読み出される。表示欄817は、指定された設備において用いられるワークのタイプを表示する欄である。
The selection field 811 is a field for selecting a model. When the load button 812 is operated, the model specified in the selection field 811 is read from the
なお、ユーザから直接、モデル、設備構成情報、及び軌道情報を受け付けてもよい。 In addition, model, facility configuration information, and orbit information may be accepted directly from the user.
環境表示エリア802は、学習環境及び制御環境を表示する欄である。環境表示エリア802は、表示欄821、822を含む。 The environment display area 802 is a field that displays the learning environment and the control environment. The environment display area 802 includes display fields 821 and 822.
表示欄821は、学習環境に関する情報を表示する欄である。計算機100は、モデル管理情報132を参照して、選択欄811にて指定されたモデルに対応するエントリを検索する。計算機100は、検索されたエントリの設備名403及び軌道名404に基づいて、設備管理情報130及び軌道管理情報131から設備構成情報及び軌道情報を取得する。計算機100は、取得した情報に基づいて、学習環境を表す画像を生成し、表示欄821に表示する。
The display field 821 is a field that displays information about the learning environment. The
表示欄822は、制御環境に関する情報を表示する欄である。計算機100は、選択欄813及び選択欄815にて指定された情報に基づいて、実際の作業の環境を表す画像を生成し、表示欄822に表示する。
The display field 822 is a field that displays information about the controlled environment. The
なお、表示欄821、822には、ワークの形状、慣性モーメントに関するパラメータ、位置決めピンの位置に関するパラメータ等が表示されてもよい。 In addition, display fields 821 and 822 may display the shape of the workpiece, parameters related to the moment of inertia, parameters related to the position of the positioning pin, etc.
変換式表示エリア803は、変換式を表示する欄である。 The conversion formula display area 803 is a field that displays the conversion formula.
操作ボタンエリア804は、計算機100に処理の実行を指示するための操作ボタンを表示する欄である。操作ボタンエリア804は、変換式ボタン841及び制御ボタン842を含む。変換式ボタン841は、変換式算出処理の実行を指示するための操作ボタンである。制御ボタン842は、制御処理の実行を指示するための操作ボタンである。
The operation button area 804 is a field that displays operation buttons for instructing the
ユーザは、入力エリア801に必要な情報を入力した後、変換式ボタン841を操作する。計算機100は、当該操作を受け付けた場合、変換式(A)算出処理及び変換式(B)算出処理を実行する(ステップS102、ステップS103)。変換式(A)算出処理及び変換式(B)算出処理の詳細は後述する。
After inputting the necessary information in the input area 801, the user operates the conversion formula button 841. When the
計算機100は、処理結果を変換式表示エリア803に表示する。ユーザは、変換式表示エリア803を確認した後、制御ボタン842を操作する。計算機100は、制御処理を開始する(ステップS104)。制御処理は、ワークの把持及び移動を含む作業が終了するまで繰り返し実行される。
The
計算機100は、通信装置112を介して、計測装置140から計測データを取得し、コントローラ142から稼働状態情報を取得する(ステップS105)。
The
計算機100は、変換式(A)及び変換式(B)を用いて、計測データを変換する(ステップS106)。具体的には、計測データ変換部123は、変換式(A)を用いて計測データを第1変換計測データに変換し、変換式(B)を用いて第1変換計測データを第2変換計測データに変換する。
The
計算機100は、軌道情報、変換された計測データ(第2変換計測データ)、及び稼働状態情報をモデルに入力することによって補正量を算出する(ステップS107)。モデルは、ロボット101の動作周期に合わせた補正量を出力する。例えば、ロボット101の動作周期がΔt秒、ロボット101が動作を開始してからT秒経過している場合、T+Δtにおける地点のロボットの各関節角度の補正量が算出される。
The
計算機100は、補正量に基づいて軌道情報に含まれる制御値を補正し、補正された制御値を含む制御情報を生成する(ステップS108)。例えば、ロボット101の動作周期がΔt秒、ロボット101が動作を開始してからT秒経過している場合、軌道情報のT+Δtにおける各関節の角度(制御値)に補正量を加算することによって補正を行う。
The
計算機100は、通信装置112を介して、コントローラ142に制御情報を送信する(ステップS109)。
The
作業の完了条件を満たさない場合、計算機100は、ステップS105に戻り、同様の処理を実行する。作業の完了条件を満たす場合、計算機100は制御処理を終了する。
If the task completion conditions are not met, the
作業の完了条件は、例えば、軌道情報に基づくロボットの制御を開始してからの時間が軌道の最終経由点のTime304の経過である。また、軌道の最終経由点の制御値の算出を作業の完了条件としてもよい。
The condition for completing the work is, for example, the elapse of
計算機100は、出力装置114を介して実行結果を提示し(ステップS110)、その後、ロボット制御処理を終了する。
The
例えば、計算機100は画面900を表示する。画面900は、表示欄901、902を含む。表示欄901には、モデル、設備構成情報、軌道情報、ワークのタイプ、及び変換式等が表示される。表示欄902には、実行結果として、変換前の計測データの時系列グラフ921、変換後の計測データの時系列グラフ922、及び作業の軌道を示す画像923が表示される。
For example, the
画像923の実線は軌道情報に基づいて制御した場合のロボット101の軌道を表し、点線は補正された制御値に基づいて制御されたロボット101の軌道を表す。
The solid line in
実施例1のロボット制御処理では、既存のモデルを用いて、制御環境下でロボット101の作業を制御することができる。例えば、ワークの位置ずれが生じた場合でも、モデルを用いることによってずれ量に応じて制御値を補正することができる。
In the robot control process of Example 1, an existing model can be used to control the work of the
図10は、実施例1の計算機100が実行する変換式(A)算出処理の一例を説明するフローチャートである。図11A、図11B、及び図11Cは、実施例1の計算機100が実行する変換式(A)算出処理の具体例を示す図である。
Figure 10 is a flowchart illustrating an example of the conversion formula (A) calculation process executed by the
設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報を取得する(ステップS201)。具体的には、以下のような処理が実行される。
The equipment position and
(S201-1)設備位置姿勢算出部120は、モデル管理情報132を参照し、モデル402に指定されたモデルが格納されるエントリを検索する。
(S201-1) The equipment position and
(S202-2)設備位置姿勢算出部120は、設備管理情報130を参照し、設備名202の値が、モデル管理情報132から検索されたエントリの設備名403の値と一致するエントリを検索する。設備位置姿勢算出部120は、検索されたエントリに対応する設備構成情報を取得する。
(S202-2) The equipment position and
(S202-3)設備位置姿勢算出部120は、軌道管理情報131を参照し、軌道名302の値が、モデル管理情報132から検索されたエントリの軌道名404の値と一致するエントリを検索する。設備位置姿勢算出部120は、検索されたエントリに対応する軌道情報を取得する。
(S202-3) The equipment position and
設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報に基づいて、学習環境におけるセンサの位置及び姿勢を算出する(ステップS202)。ここで、学習環境におけるセンサの位置及び姿勢は、作業開始時のセンサの位置及び姿勢を意味する。
The equipment position and
図11Aは、学習環境におけるセンサの位置及び姿勢の一例を示す。図11Aでは、設備座標系1100に対するセンサの位置及び姿勢を示している。設備座標系1100は、設備の任意の点を原点とする学習環境の絶対座標系である。図11Aでは、設備座標系1100は、取り付け対象がRootとなっている組立セル架台Aの設置位置を原点とする絶対座標系である。座標系1101はセンサを原点とする相対座標系である。
Figure 11A shows an example of the position and orientation of a sensor in a learning environment. Figure 11A shows the position and orientation of the sensor relative to an equipment coordinate
設備位置姿勢算出部120は、設備座標系1100及び設備構成情報に基づいてセンサの位置及び姿勢を算出する。まず、組立セル架台AにはRoboBが取り付けられている。設備位置姿勢算出部120は、設備座標系1100、並びに、組立セル架台Aに対するRoboBの相対位置及び相対姿勢に基づいて、RoboBの取り付け位置を算出する。RoboBには、Link_eeが取り付けられている。設備位置姿勢算出部120は、RoboBの取り付け位置、及びRoboBの軌道情報の開始経由点の各関節の角度に基づいて、Link_eeの位置及び姿勢を算出する。Link_eeには力覚センサが設置されている。設備位置姿勢算出部120は、Link_eeの位置及び姿勢、並びに、Link_eeに対する力覚センサの相対位置及び相対姿勢に基づいて、力覚センサの位置及び姿勢を算出する。
The equipment position and
設備位置姿勢算出部120は、ステップS101において取得した設備構成情報及び軌道情報に基づいて、制御環境におけるセンサの位置及び姿勢を算出する(ステップS203)。ここで、制御環境におけるセンサの位置及び姿勢は、作業開始時のセンサの位置及び姿勢を意味する。算出方法はステップS202と同様である。
The equipment position and
図11Bは、制御環境におけるセンサの位置及び姿勢の一例を示す。図11Bでは、設備座標系1110に対するセンサの位置及び姿勢を示している。設備座標系1110は、設備の任意の点を原点とする制御環境の絶対座標系である。図11Bでは、設備座標系1110は、取り付け対象がRootとなっている組立セル架台の設置位置を原点とする絶対座標系である。座標系1111はセンサを原点とする相対座標系である。
Figure 11B shows an example of the position and orientation of a sensor in a controlled environment. Figure 11B shows the position and orientation of the sensor relative to an equipment coordinate system 1110. The equipment coordinate system 1110 is an absolute coordinate system of the controlled environment with an arbitrary point on the equipment as its origin. In Figure 11B, the equipment coordinate system 1110 is an absolute coordinate system with the installation position of the assembly cell stand, whose mounting target is the Root, as its origin. Coordinate
設備解析部121は、学習環境におけるセンサの位置及び姿勢、並びに、制御環境におけるセンサの位置及び姿勢に基づいて、センサの位置ずれ及び姿勢ずれを算出する(ステップS204)。
The
センサの位置ずれは、座標系1101、1111の原点の位置のずれとして算出される。センサの姿勢のずれは、図11Cに示すような座標系1101、1111の回転角θとして算出される。
The positional deviation of the sensor is calculated as the deviation of the position of the origin of the coordinate
変換式生成部122は、二つの環境間のセンサの位置ずれ及び姿勢ずれに基づいて変換式(A)を生成する(ステップS205)。変換式(A)は、センサの位置ずれを解消するための3次元空間の平行移動と、姿勢ずれを解消するための3次元空間の回転とで表現される。例えば、Z軸を基準として回転は式(1)で与えられる。回転角θは、センサの姿勢ずれを表す角度である。
The conversion
変換式生成部122は、変換式管理情報133に変換式(A)を登録し(ステップS206)、変換式(A)算出処理を終了する。
The conversion
図12は、実施例1の計算機100が実行する変換式(B)算出処理の一例を説明するフローチャートである。図13A、図13B、図13C、図13D、図13E、及び図13Fは、実施例1の計算機100が実行する変換式(B)算出処理の具体例を示す図である。
Figure 12 is a flowchart illustrating an example of the conversion formula (B) calculation process executed by the
設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報に基づいて、学習環境におけるワークの位置及び姿勢を算出する(ステップS301)。ここで、学習環境におけるワークの位置及び姿勢は、作業開始時のワークの位置及び姿勢を意味する。なお、モデルの学習時の設備構成情報及び軌道情報は、変換式(A)算出処理において取得されているものとする。
The equipment position and
図13Aは、学習環境におけるワークの位置及び姿勢の一例を示す。図13Aでは、センサに対するワークの位置及び姿勢を示している。 Figure 13A shows an example of the position and orientation of the workpiece in the learning environment. Figure 13A shows the position and orientation of the workpiece relative to the sensor.
設備位置姿勢算出部120は、ステップS202と同様の処理によって、センサの位置及び姿勢を算出する。力覚センサには、ハンドBが取り付けられている。設備位置姿勢算出部120は、力覚センサの位置及び姿勢、力覚センサに対するハンドBの相対位置及び相対姿勢に基づいて、ハンドBの位置及び姿勢を算出する。ワークBは、ハンドBによって把持及び移動が行われる。設備位置姿勢算出部120は、ハンドBの位置及び姿勢、ハンドBに対するワークBの相対位置及び相対姿勢に基づいて、ワークBの位置及び姿勢を算出する。
The equipment position and
設備位置姿勢算出部120は、ステップS101において取得した設備構成情報及び軌道情報に基づいて、制御環境におけるワークの位置及び姿勢を算出する(ステップS302)。ここで、制御環境におけるワークの位置及び姿勢は、作業開始時のワークの位置及び姿勢を意味する。算出方法はステップS301と同様である。
The equipment position and
図13Bは、制御環境におけるワークの位置及び姿勢の一例を示す。図13Bでは、センサに対するワークの位置及び姿勢を示している。 Figure 13B shows an example of the position and orientation of the workpiece in a controlled environment. Figure 13B shows the position and orientation of the workpiece relative to the sensor.
設備解析部121は、ワーク管理情報134から、学習環境及び制御環境の各々のワークのパラメータを取得する(ステップS303)。
The
変換式生成部122は、各環境のセンサの位置及び姿勢、ワークの位置及び姿勢、並びに、ワークのパラメータに基づいて、各環境の力学系の力覚パラメータの差分量を算出する(ステップS304)。ここで各環境の力学系の力覚パラメータの差分量の算出方法について説明する。
The conversion
(例1)図13C及び図13Dに示すように、位置決めピンに関するパラメータa、パラメータb、パラメータc、パラメータd、パラメータe、パラメータf、パラメータgが取得された場合の変換式(B)の生成方法について説明する。パラメータa、パラメータb、パラメータc、パラメータdは、学習環境のワークの端から位置決めピンまでの距離を表し、パラメータe、パラメータf、パラメータgは、制御環境のワークの端から位置決めピンまでの距離を表す。ワークの中心軸1300(1301)に対する回転の向きは、センサの座標系1101(1111)のx軸(x’軸)上におけるモーメントの向きを示す。位置決めピンでハンドがワークと接触する場合、モーメントの向き及び大きさが力覚パラメータとなる。ワークの端から、てこの原理の支点になる位置決めピンまでの距離の比がワークのモーメントの大きさになる。したがって、図13Cでは、座標系1101のx軸上のモーメントの大きさはb/aとなり、図13Dでは、座標系1111のx’軸上のモーメントの大きさはg/hとなる。
(Example 1) As shown in Figures 13C and 13D, a method for generating a conversion formula (B) when parameters a, b, c, d, e, f, and g related to the positioning pin are acquired will be described. Parameters a, b, c, and d represent the distance from the edge of the workpiece in the learning environment to the positioning pin, and parameters e, f, and g represent the distance from the edge of the workpiece in the control environment to the positioning pin. The direction of rotation with respect to the central axis 1300 (1301) of the workpiece indicates the direction of the moment on the x-axis (x'-axis) of the sensor coordinate system 1101 (1111). When the hand comes into contact with the workpiece at the positioning pin, the direction and magnitude of the moment become the force sense parameters. The ratio of the distance from the edge of the workpiece to the positioning pin, which is the fulcrum of the lever principle, becomes the magnitude of the moment of the workpiece. Therefore, in FIG. 13C, the magnitude of the moment on the x-axis of coordinate
変換式生成部122は、各環境のx軸(x’軸)上のモーメントの大きさ及び向きを算出し、各環境のx軸(x’軸)上のモーメントの大きさ及び向きの差異を、各環境の力学系の力覚パラメータの変化量として算出する。y軸(y’軸)についても同様の演算を行う。
The conversion
(例2)図13E及び図13Fに示すように、慣性モーメントに関するパラメータa、パラメータb、パラメータc、パラメータdが取得された場合の変換式(B)の生成方法について説明する。パラメータa及びパラメータbは、学習環境のワークの縦横の長さを表し、パラメータc及びパラメータdは、制御環境のワークの縦横の長さを表す。ワークの中心軸1300(1301)に対する回転の向きは、センサの座標系1101(1111)のx軸(x’軸)上におけるモーメントの向きを示す。位置決めピンが存在しないワークでは、慣性モーメントの逆数がワークのモーメントの大きさを表す。図13Eに示すような薄い板部品の場合、x軸上の慣性モーメントは式(2)で与えられる。meはワークの重さである。図13Fの場合、x’軸上の慣性モーメントは式(3)で与えられる。mfはワークの重さである。 (Example 2) A method of generating a conversion formula (B) when parameters a, b, c, and d related to the moment of inertia are acquired as shown in FIG. 13E and FIG. 13F will be described. Parameters a and b represent the length and width of the workpiece in the learning environment, and parameters c and d represent the length and width of the workpiece in the control environment. The direction of rotation with respect to the central axis 1300 (1301) of the workpiece indicates the direction of the moment on the x-axis (x'-axis) of the sensor coordinate system 1101 (1111). In a workpiece without a positioning pin, the reciprocal of the moment of inertia represents the magnitude of the moment of the workpiece. In the case of a thin plate part as shown in FIG. 13E, the moment of inertia on the x-axis is given by formula (2). m e is the weight of the workpiece. In the case of FIG. 13F, the moment of inertia on the x'-axis is given by formula (3). m f is the weight of the workpiece.
変換式生成部122は、各環境のx軸(x’軸)上の慣性モーメントを算出し、各環境のx軸(x’軸)上の慣性モーメントの逆数の比を、各環境の力学系の力覚パラメータの変化量として算出する。y軸(y’軸)についても同様の演算を行う。
The conversion
以上が各環境の力学系の力覚パラメータの差分量の算出方法の説明である。なお、前述の方法は一例であってこれに限定されない。ねじれの向き及び大きさ等を力覚パラメータとして扱ってもよい。 The above is an explanation of the method for calculating the difference in the force parameters of the dynamics of each environment. Note that the above method is an example and is not limiting. The direction and magnitude of twisting may also be treated as force parameters.
変換式生成部122は、各環境の力学系の力覚パラメータの差分量に基づいて、変換式(B)を生成する(ステップS305)。位置決めピンのパラメータを用いた場合、式(4)に示すような変換式(B)が生成される。慣性モーメントのパラメータを用いた場合、式(5)に示すような変換式(B)が生成される。
The conversion
変換式生成部122は、変換式管理情報133に変換式(B)を登録し(ステップS306)、変換式(B)算出処理を終了する。
The conversion
変換式(B)を用いることによって、二つの環境の力学系をそろえることができる。これによって、モデルをそのまま用いることができる。 By using the transformation formula (B), the dynamical systems of the two environments can be aligned. This allows the model to be used as is.
本発明によれば、環境間の作業の力学系の差異を解消するように計測データを変換できる。これによって、既存のモデルを用いてロボットの作業の自動制御を実現できる。 According to the present invention, it is possible to convert measurement data so as to eliminate the difference in the dynamics of the work between environments. This makes it possible to realize automatic control of robot work using existing models.
なお、変換式(A)は必須の構成ではない。この場合、変換式(B)のみが用いられる。 Note that conversion formula (A) is not a required configuration. In this case, only conversion formula (B) is used.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments are provided to explain the present invention in detail, and are not necessarily limited to those including all of the described configurations. In addition, it is possible to add, delete, or replace part of the configuration of each embodiment with another configuration.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 The above-mentioned configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware, for example by designing them as integrated circuits. The present invention can also be realized by software program code that realizes the functions of the embodiments. In this case, a storage medium on which the program code is recorded is provided to a computer, and a processor included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-mentioned embodiments, and the program code itself and the storage medium on which it is stored constitute the present invention. Examples of storage media for supplying such program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, non-volatile memory cards, ROMs, etc.
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 In addition, the program code that realizes the functions described in this embodiment can be implemented in a wide range of program or script languages, such as assembler, C/C++, perl, Shell, PHP, Python, Java (registered trademark), etc.
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, the program code of the software that realizes the functions of the embodiment may be distributed over a network and stored in a storage means such as a computer's hard disk or memory, or in a storage medium such as a CD-RW or CD-R, and the processor of the computer may read and execute the program code stored in the storage means or storage medium.
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above examples, the control lines and information lines are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. All components may be interconnected.
100 計算機
101 ロボット
110 演算装置
111 記憶装置
112 通信装置
113 入力装置
114 出力装置
120 設備位置姿勢算出部
121 設備解析部
122 変換式生成部
123 計測データ変換部
124 補正量決定部
125 制御値算出部
130 設備管理情報
131 軌道管理情報
132 モデル管理情報
133 変換式管理情報
134 ワーク管理情報
140 計測装置
141 作業装置群
142 コントローラ
800、900 画面
100
Claims (8)
演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、
学習環境及び実際の作業が行われる制御環境の各々の、作業における前記ロボットの軌道を制御するための制御値を含む軌道情報を管理し、
前記学習環境における作業を表す第1力学系と、前記制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットに設置されたセンサが取得した計測データを変換するための第1変換式を生成し、
前記計測データ及び前記ロボットの稼働状態を示す稼働状態情報を取得した場合、前記第1変換式を用いて前記計測データを変換し、前記軌道情報、前記稼働状態情報、及び変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御することを特徴とする計算機システム。 A computer system that controls a robot that performs a task including gripping and moving a workpiece using a model generated by machine learning,
A computer including an arithmetic unit, a storage device connected to the arithmetic unit, and a network interface connected to the arithmetic unit,
managing trajectory information including control values for controlling a trajectory of the robot in a task for each of a learning environment and a controlled environment in which an actual task is performed;
generating a first transformation formula for transforming measurement data acquired by a sensor installed in the robot based on a difference between a first dynamical system representing an operation in the learning environment and a second dynamical system representing an operation in the controlled environment so that the second dynamical system coincides with the first dynamical system;
a computer system characterized in that, when the measurement data and operating status information indicating the operating status of the robot are acquired, the measurement data is converted using the first conversion formula, the trajectory information, the operating status information, and the converted measurement data are input to the model, and the robot is controlled based on the output of the model.
前記学習環境及び前記制御環境の各々の、設備に関する設備構成情報及びワークに関するワーク情報を管理し、
前記軌道情報、前記設備構成情報、及び前記ワーク情報を用いて、前記第1力学系の第1力覚パラメータ及び前記第2力学系の第2力覚パラメータを算出し、
前記第1力覚パラメータ及び前記第2力覚パラメータの差分量に基づいて、前記第1変換式を生成することを特徴とする計算機システム。 2. The computer system of claim 1,
Manage equipment configuration information relating to equipment and work information relating to work for each of the learning environment and the controlled environment;
calculating a first force parameter of the first dynamic system and a second force parameter of the second dynamic system using the trajectory information, the facility configuration information, and the work information;
A computer system comprising: a computer that generates the first transformation formula based on a difference between the first haptic parameter and the second haptic parameter.
前記第1力覚パラメータ及び前記第2力覚パラメータは、前記ワークに作用する力及びモーメントに関連するパラメータであることを特徴とする計算機システム。 3. The computer system of claim 2,
A computer system, characterized in that the first force sense parameter and the second force sense parameter are parameters related to forces and moments acting on the workpiece.
前記学習環境における前記センサの位置及び姿勢と、前記制御環境における前記センサの位置及び姿勢とに基づいて、前記学習環境における前記センサの座標系と前記制御環境における前記センサの座標系とを一致させる第2変換式を生成し、
前記第1変換式及び前記第2変換式を用いて前記計測データを変換することを特徴とする計算機システム。 2. The computer system of claim 1,
generating a second transformation equation that matches a coordinate system of the sensor in the learning environment with a coordinate system of the sensor in the controlled environment based on a position and an orientation of the sensor in the learning environment and a position and orientation of the sensor in the controlled environment;
A computer system which converts the measurement data using the first conversion formula and the second conversion formula.
前記計算機システムは、
演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、
学習環境及び実際の作業が行われる制御環境の各々の、作業における前記ロボットの軌道を制御するための制御値を含む軌道情報を管理し、
前記ロボットの制御方法は、
前記計算機が、前記学習環境における作業を表す第1力学系と、前記制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットに設置されたセンサが取得した計測データを変換するための第1変換式を生成する第1のステップと、
前記計算機が、前記計測データ及び前記ロボットの稼働状態を示す稼働状態情報を取得した場合、前記第1変換式を用いて前記計測データを変換し、前記軌道情報、前記稼働状態情報、及び変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御する第2のステップと、を含むことを特徴とするロボットの制御方法。 A method for controlling a robot that performs a task including gripping and moving a workpiece by using a model generated by machine learning, the method comprising the steps of:
The computer system includes:
A computer including an arithmetic unit, a storage device connected to the arithmetic unit, and a network interface connected to the arithmetic unit,
managing trajectory information including control values for controlling a trajectory of the robot in a task for each of a learning environment and a controlled environment in which an actual task is performed;
The method for controlling a robot includes the steps of:
a first step in which the computer generates a first conversion formula for converting measurement data acquired by a sensor installed in the robot based on a difference between a first dynamical system representing an operation in the learning environment and a second dynamical system representing an operation in the controlled environment so that the second dynamical system coincides with the first dynamical system;
a second step of, when the computer acquires the measurement data and operating status information indicating an operating status of the robot, converting the measurement data using the first conversion formula, inputting the trajectory information, the operating status information, and the converted measurement data into the model, and controlling the robot based on an output of the model.
前記計算機システムは、前記学習環境及び前記制御環境の各々の、設備に関する設備構成情報、及びワークに関するワーク情報を管理し、
前記第1のステップは、
前記計算機が、前記軌道情報、前記設備構成情報、及び前記ワーク情報を用いて、前記第1力学系の第1力覚パラメータ及び前記第2力学系の第2力覚パラメータを算出するステップと、
前記計算機が、前記第1力覚パラメータ及び前記第2力覚パラメータの差分量に基づいて、前記第1変換式を生成するステップと、を含むことを特徴とするロボットの制御方法。 A method for controlling a robot according to claim 5, comprising the steps of:
the computer system manages equipment configuration information relating to equipment and work information relating to work for each of the learning environment and the controlled environment;
The first step includes:
a step of the computer calculating a first force parameter of the first dynamic system and a second force parameter of the second dynamic system by using the trajectory information, the facility configuration information, and the work information;
and generating the first conversion equation based on a difference between the first haptic parameter and the second haptic parameter by the computer.
前記第1力覚パラメータ及び前記第2力覚パラメータは、前記ワークに作用する力及びモーメントに関連するパラメータであることを特徴とするロボットの制御方法。 A method for controlling a robot according to claim 6, comprising the steps of:
A method for controlling a robot, wherein the first force sense parameter and the second force sense parameter are parameters related to forces and moments acting on the workpiece.
前記計算機が、前記学習環境における前記センサの位置及び姿勢と、前記制御環境における前記センサの位置及び姿勢とに基づいて、前記学習環境における前記センサの座標系と前記制御環境における前記センサの座標系とを一致させる第2変換式を生成するステップを含み、
前記第2のステップは、前記計算機が、前記第1変換式及び前記第2変換式を用いて前記計測データを変換するステップを含むことを特徴とするロボットの制御方法。 A method for controlling a robot according to claim 5, comprising the steps of:
a step of generating a second transformation equation for matching a coordinate system of the sensor in the learning environment with a coordinate system of the sensor in the controlled environment, based on a position and an orientation of the sensor in the learning environment and a position and an orientation of the sensor in the controlled environment,
The robot control method according to the present invention, wherein the second step includes a step of converting the measurement data by the computer using the first conversion formula and the second conversion formula.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022182814A JP2024072129A (en) | 2022-11-15 | 2022-11-15 | Computer system and robot control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022182814A JP2024072129A (en) | 2022-11-15 | 2022-11-15 | Computer system and robot control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024072129A true JP2024072129A (en) | 2024-05-27 |
Family
ID=91194056
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022182814A Pending JP2024072129A (en) | 2022-11-15 | 2022-11-15 | Computer system and robot control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024072129A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230113622A1 (en) * | 2021-10-07 | 2023-04-13 | Hitachi, Ltd. | Computer, Method for Controlling Robot, and Computer System |
-
2022
- 2022-11-15 JP JP2022182814A patent/JP2024072129A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230113622A1 (en) * | 2021-10-07 | 2023-04-13 | Hitachi, Ltd. | Computer, Method for Controlling Robot, and Computer System |
| US12343872B2 (en) * | 2021-10-07 | 2025-07-01 | Hitachi, Ltd. | Computer, method for controlling robot, and computer system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10112297B2 (en) | Robot control apparatus, robot, and robot system | |
| García et al. | Sensor fusion for compliant robot motion control | |
| CN114211502B (en) | Robot load identification method and identification device | |
| CN118891136A (en) | System and method for flexible robotic manipulation via fast online load estimation | |
| CN120051361A (en) | System and method for learning sequences in robotic tasks to promote to new tasks | |
| US12358132B2 (en) | Robot system and picking method | |
| Garcia et al. | Trajectory control of planar closed chain fully compliant mechanism | |
| JP2024072129A (en) | Computer system and robot control method | |
| Kumar et al. | Sensor-based estimation and control of forces and moments in multiple cooperative robots | |
| JP7726730B2 (en) | Computer system and model learning method | |
| CN114585482B (en) | Control device, control method, and robot system | |
| JP5316395B2 (en) | Robot spring constant identification method and robot spring constant identification apparatus | |
| JP7706320B2 (en) | Computer, robot control method, and computer system | |
| Ansarieshlaghi et al. | Hybrid Force/Position Control of a Very Flexible Parallel Robot Manipulator in Contact with an Environment. | |
| Wnuk et al. | Challenges in robotic soft tissue manipulation—Problem identification based on an interdisciplinary case study of a teleoperated drawing robot in practice | |
| CN117532611A (en) | Control method and device for space manipulator | |
| JP2024120216A (en) | Handling device, handling method, and program | |
| JP7684190B2 (en) | Computer system and robot control method | |
| US20240131699A1 (en) | Robot system, learning apparatus, information processing apparatus, learned model, control method, information processing method, method for manufacturing product, and recording medium | |
| Shauri et al. | Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot | |
| Kim et al. | Description of instantaneous restriction space for multi-DOFs bilateral teleoperation systems using position sensors in unstructured environments | |
| JP7742988B2 (en) | Machine learning device and robot system | |
| Niitsu et al. | Detection of Contact Point of Parts Using a Force Sensor for Remote-Controlled Assembly Using a 1DOF Haptic Device | |
| JP7576891B1 (en) | Control device, control method, and program | |
| JP7583490B1 (en) | Control device, control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250514 |