[go: up one dir, main page]

JP2024072129A - Computer system and robot control method - Google Patents

Computer system and robot control method Download PDF

Info

Publication number
JP2024072129A
JP2024072129A JP2022182814A JP2022182814A JP2024072129A JP 2024072129 A JP2024072129 A JP 2024072129A JP 2022182814 A JP2022182814 A JP 2022182814A JP 2022182814 A JP2022182814 A JP 2022182814A JP 2024072129 A JP2024072129 A JP 2024072129A
Authority
JP
Japan
Prior art keywords
robot
computer
environment
measurement data
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022182814A
Other languages
Japanese (ja)
Inventor
佳一郎 西
Kaichiro Nishi
信昭 中須
Nobuaki Nakasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022182814A priority Critical patent/JP2024072129A/en
Publication of JP2024072129A publication Critical patent/JP2024072129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To achieve automatic control of a robot by using an existing model without performing relearning.SOLUTION: A computer system generates a transformation formula for transforming measurement data acquired by a sensor such that a second dynamical system matches a first dynamical system on the basis of a difference between the first dynamical system, representing work in a learning environment, and the second dynamical system, representing work in a control environment, transforms the measurement data by using the transformation formula, inputs the transformed measurement data to a model, and controls a robot on the basis of an output from the model.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットの制御方法、及びロボット制御装置に関する。 The present invention relates to a robot control method and a robot control device.

組立作業等、ワークの把持及びワークの移動を含む作業を行うロボットを自動制御する技術がある。自動制御では、ロボットに取り付けたセンサから取得される計測データを入力とするモデルが用いられる。モデルは機械学習によって生成される。例えば、特許文献1に記載の技術が知られている。 There is a technology for automatically controlling a robot that performs tasks, such as assembly work, that involve gripping and moving a workpiece. In automatic control, a model is used that inputs measurement data obtained from a sensor attached to the robot. The model is generated by machine learning. For example, the technology described in Patent Document 1 is known.

特開2022-61022号公報JP 2022-61022 A 特開2013-106768号公報JP 2013-106768 A

既存のモデルを活用する場合、実際の作業の環境(制御環境)が機械学習における作業の環境(学習環境)と同じであることが前提となる。しかし、センサ取り付け位置、ワークの形状及び姿勢、並びに、位置決めピンの位置等、制御環境が学習環境と異なる場合、ロボットのワークに加える力の大きさ及び向きが変化するため、モデルの再学習が必要となる。 When utilizing an existing model, it is assumed that the actual work environment (control environment) is the same as the work environment (learning environment) in machine learning. However, if the control environment differs from the learning environment in terms of the sensor mounting position, the shape and orientation of the workpiece, and the position of the positioning pins, the magnitude and direction of the force applied to the workpiece by the robot will change, and the model will need to be re-learned.

既存のモデルを流用するために、モデルに入力する計測データを変換する方法が考えられる。計測データを変換する技術として特許文献2に記載の技術が知られている。 In order to reuse an existing model, a method of converting the measurement data to be input to the model can be considered. The technology described in Patent Document 2 is known as a technology for converting measurement data.

特許文献1には、「加速度センサー200から検出加速度を取得する加速度情報取得部110と、第1の座標変換補正値を取得する補正値取得部120と、第1の座標変換補正値に基づいて、加速度センサー座標系から運動解析座標系へ、検出加速度の座標変換処理を行う座標変換部130と、座標変換処理後の検出加速度に基づいて、運動解析処理を行う運動解析部140と、を含む」状態検出装置が開示されている。 Patent document 1 discloses a state detection device that "includes an acceleration information acquisition unit 110 that acquires detected acceleration from an acceleration sensor 200, a correction value acquisition unit 120 that acquires a first coordinate conversion correction value, a coordinate conversion unit 130 that performs coordinate conversion processing of the detected acceleration from the acceleration sensor coordinate system to a motion analysis coordinate system based on the first coordinate conversion correction value, and a motion analysis unit 140 that performs motion analysis processing based on the detected acceleration after the coordinate conversion processing."

特許文献2に記載の技術を用いれば、環境間の座標系の差異を解消することができる。しかし、特許文献2に記載の技術を用いても、環境間の作業を表す力学系の差異を解消することができない。 By using the technology described in Patent Document 2, it is possible to eliminate the difference in the coordinate systems between environments. However, even if the technology described in Patent Document 2 is used, it is not possible to eliminate the difference in the dynamics systems that represent the work between environments.

本発明は、環境間の作業の力学系の差異を解消するように計測データを変換することによって、既存のモデルを用いてロボットが行う作業を自動制御するための技術を提供する。 The present invention provides a technology for automatically controlling tasks performed by a robot using an existing model by converting measurement data to eliminate differences in the dynamics of the tasks between environments.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。 To solve the above problem, the configuration described in the claims is adopted, for example.

本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、機械学習によって生成されたモデルを用いて、ワークの把持及びの移動を含む作業を行うロボットを制御する計算機システムであって、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、学習環境における作業を表す第1力学系と、制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットの稼働状態を示す計測データを変換するための第1変換式を生成し、前記計測データを取得した場合、前記第1変換式を用いて前記計測データを変換し、変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御する。 A representative example of the invention disclosed in this application is as follows. That is, a computer system that uses a model generated by machine learning to control a robot that performs tasks including grasping and moving a workpiece, includes a calculation device, a storage device connected to the calculation device, and a computer having a network interface connected to the calculation device, and generates a first conversion formula for converting measurement data indicating the operating state of the robot based on a difference between a first dynamic system representing tasks in a learning environment and a second dynamic system representing tasks in a control environment so that the second dynamic system matches the first dynamic system, and when the measurement data is acquired, converts the measurement data using the first conversion formula, inputs the converted measurement data to the model, and controls the robot based on the output of the model.

本発明によれば、環境間の作業の力学系の差異を解消するように計測データを変換することによって、既存のモデルを用いてロボットが行う作業を自動制御できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, by converting measurement data so as to eliminate differences in the dynamics of the tasks between environments, tasks performed by a robot can be automatically controlled using an existing model. Problems, configurations, and effects other than those described above will become clear from the description of the embodiments below.

実施例1のシステムの構成例を示す図である。FIG. 1 illustrates an example of a system configuration according to a first embodiment. 実施例1の設備管理情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of facility management information according to the first embodiment. 実施例1の設備管理情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of facility management information according to the first embodiment. 実施例1の軌道管理情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of trajectory management information according to the first embodiment. 実施例1のモデル管理情報のデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of a data structure of model management information according to the first embodiment. 実施例1の変換式管理情報のデータ構造の一例を示す図である。11 is a diagram illustrating an example of a data structure of conversion formula management information according to the first embodiment. 実施例1のワーク管理情報のデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of a data structure of work management information according to the first embodiment. 実施例1の計算機が実行するロボット制御処理の一例を説明するフローチャートである。11 is a flowchart illustrating an example of a robot control process executed by a computer according to the first embodiment. 実施例1の計算機が提示する画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a screen presented by a computer according to the first embodiment. 実施例1の計算機が提示する画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a screen presented by a computer according to the first embodiment. 実施例1の計算機が実行する変換式(A)算出処理の一例を説明するフローチャートである。11 is a flowchart illustrating an example of a conversion formula (A) calculation process executed by a computer according to the first embodiment. 実施例1の計算機が実行する変換式(A)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (A) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(A)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (A) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(A)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (A) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の一例を説明するフローチャートである。11 is a flowchart illustrating an example of a conversion formula (B) calculation process executed by the computer according to the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment. 実施例1の計算機が実行する変換式(B)算出処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of a conversion formula (B) calculation process executed by the computer of the first embodiment.

以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。 The following describes an embodiment of the present invention with reference to the drawings. However, the present invention should not be interpreted as being limited to the description of the embodiment shown below. It will be easily understood by those skilled in the art that the specific configuration can be changed without departing from the concept or spirit of the present invention.

以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。 In the configuration of the invention described below, the same or similar configurations or functions are given the same reference symbols, and duplicate explanations are omitted.

本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。 The terms "first," "second," "third," and the like used in this specification are used to identify components and do not necessarily limit the number or order.

図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。 The position, size, shape, range, etc. of each component shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not limited to the position, size, shape, range, etc. disclosed in the drawings, etc.

図1は、実施例1のシステムの構成例を示す図である。システムは、計算機100及びロボット101から構成される。計算機100及びロボット101は、直接又はネットワークを介して接続される。 Figure 1 is a diagram showing an example of the configuration of a system according to a first embodiment. The system is composed of a computer 100 and a robot 101. The computer 100 and the robot 101 are connected directly or via a network.

計算機100は、演算装置110、記憶装置111、通信装置112、入力装置113、及び出力装置114を備える。各ハードウェア要素は、例えば内部バスを介して接続されるが、この方法に限らない。 The computer 100 includes a calculation device 110, a storage device 111, a communication device 112, an input device 113, and an output device 114. Each hardware element is connected via an internal bus, for example, but is not limited to this method.

入力装置113は、計算機100にデータ及びコマンド等を入力する装置である。入力装置113は、例えば、キーボード、マウス等がある。 The input device 113 is a device for inputting data, commands, etc. to the computer 100. Examples of the input device 113 include a keyboard and a mouse.

出力装置114は、制御値変更結果等を出力する装置である。出力装置114は、例えば、ディスプレイ、プリンタ等がある。 The output device 114 is a device that outputs the results of control value changes, etc. Examples of the output device 114 include a display and a printer.

記憶装置111は、演算装置110が実行するプログラム及び情報を格納する装置である。記憶装置111は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等である。記憶装置111は、入力装置113を介して入力された情報及びプログラムの演算結果も格納する。また、記憶装置111はワークエリアとしても用いられる。 The storage device 111 is a device that stores the programs and information executed by the computing device 110. The storage device 111 is, for example, a hard disk drive (HDD) or a solid state drive (SSD). The storage device 111 also stores information input via the input device 113 and the results of program calculations. The storage device 111 is also used as a work area.

記憶装置111は、設備管理情報130、軌道管理情報131、モデル管理情報132、変換式管理情報133、及びワーク管理情報134を格納する。 The storage device 111 stores equipment management information 130, trajectory management information 131, model management information 132, conversion formula management information 133, and work management information 134.

設備管理情報130は、ロボット101による作業が行われる設備の構成に関する設備構成情報を格納する。設備管理情報130のデータ構造については図2A及び図2Bを用いて後述する。 The equipment management information 130 stores equipment configuration information related to the configuration of the equipment on which the robot 101 performs work. The data structure of the equipment management information 130 will be described later with reference to Figures 2A and 2B.

軌道管理情報131は、作業におけるロボットの軌道を制御するための制御値を含む軌道情報を格納する。軌道管理情報131のデータ構造については図3を用いて後述する。 The trajectory management information 131 stores trajectory information including control values for controlling the trajectory of the robot during work. The data structure of the trajectory management information 131 will be described later with reference to FIG. 3.

モデル管理情報132は、ロボットの制御に用いるデータ値を出力するモデルを格納する。モデル管理情報132のデータ構造については図4を用いて後述する。 Model management information 132 stores models that output data values used to control the robot. The data structure of model management information 132 will be described later with reference to FIG. 4.

モデルは、例えば、ニューラルネットワークであり、強化学習、深層学習、及び深層強化学習等によって生成される。実施例1のモデルは、軌道情報、ロボットの稼働状態情報、及び計測データを入力として受け付け、軌道情報に含まれる制御値に対する補正量を出力する。なお、本発明は、モデルの構造、モデルの出力、及びモデルの学習方法に限定されない。 The model is, for example, a neural network, and is generated by reinforcement learning, deep learning, deep reinforcement learning, and the like. The model of Example 1 receives trajectory information, robot operating status information, and measurement data as input, and outputs a correction amount for the control value included in the trajectory information. Note that the present invention is not limited to the model structure, model output, and model learning method.

変換式管理情報133は、計測データの変換式を格納する。変換式管理情報133のデータ構造については図5を用いて後述する。 The conversion formula management information 133 stores the conversion formula for the measurement data. The data structure of the conversion formula management information 133 will be described later with reference to FIG. 5.

ワーク管理情報134は、ワークに関するワーク情報を格納する。ワーク管理情報134のデータ構造については図5を用いて後述する。 Work management information 134 stores work information related to work. The data structure of work management information 134 will be described later with reference to FIG. 5.

演算装置110は、計算機100を制御する装置であり、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びFPGA(Field Programmable Gate Array)等である。演算装置110は記憶装置111に格納されるプログラムを実行する。演算装置110がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、演算装置110が当該機能部を実現するプログラムを実行していることを示す。実施例1の演算装置110は、設備位置姿勢算出部120、設備解析部121、変換式生成部122、計測データ変換部123、補正量決定部124、及び制御値算出部125として機能する。 The arithmetic device 110 is a device that controls the computer 100, and is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array). The arithmetic device 110 executes a program stored in the memory device 111. The arithmetic device 110 operates as a functional unit (module) that realizes a specific function by executing processing according to the program. In the following description, when the processing is described with the functional unit as the subject, it indicates that the arithmetic device 110 is executing a program that realizes the functional unit. The arithmetic device 110 of the first embodiment functions as an equipment position and orientation calculation unit 120, an equipment analysis unit 121, a conversion formula generation unit 122, a measurement data conversion unit 123, a correction amount determination unit 124, and a control value calculation unit 125.

設備位置姿勢算出部120は、設備構成情報及び軌道情報に基づいて、設備を構成する機器及びワークの位置及び姿勢を算出する。 The equipment position and orientation calculation unit 120 calculates the positions and orientations of the equipment and work that make up the equipment based on the equipment configuration information and trajectory information.

設備解析部121は、学習環境及び制御環境の各々の設備構成情報に基づいて、環境間の差異を解析する。設備解析部121は、例えば、各環境のロボット101の先端部に取り付けられたセンサの位置及び姿勢の差分量等を算出し、また、各環境のワークの位置決めピンの有無を判定する。 The equipment analysis unit 121 analyzes the differences between the environments based on the equipment configuration information of each of the learning environment and the control environment. For example, the equipment analysis unit 121 calculates the amount of difference in the position and orientation of the sensor attached to the tip of the robot 101 in each environment, and also determines whether or not there is a positioning pin for the workpiece in each environment.

変換式生成部122は、環境間の差異がなくなるように計測データを変換するための変換式を生成する。 The conversion formula generation unit 122 generates a conversion formula for converting the measurement data so that differences between environments are eliminated.

計測データ変換部123は、変換式生成部122によって生成された変換式を用いて、後述する計測装置140から取得した計測データを変換する。 The measurement data conversion unit 123 uses the conversion equation generated by the conversion equation generation unit 122 to convert the measurement data acquired from the measurement device 140 described below.

補正量決定部124は、変換された計測データをモデルに入力することによって補正量を算出する。 The correction amount determination unit 124 calculates the correction amount by inputting the converted measurement data into the model.

制御値算出部125は、軌道情報及び補正量決定部124によって算出された補正量に基づいて、ロボット101に送信する制御値を算出する。 The control value calculation unit 125 calculates the control value to be transmitted to the robot 101 based on the trajectory information and the correction amount calculated by the correction amount determination unit 124.

なお、計算機100が有する機能部については、複数の機能部を一つの機能部にまとめてもよいし、一つの機能部を機能毎に複数の機能部に分けてもよい。 Regarding the functional units of the computer 100, multiple functional units may be combined into one functional unit, or one functional unit may be divided into multiple functional units for each function.

通信装置112は、外部装置と通信するための装置であり、例えば、NIC(Network Interface Card)である。 The communication device 112 is a device for communicating with external devices, such as a NIC (Network Interface Card).

ロボット101は、計算機100によって算出された制御値を含む制御情報に基づいて、ワークの把持及び始点から終点までの移動を含む作業を行う。 The robot 101 performs tasks including grasping a workpiece and moving it from a starting point to an end point based on control information including control values calculated by the computer 100.

ロボット101は、計測装置140、作業装置群141、及びコントローラ142を備える。 The robot 101 includes a measuring device 140, a group of working devices 141, and a controller 142.

計測装置140は、ロボット101の作業によるワークの状態を把握するための値を計測し、計測データを生成する。計測装置140は、例えば、加速度センサ、力覚センサ、カメラ、接触センサ、及び電流センサ等の一般的なセンシングデバイスである。 The measuring device 140 measures values to grasp the state of the workpiece caused by the work of the robot 101, and generates measurement data. The measuring device 140 is, for example, a general sensing device such as an acceleration sensor, a force sensor, a camera, a contact sensor, and a current sensor.

作業装置群141は、ワークの把持及び移動を実現する装置群であり、例えば、ツール、リンク、及び駆動モータ等の一般的な機械要素群である。 The work device group 141 is a group of devices that grasp and move the workpiece, and is, for example, a group of general mechanical elements such as tools, links, and drive motors.

コントローラ142は、計算機100から受信した制御値に基づいて作業装置群141を制御する。例えば、コントローラ142は、制御値にしたがって、関節として機能するリンク間を接続する駆動モータを制御することによってツールを移動させる。コントローラ142は、関節の角度、角速度、及び角加速度、並びに、駆動モータのトルク及び電流値等を含む稼働状態情報を計算機100に出力する。 The controller 142 controls the group of working devices 141 based on the control values received from the computer 100. For example, the controller 142 moves the tool by controlling the drive motors that connect the links that function as joints in accordance with the control values. The controller 142 outputs operating status information to the computer 100, including the angles, angular velocities, and angular accelerations of the joints, as well as the torque and current values of the drive motors.

図2A及び図2Bは、実施例1の設備管理情報130のデータ構造の一例を示す図である。 2A and 2B are diagrams showing an example of the data structure of facility management information 130 in Example 1.

設備管理情報130は、ID201、設備名202、分類203、項目204、及び内容205を含むエントリを格納する。一つのエントリが一つの設備構成情報に対応する。一つのエントリには、設備を構成する複数の要素の行が含まれる。 The facility management information 130 stores entries including an ID 201, a facility name 202, a classification 203, an item 204, and details 205. One entry corresponds to one piece of facility configuration information. One entry includes rows for multiple elements that make up the facility.

ID201は、設備構成情報の識別情報を格納するフィールドである。設備名202は、設備の名称を格納するフィールドである。分類203は、設備を構成する要素の分類を格納するフィールドである。分類203には、オブジェクト、ロボット、リンク、ジョイント等が格納される。項目204は、要素の管理項目を格納するフィールドである。内容205は、管理項目の内容を格納するフィールドである。内容205には、ファイル、数値、及び文字列等が格納される。 ID 201 is a field that stores identification information for facility configuration information. Facility name 202 is a field that stores the name of the facility. Classification 203 is a field that stores the classification of the elements that make up the facility. Objects, robots, links, joints, etc. are stored in classification 203. Item 204 is a field that stores the management items of the elements. Content 205 is a field that stores the contents of the management items. Files, numbers, character strings, etc. are stored in content 205.

要素「組立セル架台」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「力覚センサ」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「ハンド」では、名称、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「ワーク」では、名称、ワークタイプ、位置決めピンの有無、重量、取り付け対象、相対位置、相対姿勢、及び形状ファイル情報が管理される。要素「Robo」では、名称、取り付け対象、相対位置、及び相対姿勢が管理される。要素「Link」では、形状ファイル情報が管理される。要素「Joint」では、親リンク、子リンク、関節タイプ、関節角度下限、関節角度上限、及び関節角度速度上限が格納されている。 The "assembly cell stand" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "force sensor" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "hand" element manages the name, attachment target, relative position, relative orientation, and shape file information. The "work" element manages the name, work type, presence or absence of positioning pins, weight, attachment target, relative position, relative orientation, and shape file information. The "Robo" element manages the name, attachment target, relative position, and relative orientation. The "Link" element manages shape file information. The "Joint" element stores the parent link, child link, joint type, joint angle lower limit, joint angle upper limit, and joint angle speed upper limit.

要素の相対位置及び相対姿勢は、取り付け対象に対する要素の位置及び姿勢である。組立セル架台は、設備の基準(Root)であり、組立セル架台の任意の点を原点とする絶対座標系を設定している。 The relative position and orientation of an element are the position and orientation of the element relative to the object to which it is attached. The assembly cell stand is the reference point (Root) of the equipment, and an absolute coordinate system is set with any point on the assembly cell stand as the origin.

図3は、実施例1の軌道管理情報131のデータ構造の一例を示す図である。 Figure 3 is a diagram showing an example of the data structure of trajectory management information 131 in Example 1.

軌道管理情報131は、ID301、軌道名302、姿勢303、及びTime304を含むエントリを格納する。一つのエントリが一つの軌道情報に対応する。 The trajectory management information 131 stores entries including an ID 301, a trajectory name 302, an attitude 303, and a time 304. One entry corresponds to one piece of trajectory information.

ID301は、軌道情報の識別情報を格納するフィールドである。軌道名302は、軌道情報の名称を格納するフィールドである。姿勢303は、経由点における関節軸の角度を格納するフィールド群である。Time304は、開始経由点から移動を開始してから経由点に到着する時間を格納するフィールドである。開始経由点のTime304は「0.0」である。 ID 301 is a field that stores identification information for trajectory information. Trajectory name 302 is a field that stores the name of the trajectory information. Posture 303 is a group of fields that stores the angles of the joint axes at the waypoints. Time 304 is a field that stores the time from when movement begins from the start waypoint to when the waypoint is reached. Time 304 for the start waypoint is "0.0".

図4は、実施例1のモデル管理情報132のデータ構造の一例を示す図である。 Figure 4 is a diagram showing an example of the data structure of model management information 132 in Example 1.

モデル管理情報132は、ID401、モデル402、設備名403、及び軌道名404を含むエントリを格納する。一つのエントリが一つのモデルに対応する。 The model management information 132 stores entries including an ID 401, a model 402, a facility name 403, and an orbit name 404. One entry corresponds to one model.

ID401は、モデルの識別情報を格納するフィールドである。モデル402は、モデルを格納するフィールドである。設備名403は、モデルの学習時の設備の名称を格納するフィールドである。設備名403は設備名202に対応する。軌道名404は、モデルの学習時の軌道の名称を格納するフィールドである。軌道名404は軌道名302に対応する。 ID 401 is a field that stores identification information of the model. Model 402 is a field that stores the model. Equipment name 403 is a field that stores the name of the equipment at the time of learning the model. Equipment name 403 corresponds to equipment name 202. Trajectory name 404 is a field that stores the name of the trajectory at the time of learning the model. Trajectory name 404 corresponds to trajectory name 302.

図5は、実施例1の変換式管理情報133のデータ構造の一例を示す図である。 Figure 5 is a diagram showing an example of the data structure of the conversion formula management information 133 in Example 1.

変換式管理情報133は、ID501、モデル502、設備名503、軌道名504、変換式(A)505、及び変換式(B)506を含むエントリを格納する。一つのエントリが一つの作業に対応する。 The conversion formula management information 133 stores entries including an ID 501, a model 502, a facility name 503, an orbit name 504, a conversion formula (A) 505, and a conversion formula (B) 506. One entry corresponds to one task.

ID501は、作業の識別情報を格納するフィールドである。モデル502は、作業を制御するために適用するモデルを格納するフィールドである。設備名503は、作業における設備の名称を格納するフィールドである。設備名503は設備名202に対応する。軌道名504は、作業における軌道の名称を格納するフィールドである。軌道名504は軌道名302に対応する。変換式(A)505及び変換式(B)506は、計測データを変換するための変換式を格納するフィールドである。変換式(A)505に格納される変換式は、二つの環境のセンサの座標系をそろえるための式である。変換式(B)506に格納される変換式は、二つの環境の力学系をそろえるための式である。ここで、環境の力学系とは、ワークの把持及び移動に関する力学系を意味する。環境の力学系は、ワークに作用する力及びモーメントに関連するパラメータ(力覚パラメータ)を用いて記述される。 ID 501 is a field that stores the identification information of the work. Model 502 is a field that stores the model to be applied to control the work. Equipment name 503 is a field that stores the name of the equipment in the work. Equipment name 503 corresponds to equipment name 202. Trajectory name 504 is a field that stores the name of the trajectory in the work. Trajectory name 504 corresponds to trajectory name 302. Conversion formula (A) 505 and conversion formula (B) 506 are fields that store conversion formulas for converting measurement data. The conversion formula stored in conversion formula (A) 505 is a formula for aligning the coordinate systems of the sensors in the two environments. The conversion formula stored in conversion formula (B) 506 is a formula for aligning the dynamic systems of the two environments. Here, the dynamic system of the environment means a dynamic system related to the gripping and movement of the work. The dynamic system of the environment is described using parameters (force parameters) related to the forces and moments acting on the work.

図6は、実施例1のワーク管理情報134のデータ構造の一例を示す図である。 Figure 6 is a diagram showing an example of the data structure of work management information 134 in Example 1.

ワーク管理情報134は、ID601、設備名602、ワークタイプ603、慣性モーメントパラメータ604、及び位置決めピンパラメータ605を含むエントリを格納する。一つのエントリが一つのワーク情報に対応する。 The work management information 134 stores entries including an ID 601, an equipment name 602, a work type 603, a moment of inertia parameter 604, and a positioning pin parameter 605. One entry corresponds to one piece of work information.

ID601は、ワーク情報の識別情報を格納するフィールドである。設備名602は、ワークを扱う設備の名称を格納するフィールドである。設備名602は設備名202に対応する。ワークタイプ603は、ワークのタイプを格納するフィールドである。慣性モーメントパラメータ604は、ワークの慣性モーメントを求めるためのパラメータを格納するフィールド群である。位置決めピンパラメータ605は、ワークの位置決めピンの位置に関するパラメータを格納するフィールド群である。 ID 601 is a field that stores identification information for the work information. Equipment name 602 is a field that stores the name of the equipment that handles the work. Equipment name 602 corresponds to equipment name 202. Work type 603 is a field that stores the type of work. Inertia moment parameters 604 are a group of fields that store parameters for calculating the moment of inertia of the work. Locating pin parameters 605 are a group of fields that store parameters related to the position of the locating pin of the work.

慣性モーメントパラメータ604及び位置決めピンパラメータ605には、力覚パラメータを算出するためのパラメータが格納される。なお、慣性モーメントパラメータ604及び位置決めピンパラメータ605は一例であってこれに限定されない。例えば、材質、剛性等に関するパラメータを格納するフィールドを含んでもよい。 Parameters for calculating the force sense parameters are stored in the moment of inertia parameters 604 and the positioning pin parameters 605. Note that the moment of inertia parameters 604 and the positioning pin parameters 605 are merely examples and are not limiting. For example, fields for storing parameters related to material, rigidity, etc. may be included.

図7は、実施例1の計算機100が実行するロボット制御処理の一例を説明するフローチャートである。図8及び図9は、実施例1の計算機100が提示する画面の一例を示す図である。 Figure 7 is a flowchart illustrating an example of a robot control process executed by the computer 100 of the first embodiment. Figures 8 and 9 are diagrams showing examples of screens presented by the computer 100 of the first embodiment.

計算機100は、出力装置114を介して図8に示す画面800を表示し、作業におけるモデル、設備、及び軌道等についてユーザ入力を受け付ける(ステップS101)。 The calculator 100 displays the screen 800 shown in FIG. 8 via the output device 114 and accepts user input regarding the model, equipment, trajectory, etc., of the work (step S101).

画面800は、入力エリア801、環境表示エリア802、変換式表示エリア803、及び操作ボタンエリア804を含む。 The screen 800 includes an input area 801, an environment display area 802, a conversion formula display area 803, and an operation button area 804.

入力エリア801は、モデル、設備、及び軌道等を入力するためのエリアであり、選択欄811、813、815、読込ボタン812、814、816、及び表示欄817を含む。 The input area 801 is an area for inputting models, facilities, orbits, etc., and includes selection fields 811, 813, 815, load buttons 812, 814, 816, and a display field 817.

選択欄811は、モデルを選択する欄である。読込ボタン812が操作された場合、モデル管理情報132から選択欄811にて指定されたモデルが読み出される。選択欄813は、設備を選択する欄である。読込ボタン814が操作された場合、設備管理情報130から選択欄813にて指定された設備の設備構成情報が読み出される。選択欄815は、軌道を選択する欄である。読込ボタン816が操作された場合、軌道管理情報131から選択欄815にて指定された軌道の軌道情報が読み出される。表示欄817は、指定された設備において用いられるワークのタイプを表示する欄である。 The selection field 811 is a field for selecting a model. When the load button 812 is operated, the model specified in the selection field 811 is read from the model management information 132. The selection field 813 is a field for selecting equipment. When the load button 814 is operated, the equipment configuration information of the equipment specified in the selection field 813 is read from the equipment management information 130. The selection field 815 is a field for selecting a trajectory. When the load button 816 is operated, the trajectory information of the trajectory specified in the selection field 815 is read from the trajectory management information 131. The display field 817 is a field for displaying the type of work used in the specified equipment.

なお、ユーザから直接、モデル、設備構成情報、及び軌道情報を受け付けてもよい。 In addition, model, facility configuration information, and orbit information may be accepted directly from the user.

環境表示エリア802は、学習環境及び制御環境を表示する欄である。環境表示エリア802は、表示欄821、822を含む。 The environment display area 802 is a field that displays the learning environment and the control environment. The environment display area 802 includes display fields 821 and 822.

表示欄821は、学習環境に関する情報を表示する欄である。計算機100は、モデル管理情報132を参照して、選択欄811にて指定されたモデルに対応するエントリを検索する。計算機100は、検索されたエントリの設備名403及び軌道名404に基づいて、設備管理情報130及び軌道管理情報131から設備構成情報及び軌道情報を取得する。計算機100は、取得した情報に基づいて、学習環境を表す画像を生成し、表示欄821に表示する。 The display field 821 is a field that displays information about the learning environment. The computer 100 refers to the model management information 132 and searches for an entry that corresponds to the model specified in the selection field 811. The computer 100 acquires facility configuration information and trajectory information from the facility management information 130 and trajectory management information 131 based on the facility name 403 and trajectory name 404 of the searched entry. The computer 100 generates an image representing the learning environment based on the acquired information and displays it in the display field 821.

表示欄822は、制御環境に関する情報を表示する欄である。計算機100は、選択欄813及び選択欄815にて指定された情報に基づいて、実際の作業の環境を表す画像を生成し、表示欄822に表示する。 The display field 822 is a field that displays information about the controlled environment. The computer 100 generates an image representing the actual work environment based on the information specified in the selection fields 813 and 815, and displays it in the display field 822.

なお、表示欄821、822には、ワークの形状、慣性モーメントに関するパラメータ、位置決めピンの位置に関するパラメータ等が表示されてもよい。 In addition, display fields 821 and 822 may display the shape of the workpiece, parameters related to the moment of inertia, parameters related to the position of the positioning pin, etc.

変換式表示エリア803は、変換式を表示する欄である。 The conversion formula display area 803 is a field that displays the conversion formula.

操作ボタンエリア804は、計算機100に処理の実行を指示するための操作ボタンを表示する欄である。操作ボタンエリア804は、変換式ボタン841及び制御ボタン842を含む。変換式ボタン841は、変換式算出処理の実行を指示するための操作ボタンである。制御ボタン842は、制御処理の実行を指示するための操作ボタンである。 The operation button area 804 is a field that displays operation buttons for instructing the calculator 100 to execute a process. The operation button area 804 includes a conversion formula button 841 and a control button 842. The conversion formula button 841 is an operation button for instructing the execution of a conversion formula calculation process. The control button 842 is an operation button for instructing the execution of a control process.

ユーザは、入力エリア801に必要な情報を入力した後、変換式ボタン841を操作する。計算機100は、当該操作を受け付けた場合、変換式(A)算出処理及び変換式(B)算出処理を実行する(ステップS102、ステップS103)。変換式(A)算出処理及び変換式(B)算出処理の詳細は後述する。 After inputting the necessary information in the input area 801, the user operates the conversion formula button 841. When the calculator 100 receives this operation, it executes a conversion formula (A) calculation process and a conversion formula (B) calculation process (steps S102 and S103). The details of the conversion formula (A) calculation process and the conversion formula (B) calculation process will be described later.

計算機100は、処理結果を変換式表示エリア803に表示する。ユーザは、変換式表示エリア803を確認した後、制御ボタン842を操作する。計算機100は、制御処理を開始する(ステップS104)。制御処理は、ワークの把持及び移動を含む作業が終了するまで繰り返し実行される。 The calculator 100 displays the processing results in the conversion formula display area 803. After checking the conversion formula display area 803, the user operates the control button 842. The calculator 100 starts the control process (step S104). The control process is repeatedly executed until the operation, including gripping and moving the workpiece, is completed.

計算機100は、通信装置112を介して、計測装置140から計測データを取得し、コントローラ142から稼働状態情報を取得する(ステップS105)。 The computer 100 acquires measurement data from the measuring device 140 via the communication device 112 and acquires operating status information from the controller 142 (step S105).

計算機100は、変換式(A)及び変換式(B)を用いて、計測データを変換する(ステップS106)。具体的には、計測データ変換部123は、変換式(A)を用いて計測データを第1変換計測データに変換し、変換式(B)を用いて第1変換計測データを第2変換計測データに変換する。 The calculator 100 converts the measurement data using the conversion formula (A) and the conversion formula (B) (step S106). Specifically, the measurement data converter 123 converts the measurement data into the first converted measurement data using the conversion formula (A), and converts the first converted measurement data into the second converted measurement data using the conversion formula (B).

計算機100は、軌道情報、変換された計測データ(第2変換計測データ)、及び稼働状態情報をモデルに入力することによって補正量を算出する(ステップS107)。モデルは、ロボット101の動作周期に合わせた補正量を出力する。例えば、ロボット101の動作周期がΔt秒、ロボット101が動作を開始してからT秒経過している場合、T+Δtにおける地点のロボットの各関節角度の補正量が算出される。 The calculator 100 calculates the correction amount by inputting the trajectory information, the converted measurement data (second converted measurement data), and the operating state information into the model (step S107). The model outputs a correction amount that matches the operation cycle of the robot 101. For example, if the operation cycle of the robot 101 is Δt seconds, and T seconds have passed since the robot 101 started operating, the correction amount for each joint angle of the robot at a point at T+Δt is calculated.

計算機100は、補正量に基づいて軌道情報に含まれる制御値を補正し、補正された制御値を含む制御情報を生成する(ステップS108)。例えば、ロボット101の動作周期がΔt秒、ロボット101が動作を開始してからT秒経過している場合、軌道情報のT+Δtにおける各関節の角度(制御値)に補正量を加算することによって補正を行う。 The computer 100 corrects the control values included in the trajectory information based on the correction amount, and generates control information including the corrected control values (step S108). For example, if the operation period of the robot 101 is Δt seconds, and T seconds have passed since the robot 101 started operating, the correction is performed by adding the correction amount to the angle (control value) of each joint at T+Δt in the trajectory information.

計算機100は、通信装置112を介して、コントローラ142に制御情報を送信する(ステップS109)。 The computer 100 transmits control information to the controller 142 via the communication device 112 (step S109).

作業の完了条件を満たさない場合、計算機100は、ステップS105に戻り、同様の処理を実行する。作業の完了条件を満たす場合、計算機100は制御処理を終了する。 If the task completion conditions are not met, the computer 100 returns to step S105 and executes the same process. If the task completion conditions are met, the computer 100 ends the control process.

作業の完了条件は、例えば、軌道情報に基づくロボットの制御を開始してからの時間が軌道の最終経由点のTime304の経過である。また、軌道の最終経由点の制御値の算出を作業の完了条件としてもよい。 The condition for completing the work is, for example, the elapse of Time 304 at the final waypoint of the trajectory from the start of control of the robot based on the trajectory information. The condition for completing the work may also be the calculation of the control value for the final waypoint of the trajectory.

計算機100は、出力装置114を介して実行結果を提示し(ステップS110)、その後、ロボット制御処理を終了する。 The computer 100 presents the execution results via the output device 114 (step S110), and then terminates the robot control process.

例えば、計算機100は画面900を表示する。画面900は、表示欄901、902を含む。表示欄901には、モデル、設備構成情報、軌道情報、ワークのタイプ、及び変換式等が表示される。表示欄902には、実行結果として、変換前の計測データの時系列グラフ921、変換後の計測データの時系列グラフ922、及び作業の軌道を示す画像923が表示される。 For example, the computer 100 displays a screen 900. The screen 900 includes display fields 901 and 902. The display field 901 displays a model, equipment configuration information, trajectory information, work type, conversion formula, etc. The display field 902 displays, as execution results, a time series graph 921 of the measurement data before conversion, a time series graph 922 of the measurement data after conversion, and an image 923 showing the trajectory of the work.

画像923の実線は軌道情報に基づいて制御した場合のロボット101の軌道を表し、点線は補正された制御値に基づいて制御されたロボット101の軌道を表す。 The solid line in image 923 represents the trajectory of the robot 101 when controlled based on the trajectory information, and the dotted line represents the trajectory of the robot 101 when controlled based on the corrected control value.

実施例1のロボット制御処理では、既存のモデルを用いて、制御環境下でロボット101の作業を制御することができる。例えば、ワークの位置ずれが生じた場合でも、モデルを用いることによってずれ量に応じて制御値を補正することができる。 In the robot control process of Example 1, an existing model can be used to control the work of the robot 101 in a controlled environment. For example, even if the workpiece is misaligned, the model can be used to correct the control value according to the amount of misalignment.

図10は、実施例1の計算機100が実行する変換式(A)算出処理の一例を説明するフローチャートである。図11A、図11B、及び図11Cは、実施例1の計算機100が実行する変換式(A)算出処理の具体例を示す図である。 Figure 10 is a flowchart illustrating an example of the conversion formula (A) calculation process executed by the computer 100 of the first embodiment. Figures 11A, 11B, and 11C are diagrams illustrating a specific example of the conversion formula (A) calculation process executed by the computer 100 of the first embodiment.

設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報を取得する(ステップS201)。具体的には、以下のような処理が実行される。 The equipment position and orientation calculation unit 120 acquires equipment configuration information and trajectory information of the learning environment (step S201). Specifically, the following process is executed.

(S201-1)設備位置姿勢算出部120は、モデル管理情報132を参照し、モデル402に指定されたモデルが格納されるエントリを検索する。 (S201-1) The equipment position and orientation calculation unit 120 refers to the model management information 132 and searches for an entry in which the model specified in the model 402 is stored.

(S202-2)設備位置姿勢算出部120は、設備管理情報130を参照し、設備名202の値が、モデル管理情報132から検索されたエントリの設備名403の値と一致するエントリを検索する。設備位置姿勢算出部120は、検索されたエントリに対応する設備構成情報を取得する。 (S202-2) The equipment position and orientation calculation unit 120 refers to the equipment management information 130 and searches for an entry whose equipment name 202 value matches the equipment name 403 value of the entry searched for in the model management information 132. The equipment position and orientation calculation unit 120 obtains the equipment configuration information corresponding to the searched entry.

(S202-3)設備位置姿勢算出部120は、軌道管理情報131を参照し、軌道名302の値が、モデル管理情報132から検索されたエントリの軌道名404の値と一致するエントリを検索する。設備位置姿勢算出部120は、検索されたエントリに対応する軌道情報を取得する。 (S202-3) The equipment position and orientation calculation unit 120 refers to the trajectory management information 131 and searches for an entry whose trajectory name 302 value matches the trajectory name 404 value of the entry searched for in the model management information 132. The equipment position and orientation calculation unit 120 obtains the trajectory information corresponding to the searched entry.

設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報に基づいて、学習環境におけるセンサの位置及び姿勢を算出する(ステップS202)。ここで、学習環境におけるセンサの位置及び姿勢は、作業開始時のセンサの位置及び姿勢を意味する。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the sensor in the learning environment based on the equipment configuration information and trajectory information of the learning environment (step S202). Here, the position and orientation of the sensor in the learning environment refers to the position and orientation of the sensor at the start of the work.

図11Aは、学習環境におけるセンサの位置及び姿勢の一例を示す。図11Aでは、設備座標系1100に対するセンサの位置及び姿勢を示している。設備座標系1100は、設備の任意の点を原点とする学習環境の絶対座標系である。図11Aでは、設備座標系1100は、取り付け対象がRootとなっている組立セル架台Aの設置位置を原点とする絶対座標系である。座標系1101はセンサを原点とする相対座標系である。 Figure 11A shows an example of the position and orientation of a sensor in a learning environment. Figure 11A shows the position and orientation of the sensor relative to an equipment coordinate system 1100. The equipment coordinate system 1100 is an absolute coordinate system of the learning environment with an arbitrary point on the equipment as its origin. In Figure 11A, the equipment coordinate system 1100 is an absolute coordinate system with the installation position of assembly cell stand A, whose mounting target is the Root, as its origin. Coordinate system 1101 is a relative coordinate system with the sensor as its origin.

設備位置姿勢算出部120は、設備座標系1100及び設備構成情報に基づいてセンサの位置及び姿勢を算出する。まず、組立セル架台AにはRoboBが取り付けられている。設備位置姿勢算出部120は、設備座標系1100、並びに、組立セル架台Aに対するRoboBの相対位置及び相対姿勢に基づいて、RoboBの取り付け位置を算出する。RoboBには、Link_eeが取り付けられている。設備位置姿勢算出部120は、RoboBの取り付け位置、及びRoboBの軌道情報の開始経由点の各関節の角度に基づいて、Link_eeの位置及び姿勢を算出する。Link_eeには力覚センサが設置されている。設備位置姿勢算出部120は、Link_eeの位置及び姿勢、並びに、Link_eeに対する力覚センサの相対位置及び相対姿勢に基づいて、力覚センサの位置及び姿勢を算出する。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the sensor based on the equipment coordinate system 1100 and the equipment configuration information. First, RoboB is attached to the assembly cell stand A. The equipment position and orientation calculation unit 120 calculates the attachment position of RoboB based on the equipment coordinate system 1100 and the relative position and relative orientation of RoboB with respect to the assembly cell stand A. Link_ee is attached to RoboB. The equipment position and orientation calculation unit 120 calculates the position and orientation of Link_ee based on the attachment position of RoboB and the angles of each joint of the start via point of the trajectory information of RoboB. A force sensor is installed on Link_ee. The equipment position and orientation calculation unit 120 calculates the position and orientation of the force sensor based on the position and orientation of Link_ee and the relative position and relative orientation of the force sensor with respect to Link_ee.

設備位置姿勢算出部120は、ステップS101において取得した設備構成情報及び軌道情報に基づいて、制御環境におけるセンサの位置及び姿勢を算出する(ステップS203)。ここで、制御環境におけるセンサの位置及び姿勢は、作業開始時のセンサの位置及び姿勢を意味する。算出方法はステップS202と同様である。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the sensor in the controlled environment based on the equipment configuration information and trajectory information acquired in step S101 (step S203). Here, the position and orientation of the sensor in the controlled environment means the position and orientation of the sensor at the start of the work. The calculation method is the same as in step S202.

図11Bは、制御環境におけるセンサの位置及び姿勢の一例を示す。図11Bでは、設備座標系1110に対するセンサの位置及び姿勢を示している。設備座標系1110は、設備の任意の点を原点とする制御環境の絶対座標系である。図11Bでは、設備座標系1110は、取り付け対象がRootとなっている組立セル架台の設置位置を原点とする絶対座標系である。座標系1111はセンサを原点とする相対座標系である。 Figure 11B shows an example of the position and orientation of a sensor in a controlled environment. Figure 11B shows the position and orientation of the sensor relative to an equipment coordinate system 1110. The equipment coordinate system 1110 is an absolute coordinate system of the controlled environment with an arbitrary point on the equipment as its origin. In Figure 11B, the equipment coordinate system 1110 is an absolute coordinate system with the installation position of the assembly cell stand, whose mounting target is the Root, as its origin. Coordinate system 1111 is a relative coordinate system with the sensor as its origin.

設備解析部121は、学習環境におけるセンサの位置及び姿勢、並びに、制御環境におけるセンサの位置及び姿勢に基づいて、センサの位置ずれ及び姿勢ずれを算出する(ステップS204)。 The equipment analysis unit 121 calculates the position deviation and attitude deviation of the sensor based on the position and attitude of the sensor in the learning environment and the position and attitude of the sensor in the control environment (step S204).

センサの位置ずれは、座標系1101、1111の原点の位置のずれとして算出される。センサの姿勢のずれは、図11Cに示すような座標系1101、1111の回転角θとして算出される。 The positional deviation of the sensor is calculated as the deviation of the position of the origin of the coordinate systems 1101 and 1111. The attitude deviation of the sensor is calculated as the rotation angle θ of the coordinate systems 1101 and 1111 as shown in FIG. 11C.

変換式生成部122は、二つの環境間のセンサの位置ずれ及び姿勢ずれに基づいて変換式(A)を生成する(ステップS205)。変換式(A)は、センサの位置ずれを解消するための3次元空間の平行移動と、姿勢ずれを解消するための3次元空間の回転とで表現される。例えば、Z軸を基準として回転は式(1)で与えられる。回転角θは、センサの姿勢ずれを表す角度である。 The conversion equation generation unit 122 generates a conversion equation (A) based on the position shift and orientation shift of the sensor between the two environments (step S205). The conversion equation (A) is expressed as a translation in three-dimensional space to eliminate the position shift of the sensor, and a rotation in three-dimensional space to eliminate the orientation shift. For example, the rotation with respect to the Z axis is given by equation (1). The rotation angle θ is an angle that represents the orientation shift of the sensor.

Figure 2024072129000002
Figure 2024072129000002

変換式生成部122は、変換式管理情報133に変換式(A)を登録し(ステップS206)、変換式(A)算出処理を終了する。 The conversion formula generation unit 122 registers the conversion formula (A) in the conversion formula management information 133 (step S206) and terminates the conversion formula (A) calculation process.

図12は、実施例1の計算機100が実行する変換式(B)算出処理の一例を説明するフローチャートである。図13A、図13B、図13C、図13D、図13E、及び図13Fは、実施例1の計算機100が実行する変換式(B)算出処理の具体例を示す図である。 Figure 12 is a flowchart illustrating an example of the conversion formula (B) calculation process executed by the computer 100 of the first embodiment. Figures 13A, 13B, 13C, 13D, 13E, and 13F are diagrams illustrating specific examples of the conversion formula (B) calculation process executed by the computer 100 of the first embodiment.

設備位置姿勢算出部120は、学習環境の設備構成情報及び軌道情報に基づいて、学習環境におけるワークの位置及び姿勢を算出する(ステップS301)。ここで、学習環境におけるワークの位置及び姿勢は、作業開始時のワークの位置及び姿勢を意味する。なお、モデルの学習時の設備構成情報及び軌道情報は、変換式(A)算出処理において取得されているものとする。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the work in the learning environment based on the equipment configuration information and trajectory information of the learning environment (step S301). Here, the position and orientation of the work in the learning environment refers to the position and orientation of the work at the start of work. Note that the equipment configuration information and trajectory information at the time of model learning are assumed to have been acquired in the conversion formula (A) calculation process.

図13Aは、学習環境におけるワークの位置及び姿勢の一例を示す。図13Aでは、センサに対するワークの位置及び姿勢を示している。 Figure 13A shows an example of the position and orientation of the workpiece in the learning environment. Figure 13A shows the position and orientation of the workpiece relative to the sensor.

設備位置姿勢算出部120は、ステップS202と同様の処理によって、センサの位置及び姿勢を算出する。力覚センサには、ハンドBが取り付けられている。設備位置姿勢算出部120は、力覚センサの位置及び姿勢、力覚センサに対するハンドBの相対位置及び相対姿勢に基づいて、ハンドBの位置及び姿勢を算出する。ワークBは、ハンドBによって把持及び移動が行われる。設備位置姿勢算出部120は、ハンドBの位置及び姿勢、ハンドBに対するワークBの相対位置及び相対姿勢に基づいて、ワークBの位置及び姿勢を算出する。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the sensor by processing similar to that of step S202. Hand B is attached to the force sensor. The equipment position and orientation calculation unit 120 calculates the position and orientation of hand B based on the position and orientation of the force sensor and the relative position and relative orientation of hand B with respect to the force sensor. Work B is grasped and moved by hand B. The equipment position and orientation calculation unit 120 calculates the position and orientation of work B based on the position and orientation of hand B and the relative position and relative orientation of work B with respect to hand B.

設備位置姿勢算出部120は、ステップS101において取得した設備構成情報及び軌道情報に基づいて、制御環境におけるワークの位置及び姿勢を算出する(ステップS302)。ここで、制御環境におけるワークの位置及び姿勢は、作業開始時のワークの位置及び姿勢を意味する。算出方法はステップS301と同様である。 The equipment position and orientation calculation unit 120 calculates the position and orientation of the workpiece in the controlled environment based on the equipment configuration information and trajectory information acquired in step S101 (step S302). Here, the position and orientation of the workpiece in the controlled environment refers to the position and orientation of the workpiece at the start of the work. The calculation method is the same as in step S301.

図13Bは、制御環境におけるワークの位置及び姿勢の一例を示す。図13Bでは、センサに対するワークの位置及び姿勢を示している。 Figure 13B shows an example of the position and orientation of the workpiece in a controlled environment. Figure 13B shows the position and orientation of the workpiece relative to the sensor.

設備解析部121は、ワーク管理情報134から、学習環境及び制御環境の各々のワークのパラメータを取得する(ステップS303)。 The equipment analysis unit 121 obtains the parameters of each work in the learning environment and the control environment from the work management information 134 (step S303).

変換式生成部122は、各環境のセンサの位置及び姿勢、ワークの位置及び姿勢、並びに、ワークのパラメータに基づいて、各環境の力学系の力覚パラメータの差分量を算出する(ステップS304)。ここで各環境の力学系の力覚パラメータの差分量の算出方法について説明する。 The conversion formula generation unit 122 calculates the difference in the force parameters of the dynamics of each environment based on the position and orientation of the sensor in each environment, the position and orientation of the workpiece, and the parameters of the workpiece (step S304). Here, the method for calculating the difference in the force parameters of the dynamics of each environment will be described.

(例1)図13C及び図13Dに示すように、位置決めピンに関するパラメータa、パラメータb、パラメータc、パラメータd、パラメータe、パラメータf、パラメータgが取得された場合の変換式(B)の生成方法について説明する。パラメータa、パラメータb、パラメータc、パラメータdは、学習環境のワークの端から位置決めピンまでの距離を表し、パラメータe、パラメータf、パラメータgは、制御環境のワークの端から位置決めピンまでの距離を表す。ワークの中心軸1300(1301)に対する回転の向きは、センサの座標系1101(1111)のx軸(x’軸)上におけるモーメントの向きを示す。位置決めピンでハンドがワークと接触する場合、モーメントの向き及び大きさが力覚パラメータとなる。ワークの端から、てこの原理の支点になる位置決めピンまでの距離の比がワークのモーメントの大きさになる。したがって、図13Cでは、座標系1101のx軸上のモーメントの大きさはb/aとなり、図13Dでは、座標系1111のx’軸上のモーメントの大きさはg/hとなる。 (Example 1) As shown in Figures 13C and 13D, a method for generating a conversion formula (B) when parameters a, b, c, d, e, f, and g related to the positioning pin are acquired will be described. Parameters a, b, c, and d represent the distance from the edge of the workpiece in the learning environment to the positioning pin, and parameters e, f, and g represent the distance from the edge of the workpiece in the control environment to the positioning pin. The direction of rotation with respect to the central axis 1300 (1301) of the workpiece indicates the direction of the moment on the x-axis (x'-axis) of the sensor coordinate system 1101 (1111). When the hand comes into contact with the workpiece at the positioning pin, the direction and magnitude of the moment become the force sense parameters. The ratio of the distance from the edge of the workpiece to the positioning pin, which is the fulcrum of the lever principle, becomes the magnitude of the moment of the workpiece. Therefore, in FIG. 13C, the magnitude of the moment on the x-axis of coordinate system 1101 is b/a, and in FIG. 13D, the magnitude of the moment on the x'-axis of coordinate system 1111 is g/h.

変換式生成部122は、各環境のx軸(x’軸)上のモーメントの大きさ及び向きを算出し、各環境のx軸(x’軸)上のモーメントの大きさ及び向きの差異を、各環境の力学系の力覚パラメータの変化量として算出する。y軸(y’軸)についても同様の演算を行う。 The conversion formula generation unit 122 calculates the magnitude and direction of the moment on the x-axis (x'-axis) of each environment, and calculates the difference between the magnitude and direction of the moment on the x-axis (x'-axis) of each environment as the amount of change in the force sense parameters of the dynamics of each environment. A similar calculation is performed for the y-axis (y'-axis).

(例2)図13E及び図13Fに示すように、慣性モーメントに関するパラメータa、パラメータb、パラメータc、パラメータdが取得された場合の変換式(B)の生成方法について説明する。パラメータa及びパラメータbは、学習環境のワークの縦横の長さを表し、パラメータc及びパラメータdは、制御環境のワークの縦横の長さを表す。ワークの中心軸1300(1301)に対する回転の向きは、センサの座標系1101(1111)のx軸(x’軸)上におけるモーメントの向きを示す。位置決めピンが存在しないワークでは、慣性モーメントの逆数がワークのモーメントの大きさを表す。図13Eに示すような薄い板部品の場合、x軸上の慣性モーメントは式(2)で与えられる。mはワークの重さである。図13Fの場合、x’軸上の慣性モーメントは式(3)で与えられる。mはワークの重さである。 (Example 2) A method of generating a conversion formula (B) when parameters a, b, c, and d related to the moment of inertia are acquired as shown in FIG. 13E and FIG. 13F will be described. Parameters a and b represent the length and width of the workpiece in the learning environment, and parameters c and d represent the length and width of the workpiece in the control environment. The direction of rotation with respect to the central axis 1300 (1301) of the workpiece indicates the direction of the moment on the x-axis (x'-axis) of the sensor coordinate system 1101 (1111). In a workpiece without a positioning pin, the reciprocal of the moment of inertia represents the magnitude of the moment of the workpiece. In the case of a thin plate part as shown in FIG. 13E, the moment of inertia on the x-axis is given by formula (2). m e is the weight of the workpiece. In the case of FIG. 13F, the moment of inertia on the x'-axis is given by formula (3). m f is the weight of the workpiece.

Figure 2024072129000003
Figure 2024072129000003

Figure 2024072129000004
Figure 2024072129000004

変換式生成部122は、各環境のx軸(x’軸)上の慣性モーメントを算出し、各環境のx軸(x’軸)上の慣性モーメントの逆数の比を、各環境の力学系の力覚パラメータの変化量として算出する。y軸(y’軸)についても同様の演算を行う。 The conversion formula generation unit 122 calculates the moment of inertia on the x-axis (x'-axis) of each environment, and calculates the ratio of the reciprocal of the moment of inertia on the x-axis (x'-axis) of each environment as the amount of change in the force sense parameter of the dynamics system of each environment. A similar calculation is performed for the y-axis (y'-axis).

以上が各環境の力学系の力覚パラメータの差分量の算出方法の説明である。なお、前述の方法は一例であってこれに限定されない。ねじれの向き及び大きさ等を力覚パラメータとして扱ってもよい。 The above is an explanation of the method for calculating the difference in the force parameters of the dynamics of each environment. Note that the above method is an example and is not limiting. The direction and magnitude of twisting may also be treated as force parameters.

変換式生成部122は、各環境の力学系の力覚パラメータの差分量に基づいて、変換式(B)を生成する(ステップS305)。位置決めピンのパラメータを用いた場合、式(4)に示すような変換式(B)が生成される。慣性モーメントのパラメータを用いた場合、式(5)に示すような変換式(B)が生成される。 The conversion formula generation unit 122 generates a conversion formula (B) based on the difference between the force sense parameters of the dynamics of each environment (step S305). When the parameters of the positioning pin are used, a conversion formula (B) such as that shown in formula (4) is generated. When the parameters of the moment of inertia are used, a conversion formula (B) such as that shown in formula (5) is generated.

Figure 2024072129000005
Figure 2024072129000005

Figure 2024072129000006
Figure 2024072129000006

変換式生成部122は、変換式管理情報133に変換式(B)を登録し(ステップS306)、変換式(B)算出処理を終了する。 The conversion formula generation unit 122 registers the conversion formula (B) in the conversion formula management information 133 (step S306) and terminates the conversion formula (B) calculation process.

変換式(B)を用いることによって、二つの環境の力学系をそろえることができる。これによって、モデルをそのまま用いることができる。 By using the transformation formula (B), the dynamical systems of the two environments can be aligned. This allows the model to be used as is.

本発明によれば、環境間の作業の力学系の差異を解消するように計測データを変換できる。これによって、既存のモデルを用いてロボットの作業の自動制御を実現できる。 According to the present invention, it is possible to convert measurement data so as to eliminate the difference in the dynamics of the work between environments. This makes it possible to realize automatic control of robot work using existing models.

なお、変換式(A)は必須の構成ではない。この場合、変換式(B)のみが用いられる。 Note that conversion formula (A) is not a required configuration. In this case, only conversion formula (B) is used.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments are provided to explain the present invention in detail, and are not necessarily limited to those including all of the described configurations. In addition, it is possible to add, delete, or replace part of the configuration of each embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 The above-mentioned configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware, for example by designing them as integrated circuits. The present invention can also be realized by software program code that realizes the functions of the embodiments. In this case, a storage medium on which the program code is recorded is provided to a computer, and a processor included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-mentioned embodiments, and the program code itself and the storage medium on which it is stored constitute the present invention. Examples of storage media for supplying such program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, non-volatile memory cards, ROMs, etc.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 In addition, the program code that realizes the functions described in this embodiment can be implemented in a wide range of program or script languages, such as assembler, C/C++, perl, Shell, PHP, Python, Java (registered trademark), etc.

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, the program code of the software that realizes the functions of the embodiment may be distributed over a network and stored in a storage means such as a computer's hard disk or memory, or in a storage medium such as a CD-RW or CD-R, and the processor of the computer may read and execute the program code stored in the storage means or storage medium.

上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above examples, the control lines and information lines are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. All components may be interconnected.

100 計算機
101 ロボット
110 演算装置
111 記憶装置
112 通信装置
113 入力装置
114 出力装置
120 設備位置姿勢算出部
121 設備解析部
122 変換式生成部
123 計測データ変換部
124 補正量決定部
125 制御値算出部
130 設備管理情報
131 軌道管理情報
132 モデル管理情報
133 変換式管理情報
134 ワーク管理情報
140 計測装置
141 作業装置群
142 コントローラ
800、900 画面
100 Computer 101 Robot 110 Arithmetic device 111 Storage device 112 Communication device 113 Input device 114 Output device 120 Equipment position and orientation calculation unit 121 Equipment analysis unit 122 Conversion formula generation unit 123 Measurement data conversion unit 124 Correction amount determination unit 125 Control value calculation unit 130 Equipment management information 131 Trajectory management information 132 Model management information 133 Conversion formula management information 134 Work management information 140 Measurement device 141 Working device group 142 Controller 800, 900 Screen

Claims (8)

機械学習によって生成されたモデルを用いて、ワークの把持及びの移動を含む作業を行うロボットを制御する計算機システムであって、
演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、
学習環境及び実際の作業が行われる制御環境の各々の、作業における前記ロボットの軌道を制御するための制御値を含む軌道情報を管理し、
前記学習環境における作業を表す第1力学系と、前記制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットに設置されたセンサが取得した計測データを変換するための第1変換式を生成し、
前記計測データ及び前記ロボットの稼働状態を示す稼働状態情報を取得した場合、前記第1変換式を用いて前記計測データを変換し、前記軌道情報、前記稼働状態情報、及び変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御することを特徴とする計算機システム。
A computer system that controls a robot that performs a task including gripping and moving a workpiece using a model generated by machine learning,
A computer including an arithmetic unit, a storage device connected to the arithmetic unit, and a network interface connected to the arithmetic unit,
managing trajectory information including control values for controlling a trajectory of the robot in a task for each of a learning environment and a controlled environment in which an actual task is performed;
generating a first transformation formula for transforming measurement data acquired by a sensor installed in the robot based on a difference between a first dynamical system representing an operation in the learning environment and a second dynamical system representing an operation in the controlled environment so that the second dynamical system coincides with the first dynamical system;
a computer system characterized in that, when the measurement data and operating status information indicating the operating status of the robot are acquired, the measurement data is converted using the first conversion formula, the trajectory information, the operating status information, and the converted measurement data are input to the model, and the robot is controlled based on the output of the model.
請求項1に記載の計算機システムであって、
前記学習環境及び前記制御環境の各々の、設備に関する設備構成情報及びワークに関するワーク情報を管理し、
前記軌道情報、前記設備構成情報、及び前記ワーク情報を用いて、前記第1力学系の第1力覚パラメータ及び前記第2力学系の第2力覚パラメータを算出し、
前記第1力覚パラメータ及び前記第2力覚パラメータの差分量に基づいて、前記第1変換式を生成することを特徴とする計算機システム。
2. The computer system of claim 1,
Manage equipment configuration information relating to equipment and work information relating to work for each of the learning environment and the controlled environment;
calculating a first force parameter of the first dynamic system and a second force parameter of the second dynamic system using the trajectory information, the facility configuration information, and the work information;
A computer system comprising: a computer that generates the first transformation formula based on a difference between the first haptic parameter and the second haptic parameter.
請求項2に記載の計算機システムであって、
前記第1力覚パラメータ及び前記第2力覚パラメータは、前記ワークに作用する力及びモーメントに関連するパラメータであることを特徴とする計算機システム。
3. The computer system of claim 2,
A computer system, characterized in that the first force sense parameter and the second force sense parameter are parameters related to forces and moments acting on the workpiece.
請求項1に記載の計算機システムであって、
前記学習環境における前記センサの位置及び姿勢と、前記制御環境における前記センサの位置及び姿勢とに基づいて、前記学習環境における前記センサの座標系と前記制御環境における前記センサの座標系とを一致させる第2変換式を生成し、
前記第1変換式及び前記第2変換式を用いて前記計測データを変換することを特徴とする計算機システム。
2. The computer system of claim 1,
generating a second transformation equation that matches a coordinate system of the sensor in the learning environment with a coordinate system of the sensor in the controlled environment based on a position and an orientation of the sensor in the learning environment and a position and orientation of the sensor in the controlled environment;
A computer system which converts the measurement data using the first conversion formula and the second conversion formula.
計算機システムが実行する、機械学習によって生成されたモデルを用いて、ワークの把持及びの移動を含む作業を行うロボットの制御方法であって、
前記計算機システムは、
演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続されるネットワークインタフェースを有する計算機を備え、
学習環境及び実際の作業が行われる制御環境の各々の、作業における前記ロボットの軌道を制御するための制御値を含む軌道情報を管理し、
前記ロボットの制御方法は、
前記計算機が、前記学習環境における作業を表す第1力学系と、前記制御環境における作業を表す第2力学系との差異に基づいて、前記第2力学系が前記第1力学系に一致するように、前記ロボットに設置されたセンサが取得した計測データを変換するための第1変換式を生成する第1のステップと、
前記計算機が、前記計測データ及び前記ロボットの稼働状態を示す稼働状態情報を取得した場合、前記第1変換式を用いて前記計測データを変換し、前記軌道情報、前記稼働状態情報、及び変換された前記計測データを前記モデルに入力し、前記モデルの出力に基づいて、前記ロボットを制御する第2のステップと、を含むことを特徴とするロボットの制御方法。
A method for controlling a robot that performs a task including gripping and moving a workpiece by using a model generated by machine learning, the method comprising the steps of:
The computer system includes:
A computer including an arithmetic unit, a storage device connected to the arithmetic unit, and a network interface connected to the arithmetic unit,
managing trajectory information including control values for controlling a trajectory of the robot in a task for each of a learning environment and a controlled environment in which an actual task is performed;
The method for controlling a robot includes the steps of:
a first step in which the computer generates a first conversion formula for converting measurement data acquired by a sensor installed in the robot based on a difference between a first dynamical system representing an operation in the learning environment and a second dynamical system representing an operation in the controlled environment so that the second dynamical system coincides with the first dynamical system;
a second step of, when the computer acquires the measurement data and operating status information indicating an operating status of the robot, converting the measurement data using the first conversion formula, inputting the trajectory information, the operating status information, and the converted measurement data into the model, and controlling the robot based on an output of the model.
請求項5に記載のロボットの制御方法であって、
前記計算機システムは、前記学習環境及び前記制御環境の各々の、設備に関する設備構成情報、及びワークに関するワーク情報を管理し、
前記第1のステップは、
前記計算機が、前記軌道情報、前記設備構成情報、及び前記ワーク情報を用いて、前記第1力学系の第1力覚パラメータ及び前記第2力学系の第2力覚パラメータを算出するステップと、
前記計算機が、前記第1力覚パラメータ及び前記第2力覚パラメータの差分量に基づいて、前記第1変換式を生成するステップと、を含むことを特徴とするロボットの制御方法。
A method for controlling a robot according to claim 5, comprising the steps of:
the computer system manages equipment configuration information relating to equipment and work information relating to work for each of the learning environment and the controlled environment;
The first step includes:
a step of the computer calculating a first force parameter of the first dynamic system and a second force parameter of the second dynamic system by using the trajectory information, the facility configuration information, and the work information;
and generating the first conversion equation based on a difference between the first haptic parameter and the second haptic parameter by the computer.
請求項6に記載のロボットの制御方法であって、
前記第1力覚パラメータ及び前記第2力覚パラメータは、前記ワークに作用する力及びモーメントに関連するパラメータであることを特徴とするロボットの制御方法。
A method for controlling a robot according to claim 6, comprising the steps of:
A method for controlling a robot, wherein the first force sense parameter and the second force sense parameter are parameters related to forces and moments acting on the workpiece.
請求項5に記載のロボットの制御方法であって、
前記計算機が、前記学習環境における前記センサの位置及び姿勢と、前記制御環境における前記センサの位置及び姿勢とに基づいて、前記学習環境における前記センサの座標系と前記制御環境における前記センサの座標系とを一致させる第2変換式を生成するステップを含み、
前記第2のステップは、前記計算機が、前記第1変換式及び前記第2変換式を用いて前記計測データを変換するステップを含むことを特徴とするロボットの制御方法。
A method for controlling a robot according to claim 5, comprising the steps of:
a step of generating a second transformation equation for matching a coordinate system of the sensor in the learning environment with a coordinate system of the sensor in the controlled environment, based on a position and an orientation of the sensor in the learning environment and a position and an orientation of the sensor in the controlled environment,
The robot control method according to the present invention, wherein the second step includes a step of converting the measurement data by the computer using the first conversion formula and the second conversion formula.
JP2022182814A 2022-11-15 2022-11-15 Computer system and robot control method Pending JP2024072129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182814A JP2024072129A (en) 2022-11-15 2022-11-15 Computer system and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022182814A JP2024072129A (en) 2022-11-15 2022-11-15 Computer system and robot control method

Publications (1)

Publication Number Publication Date
JP2024072129A true JP2024072129A (en) 2024-05-27

Family

ID=91194056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182814A Pending JP2024072129A (en) 2022-11-15 2022-11-15 Computer system and robot control method

Country Status (1)

Country Link
JP (1) JP2024072129A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230113622A1 (en) * 2021-10-07 2023-04-13 Hitachi, Ltd. Computer, Method for Controlling Robot, and Computer System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230113622A1 (en) * 2021-10-07 2023-04-13 Hitachi, Ltd. Computer, Method for Controlling Robot, and Computer System
US12343872B2 (en) * 2021-10-07 2025-07-01 Hitachi, Ltd. Computer, method for controlling robot, and computer system

Similar Documents

Publication Publication Date Title
US10112297B2 (en) Robot control apparatus, robot, and robot system
García et al. Sensor fusion for compliant robot motion control
CN114211502B (en) Robot load identification method and identification device
CN118891136A (en) System and method for flexible robotic manipulation via fast online load estimation
CN120051361A (en) System and method for learning sequences in robotic tasks to promote to new tasks
US12358132B2 (en) Robot system and picking method
Garcia et al. Trajectory control of planar closed chain fully compliant mechanism
JP2024072129A (en) Computer system and robot control method
Kumar et al. Sensor-based estimation and control of forces and moments in multiple cooperative robots
JP7726730B2 (en) Computer system and model learning method
CN114585482B (en) Control device, control method, and robot system
JP5316395B2 (en) Robot spring constant identification method and robot spring constant identification apparatus
JP7706320B2 (en) Computer, robot control method, and computer system
Ansarieshlaghi et al. Hybrid Force/Position Control of a Very Flexible Parallel Robot Manipulator in Contact with an Environment.
Wnuk et al. Challenges in robotic soft tissue manipulation—Problem identification based on an interdisciplinary case study of a teleoperated drawing robot in practice
CN117532611A (en) Control method and device for space manipulator
JP2024120216A (en) Handling device, handling method, and program
JP7684190B2 (en) Computer system and robot control method
US20240131699A1 (en) Robot system, learning apparatus, information processing apparatus, learned model, control method, information processing method, method for manufacturing product, and recording medium
Shauri et al. Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot
Kim et al. Description of instantaneous restriction space for multi-DOFs bilateral teleoperation systems using position sensors in unstructured environments
JP7742988B2 (en) Machine learning device and robot system
Niitsu et al. Detection of Contact Point of Parts Using a Force Sensor for Remote-Controlled Assembly Using a 1DOF Haptic Device
JP7576891B1 (en) Control device, control method, and program
JP7583490B1 (en) Control device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250514