[go: up one dir, main page]

JP2017030059A - Robot control device, robot and robot system - Google Patents

Robot control device, robot and robot system Download PDF

Info

Publication number
JP2017030059A
JP2017030059A JP2015149345A JP2015149345A JP2017030059A JP 2017030059 A JP2017030059 A JP 2017030059A JP 2015149345 A JP2015149345 A JP 2015149345A JP 2015149345 A JP2015149345 A JP 2015149345A JP 2017030059 A JP2017030059 A JP 2017030059A
Authority
JP
Japan
Prior art keywords
force
robot
control
unit
acting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015149345A
Other languages
Japanese (ja)
Inventor
泰裕 下平
Yasuhiro Shimodaira
泰裕 下平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015149345A priority Critical patent/JP2017030059A/en
Publication of JP2017030059A publication Critical patent/JP2017030059A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】適切な位置に作用する力に基づいてマニュピレーターを制御できる技術の提供。【解決手段】本発明のロボット制御装置は、マニュピレーターと、前記マニュピレーターを駆動する駆動部と、力検出器と、を備えるロボットを制御するロボット制御装置であって、制御パラメーターに応じて前記駆動部を制御する力制御を行う駆動制御部と、前記制御パラメーターの入力を受け付ける受付部と、前記制御パラメーターによる前記駆動部の駆動に応じて得られる前記力検出器の出力波形を、当該制御パラメーターと同時に表示させる表示部と、を備える。【選択図】図7Provided is a technique capable of controlling a manipulator based on a force acting on an appropriate position. A robot control apparatus according to the present invention is a robot control apparatus that controls a robot including a manipulator, a drive unit that drives the manipulator, and a force detector, and the drive unit according to a control parameter. A drive control unit that performs force control for controlling the control parameter, a reception unit that receives input of the control parameter, and an output waveform of the force detector that is obtained according to driving of the drive unit by the control parameter, and the control parameter And a display unit for displaying at the same time. [Selection] Figure 7

Description

本発明は、ロボット制御装置、ロボットおよびロボットシステムに関する。   The present invention relates to a robot control device, a robot, and a robot system.

ロボットの手首に取り付けられた力覚センサーが検出した力を目標力に加えてロボットを制御するロボット制御装置が知られている(特許文献1、参照)。   A robot control device that controls a robot by adding a force detected by a force sensor attached to a wrist of the robot to a target force is known (see Patent Document 1).

米国特許第7340323号明細書US Pat. No. 7,340,323

しかしながら、特許文献1の力覚センサーはロボットの手首に作用している力を検出できるが、現実にロボットが嵌合等の作業を行う対象のワークに作用している力を検出できないという問題があった。例えば、ワークに作用している力よりもロボットの手首に作用している力が小さい場合に、ロボットの手首に作用している力に基づいてロボットを制御すると、過大な力がワークに作用し、ワークを破損する等の問題があった。ロボットの手首やワークに作用する力は、力制御における制御パラメーターを調整することにより適正化させることができる。しかしながら、制御パラメーターをどのように変更したらどのような力が作用することになるかを予測することが困難であり、力制御の制御パラメーターを容易に設定できないという問題があった。
本発明は、前記問題を解決するために創作されたものであって、力制御の制御パラメーターを容易に設定できる技術の提供を目的とする。
However, although the force sensor of Patent Document 1 can detect the force acting on the wrist of the robot, there is a problem that the force acting on the target work on which the robot actually performs the work such as fitting cannot be detected. there were. For example, when the force acting on the wrist of the robot is smaller than the force acting on the workpiece, if the robot is controlled based on the force acting on the wrist of the robot, an excessive force acts on the workpiece. There was a problem of damaging the workpiece. The force acting on the wrist and workpiece of the robot can be optimized by adjusting control parameters in force control. However, there is a problem that it is difficult to predict what force will be applied if the control parameter is changed, and the control parameter for force control cannot be easily set.
The present invention has been created to solve the above-described problem, and an object of the present invention is to provide a technique capable of easily setting control parameters for force control.

前記目的を達成するためのロボット制御装置は、マニュピレーターと、マニュピレーターを駆動する駆動部と、力検出器と、を備えるロボットを制御するロボット制御装置であって、制御パラメーターに応じて駆動部を制御する力制御を行う駆動制御部と、制御パラメーターの入力を受け付ける受付部と、制御パラメーターによる駆動部の駆動に応じて得られる力検出器の出力波形を、当該制御パラメーターと同時に表示させる表示部と、を備える。   A robot control apparatus for achieving the above object is a robot control apparatus that controls a robot including a manipulator, a drive unit that drives the manipulator, and a force detector, and controls the drive unit according to control parameters. A drive control unit that performs force control, a reception unit that receives an input of a control parameter, a display unit that displays an output waveform of a force detector obtained according to driving of the drive unit by the control parameter simultaneously with the control parameter, and .

前記の構成において、制御パラメーターによる駆動部の駆動に応じて得られる力検出器の出力波形と、制御パラメーターとが同時に表示されるため、望ましい出力波形を得られるように制御パラメーターを容易に設定できる。   In the above configuration, since the output waveform of the force detector obtained according to the drive of the drive unit by the control parameter and the control parameter are displayed at the same time, the control parameter can be easily set to obtain a desired output waveform. .

なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。   Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.

ロボットシステムの模式図である。It is a schematic diagram of a robot system. ロボットシステムのブロック図である。It is a block diagram of a robot system. アームの斜視図である。It is a perspective view of an arm. エンドエフェクターの斜視図である。It is a perspective view of an end effector. エンドエフェクターの斜視図である。It is a perspective view of an end effector. 教示処理のフローチャートである。It is a flowchart of a teaching process. GUIを示す図である。It is a figure which shows GUI. GUIを示す図である。It is a figure which shows GUI.

以下、本発明の実施の形態を以下の順序にしたがって添付図面を参照しながら説明する。なお、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
(1)ロボットシステムの構成:
(1−1)ロボットと制御端末:
(1−2)教示端末:
(2)他の実施形態:
Hereinafter, embodiments of the present invention will be described in the following order with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.
(1) Robot system configuration:
(1-1) Robot and control terminal:
(1-2) Teaching terminal:
(2) Other embodiments:

(1)ロボットシステムの構成:
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、エンドエフェクター2と、制御端末3(コントローラー)と、教示端末4(ティーチングペンダント)と、を備えている。制御端末3と教示端末4とは、本発明のロボット制御装置を構成する。制御端末3と教示端末4とは、それぞれ専用のコンピューターであってもよいし、ロボット1のためのプログラムがインストールされた汎用のコンピューターであってもよい。さらに、制御端末3と教示端末4とは、別々のコンピューターでなくてもよく、単一のコンピューターであってもよい。
(1) Robot system configuration:
As shown in FIG. 1, the robot system as the first embodiment of the present invention includes a robot 1, an end effector 2, a control terminal 3 (controller), and a teaching terminal 4 (teaching pendant). . The control terminal 3 and the teaching terminal 4 constitute a robot control device of the present invention. Each of the control terminal 3 and the teaching terminal 4 may be a dedicated computer or a general-purpose computer in which a program for the robot 1 is installed. Furthermore, the control terminal 3 and the teaching terminal 4 may not be separate computers but may be a single computer.

(1−1)ロボットと制御端末:
ロボット1は、1つのマニュピレーターMを備える単腕ロボットであり、マニュピレーターMはアームAとエンドエフェクター2を備える。アームAは6つの関節J1〜J6を備える。関節J1〜J6によって6個のアーム部材A1〜A6が連結される。関節J2、J3、J5は曲げ関節であり、関節J1、J4、J6はねじり関節である。アームAのうち最も先端側のアーム部材A6には、関節J6を介して、力覚センサーFSとエンドエフェクター2とが装着される。エンドエフェクター2はグリッパーによってワークWを把持する。エンドエフェクター2の所定位置をTCP(Tool Center Point)と表す。TCPの位置はエンドエフェクター2の位置の基準となる。力覚センサーFSは、6軸の力検出器である。
(1-1) Robot and control terminal:
The robot 1 is a single arm robot including one manipulator M, and the manipulator M includes an arm A and an end effector 2. The arm A includes six joints J1 to J6. Six arm members A1 to A6 are connected by joints J1 to J6. Joints J2, J3, and J5 are bending joints, and joints J1, J4, and J6 are torsional joints. The force sensor FS and the end effector 2 are attached to the most distal arm member A6 of the arm A through the joint J6. The end effector 2 grips the workpiece W with a gripper. A predetermined position of the end effector 2 is represented as TCP (Tool Center Point). The position of the TCP is a reference for the position of the end effector 2. The force sensor FS is a 6-axis force detector.

ロボット1が設置された空間を規定する座標系をロボット座標系と表す。本実施形態において、ロボット座標系は、水平面上において互いに直交するX軸とY軸と、鉛直上向きを正方向とするZ軸とによって規定される3次元の直交座標系である。またX軸周りの回転角をRXで表し、Y軸周りの回転角をRYで表し、Z軸周りの回転角をRZで表す。X,Y,Z方向の位置により3次元空間における任意の位置を表現でき、RX,RY,RZ方向の回転角により3次元空間における任意の姿勢(回転方向)を表現できる。以下、特に示さない限り、位置と表記した場合、姿勢も意味し得ることとする。また、特に示さない限り、力と表記した場合、RX,RY,RZ方向に作用するトルクも意味し得ることとする。制御装置3は、アームAを駆動することによって、ロボット座標系においてTCPの位置を制御する。   A coordinate system that defines the space in which the robot 1 is installed is referred to as a robot coordinate system. In the present embodiment, the robot coordinate system is a three-dimensional orthogonal coordinate system defined by an X axis and a Y axis that are orthogonal to each other on a horizontal plane, and a Z axis that has a vertically upward direction as a positive direction. A rotation angle around the X axis is represented by RX, a rotation angle around the Y axis is represented by RY, and a rotation angle around the Z axis is represented by RZ. An arbitrary position in the three-dimensional space can be expressed by a position in the X, Y, and Z directions, and an arbitrary posture (rotation direction) in the three-dimensional space can be expressed by a rotation angle in the RX, RY, and RZ directions. Hereinafter, unless otherwise indicated, when it is expressed as a position, it can also mean a posture. Unless otherwise indicated, when expressed as force, it can also mean torque acting in the RX, RY, and RZ directions. The controller 3 controls the position of the TCP in the robot coordinate system by driving the arm A.

図2は、ロボットシステムのブロック図である。制御装置3にはロボット1の制御を行うための制御プログラムがインストールされている。制御装置3は、プロセッサーやRAMやROMを含むコンピューターを備える。コンピューターがROM等の記録媒体に記録された制御プログラムを実行することにより、制御装置3は、機能構成としての駆動制御部31と力変換部32とを備えることとなる。駆動制御部31と力変換部32とは、制御装置3のハードウェア資源とソフトウェア資源とが協働して実現する機能構成である。なお、駆動制御部31と力変換部32とは、必ずしもソフトウェア資源によって実現されなくてもよく、ASIC(Application Specific Integrated Circuit)によって実現されてもよい。   FIG. 2 is a block diagram of the robot system. A control program for controlling the robot 1 is installed in the control device 3. The control device 3 includes a computer including a processor, RAM, and ROM. When the computer executes a control program recorded on a recording medium such as a ROM, the control device 3 includes a drive control unit 31 and a force conversion unit 32 as functional configurations. The drive control unit 31 and the force conversion unit 32 have a functional configuration realized by cooperation of hardware resources and software resources of the control device 3. Note that the drive control unit 31 and the force conversion unit 32 are not necessarily realized by software resources, and may be realized by an ASIC (Application Specific Integrated Circuit).

駆動制御部31は、マニュピレーターMの位置制御と力制御とを行う。具体的に、駆動制御部31は、TCPの位置が目標位置に近づくようにアームAの位置制御を行う。駆動制御部31は、CCP(Compliance Center Point)に作用する作用力が目標力に近づくようにアームAの力制御を行う。   The drive control unit 31 performs position control and force control of the manipulator M. Specifically, the drive control unit 31 controls the position of the arm A so that the TCP position approaches the target position. The drive control unit 31 controls the force of the arm A so that the acting force acting on the CCP (Compliance Center Point) approaches the target force.

図3はマニュピレーターMの斜視図であり、図4はエンドエフェクター2の斜視図である。CCPとは、エンドエフェクター2やワークW等の把持対象物上において任意に設定可能な位置である。CCPは、エンドエフェクター2やワークW上の位置のうち、他の物体と接触する予定の位置に設けられることが望ましい。図4に示すCCPは、嵌合部材であるワークWのなかで被嵌合部材に最初に接触する位置に設定される。また、エンドエフェクター2やワークWが他の物体と点接触する場合、接触点の位置をCCPに設定すればよい。エンドエフェクター2やワークWが他の物体と線接触する場合、接触線上の位置(例えば中点の位置)をCCPに設定してもよい。エンドエフェクター2やワークWが他の物体と面接触する場合、接触面上の位置(例えば重心の位置)をCCPに設定してもよい。   FIG. 3 is a perspective view of the manipulator M, and FIG. 4 is a perspective view of the end effector 2. The CCP is a position that can be arbitrarily set on a grasped object such as the end effector 2 or the workpiece W. The CCP is preferably provided at a position where the CCP is to come into contact with another object among the positions on the end effector 2 and the workpiece W. The CCP shown in FIG. 4 is set at a position that first contacts the member to be fitted in the workpiece W that is a fitting member. When the end effector 2 or the workpiece W makes point contact with another object, the position of the contact point may be set to CCP. When the end effector 2 or the workpiece W is in line contact with another object, the position on the contact line (for example, the position of the middle point) may be set to CCP. When the end effector 2 or the workpiece W is in surface contact with another object, the position on the contact surface (for example, the position of the center of gravity) may be set to CCP.

例えば、エンドエフェクター2のグリッパーにて把持対象物を把持する場合において把持対象物と接触するグリッパー上の位置にCCPが設定されてもよい。また、エンドエフェクター2が備える先端工具が加工対象物を加工する場合において加工対象物と接触する先端工具上の位置にCCPが設定されてもよい。例えば、エンドエフェクター2が把持する把持対象物によって加工対象物を加工したり把持対象物を組付対象物に組み付けたりする場合において加工対象物や組付対象物と接触する把持対象物上の位置にCCPが設定されてもよい。目標力とは、CCPに作用させるべき力であり、ロボット座標系において任意に設定される力である。   For example, when the gripping object is gripped by the gripper of the end effector 2, the CCP may be set at a position on the gripper that contacts the gripping object. Further, when the tip tool included in the end effector 2 processes the workpiece, the CCP may be set at a position on the tip tool that contacts the workpiece. For example, when a workpiece is processed by a gripping object gripped by the end effector 2 or a gripping object is assembled to an assembly target, the position on the gripping target that contacts the processing target or the assembly target CCP may be set in The target force is a force to be applied to the CCP and is a force arbitrarily set in the robot coordinate system.

駆動制御部31の説明においてSの文字は、ロボット座標系を規定する軸の方向(X,Y,Z,RX,RY,RZ)のなかのいずれか1個の方向を表すこととする。例えば、S=Xの場合、ロボット座標系にて設定された目標位置のX方向成分がSt=Xtと表記され、目標力のX方向成分がfSt=fXtと表記される。また、Sは、S方向の位置(回転角)も表すこととする。 In the description of the drive control unit 31, the letter S represents any one of the axis directions (X, Y, Z, RX, RY, RZ) that define the robot coordinate system. For example, in the case of S = X, X-direction component of the position specified in the robot coordinate system is denoted as S t = X t, X-direction component of the desired force is denoted as f St = f Xt. S represents the position in the S direction (rotation angle).

ロボット1は、図1に図示した構成のほかに、駆動部としてのモーターM1〜M6と、エンコーダーE1〜E6とを備える。モーターM1〜M6とエンコーダーE1〜E6とは、関節J1〜J6のそれぞれに対応して備えられており、エンコーダーE1〜E6はモーターM1〜M6の駆動位置Daを検出する。アームAを制御することは、駆動部としてのモーターM1〜M6を制御することを意味する。駆動制御部31は、ロボット1と通信可能なっている。駆動制御部31は、モーターM1〜M6の駆動位置Daから導出される各関節J1〜J6の回転角と、ロボット座標系におけるTCPの位置とを相互に変換する変換関係Uを記憶している。変換関係Uは、順運動学と逆運動学に基づいて得られる関数であり、例えば同時変換行列を含んでいてもよい。駆動制御部31は、変換関係Uによって、モーターM1〜M6の駆動位置DaからTCPの位置を導出でき、逆にTCPの位置からモーターM1〜M6の駆動位置Daを導出することもできる。 The robot 1 includes motors M1 to M6 as drive units and encoders E1 to E6 in addition to the configuration illustrated in FIG. The motor M1-M6 and encoders E1 to E6, and provided corresponding to each of the joints J1 to J6, encoders E1 to E6 detects the drive position D a of the motor M1-M6. Controlling the arm A means controlling the motors M1 to M6 as drive units. The drive control unit 31 can communicate with the robot 1. Drive control unit 31 stores the rotation angle of each joint J1~J6 derived from the drive position D a of the motor M1-M6, the conversion relation U for converting the position of the TCP in the robot coordinate system to each other . The conversion relationship U is a function obtained based on forward kinematics and inverse kinematics, and may include, for example, a simultaneous conversion matrix. Drive control unit 31, the conversion relation U, from the driving position D a motor M1~M6 can derive the position of the TCP, it is also possible to derive the drive position D a motor M1~M6 from the position of the TCP reversed.

力変換部32は、検出力f0を、マニュピレーターM上またはマニュピレーターMが把持する把持対象物上において任意に設定されるCCPに作用する力である作用力に変換する。図4に示すように、力覚センサーFSは、FSO(Force Sensor Origin)において互いに直交する3個のα,β,γ軸方向の力である力FFSO(FFSOα,FFSOβ,FFSOγ)と、当該3個の検出軸まわりのトルクMFSO(MFSOα,MFSOβ,MFSOγ)で構成される検出力f0を検出する。FSOは、円柱状の力覚センサーFSの中心軸上に存在している。検出力f0はFSOに作用する現実の力を意味する。FSOを原点とし、検出軸(α,β,γ軸)を座標軸とする座標系とセンサー座標系と表記する。また、TCPを原点とし、検出軸と同一方向の軸を座標軸とする座標系をツール座標系と表記する。センサー座標系の座標軸の方向は検出軸の方向と異なってもよいが、説明の簡略化のため同じであることとする。 The force conversion unit 32 converts the detection force f 0 into an acting force that is a force acting on the CCP arbitrarily set on the manipulator M or on the grasped object gripped by the manipulator M. As shown in FIG. 4, the force sensor FS is a force F FSO (F FSOα , F FSOβ , F FSOγ ) which is a force in three α, β and γ axial directions orthogonal to each other in an FSO (Force Sensor Origin). Then , the detection force f 0 composed of the torques M FSO (M FSOα , M FSOβ , M FSOγ ) around the three detection axes is detected. The FSO exists on the central axis of the cylindrical force sensor FS. The detection force f 0 means an actual force acting on the FSO. The coordinate system and sensor coordinate system are described with the FSO as the origin and the detection axes (α, β, γ axes) as the coordinate axes. Further, a coordinate system having TCP as the origin and an axis in the same direction as the detection axis as a coordinate axis is referred to as a tool coordinate system. The direction of the coordinate axis of the sensor coordinate system may be different from the direction of the detection axis, but is assumed to be the same for simplicity of explanation.

力変換部32は、モーターM1〜M6の駆動位置Daと変換関係Uとに基づいて、ロボット座標系におけるセンサー座標系の座標軸の方向(=ツール座標系の座標軸の方向)を導出する。これにより、力覚センサーFSが検出した検出力f0がロボット座標系においてどのような方向を向いているかを把握できることとなる。なお、センサー座標系の座標軸の方向とツール座標系の座標軸の方向とが異なる場合、力変換部32は、ツール座標系の座標軸の方向を回転変換することによりセンサー座標系の座標軸の方向を導出すればよい。 Power converter 32, based on the driving position D a motor M1~M6 and conversion relation U, to derive the direction of the coordinate axes of the sensor coordinate system in the robot coordinate system (= the direction of the coordinate axes of the tool coordinate system). As a result, it is possible to grasp the direction in which the detection force f 0 detected by the force sensor FS is directed in the robot coordinate system. When the direction of the coordinate axis of the sensor coordinate system is different from the direction of the coordinate axis of the tool coordinate system, the force conversion unit 32 derives the direction of the coordinate axis of the sensor coordinate system by rotationally converting the direction of the coordinate axis of the tool coordinate system. do it.

力変換部32は、FSOに作用する力FFSO(FFSOα,FFSOβ,FFSOγ)に基づいて、CCPに作用する力FCCP(FCCPα,FCCPβ,FCCPγ)を導出する。本実施形態において、力覚センサーFSとエンドエフェクター2とワークWとは一体の剛体であると見なすこととする。そのため、力変換部32は、FSOにおける力FFSOをそのままCCPにおける力FCCPとして導出する。なお、FSOに作用する力FFSO(FFSOα,FFSOβ,FFSOγ)と、CCPに作用する力FCCP(FCCPα,FCCPβ,FCCPγ)とは必ずしも同一でなくてもよい。例えば、力変換部32は、FSOに作用する力FFSOを定義するセンサー座標系の軸の方向と、CCPに作用する力FCCPを定義する座標系の軸の方向とが異なる場合に、FSOに作用する力FFSOを回転変換してCCPに作用する力FCCPを導出してもよい。例えば、力覚センサーFSに対してエンドエフェクター2がチルトして備えられている場合には、FSOに作用する力FFSOを定義するセンサー座標系の軸の方向と、CCPに作用する力FCCPを定義する座標系の軸の方向とが異なり得る。 The force conversion unit 32 derives the force F CCP (F CCPα , F CCPβ , F CCPγ ) acting on the CCP based on the force F FSO (F FSOα , F FSOβ , F FSOγ ) acting on the FSO . In the present embodiment, the force sensor FS, the end effector 2 and the workpiece W are assumed to be an integral rigid body. Therefore, the force conversion unit 32 derives the force F FSO in the FSO as it is as the force F CCP in the CCP. The force F FSO (F FSOα , F FSOβ , F FSOγ ) acting on the FSO and the force F CCP (F CCPα , F CCPβ , F CCPγ ) acting on the CCP are not necessarily the same. For example, when the direction of the axis of the sensor coordinate system that defines the force F FSO acting on the FSO is different from the direction of the axis of the coordinate system that defines the force F CCP acting on the CCP, the force conversion unit 32 The force F CCP acting on the CCP may be derived by rotationally converting the force F FSO acting on the CCP. For example, when the end effector 2 is tilted with respect to the force sensor FS, the direction of the axis of the sensor coordinate system that defines the force F FSO acting on the FSO and the force F CCP acting on the CCP The direction of the axes of the coordinate system that defines can be different.

力変換部32は、FSOに作用する力FFSO(FFSOα,FFSOβ,FFSOγ)とトルクMFSO(MFSOα,MFSOβ,MFSOγ)に基づいて、CCPに作用するトルクMFSO(MCCPα,MCCPβ,MCCPγ)を導出する。図5は、CCPに作用するトルクMCCP(MCCPα,MCCPβ,MCCPγ)を導出する様子を示す斜視図である。センサー座標系におけるCCPの座標(αCCP,βCCP,γCCP)は既知であり記録媒体に記録されている。図5に示すように、FSOからCCPまで延びるベクトルをベクトルPCCP(αCCPCCPCCP)と表記する。力変換部32は、以下の(1)式により、CCPに作用するトルクMCCPを導出する。
前記の(1)式に示すように、CCPに作用するトルクMCCPは、FSOに作用するトルクMFSOから、ベクトルPCCPとFSOに作用する力FFSOとの外積を減算することにより導出される。
The force converter 32 is based on the force F FSO (F FSOα , F FSOβ , F FSOγ ) acting on the FSO and the torque M FSO ( MFSOα , M FSOβ , M FSOγ ), and the torque M FSO (M CCPα , M CCPβ , M CCPγ ) are derived. FIG. 5 is a perspective view showing how torque M CCP (M CCPα , M CCPβ , M CCPγ ) acting on CCP is derived. The CCP coordinates (α CCP , β CCP , γ CCP ) in the sensor coordinate system are known and recorded on the recording medium. As shown in FIG. 5, a vector extending from FSO to CCP is expressed as a vector P CCPCCP , β CCP , γ CCP ). The force converter 32 derives the torque M CCP acting on the CCP by the following equation (1).
As shown in the above equation (1), the torque M CCP acting on the CCP is derived by subtracting the outer product of the vector P CCP and the force FFSO acting on the FSO from the torque MFSO acting on the FSO. The

ベクトルPCCPとFSOに作用する力FFSOとの外積は、ベクトルPCCPの大きさ(FSOからCCPまでの距離)に、FSOに作用する力FFSOを掛けたものであり、FSOに作用する力FFSOがFSOに生じさせるトルクを意味する。以上の計算により、力変換部32は、CCPに作用する作用力fS(FCCPα,FCCPβ,FCCPγ,MCCPα,MCCPβ,MCCPγ)を導出できる。さらに、力変換部32は、ロボット座標系におけるα,β,γ軸の方向に基づいて作用力fSを回転変換することにより、ロボット座標系における作用力fSを導出する。 Cross product of the force F FSO acting on vector P CCP and the FSO, the magnitude of the vector P CCP (Distance from FSO to CCP), are those obtained by multiplying the force F FSO acting on FSO, acting FSO The force F FSO means the torque generated in the FSO. By the above calculation, the force conversion unit 32 can derive the acting force f S (F CCPα , F CCPβ , F CCPγ , M CCPα , M CCPβ , M CCPγ ) acting on the CCP. Further, the force conversion unit 32 derives the acting force f S in the robot coordinate system by rotationally transforming the acting force f S based on the directions of the α, β, and γ axes in the robot coordinate system.

さらに、力変換部32は、作用力fSに対して重力補償を行う。重力補償とは、作用力fSから重力成分を除去することである。重力補償を行った作用力fSは、CCPに作用している重力以外の力と見なすことができる。TCP(CCP)の姿勢ごとにCCPに作用する作用力fSの重力成分が予め調査されており、駆動制御部31は、作用力fSからTCPの姿勢に対応する重力成分を減算することにより重力補償が実現する。なお、重力補償は必ずしも行われなくてもよく、作業の内容等に応じて省略されてもよい。 Further, the force conversion unit 32 performs gravity compensation for the acting force f S. Gravity compensation is to remove the gravity component from the acting force f S. The acting force f S subjected to gravity compensation can be regarded as a force other than gravity acting on the CCP. The gravity component of the acting force f S acting on the CCP is investigated in advance for each TCP (CCP) posture, and the drive control unit 31 subtracts the gravity component corresponding to the TCP posture from the acting force f S. Gravity compensation is realized. Note that gravity compensation does not necessarily have to be performed, and may be omitted depending on the content of the work.

駆動制御部31は、目標力fStと作用力fSとをインピーダンス制御の運動方程式に代入することにより、力由来補正量ΔSを特定する。(2)式は、インピーダンス制御の運動方程式である。
(2)式の左辺は、TCPの位置Sの2階微分値に仮想慣性係数mを乗算した第1項と、TCPの位置Sの微分値に仮想粘性係数dを乗算した第2項と、TCPの位置Sに仮想弾性係数kを乗算した第3項とによって構成される。(2)式の右辺は、目標力fStから現実の作用力fSを減算した力偏差ΔfS(t)によって構成される。(2)式における微分とは、時間による微分を意味する。ロボット1が行う工程において、目標力fStとして一定値が設定される場合もあるし、目標力fStとして時間に依存する関数によって導出される値が設定される場合もある。
The drive control unit 31 specifies the force-derived correction amount ΔS by substituting the target force f St and the acting force f S into the equation of motion for impedance control. Equation (2) is an equation of motion for impedance control.
The left side of the equation (2) is a first term obtained by multiplying the second-order differential value of the TCP position S by the virtual inertia coefficient m, a second term obtained by multiplying the differential value of the TCP position S by the virtual viscosity coefficient d, And a third term obtained by multiplying the position S of the TCP by the virtual elastic coefficient k. The right side of the equation (2) is constituted by a force deviation Δf S (t) obtained by subtracting the actual acting force f S from the target force f St. The differentiation in the equation (2) means differentiation with time. In the step of the robot 1 performs, to sometimes fixed value as the target force f St is set, there is a case where the value derived by a function that depends on time as the target force f St is set.

インピーダンス制御とは、仮想の機械的インピーダンスをモーターM1〜M6によって実現する制御である。仮想慣性係数mはTCPが仮想的に有する質量を意味し、仮想粘性係数dはTCPが仮想的に受ける粘性抵抗を意味し、仮想弾性係数kはTCPが仮想的に受ける弾性力のバネ定数を意味する。各係数m,d,kは方向ごとに異なる値に設定されてもよいし、方向に拘わらず共通の値に設定されてもよい。力由来補正量ΔSとは、TCPが機械的インピーダンスを受けた場合に、目標力fStとの力偏差ΔfS(t)を解消するために、TCPが移動すべき位置Sの大きさを意味する。駆動制御部31は、目標位置Stに、力由来補正量ΔSを加算することにより、インピーダンス制御を考慮した補正目標位置(St+ΔS)を特定する。 The impedance control is control for realizing a virtual mechanical impedance by the motors M1 to M6. The virtual inertia coefficient m means the mass that the TCP virtually has, the virtual viscosity coefficient d means the viscous resistance that the TCP virtually receives, and the virtual elastic coefficient k is the spring constant of the elastic force that the TCP virtually receives. means. Each coefficient m, d, k may be set to a different value for each direction, or may be set to a common value regardless of the direction. The force-derived correction amount ΔS means the size of the position S where the TCP should move in order to eliminate the force deviation Δf S (t) from the target force f St when the TCP receives mechanical impedance. To do. Drive control unit 31, the target position S t, by adding a force from the correction amount [Delta] S, identifies the correction target position in consideration of the impedance control (S t + ΔS).

そして、駆動制御部31は、変換関係Uに基づいて、ロボット座標系を規定する各軸の方向の補正目標位置(St+ΔS)を、各モーターM1〜M6の目標の駆動位置である目標駆動位置Dtに変換する。そして、駆動制御部31は、目標駆動位置DtからモーターM1〜M6の現実の駆動位置Daを減算することにより、駆動位置偏差De(=Dt−Da)を算出する。駆動制御部31は、駆動位置偏差Deに位置制御ゲインKpを乗算した値と、現実の駆動位置Daの時間微分値である駆動速度との差である駆動速度偏差に、速度制御ゲインKvを乗算した値とを加算することにより、制御量Dcを特定する。なお、位置制御ゲインKpおよび速度制御ゲインKvは、比例成分だけでなく微分成分や積分成分にかかる制御ゲインを含んでもよい。制御量Dcは、モーターM1〜M6のそれぞれについて特定される。以上説明した構成により、駆動制御部31は、目標位置Stと目標力fStとに基づいてアームAを制御することができる。 Then, based on the conversion relationship U, the drive control unit 31 sets the corrected target position (S t + ΔS) in the direction of each axis that defines the robot coordinate system as the target drive position that is the target drive position of each motor M1 to M6. into a position D t. Then, the drive control unit 31, by the target drive position D t subtracting the actual drive position D a of the motor M1-M6, calculates the driving position deviation D e (= D t -D a ). Drive control unit 31, a value obtained by multiplying the position control gain K p to the driving position deviation D e, the driving speed deviation which is a difference between the driving speed is the time differential value of the actual drive position D a, the speed control gain The control amount D c is specified by adding the value multiplied by K v . Note that the position control gain K p and the speed control gain K v may include not only a proportional component but also a control gain related to a differential component and an integral component. The control amount D c is specified for each of the motors M1 to M6. With the configuration described above, the drive control unit 31 may control the arm A on the basis of the target position S t and the target force f St.

(1−2)教示端末:
教示端末4には、制御端末3に目標位置Stと目標力fStとを教示するための教示プログラムがインストールされている。教示端末4は、プロセッサーやRAMやROMを備え、これらのハードウェア資源が制御プログラムと協働する。これにより、図2に示すように、設定部としての教示端末4は、機能構成として第1表示部41と第2表示部42と受付部43とを備えることとなる。図示しないが、教示端末4は、ユーザーからの指示を受け付ける入力装置(マウス、キーボード、タッチパネル等)と、ユーザーに各種情報を出力する表示装置(ディスプレイ)を備える。以下、第1表示部41と第2表示部42と受付部43とが行う処理の詳細をフローチャートとともに説明する。第1表示部41と第2表示部42とは、本発明の表示部を構成する。
(1-2) Teaching terminal:
The teaching terminal 4, teaching program for teaching a target position S t and the target force f St to the control terminal 3 is installed. The teaching terminal 4 includes a processor, a RAM, and a ROM, and these hardware resources cooperate with the control program. Thereby, as shown in FIG. 2, the teaching terminal 4 as a setting part will be provided with the 1st display part 41, the 2nd display part 42, and the reception part 43 as a function structure. Although not shown, the teaching terminal 4 includes an input device (such as a mouse, a keyboard, and a touch panel) that receives instructions from the user, and a display device (display) that outputs various types of information to the user. Hereinafter, details of processing performed by the first display unit 41, the second display unit 42, and the reception unit 43 will be described with reference to flowcharts. The 1st display part 41 and the 2nd display part 42 comprise the display part of this invention.

図6は、教示処理のフローチャートである。なお、図6の教示処理は、目標力fStとともにインピーダンス制御の係数を教示するための処理であり、目標位置Stを教示するための処理は別途行われていることとする。目標位置Stは公知の教示手法によって教示でき、例えばユーザーがアームAを手で移動させることにより目標位置Stが教示されてもよいし、教示端末4にてロボット座標系における座標を指定することにより目標位置Stが教示されてもよい。 FIG. 6 is a flowchart of the teaching process. Incidentally, the teaching process of Fig. 6 is a process for teaching the coefficient of impedance control with target forces f St, and the process for teaching the target position S t are separately performed. Target position S t can be taught by a known teaching techniques, for example to the user a target position S t by moving manually the arm A may be taught, specify the coordinates in the robot coordinate system at the teaching terminal 4 target position S t may be taught by.

まず、受付部43は、動作開始位置までアームAを移動させる(ステップS100)。すなわち、受付部43は、制御端末3に対して、TCPが動作開始位置となるようなアームAの制御を実行させる。動作開始位置とは、CCPに目標力fStが作用するようにアームAを制御する直前のTCPの位置である。例えばエンドエフェクター2が把持するワークWを他の物体に押し付ける直前の位置や、加工具を把持したエンドエフェクター2によって他の物体を加工する直前の位置等である。ただし、図6の教示処理においては、目標力fStとインピーダンス制御の係数を設定できればよく、動作開始位置は、必ずしも実際の作業においてCCPに作用力fSが作用するようにアームAを制御する直前の位置でなくてもよい。次に、受付部43は、GUI(graphical user interface)を表示する(ステップS110)。GUIは本発明の設定画面である。 First, the receiving unit 43 moves the arm A to the operation start position (step S100). That is, the reception unit 43 causes the control terminal 3 to execute control of the arm A so that TCP is the operation start position. The operation start position is a TCP position immediately before the arm A is controlled so that the target force f St acts on the CCP. For example, the position immediately before pressing the workpiece W held by the end effector 2 against another object, the position immediately before processing another object by the end effector 2 holding the processing tool, or the like. However, in the teaching process of FIG. 6, it is only necessary to set the target force f St and the impedance control coefficient, and the operation start position necessarily controls the arm A so that the acting force f S acts on the CCP in actual work. It may not be the position immediately before. Next, the reception unit 43 displays a GUI (graphical user interface) (step S110). The GUI is a setting screen of the present invention.

図7は、GUIを示す図である。図7に示すように、GUIは、入力窓N1〜N3と、スライダーバーHと、表示窓Q1,Q2と、グラフG1,G2と、ボタンB1,B2とを含んでいる。受付部43は、入力装置によってGUI上において行われた操作を受け付ける。   FIG. 7 is a diagram showing a GUI. As shown in FIG. 7, the GUI includes input windows N1 to N3, a slider bar H, display windows Q1 and Q2, graphs G1 and G2, and buttons B1 and B2. The accepting unit 43 accepts an operation performed on the GUI by the input device.

GUIを表示すると、受付部43は、力の方向(目標力fStの方向)と、力の大きさ(目標力fStの大きさ)とを受け付ける(ステップS120)。GUIにおいて、力の方向を受け付けるための入力窓N1と、力の大きさを受け付けるための入力窓N2とが設けられている。受付部43は、入力窓N1において、ロボット座標系を規定するいずれかの軸の方向の入力を受け付ける。また、受付部43は、入力窓N2において、任意の数値の入力を受け付ける。 When the GUI is displayed, the receiving unit 43 receives the direction of the force (the direction of the target force f St ) and the magnitude of the force (the magnitude of the target force f St ) (Step S120). In the GUI, an input window N1 for receiving the direction of force and an input window N2 for receiving the magnitude of force are provided. The receiving unit 43 receives an input in the direction of any axis that defines the robot coordinate system in the input window N1. Moreover, the reception part 43 receives the input of arbitrary numerical values in the input window N2.

次に、受付部43は、仮想弾性係数kを受け付ける(ステップS130)。GUIにおいて、第1設定値としての仮想弾性係数kを受け付けるための入力窓N3が設けられている。受付部43は、入力窓N3において、任意の数値の入力を受け付ける。ユーザーは、ワークWやエンドエフェクター2を他の物体と軟らかく接触させたい場合には仮想弾性係数kを小さい値に設定すればよい。反対に、ユーザーは、ワークWやエンドエフェクター2を他の物体と硬く接触させたい場合には仮想弾性係数kを大きい値に設定すればよい。   Next, the reception unit 43 receives a virtual elastic coefficient k (step S130). In the GUI, an input window N3 for receiving a virtual elastic coefficient k as the first set value is provided. The accepting unit 43 accepts input of an arbitrary numerical value in the input window N3. When the user wants to make the workpiece W or the end effector 2 softly contact other objects, the virtual elastic coefficient k may be set to a small value. On the other hand, when the user wants to make the workpiece W or the end effector 2 come into hard contact with another object, the virtual elastic coefficient k may be set to a large value.

仮想弾性係数kを受け付けると、第2表示部42は、仮想弾性係数kに対応する記憶波形VをグラフG2にて表示する(ステップS140)。グラフG2の横軸は時刻を示し、グラフG2の縦軸は作用力fSを示す。記憶波形Vは、作用力fSの時間応答波形であり、予め教示端末4の記憶媒体に仮想弾性係数kごとに記憶されている。記憶波形Vは、入力窓Nにて受け付けられた大きさの力へと収束していく波形である。記憶波形Vは、一般的な条件において、入力窓N2にて受け付けた大きさの力がCCPに作用するようにアームAを制御した場合に、CCPに作用する作用力fSの時間応答波形である。仮想弾性係数kが異なると記憶波形Vの形状(傾き)が大きく異なることとなるため、仮想弾性係数kごとに記憶波形Vを記憶することとしている。 When the virtual elastic coefficient k is received, the second display unit 42 displays the memory waveform V corresponding to the virtual elastic coefficient k on the graph G2 (step S140). The horizontal axis of the graph G2 indicates time, and the vertical axis of the graph G2 indicates the acting force f S. The memory waveform V is a time response waveform of the acting force f S and is stored in advance in the storage medium of the teaching terminal 4 for each virtual elastic coefficient k. The stored waveform V is a waveform that converges to a force having a magnitude received by the input window N. The memory waveform V is a time response waveform of the acting force f S acting on the CCP when the arm A is controlled so that the force of the magnitude received in the input window N2 acts on the CCP under general conditions. is there. When the virtual elastic modulus k is different, the shape (inclination) of the memory waveform V is greatly different. Therefore, the memory waveform V is stored for each virtual elastic coefficient k.

記憶波形Vは、ユーザーの目安となる波形であればよく、例えばロボット1のメーカーが推奨する波形であってもよいし、過去においてロボット1が正常に作業を行った実績のある波形であってもよい。また、記憶波形Vは、嵌合作業や研磨作業等の作業内容ごとに用意されてもよいし、ワークWの機械特性(弾性係数、硬さ等)や、ワークWやエンドエフェクター2が接触する物体の機械特性ごとに用意されてもよい。   The stored waveform V may be a waveform that is a guideline for the user. For example, the waveform V may be a waveform recommended by the manufacturer of the robot 1 or a waveform that has been successfully used by the robot 1 in the past. Also good. Further, the memory waveform V may be prepared for each work content such as a fitting work and a polishing work, or the mechanical characteristics (elastic coefficient, hardness, etc.) of the work W, and the work W and the end effector 2 are in contact with each other. It may be prepared for each mechanical property of the object.

次に、受付部43は、スライダーバーH上におけるスライダーH1の操作に応じて仮想粘性係数dと仮想慣性係数mを受け付ける(ステップS150)。図7のGUIにおいて、仮想慣性係数mと仮想粘性係数dとを受け付けるための構成として、スライダーバーHと、当該スライダーバーH上をスライド可能なスライダーH1とが設けられている。受付部43は、スライダーH1をスライダーバーH上にてスライドさせる操作を受け付ける。なお、スライダーバーHには、右方向にスライダーH1が移動するほど安定性を重視する設定となり、左方向にスライダーH1が移動するほど応答性を重視する設定となることが表示されている。   Next, the reception unit 43 receives the virtual viscosity coefficient d and the virtual inertia coefficient m in accordance with the operation of the slider H1 on the slider bar H (step S150). In the GUI of FIG. 7, as a configuration for receiving the virtual inertia coefficient m and the virtual viscosity coefficient d, a slider bar H and a slider H1 that can slide on the slider bar H are provided. The accepting unit 43 accepts an operation of sliding the slider H1 on the slider bar H. Note that the slider bar H indicates that as the slider H1 moves to the right, the stability is set to be more important, and as the slider H1 moves to the left, the response is set to be more important.

そして、受付部43は、スライダーバーH上におけるスライダーH1のスライド位置を取得し、当該スライド位置に対応する仮想慣性係数mと仮想粘性係数dとを受け付ける。具体的に、受付部43は、仮想慣性係数mと仮想粘性係数dとの比が一定(例えば、m:d=1:1000)となるように、第2設定値としての仮想慣性係数mと仮想粘性係数dの設定を受け付ける。また、受付部43は、スライダーH1のスライド位置に対応する仮想慣性係数mと仮想粘性係数dを表示窓Q1,Q2に表示する。   And the reception part 43 acquires the slide position of the slider H1 on the slider bar H, and receives the virtual inertia coefficient m and the virtual viscosity coefficient d corresponding to the said slide position. Specifically, the reception unit 43 sets the virtual inertia coefficient m as the second set value so that the ratio between the virtual inertia coefficient m and the virtual viscosity coefficient d is constant (for example, m: d = 1: 1000). The setting of the virtual viscosity coefficient d is accepted. In addition, the reception unit 43 displays the virtual inertia coefficient m and the virtual viscosity coefficient d corresponding to the slide position of the slider H1 on the display windows Q1 and Q2.

なお、図7のスライダーバーHにおいてスライダーH1を右方向に移動させるほど、仮想慣性係数mと仮想粘性係数dが大きくなる。仮想慣性係数mと仮想粘性係数dが大きくなると、TCPの位置が移動しにくくなるため、CCPに作用する作用力fSが安定しやすくなる。仮想慣性係数mと仮想粘性係数dが小さくなると、TCPの位置が移動しやすくなるため、CCPに作用する作用力fSの応答性がよくなる。なお、スライダーH1は、仮想慣性係数mと仮想粘性係数dの設定を受付可能な単一の操作部に相当する。 Note that the virtual inertia coefficient m and the virtual viscosity coefficient d increase as the slider H1 is moved to the right in the slider bar H of FIG. When the virtual inertia coefficient m and the virtual viscosity coefficient d are increased, the position of the TCP is difficult to move, so that the acting force f S acting on the CCP is easily stabilized. When the virtual inertia coefficient m and the virtual viscosity coefficient d are reduced, the position of the TCP is easily moved, so that the responsiveness of the acting force f S acting on the CCP is improved. The slider H1 corresponds to a single operation unit that can accept the setting of the virtual inertia coefficient m and the virtual viscosity coefficient d.

次に、受付部43は、動作ボタンB1の操作に応じて現在の設定値でアームAを制御する(ステップS160)。すなわち、受付部43は、制御端末3に対して、GUIにて設定された目標力fStとインピーダンス制御の制御パラメーターm,d,kとを出力し、これらの設定値に基づいてアームAを制御するように指令する。図7のGUIの場合、ワークWが−Z方向に移動し、−Z方向においてワークWが他の物体に接触してGUIにて設定された大きさの作用力fSがCCPに作用するように、アームAが制御される。 Next, the reception unit 43 controls the arm A with the current set value in accordance with the operation of the operation button B1 (step S160). That is, the accepting unit 43 outputs the target force f St set by the GUI and the control parameters m, d, and k for impedance control to the control terminal 3 and moves the arm A based on these set values. Command to control. In the case of the GUI of FIG. 7, the workpiece W moves in the −Z direction, and the workpiece W comes into contact with another object in the −Z direction so that the acting force f S having the magnitude set by the GUI acts on the CCP. Then, arm A is controlled.

次に、第2表示部42は、作用力fSの波形である作用波形LをグラフG1に表示する(ステップS170)。出力波形としての作用波形Lは、図3〜5に示すCCPに作用する作用力fSの時間応答波形であり、CCPに作用する力FCCPの時間応答波形であってもよいし、CCPに作用するトルクMCCPの時間応答波形であってもよい。第2表示部42は、ステップS160にてアームAが制御される期間において、所定のサンプリング周期ごとに重力補償後の作用力fSを制御端末3から取得し、教示端末4の記憶媒体に記憶しておく。そして、ステップS160が終了すると、記憶媒体からサンプリング周期ごとの作用力fSを取得し、当該作用力fSの時系列の波形である作用波形LをグラフG1にて表示する。グラフG1の縦軸と横軸は、グラフG2の縦軸と横軸と同じスケールであることとする。むろん、作用波形Lも、入力窓Nにて受け付けられた大きさの力へと収束していく波形である。 Next, the second display unit 42 displays the action waveform L is a waveform of the action force f S in the graph G1 (step S170). The action waveform L as the output waveform is a time response waveform of the action force f S acting on the CCP shown in FIGS. 3 to 5, and may be a time response waveform of the force F CCP acting on the CCP, It may be a time response waveform of the acting torque M CCP . The second display unit 42 acquires the applied force f S after gravity compensation from the control terminal 3 for each predetermined sampling period and stores it in the storage medium of the teaching terminal 4 during the period in which the arm A is controlled in step S160. Keep it. When step S160 ends, the acting force f S for each sampling period is acquired from the storage medium, and the action waveform L, which is a time-series waveform of the acting force f S , is displayed on the graph G1. The vertical axis and horizontal axis of the graph G1 are the same scale as the vertical axis and horizontal axis of the graph G2. Of course, the action waveform L is also a waveform that converges to a force of a magnitude received by the input window N.

次に、受付部43は、決定ボタンB2が操作されたか否かを判定する(ステップS180)。すなわち、受付部43は、GUIにて設定した各設定値を確定的に決定するための操作が受け付けられたか否かを判定する。   Next, the reception unit 43 determines whether or not the determination button B2 has been operated (Step S180). That is, the reception unit 43 determines whether an operation for deterministically setting each setting value set in the GUI has been received.

決定ボタンB2が操作されたと判定しなかった場合(ステップS180:N)、受付部43は、GUIにて設定値の変更を受け付け(ステップS190)、ステップS160に戻る。すなわち、ユーザーが作用波形Lに満足できなかったとして、引き続き、インピーダンス制御の制御パラメーターm,d,kを設定する操作をGUIにて受け付ける。設定値の変更を受け付けた後に決定ボタンB2が操作されれば、変更後の設定値によってアームAを制御し、グラフG1にて作用波形Lを更新表示する。なお、ステップS190にて、仮想弾性係数kが変更された場合、グラフG2にて記憶波形Vを更新表示してもよい。   If it is not determined that the enter button B2 has been operated (step S180: N), the accepting unit 43 accepts a change in the setting value through the GUI (step S190), and returns to step S160. That is, assuming that the user is not satisfied with the action waveform L, an operation for setting the control parameters m, d, and k for impedance control is subsequently accepted through the GUI. If the determination button B2 is operated after accepting the change of the set value, the arm A is controlled by the changed set value, and the action waveform L is updated and displayed on the graph G1. If the virtual elastic coefficient k is changed in step S190, the stored waveform V may be updated and displayed on the graph G2.

一方、決定ボタンB2が操作されたと判定した場合(ステップS180:Y)、受付部43は、設定値を制御端末3に出力し(ステップS200)、教示処理を終了する。これにより、GUIにて設定された目標力fStとともに、インピーダンス制御の制御パラメーターm,d,kを制御端末3に教示することができる。 On the other hand, when it is determined that the determination button B2 has been operated (step S180: Y), the receiving unit 43 outputs the set value to the control terminal 3 (step S200), and ends the teaching process. Thereby, the control parameters m, d, and k for impedance control can be taught to the control terminal 3 together with the target force f St set by the GUI.

以上の構成において、第1表示部41と第2表示部42とは、制御パラメーターm、d,kによる駆動部の駆動に応じて得られる力覚センサーFSの出力波形としての作用波形Lを、当該制御パラメーターm、d,kと同時に表示させている。これにより、望ましい作用波形Lを得られるように制御パラメーターm、d,kを容易に設定できる。制御パラメーターm、d,kを表示するとは、数値を表示することであってもよいし、数値に応じて位置が変化するスライダーH1を表示することであってもよいし、グラフ等を表示することであってもよい。同時に表示させるとは、対比可能に表示させることであればよく、必ずしも単一の画面上に表示させることでなくてもよい。さらに、予め記憶媒体に記憶された記憶波形Vと比較して、力覚センサーFSが検出した検出力を変換して得られた実際の作用波形Lが所望の形状となっているか否かをユーザーが容易に判断でき、作用波形Lが所望の形状となるように仮想慣性係数mと仮想粘性係数dの設定を行うことができる。作用波形Lが所望の形状となるように仮想慣性係数mと仮想粘性係数dを設定できるため、時間応答波形を考慮しながら自由度の高い制御の設定が可能となる。必ずしも、ユーザーは、記憶波形Vと類似する形状の作用波形Lが得られる仮想慣性係数mと仮想粘性係数dを設定しなくてもよく、例えばユーザーは記憶波形Vよりも収束が早くなったり遅くなったりする作用波形Lが得られる仮想慣性係数mと仮想粘性係数dを意図的に設定することができる。また、ユーザーは記憶波形Vよりも振幅が大きくなったり小さくなったりする作用波形Lが得られる仮想慣性係数mと仮想粘性係数dを意図的に設定することができる。   In the above configuration, the first display unit 41 and the second display unit 42 have an action waveform L as an output waveform of the force sensor FS obtained according to driving of the driving unit by the control parameters m, d, and k, The control parameters m, d, and k are displayed at the same time. Thereby, the control parameters m, d, and k can be easily set so as to obtain a desired action waveform L. Displaying the control parameters m, d, and k may be to display numerical values, to display the slider H1 whose position changes according to the numerical values, or to display a graph or the like. It may be. Displaying at the same time is not limited to displaying on a single screen, as long as it is displayed in a comparable manner. Further, the user can determine whether or not the actual action waveform L obtained by converting the detection force detected by the force sensor FS has a desired shape as compared with the storage waveform V stored in the storage medium in advance. The virtual inertia coefficient m and the virtual viscosity coefficient d can be set so that the action waveform L has a desired shape. Since the virtual inertia coefficient m and the virtual viscosity coefficient d can be set so that the action waveform L has a desired shape, it is possible to set the control with a high degree of freedom while considering the time response waveform. It is not always necessary for the user to set the virtual inertia coefficient m and the virtual viscosity coefficient d for obtaining the action waveform L having a shape similar to the memory waveform V. For example, the user converges faster or slower than the memory waveform V. It is possible to intentionally set the virtual inertia coefficient m and the virtual viscosity coefficient d from which an action waveform L that is obtained can be obtained. In addition, the user can intentionally set the virtual inertia coefficient m and the virtual viscosity coefficient d from which an action waveform L having an amplitude larger or smaller than the stored waveform V can be obtained.

また、時間応答波形への影響が大きい仮想弾性係数kに対応する記憶波形Vを表示するため、作用波形Lとの比較において参考となる記憶波形Vを表示できる。また、単一のスライダーH1の操作により仮想慣性係数mと仮想粘性係数dの設定できるため、仮想慣性係数mと仮想粘性係数dとを容易に設定できる。スライダーバーHにて、安定性を重視する方向と応答性を重視する方向が示されているため、ユーザーは直感的に仮想慣性係数mと仮想粘性係数dとを設定できる。特に、仮想慣性係数mと仮想粘性係数dとが一定の比を保つため、安定性を重視する設定と応答性を重視する設定とを容易に実現できる。   Further, since the memory waveform V corresponding to the virtual elastic coefficient k having a large influence on the time response waveform is displayed, the memory waveform V that is a reference in comparison with the action waveform L can be displayed. Further, since the virtual inertia coefficient m and the virtual viscosity coefficient d can be set by operating a single slider H1, the virtual inertia coefficient m and the virtual viscosity coefficient d can be easily set. Since the slider bar H indicates a direction in which stability is important and a direction in which responsiveness is important, the user can intuitively set the virtual inertia coefficient m and the virtual viscosity coefficient d. In particular, since the virtual inertia coefficient m and the virtual viscosity coefficient d maintain a constant ratio, settings that place importance on stability and settings that place importance on responsiveness can be easily realized.

また、力変換部32は、力覚センサーFSが検出した検出力を、CCPに作用する力である作用力fSに変換するため、力覚センサーFSが検出した検出力そのものではなく、CCPに作用する力である作用力fSが目標力fStに近づくように力制御を行うことができる。従って、CCPを適切な位置に設定することにより、適切な位置に作用する力に基づいてマニュピレーターMを制御できる。 In addition, the force conversion unit 32 converts the detection force detected by the force sensor FS into an action force f S that is a force acting on the CCP. Therefore, the force conversion unit 32 applies not the detection force itself detected by the force sensor FS but the CCP. Force control can be performed so that the applied force f S, which is the applied force, approaches the target force f St. Therefore, by setting the CCP to an appropriate position, the manipulator M can be controlled based on the force acting on the appropriate position.

(2)他の実施形態
ロボット1は、必ずしも6軸の単腕ロボットでなくてもよく、ロボットが駆動することに応じていずれかの箇所に力が作用するロボットであればよい。例えば、ロボット1は、双腕ロボットであってもよいし、スカラーロボットであってもよい。
(2) Other Embodiments The robot 1 does not necessarily have to be a six-axis single-arm robot, and may be any robot that applies a force to any location as the robot is driven. For example, the robot 1 may be a double-arm robot or a scalar robot.

また、制御端末3は、力検出器の検出値と第1設定値と第2設定値に基づく制御を行えばよく、インピーダンス制御を以外の力制御を行ってもよい。また、制御端末3は、必ずしも3個のパラメーターm,d,kをすべて考慮したインピーダンス制御を行わなくてもよく、これらのうち1個または2個を考慮したインピーダンス制御を行ってもよい。   Moreover, the control terminal 3 should just perform control based on the detection value of a force detector, a 1st setting value, and a 2nd setting value, and may perform force control other than impedance control. Moreover, the control terminal 3 does not necessarily need to perform impedance control considering all three parameters m, d, and k, and may perform impedance control considering one or two of them.

また、受付部43は、必ずしも仮想慣性係数mと仮想粘性係数dとの比が一定となるように、仮想慣性係数mと仮想粘性係数dの設定を受け付けなくてもよく、スライダーH1の位置や他の操作部の操作状況に応じて仮想慣性係数mと仮想粘性係数dとの比が変化してもよい。さらに、受付部43は、必ずしも仮想慣性係数mと仮想粘性係数dとを単一の操作部(スライダーH1)にて受け付けなくてもよく、熟練したユーザー等に対して仮想慣性係数mと仮想粘性係数dとそれぞれ直接入力可能なGUIを提供してもよい。   The receiving unit 43 does not necessarily receive the setting of the virtual inertia coefficient m and the virtual viscosity coefficient d so that the ratio between the virtual inertia coefficient m and the virtual viscosity coefficient d is constant, and the position of the slider H1 The ratio between the virtual inertia coefficient m and the virtual viscosity coefficient d may be changed according to the operation status of other operation units. Furthermore, the reception unit 43 does not necessarily have to receive the virtual inertia coefficient m and the virtual viscosity coefficient d with a single operation unit (slider H1). A GUI that can be directly input to the coefficient d may be provided.

また、第1設定値に対応する記憶波形Vを表示する構成において、第1設定値は、必ずしも仮想弾性係数kでなくてもよく、仮想慣性係数mと仮想粘性係数dの少なくとも一方であってもよい。さらに、受付部43は、必ずしも第1設定値と第2設定値の双方を受け付けなくてもよく、少なくとも第2設定値を受け付ければよい。例えば、受付部43は、第1設定値としての仮想弾性係数kを受け付けることなく、予め決められた仮想弾性係数kに対応する記憶波形Vが表示されてもよい。   In the configuration in which the stored waveform V corresponding to the first set value is displayed, the first set value is not necessarily the virtual elastic coefficient k, and is at least one of the virtual inertia coefficient m and the virtual viscosity coefficient d. Also good. Furthermore, the receiving unit 43 does not necessarily receive both the first set value and the second set value, and may receive at least the second set value. For example, the receiving unit 43 may display the stored waveform V corresponding to the predetermined virtual elastic coefficient k without receiving the virtual elastic coefficient k as the first set value.

図8に示すように、GUIは、作用力fSの時間応答波形Lとともに検出力の時間応答波形Qを表すように構成されてもよい。すなわち、教示端末4は、力変換部32が変換した後の作用力fSの時間応答波形Lを表示するグラフG1だけでなく、力変換部32が変換する前の検出力の時間応答波形Qを表示するグラフG3も含むGUIを表示してもよい。これにより、力覚センサーFSに過大な力が作用していないか否かを容易に判断できるとともに、作用力fSの時間応答波形Lと検出力の時間応答波形Qとを対比することができる。 As shown in FIG. 8, the GUI may be configured to represent the time response waveform Q of the detection force together with the time response waveform L of the acting force f S. That is, the teaching terminal 4 not only displays the time response waveform L of the acting force f S after the force conversion unit 32 converts, but also the time response waveform Q of the detection force before the force conversion unit 32 converts. A GUI that also includes a graph G3 for displaying may be displayed. Thereby, it can be easily determined whether or not an excessive force is applied to the force sensor FS, and the time response waveform L of the acting force f S and the time response waveform Q of the detecting force can be compared. .

さらに、前記実施形態においては、TCPとCCPとが異なる位置に設定されていたが、TCPとCCPとは同一の位置であってもよい。すなわち、位置制御の基準となる位置と、力制御の基準となる位置が同一の位置であってもよい。これにより、TCP(=CCP)の位置を厳密に制御しつつ、当該TCPに作用する力も制御できる。例えば、先端工具の先端の位置等にTCPとCCPを設定することにより、先端工具(ドライバー、ビット等)の先端の位置と力とを高精度に制御できる。   Furthermore, in the embodiment, TCP and CCP are set at different positions, but TCP and CCP may be at the same position. That is, the position serving as a reference for position control and the position serving as a reference for force control may be the same position. Accordingly, the force acting on the TCP can be controlled while strictly controlling the position of the TCP (= CCP). For example, by setting TCP and CCP at the tip position of the tip tool, the tip position and force of the tip tool (driver, bit, etc.) can be controlled with high accuracy.

1…ロボット、2…エンドエフェクター、3…制御装置、31…駆動制御部、32…力変換部、A…アーム、A1〜A6…アーム部材、d…仮想粘性係数、Da…駆動位置、Dc…制御量、De…駆動位置偏差、Dt…目標駆動位置、E1〜E6…エンコーダー、fS…作用力、fS…目標力、FS…力覚センサー、fSt…目標力、J1〜J6…関節、K…凹部、k…仮想弾性係数、Kp…位置制御ゲイン、Kv…速度制御ゲイン、m…仮想慣性係数、M1〜M6…モーター、W…ワーク、ΔfS…力偏差、ΔS…力由来補正量 1 ... robot, 2 ... end effector, 3 ... control unit, 31 ... drive control unit, 32 ... force converter unit, A ... arm, A1 to A6 ... arm member, d ... virtual viscosity coefficient, D a ... driving position, D c ... control amount, D e ... drive position deviation, D t ... target drive position, E1 to E6 ... encoder, f S ... acting force, f S ... target force, FS ... force sensor, f St ... target force, J1 ~J6 ... joint, K ... recess, k ... virtual modulus, K p ... position control gain, K v ... speed control gain, m ... virtual inertia coefficient, M1-M6 ... motor, W ... workpiece, Delta] f S ... force error , ΔS: Force-derived correction amount

Claims (6)

マニュピレーターと、前記マニュピレーターを駆動する駆動部と、力検出器と、を備えるロボットを制御するロボット制御装置であって、
制御パラメーターに応じて前記駆動部を制御する力制御を行う駆動制御部と、
前記制御パラメーターの入力を受け付ける受付部と、
前記制御パラメーターによる前記駆動部の駆動に応じて得られる前記力検出器の出力波形を、当該制御パラメーターと同時に表示させる表示部と、
を備えるロボット制御装置。
A robot control device that controls a robot comprising a manipulator, a drive unit that drives the manipulator, and a force detector,
A drive control unit that performs force control for controlling the drive unit according to a control parameter;
A receiving unit that receives input of the control parameter;
A display unit for displaying an output waveform of the force detector obtained according to driving of the driving unit by the control parameter simultaneously with the control parameter;
A robot control device comprising:
前記力検出器が検出した検出力を、前記マニュピレーター上または前記マニュピレーターが把持する把持対象物上において任意に設定されるコンプライアンスセンターポイントに作用する力である作用力に変換する力変換部を備え、
前記表示部は、前記出力波形として前記作用力の波形を表示する、
請求項1に記載のロボット制御装置。
A force conversion unit that converts the detection force detected by the force detector into an acting force that is a force acting on a compliance center point that is arbitrarily set on the manipulator or on a grasped object grasped by the manipulator;
The display unit displays the waveform of the acting force as the output waveform;
The robot control apparatus according to claim 1.
前記駆動制御部は、前記マニュピレーター上または前記マニュピレーターが把持する把持対象物上において設定されたツールセンターポイントの位置が予め設定された目標位置に近づくように前記駆動部を制御する位置制御を行い、
前記コンプライアンスセンターポイントと前記ツールセンターポイントとは同一の位置である、
請求項2に記載のロボット制御装置。
The drive control unit performs position control for controlling the drive unit so that the position of the tool center point set on the manipulator or on the gripping object gripped by the manipulator approaches a preset target position,
The compliance center point and the tool center point are at the same position.
The robot control apparatus according to claim 2.
前記表示部は、予め記憶媒体に記憶された力の時間応答波形と、前記作用力の時間応答波形とを対比可能に表す、
請求項1から請求項3のいずれか一項に記載のロボット制御装置。
The display unit represents a time response waveform of a force stored in a storage medium in advance and a time response waveform of the acting force in a comparable manner.
The robot control apparatus according to any one of claims 1 to 3.
請求項1から請求項4のいずれか一項に記載のロボット制御装置によって前記駆動部が制御される、
ロボット。
The drive unit is controlled by the robot control device according to any one of claims 1 to 4.
robot.
請求項1から請求項4のいずれか一項に記載のロボット制御装置と、
前記ロボット制御装置によって前記駆動部が制御されるロボットと、
を備えるロボットシステム。
The robot control device according to any one of claims 1 to 4,
A robot whose drive unit is controlled by the robot control device;
A robot system comprising:
JP2015149345A 2015-07-29 2015-07-29 Robot control device, robot and robot system Pending JP2017030059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015149345A JP2017030059A (en) 2015-07-29 2015-07-29 Robot control device, robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015149345A JP2017030059A (en) 2015-07-29 2015-07-29 Robot control device, robot and robot system

Publications (1)

Publication Number Publication Date
JP2017030059A true JP2017030059A (en) 2017-02-09

Family

ID=57987471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015149345A Pending JP2017030059A (en) 2015-07-29 2015-07-29 Robot control device, robot and robot system

Country Status (1)

Country Link
JP (1) JP2017030059A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019141937A (en) * 2018-02-19 2019-08-29 セイコーエプソン株式会社 Robot control device and robot system
JP2019188555A (en) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 Robot control device and robot system
JP2019202381A (en) * 2018-05-23 2019-11-28 セイコーエプソン株式会社 Robot control device and robot system
JP2020028925A (en) * 2018-08-21 2020-02-27 セイコーエプソン株式会社 Control device, robot system and robot
JP2020093385A (en) * 2020-03-19 2020-06-18 ファナック株式会社 Robot system with external force display function and processing apparatus
WO2021033471A1 (en) * 2019-08-22 2021-02-25 オムロン株式会社 Control device, control method, and control program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019141937A (en) * 2018-02-19 2019-08-29 セイコーエプソン株式会社 Robot control device and robot system
JP7067107B2 (en) 2018-02-19 2022-05-16 セイコーエプソン株式会社 Robot control device and robot system
JP2019188555A (en) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 Robot control device and robot system
JP7135408B2 (en) 2018-04-26 2022-09-13 セイコーエプソン株式会社 Robot controller and robot system
JP2019202381A (en) * 2018-05-23 2019-11-28 セイコーエプソン株式会社 Robot control device and robot system
CN110524536A (en) * 2018-05-23 2019-12-03 精工爱普生株式会社 Robot controller and robot system
JP7124440B2 (en) 2018-05-23 2022-08-24 セイコーエプソン株式会社 Robot controller and robot system
JP2020028925A (en) * 2018-08-21 2020-02-27 セイコーエプソン株式会社 Control device, robot system and robot
JP7172277B2 (en) 2018-08-21 2022-11-16 セイコーエプソン株式会社 Control device and robot system
WO2021033471A1 (en) * 2019-08-22 2021-02-25 オムロン株式会社 Control device, control method, and control program
JP2021030359A (en) * 2019-08-22 2021-03-01 オムロン株式会社 Control device, control method, and control program
JP2020093385A (en) * 2020-03-19 2020-06-18 ファナック株式会社 Robot system with external force display function and processing apparatus

Similar Documents

Publication Publication Date Title
JP6582483B2 (en) Robot control device and robot system
US11090814B2 (en) Robot control method
JP6648469B2 (en) Robot system and robot controller
JP7363098B2 (en) How to control the robot
CN110997249B (en) Work robot and control method of work robot
JP2017030059A (en) Robot control device, robot and robot system
CN106493711B (en) Controls, Robots, and Robotic Systems
CN110709211A (en) Robot system and control method for robot system
US20220134571A1 (en) Display Control Method, Display Program, And Robot System
CN113276088B (en) Teaching methods and robot systems
JP2016190292A (en) Robot control apparatus, robot system, and robot control method
CN114434419A (en) Robot control method
CN108000515A (en) Power control reference axis setting device, robot and power control reference axis setting method
CN112041125A (en) Robot control method
JP2016221646A (en) Robot and robot system
JP2019155523A (en) Robot control device, robot control method, assembly method for article using robot control device, program, and recording medium
JP2016221653A (en) Robot control device and robot system
CN115519537B (en) Force control parameter adjustment method and force control parameter adjustment device
JP7528709B2 (en) Force control parameter adjustment method
JP6743431B2 (en) Control device and robot system
US12109702B2 (en) Method of adjusting force control parameter, robot system, and force control parameter adjustment program
CN114179076B (en) Work time presentation method, force control parameter setting method, robot system, and storage medium
CN117733836A (en) Calculation method and calculation device
JP2520006B2 (en) Robot teaching method
JP2019141976A (en) Control device, control method of robot, and robot system