[go: up one dir, main page]

WO2018212259A1 - ロボットシステム及びロボットシステムの制御方法 - Google Patents

ロボットシステム及びロボットシステムの制御方法 Download PDF

Info

Publication number
WO2018212259A1
WO2018212259A1 PCT/JP2018/019018 JP2018019018W WO2018212259A1 WO 2018212259 A1 WO2018212259 A1 WO 2018212259A1 JP 2018019018 W JP2018019018 W JP 2018019018W WO 2018212259 A1 WO2018212259 A1 WO 2018212259A1
Authority
WO
WIPO (PCT)
Prior art keywords
arm
reaction force
robot system
master
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/019018
Other languages
English (en)
French (fr)
Inventor
康彦 橋本
信恭 下村
掃部 雅幸
藤森 潤
博貴 木下
拓哉 志鷹
大樹 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Kawasaki Motors Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd, Kawasaki Jukogyo KK filed Critical Kawasaki Heavy Industries Ltd
Priority to US16/614,987 priority Critical patent/US11701770B2/en
Priority to CN201880033129.9A priority patent/CN110709211B/zh
Priority to EP18803224.7A priority patent/EP3626404A4/en
Publication of WO2018212259A1 publication Critical patent/WO2018212259A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of leader-follower type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of leader-follower type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1648Programme controls characterised by the control loop non-linear control combined or not with linear control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement

Definitions

  • the present invention relates to a robot system and a control method of the robot system.
  • Patent Document 1 discloses a bilateral control type robot system.
  • bilateral control is a control method in which posture control from a master arm to a slave arm and force control from a slave arm to a master arm are performed simultaneously.
  • work efficiency is increased by transmitting reaction force information received by the slave arm from the work object or work environment to the operator via the master arm.
  • the present invention has been made to solve the above-described problems, and has an object to improve operational feeling without separately providing a sensor for sensory detection in a master-slave type robot system.
  • a robot system detects a master arm having an operation end, a slave arm having a work end, and an operation force applied to the operation end by an operator. Based on the operating force and the reaction force, a reaction force detection unit for detecting a reaction force applied to the work end or the work held by the work end, and an operation command for the master arm based on the operation force and the reaction force.
  • the operation end is operated in the reaction force sudden change state in which the reaction force applied to the work end (or the work held by the work end) is rapidly changed over time.
  • the operation feeling is exaggerated and presented to the operator. Thereby, for example, the operator can recognize that the working end of the slave arm has come into contact with the object.
  • the exaggeration expression unit may generate a correction component for correcting the operation command of the master arm generated by the system control unit based on the reaction force in the reaction force sudden change state.
  • correction component may be a triangular wave component.
  • the operator who operates the master arm can exaggerate the feeling that the working end of the slave arm hits a hard object.
  • correction component may be a sine wave component.
  • the operator who operates the master arm can exaggerate the sense that the working end of the slave arm hits the soft object.
  • the correction component may be a second-order differential value of the reaction force time. For the operator who operates the master arm, it is possible to exaggerate the feeling that the working end of the slave arm actually hits the object.
  • the operation command in the robot system may be a position command.
  • the operation feeling is exaggeratedly presented to the operator. Can do.
  • the system control unit of the robot system generates a correction component for correcting the position command of the master arm based on the position information of the slave arm and the position information of the master arm in consideration of the correction component.
  • a deviation correction unit may be further provided.
  • the positional deviation between the master arm and the slave arm caused by the exaggerated expression unit can be gradually corrected. Since the master arm moves slowly and is corrected after exaggerating the sense of operation so that the operator does not feel uncomfortable, the operation of the master arm is not affected.
  • the robot system previously collects the slave arm position information, the operation force, and the reaction force as data in a specific operation of the robot system, and classifies one or more work states according to the collected data.
  • the exaggerated expression unit further includes at least one value of position information of the slave arm, the operation force, and the reaction force during operation of the robot system.
  • a work state determination unit that determines whether the work state is classified into any of the work states stored in the storage unit.
  • the operator can not only recognize that the working end of the slave arm has contacted the object, but can also accurately recognize the state of the work started after the contact.
  • the reaction force sudden change state may be regarded as a state where work is started.
  • the work state determination unit is configured to determine a work state in which the reaction force is generated in a predetermined direction and the operation force is generated in a direction orthogonal to the predetermined direction during operation of the robot system. You may make it determine with it being in the state (searching) which is searching for.
  • the working state determination unit holds the working state in which the position information of the slave arm is located in a predetermined direction with respect to a predetermined position and the reaction force is changed during the operation of the robot system by the work end. You may make it determine with the workpiece
  • the exaggeration expression unit may further include a work state presentation unit that presents the work state to the operator by at least one of sound, vibration of the master arm, and light.
  • the present invention has the configuration described above, and can improve the operational feeling without separately providing a sensor for sensory detection in a master / slave type robot system.
  • FIG. 1 is a diagram showing the overall configuration of the robot system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the control system of the robot system of FIG.
  • FIG. 3 is a graph illustrating the reaction force and the change over time of the correction component generated by the exaggerated expression unit.
  • FIG. 4 is a block diagram showing the configuration of the control system of the robot system according to the second embodiment of the present invention.
  • FIG. 5 is a block diagram showing the configuration of the control system of the robot system according to the third embodiment of the present invention.
  • FIG. 6 is a schematic diagram illustrating an example of the operation of the robot system.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a robot system according to the first embodiment of the present invention.
  • the robot system 100 of the present embodiment is configured such that a slave arm 1 is remotely operated by a master arm 2.
  • the robot system 100 is a master / slave remote control system.
  • the robot system 100 includes a slave arm 1 composed of a first robot, a master arm 2 composed of a second robot, a control device 3, a force sensor 4, a camera 5, a monitor 6, Is provided.
  • the slave arm 1 can be composed of any type of robot.
  • the slave arm 1 is composed of, for example, a known articulated robot, and includes a base 1a, an articulated arm 1b provided on the base 1a, and a wrist 1c provided at the tip of the arm 1b.
  • a coordinate system based on the upper surface of the base 1a is referred to as a base coordinate system of the slave arm 1.
  • Each joint of the multi-joint arm 1b includes a drive servo motor, an encoder that detects a rotational angle position of the servo motor, and a current sensor that detects a current flowing through the servo motor (none of which is shown).
  • An end effector 7 is attached to the wrist 1c.
  • the end effector 7 corresponds to the “working end” of the present invention.
  • the end effector 7 is a robot hand that can grip a workpiece.
  • the end effector 7 includes a hand main body (not shown) attached to the tip of the wrist 1c, and two fingers that are driven by an actuator (not shown) composed of, for example, a motor. When the actuator operates, the two fingers move relative to the hand body.
  • the two finger parts of the hand can be moved so as to approach or separate from each other by the operation of the master arm 2, and the fitting part W1 can be gripped by the two finger parts.
  • the force sensor 4 is attached to the wrist 1c of the slave arm 1.
  • the force sensor 4 detects a reaction force applied to the work held by the end effector 7.
  • the force sensor 4 corresponds to a “reaction force detector” of the present invention.
  • the force sensor 4 is attached to the proximal end of the end effector 7 and is configured to detect a force applied to the distal end of the end effector 7.
  • the force sensor 4 is a six-axis force sensor that can detect, for example, a force in the XYZ-axis directions defined by the wrist coordinate system and a moment acting around each axis.
  • the wrist coordinate system is a coordinate system based on the wrist 1c.
  • the force sensor 4 is in the base coordinate system of the slave arm 1 when the fitting component W1 that is the work held by the end effector 7 comes into contact with the fitting component W2 that is the object.
  • the direction and magnitude of the reaction force acting on the fitting part W1 are detected, and a detection signal is transmitted to the control device 3 wirelessly or by wire.
  • the operation lever 21 corresponds to the “operation end” of the present invention.
  • the “operating end” may be a portable terminal such as a switch, an adjustment knob, or a tablet, or a simple one such as a control stick, as long as the slave arm 1 can be operated by being operated by an operator. It may be.
  • a force sensor 20 is attached to the operation lever 21.
  • the force sensor 20 detects an operation force applied to the operation lever 21 by the operator.
  • the force sensor 20 corresponds to the “operation force detection unit” of the present invention. In this embodiment, the force sensor 20 is attached to the proximal end of the operation lever 21 and configured to detect a force applied to the distal end of the operation lever 21.
  • the camera 5 is provided so that the operation of the slave arm 1 in the whole or a part of the movable range of the slave arm 1 can be imaged.
  • Image information captured by the camera 5 is transmitted to the control device 3, and the control device 3 controls the monitor 6 to display an image corresponding to the image information.
  • the slave arm 1 can also automatically perform a predetermined operation without the operation of the master arm 2 by the operator.
  • the operation mode in which the slave arm 1 is operated according to the operation information input via the master arm 2 is referred to as “manual mode”.
  • manual mode a part of the operation of the slave arm 1 in operation may be automatically corrected based on operation information input by the operator operating the master arm 2.
  • automated mode An operation mode in which the slave arm 1 is operated according to a predetermined program set in advance.
  • FIG. 2 is a block diagram showing the configuration of the control system of the robot system 100.
  • the control device 3 includes an operation command generation unit 8, an exaggeration expression unit 9, and an interface unit (not shown).
  • the control device 3 is connected to an input device (not shown).
  • the input device is composed of a man-machine interface such as a touch panel and a keyboard, and mainly inputs the mode switching of the “automatic mode”, “correction operation mode”, and “manual mode” of the slave arm 1 and various data. Used for.
  • the control device 3 is configured by a device having an arithmetic processing function and a memory such as a computer, a microcontroller, and a microprocessor.
  • Each function of the operation command generation unit 8 and the exaggeration expression unit 9 is realized by a predetermined program stored in the memory of the control device 3 being executed by an arithmetic processing unit (not shown) of the control device 3.
  • the control device 3 of the present embodiment also has a function of a monitor control unit that displays an image corresponding to image information captured by the camera 5.
  • the configuration of the control device 3 on the hardware is arbitrary, and the control device 3 may be provided independently of other devices such as the slave arm 1 or may be provided integrally with other devices.
  • the robot system 100 according to the present embodiment is a master / slave robot system based on a parallel bilateral control method. Operating force and f m which is detected by the force sensor 20 of the master arm 2, the reaction force f s that is detected by the force sensor 4 of the slave arm 1 is input to the control unit 3.
  • the slave operation command is a position command of a servo motor that drives each joint axis of the slave arm 1, which is defined in the base coordinate system of the slave arm 1.
  • the master operation command is a position command of a servo motor that drives each joint axis of the master arm 2 defined in the base coordinate system of the master arm 2.
  • the master operation command is generated so as to move the operation lever 21 in the same direction as the movement direction of the end effector 7 by the slave operation command. That is, the slave arm 1 and the master arm 2 perform the same operation.
  • the operation command generation unit 8 includes an addition / subtraction unit 81, a force / speed conversion unit 82, a speed / position conversion unit 83 (slave side), a speed / position conversion unit 84 (master side), and an addition / subtraction. Unit 85.
  • Each of the units 81 to 85 is realized by a predetermined program stored in a memory (not shown) of the control device 3 being executed by an arithmetic processing unit (not shown) of the control device 3.
  • Subtraction unit 81 subtracts the reaction force f s that is detected from the operation force f m which is detected by the force sensor 20 of the master arm 2 by the force sensor 4 of the slave arm 1, which force-speed conversion section 82 Configured to output.
  • Power-speed conversion section 82 based on the difference between the operating force f m and the reaction force f s to be inputted from the subtraction unit 81 generates a speed command value v d, which speed-position conversion unit 83 (slave Side) and the addition / subtraction unit 85.
  • the speed / position conversion unit 83 (slave side) generates a position command value x ds of the slave arm 1 based on the speed command value v d , and outputs this to the slave side control unit 30.
  • the slave-side control unit 30 is a robot controller configured to control the position of the slave arm 1, for example.
  • the slave-side control unit 30 generates a speed command value based on the deviation between the position command value of each joint axis of the slave arm 1 and the detection value (actual value) of an encoder (not shown).
  • a torque command value (current command value) is generated based on the deviation between the generated speed command value and the current speed value, and a servo motor is generated based on the deviation between the generated current command value and the detected value (actual value) of the current sensor.
  • the speed / position conversion unit 84 (master side) generates a position command value x dm of the master arm 2 based on the speed command value v d and outputs this to the master side control unit 12.
  • the master-side control unit 12 is a robot controller configured to control the position of the master arm 2, for example.
  • the master side control unit 12 generates a speed command value based on a deviation between a position command value of each joint axis of the master arm 2 and a detection value (actual value) of an encoder (not shown).
  • a torque command value (current command value) is generated based on the deviation between the generated speed command value and the current speed value, and a servo motor is generated based on the deviation between the generated current command value and the detected value (actual value) of the current sensor.
  • the exaggeration expression unit 9 exaggerates the operation sensation for the operator who operates the operation lever 21 in the reaction force sudden change state in which the reaction force f s detected by the force sensor 4 of the slave arm 1 rapidly changes in time. Configured to present. Specifically, the exaggerated expression unit 9 generates a correction component for correcting the position command value x dm of the master arm 2 based on the reaction force f s in the reaction force sudden change state, and adds / subtracts this component. Output to.
  • the addition / subtraction unit 85 adds the speed command value v d generated by the force / speed conversion unit 82 and the correction component generated by the exaggeration expression unit 9 and outputs this to the speed / position conversion unit 84.
  • the speed / position conversion unit 84 (master side) updates the position command value x dm of the master arm 2 based on the corrected speed command value v d and outputs this to the master side control unit 12. In this way, the reaction force f s of the slave arm 1 is reflected in the position command value x dm of the master arm 2.
  • FIG. 1 is a graph schematically showing a time change of the reaction force f s detected by the force sensor 4 of the slave arm 1.
  • the exaggeration expression unit 9 exaggerates the operation sensation for the operator who operates the operation lever 21 in the reaction force sudden change state in which the reaction force f s detected by the force sensor 4 of the slave arm 1 rapidly changes in time. (See FIG. 2).
  • the exaggerated expression unit 9 may determine that the reaction force fs is in a sudden start state when the reaction force f s is equal to or greater than a predetermined value stored in advance in the memory, for example, and the change of the reaction force f s in the minute time ⁇ t. If the amount is positive, it may be determined that the reaction force is suddenly changed.
  • the exaggeration expression unit 9 In the reaction force sudden change state, the exaggeration expression unit 9 generates a correction component for correcting the position command value x dm of the master arm 2 based on the reaction force f s , and outputs this to the addition / subtraction unit 85.
  • the addition / subtraction unit 85 adds the speed command value v d generated by the force / speed conversion unit 82 and the correction component generated by the exaggeration expression unit 9 and outputs this to the speed / position conversion unit 84.
  • the speed / position conversion unit 84 (master side) updates the position command value x dm of the master arm 2 based on the corrected speed command value v d and outputs this to the master side control unit 12.
  • the exaggerated expression unit 9 can generate various correction components according to the properties of the work object.
  • FIG. 3B to FIG. 3D are graphs illustrating the change over time of the correction component.
  • FIG. 3B shows a case where the correction component is a triangular wave component.
  • the exaggeration expression unit 9 generates a triangular wave component for one cycle as a correction component in the reaction force sudden change state.
  • the period corresponding to one period of the triangular wave component is 40 msec, for example, but may be of a length that can be perceived by the operator.
  • the addition / subtraction unit 85 adds the correction component generated by the exaggeration expression unit 9 to the speed command value v d generated by the force / speed conversion unit 82, and outputs this to the speed / position conversion unit 84.
  • the speed / position conversion unit 84 (master side) updates the position command value x dm of the master arm 2 based on the corrected speed command value v d and outputs this to the master side control unit 12.
  • FIG. 3C shows a case where the correction component is a sine wave component.
  • the exaggeration expression unit 9 generates a sine wave component for one cycle as a correction component in the reaction force sudden change state.
  • the addition / subtraction unit 85 adds the correction component generated by the exaggeration expression unit 9 to the speed command value v d generated by the force / speed conversion unit 82, and outputs this to the speed / position conversion unit 84.
  • the speed / position conversion unit 84 (master side) updates the position command value x dm of the master arm 2 based on the corrected speed command value v d and outputs this to the master side control unit 12.
  • FIG. 3D shows a case where the correction component is a second-order differential value of the reaction force f s at time t.
  • the exaggeration expression unit 9 generates a component corresponding to one period of a triangular wave component or a sine wave component as a correction component in the reaction force sudden change state.
  • the addition / subtraction unit 85 adds the correction component generated by the exaggeration expression unit 9 to the speed command value v d generated by the force / speed conversion unit 82, and outputs this to the speed / position conversion unit 84.
  • the speed / position conversion unit 84 (master side) updates the position command value x dm of the master arm 2 based on the corrected speed command value v d and outputs this to the master side control unit 12.
  • the operator who operates the master arm 2 can exaggerate the feeling that the slave arm 1 actually hits the object. .
  • the work state determination unit 93 is at least one value among the position command value x dm of the slave arm 1, the operation force f m of the master arm 2, and the reaction force f s of the slave arm 1. Based on the above, it is determined whether the work state stored in the memory 94 is classified. In the present embodiment, the work state determination unit 93 determines whether the work state is any one of a state where the work is started, a state where the object is being searched, and a state where the work is inserted into the object. judge.
  • the work state presentation unit 13 is configured to present the work state to the operator by at least one of sound, vibration of the master arm, and light.
  • the operator inputs a desired operation force to the operation lever 21 of the master arm 2 while viewing the video of the camera 5 displayed on the monitor 6 as input of operation information. Is granted.
  • the slave arm 1 operates together with the master arm 2 according to the operating force.
  • the operator operates the operation lever 21 so that the fitting component W1 that is the work held by the end effector 7 is inserted into the hole H of the fitted component W2 that is the object while looking at the monitor 6. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Nonlinear Science (AREA)
  • Manipulator (AREA)

Abstract

本発明のロボットシステムは、操作者によって操作端に付与される操作力を検出する操作力検出部と、作業端又はその作業端によって保持されたワークに付与される反力を検出する反力検出部と、操作力と反力に基づいて、マスタアームの動作指令を生成するとともに、スレーブアームの動作指令を生成するシステム制御部と、マスタアームを制御するように構成されたマスタ側制御部と、スレーブアームを制御するように構成されたスレーブ側制御部と、を備える。システム制御部は、反力が急激に時間変化した状態である反力急変状態において、操作端を操作する操作者に対し、操作感覚を誇張して提示するための誇張表現部を有する。

Description

ロボットシステム及びロボットシステムの制御方法
 本発明は、ロボットシステム及びロボットシステムの制御方法に関する。
 危険作業や微細作業などで使用されるマスタ・スレーブ型のロボットシステムが開発されている。このシステムでは、操作者がマスタアームを操作してスレーブアームによって操作者が直接作業を行うことなく、作業を行うことができる。例えば特許文献1にはバイラテラル制御方式のロボットシステムが開示されている。一般に、バイラテラル制御とは、マスタアームからスレーブアームへの姿勢制御とスレーブアームからマスタアームへの力制御を同時に行う制御方法である。このようなシステムでは、スレーブアームが作業対象物や作業環境から受ける反力情報を、マスタアームを介して操作者に伝達することで、作業効率が高まる。
特開平10-202558号公報
 しかし、上記従来のバイラテラル制御方式によるロボットシステムにおいて、反力に対する応答性を上げた場合、感覚が操作者に伝わりやすいが、制御系が不安定になる。このため、実際の用途では反力に対する応答性を下げざるを得ない。この場合、ロボットの動作が安定になり、操作し易いが、例えば当たった感覚や、押付ながら探る感覚が操作者に伝わり難くなる。また、触覚を再現しようとすると感覚検出用のセンサが別途必要になる。このような課題は、少なくともスレーブアームの先端に力覚センサを備えたマスタ・スレーブ型のロボットシステムに共通する。
 本発明は上記のような課題を解決するためになされたもので、マスタ・スレーブ型のロボットシステムにおいて感覚検出用のセンサを別途設けること無く、操作感覚を向上させることを目的としている。
 上記目的を達成するために、本発明のある形態に係るロボットシステムは、操作端を有するマスタアームと、作業端を有するスレーブアームと、操作者によって前記操作端に付与される操作力を検出する操作力検出部と、前記作業端又は当該作業端によって保持されたワークに付与される反力を検出する反力検出部と、前記操作力と前記反力に基づいて、マスタアームの動作指令を生成するとともに、スレーブアームの動作指令を生成するシステム制御部と、前記システム制御部によって生成されたマスタアームの動作指令に基づいて、マスタアームを制御するように構成されたマスタ側制御部と、前記システム制御部によって生成されたスレーブアームの動作指令に基づいて、スレーブアームを制御するように構成されたスレーブ側制御部と、を備えるロボットシステムであって、前記システム制御部は、前記反力が急激に時間変化した状態である反力急変状態において、前記操作端を操作する操作者に対し、操作感覚を誇張して提示するための誇張表現部を有する。
 上記構成によれば、マスタ・スレーブ型のロボットシステムにおいて、作業端(又は当該作業端によって保持されたワーク)に付与される反力が急激に時間変化した反力急変状態において、操作端を操作する操作者に対し、操作感覚が誇張して提示される。これにより、例えば操作者はスレーブアームの作業端が対象物に接触したことを認識することができる。
 前記誇張表現部は、前記反力急変状態では、前記反力に基づいて、前記システム制御部によって生成されたマスタアームの動作指令を修正するための修正成分を生成するようにしてもよい。
 上記構成によれば、操作力及び反力に基づいて、マスタアームの動作指令およびスレーブアームの動作指令を生成するバイラテラル制御において、上記反力急変状態では、スレーブアームの反力に基づいて、マスタアームの動作指令を修正するための修正成分が生成される。これにより、反力がマスタアームの動作指令に反映されるので、操作者はスレーブアームの作業端が対象物に接触したことを認識できる。これにより、バイラテラル制御において、高周波の細かい感覚を提示することができる。
 尚、前記修正成分は、三角波成分であってもよい。マスタアームを操作する操作者に対し、スレーブアームの作業端が固い対象物に当たった感覚を誇張表現することができる。
 また、前記修正成分は、サイン波成分であってもよい。マスタアームを操作する操作者に対し、スレーブアームの作業端が軟らかい対象物に当たった感覚を誇張表現することができる。
 また、前記修正成分は、前記反力の時間の二階微分値であってもよい。マスタアームを操作する操作者に対し、スレーブアームの作業端が実際に対象物に当たった感覚を誇張表現することができる。
 上記ロボットシステムにおける動作指令は、位置指令であってもよい。上記構成によれば、操作力及び反力に基づいて、マスタアームの動作指令およびスレーブアームの動作指令を生成する並列型バイラテラル制御において、操作者に対し、操作感覚を誇張して提示することができる。
 上記ロボットシステムの前記システム制御部は、前記スレーブアームの位置情報と、前記修正成分を加味したマスタアームの位置情報に基づいて、マスタアームの前記位置指令を補正するための補正成分を生成する位置ずれ補正部を更に備えるようにしてもよい。
 上記構成によれば、並列型バイラテラル制御において、上記誇張表現部により生じたマスタアームとスレーブアームの位置関係のずれを徐々に補正することができる。操作者に違和感がないように、操作感覚を誇張表現した後に、マスタアームがゆっくりと動いて補正されるので、マスタアームの操作に影響を与えることは無い。
 上記ロボットシステムは、予め、ロボットシステムの特定の作業における、スレーブアームの位置情報、前記操作力、および、前記反力をデータとして収集し、収集したデータに応じて一以上の作業状態を分類し、分類した作業状態を記憶しておく記憶部を更に備え、前記誇張表現部は、ロボットシステムの動作中において、スレーブアームの位置情報、前記操作力、および、前記反力のうち少なくとも一つの値に基づいて、前記記憶部に記憶された前記作業状態のいずれに分類されるか否か判定する作業状態判定部を更に備えるようにしてもよい。
 上記構成によれば、操作者はスレーブアームの作業端が対象物に接触したことを認識するだけでなく、接触後に開始される作業の状態を正確に認識することができる。例えば上記反力急変状態を作業が開始された状態であるとみなしてもよい。
 前記作業状態判定部は、ロボットシステムの動作中において、前記反力が所定の方向に発生し、かつ、前記操作力が前記所定の方向に直交する方向に発生している作業状態を、対象物を探っている状態(searching)であると判定するようにしてもよい。
 前記作業状態判定部は、ロボットシステムの動作中において、スレーブアームの位置情報が所定位置よりも所定の方向に位置し、かつ、前記反力が変化した作業状態を、前記作業端によって保持されたワークが対象物に挿入された状態(inserted)であると判定するようにしてもよい。
 前記誇張表現部は、前記作業状態を、音、マスタアームの振動および光のうち、少なくとも一つによって操作者に提示する作業状態提示部を更に備えるようにしてもよい。
 本発明は、以上に説明した構成を有し、マスタ・スレーブ型のロボットシステムにおいて感覚検出用のセンサを別途設けること無く、操作感覚を向上させることができる。
図1は、本発明の第1実施形態に係るロボットシステムの全体の構成を示す図である。 図2は、図1のロボットシステムの制御系の構成を示すブロック図である。 図3は、反力、及び、誇張表現部により生成される修正成分の時間変化を例示するグラフである。 図4は、本発明の第2実施形態に係るロボットシステムの制御系の構成を示すブロック図である。 図5は、本発明の第3実施形態に係るロボットシステムの制御系の構成を示すブロック図である。 図6は、ロボットシステムの動作の一例を示す模式図である。
 以下、好ましい実施形態を、図面を参照しながら説明する。なお、以下では全ての図面を通じて同一または相当する要素には同一の参照符号を付して、その重複する説明を省略する。また、図面は理解しやすくするために、それぞれの構成要素を模式的に示したものである。
(第1実施形態)
 図1は、本発明の第1実施形態に係るロボットシステムの構成例を示す模式図である。図1に示すように、本実施形態のロボットシステム100は、スレーブアーム1がマスタアーム2により遠隔操作されるように構成される。ロボットシステム100はマスタ・スレーブ式の遠隔操作システムである。
 ロボットシステム100は、第1のロボットで構成されるスレーブアーム1と、第2のロボットで構成されるマスタアーム2と、制御装置3と、力覚センサ4と、カメラ5と、モニタ6と、を備える。スレーブアーム1は、任意のタイプのロボットで構成され得る。本実施形態では、スレーブアーム1は、例えば、周知の多関節ロボットで構成され、基台1aと、基台1aに設けられた多関節のアーム1bと、アーム1bの先端に設けられた手首1cとを備える。基台1aの上面を基準とした座標系をスレーブアーム1のベース座標系と呼ぶ。多関節のアーム1bの各関節は駆動用のサーボモータ、及び、サーボモータの回転角度位置を検出するエンコーダ、サーボモータに流れる電流を検出する電流センサを備える(いずれも図示せず)。手首1cにはエンドエフェクタ7が取り付けられる。エンドエフェクタ7は、本発明の「作業端」に相当する。エンドエフェクタ7はワークを把持可能なロボットハンドである。エンドエフェクタ7は、手首1c先端に取り付けられたハンド本体(図示せず)と、例えばモータで構成されたアクチュエータ(図示せず)で駆動される2本の指部とを備える。アクチュエータが動作すると2本の指部がハンド本体に対して移動する。ハンドの2本の指部は、マスタアーム2の操作によって、互いに近接又は離隔するように移動可能であり、2本の指部で嵌合部品W1を把持することができる。
 力覚センサ4は、スレーブアーム1の手首1cに取り付けられる。力覚センサ4は、エンドエフェクタ7によって保持されたワークに付与される反力を検出する。力覚センサ4は、本発明の「反力検出部」に相当する。力覚センサ4は、本実施形態ではエンドエフェクタ7の基端に取付けられ、エンドエフェクタ7の先端に加わる力を検知するように構成される。力覚センサ4は、例えば手首座標系で定義されるXYZ軸方向の力と、各軸回りに作用するモーメントとを検出することが可能な六軸力覚センサである。ここで手首座標系とは手首1cを基準とした座標系である。力覚センサ4は、本実施形態では、エンドエフェクタ7によって保持されたワークである嵌合部品W1が、対象物である被嵌合部品W2に接触したときに、スレーブアーム1のベース座標系における嵌合部品W1に作用する反力の方向およびその大きさを検出し、検出信号を無線又は有線により制御装置3に送信するように構成される。
 マスタアーム2は、任意のタイプのロボットで構成され得る。本実施形態では、マスタアーム2は、スレーブアーム1と相似構造を有する。すなわち、マスタアーム2も、スレーブアーム1と同様に多関節ロボットで構成され、マスタアーム2の基台の上面を基準としてマスタアーム2のベース座標系が定義される。多関節のアームの各関節は駆動用のサーボモータ、及び、サーボモータの回転角度位置を検出するエンコーダ、サーボモータに流れる電流を検出する電流センサを備える(いずれも図示せず)。マスタアーム2の先端には、スレーブアーム1先端のエンドエフェクタ7の形状を模した操作レバー21が取り付けられる。操作レバー21は、本発明の「操作端」に相当する。尚、「操作端」は、操作者によって操作することによりスレーブアーム1を操作可能な構成であれば、例えばスイッチ、調整ツマミ又はタブレットなどの携帯端末でもよいし、操縦桿のような簡易なものであってもよい。操作レバー21には力覚センサ20が取り付けられる。力覚センサ20は、操作者によって操作レバー21に付与される操作力を検出する。力覚センサ20は、本発明の「操作力検出部」に相当する。力覚センサ20は、本実施形態では操作レバー21の基端に取付けられ、操作レバー21の先端に加わる力を検知するように構成される。力覚センサ20は、例えばマスタアーム2の手首座標系で定義されるXYZ軸方向の力と、各軸回りに作用するモーメントとを検出することが可能な六軸力覚センサである。ここで手首座標系とはマスタアーム2の手首を基準とした座標系である。本実施形態では、操作者がスレーブアーム1を操作すべく操作レバー21を操作すると、力覚センサ20は、マスタアーム2のベース座標系において、操作レバー21に操作者が加えた操作力の方向および大きさを検出し、検出信号を操作情報として、無線又は有線により制御装置3に送信する。
 カメラ5は、スレーブアーム1の可動範囲の全部又は一部における当該スレーブアーム1の動作を撮像可能なように設けられる。カメラ5が撮像した画像情報は制御装置3に送信され、制御装置3は、この画像情報に対応する画像を表示するようモニタ6を制御する。
 ロボットシステム100では、スレーブアーム1の作業領域から離れた位置(作業エリア外)にいる操作者は、操作情報の入力として、モニタ6に映し出されたカメラ5の映像を見ながらマスタアーム2の操作レバー21に所望の操作力を付与する。操作力に従って、マスタアーム2とともにスレーブアーム1が動作を行い、特定の作業を行うことができる。特定作業は、例えばエンドエフェクタ7によって保持されたワークである嵌合部品W1を、対象物である被嵌合部品W2の穴に挿入する作業である。この作業は組立作業のなかでも操作者の熟練を要する。
 また、ロボットシステム100では、スレーブアーム1は、操作者によるマスタアーム2の操作なしに、所定の作業を自動的に行うこともできる。本明細書では、マスタアーム2を介して入力された操作情報に従って、スレーブアーム1を動作させる運転モードを「手動モード」と称する。なお、上述の「手動モード」には、操作者がマスタアーム2を操作することによって入力された操作情報に基づいて動作中のスレーブアーム1の動作の一部が自動で動作補正される場合も含む。また、予め設定された所定のプログラムに従ってスレーブアーム1を動作させる運転モードを「自動モード」と称する。更に、本実施形態のロボットシステム100では、スレーブアーム1が自動で動作している途中に、マスタアーム2の操作をスレーブアーム1の自動の動作に反映させて、自動で行うことになっていた動作を修正することができるように構成されている。本明細書では、マスタアーム2を介して入力された操作情報を反映可能な状態で、予め設定された所定のプログラムに従ってスレーブアーム1を動作させる運転モードを「修正自動モード」と称する。なお、上述の「自動モード」は、スレーブアーム1を動作させる運転モードが自動モードであるときはマスタアーム2の操作がスレーブアーム1の動作に反映されないという点で、「修正自動モード」と区別される。以下では、本実施形態のロボットシステム100は、特に断りが無い限り、「手動モード」として動作する。
 図2は、ロボットシステム100の制御系の構成を示すブロック図である。図2に示すように、制御装置3は、動作指令生成部8と、誇張表現部9と、インターフェース部(図示しない)を含む。本実施形態では、制御装置3は、入力装置(図示せず)に接続されている。入力装置は、タッチパネル、キーボード等のマン-マシンインターフェースで構成され、主に、スレーブアーム1の「自動モード」、「修正動作モード」、及び「手動モード」のモード切り替え、各種データ等を入力するために用いられる。制御装置3は、コンピュータ、マイクロコントローラ、マイクロプロセッサ等の演算処理機能およびメモリを有する装置で構成される。動作指令生成部8および誇張表現部9の各機能は、制御装置3のメモリに格納された所定のプログラムが制御装置3の演算処理部(図示せず)によって実行されることによって実現される。また、本実施形態の制御装置3は、カメラ5で撮像された画像情報に対応する画像を表示するモニタ制御部の機能も有する。制御装置3のハードウェア上の構成は任意であり、制御装置3は、スレーブアーム1等の他の装置から独立して設けられてもよく、他の装置と一体的に設けられてもよい。本実施形態のロボットシステム100は、並列型バイラテラル制御方式によるマスタ・スレーブ型のロボットシステムである。マスタアーム2の力覚センサ20によって検出された操作力fと、スレーブアーム1の力覚センサ4によって検出された反力fが制御装置3に入力される。
 動作指令生成部8は、マスタアーム2の力覚センサ20によって検出された操作力fと、スレーブアーム1の力覚センサ4によって検出された反力fに基づいて、スレーブアーム1の動作指令(以下、スレーブ動作指令ともいう)を生成するとともに、マスタアーム2の動作指令(以下、マスタ動作指令ともいう)を生成する。本実施形態では、スレーブ動作指令は、スレーブアーム1のベース座標系で規定された、スレーブアーム1の各関節軸を駆動するサーボモータの位置指令である。マスタ動作指令は、マスタアーム2のベース座標系で規定された、マスタアーム2の各関節軸を駆動するサーボモータの位置指令である。マスタ動作指令は、スレーブ動作指令によるエンドエフェクタ7の移動方向と同じ方向に操作レバー21を移動させるように生成される。つまり、スレーブアーム1とマスタアーム2は同じような動作をする。
 動作指令生成部8は、具体的には、加減算部81と、力・速度変換部82と、速度・位置変換部83(スレーブ側)と、速度・位置変換部84(マスタ側)と、加減算部85と、を備える。各部81~85は、制御装置3のメモリ(図示せず)に格納された所定のプログラムが制御装置3の演算処理部(図示せず)によって実行されることによって実現される。
 加減算部81は、マスタアーム2の力覚センサ20で検知された操作力fからスレーブアーム1の力覚センサ4で検知された反力fを減算し、これを力・速度変換部82に出力するように構成される。
 力・速度変換部82は、加減算部81から入力される操作力fと反力fとの差分に基づいて、速度指令値vを生成し、これを速度・位置変換部83(スレーブ側)、および、加減算部85にそれぞれ出力する。
 速度・位置変換部83(スレーブ側)は、速度指令値vに基づいてスレーブアーム1の位置指令値xdsを生成し、これをスレーブ側制御部30に出力する。スレーブ側制御部30は、例えばスレーブアーム1を位置制御するように構成されたロボットコントローラである。スレーブ側制御部30は、スレーブアーム1の各関節軸の位置指令値とエンコーダ(図示せず)の検出値(実際値)の偏差に基づいて速度指令値を生成する。そして、生成した速度指令値と速度現在値の偏差に基づいてトルク指令値(電流指令値)を生成し、生成した電流指令値と電流センサの検出値(実際値)の偏差に基づいてサーボモータを制御する。
 速度・位置変換部84(マスタ側)は、速度指令値vに基づいてマスタアーム2の位置指令値xdmを生成し、これをマスタ側制御部12に出力する。マスタ側制御部12は、例えばマスタアーム2を位置制御するように構成されたロボットコントローラである。マスタ側制御部12は、マスタアーム2の各関節軸の位置指令値とエンコーダ(図示せず)の検出値(実際値)の偏差に基づいて速度指令値を生成する。そして、生成した速度指令値と速度現在値の偏差に基づいてトルク指令値(電流指令値)を生成し、生成した電流指令値と電流センサの検出値(実際値)の偏差に基づいてサーボモータを制御する。
 誇張表現部9は、スレーブアーム1の力覚センサ4によって検出された反力fが急激に時間変化した反力急変状態において、操作レバー21を操作する操作者に対し、操作感覚を誇張して提示するように構成されている。具体的には、誇張表現部9は、反力急変状態では、反力fに基づいて、マスタアーム2の位置指令値xdmを修正するための修正成分を生成し、これを加減算部85に出力する。
 加減算部85は、力・速度変換部82によって生成された速度指令値vと、誇張表現部9によって生成された修正成分を加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。このように、スレーブアーム1の反力fがマスタアーム2の位置指令値xdmに反映される。
 次に、ロボットシステムの動作について図面を参照しながら説明する。図1に示すように、ロボットシステム100では、操作者は、操作情報の入力として、モニタ6に映し出されたカメラ5の映像を見ながらマスタアーム2の操作レバー21に所望の操作力を付与する。操作力に従って、マスタアーム2とともにスレーブアーム1が動作を行う。つまり、操作者は、モニタ6を見ながら操作レバー21を操作することにより、マスタアーム2とスレーブアーム1を操作者が意図するように操作する。そして、スレーブアーム1のエンドエフェクタ7によって保持されたワークである嵌合部品W1が、被嵌合部品W2である対象物に接触した場合を想定する。図3(a)は、スレーブアーム1の力覚センサ4によって検出された反力fの時間変化を模式的に示すグラフである。時刻t0において、スレーブアーム1の力覚センサ4によって検出された反力fは急激に上昇している。誇張表現部9は、スレーブアーム1の力覚センサ4によって検出された反力fが急激に時間変化した反力急変状態において、操作レバー21を操作する操作者に対し、操作感覚を誇張して提示する(図2参照)。誇張表現部9は、例えば反力fが予めメモリに記憶された所定値以上である場合に反力急変始状態であると判定してもよいし、反力fの微小時間Δtにおける変化量が正であるか否かを場合に反力急変状態であると判定してもよい。誇張表現部9は、反力急変状態では、反力fに基づいて、マスタアーム2の位置指令値xdmを修正するための修正成分を生成し、これを加減算部85に出力する。加減算部85は、力・速度変換部82によって生成された速度指令値vと、誇張表現部9によって生成された修正成分を加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。このように、スレーブアーム1の反力fがマスタアーム2の位置指令値xdmに反映されるので、操作者はスレーブアーム1のエンドエフェクタ7が対象物に接触したことを認識できる。これにより、並列型バイラテラル制御において、高周波の細かい感覚を提示することができる。
 本実施形態では、誇張表現部9は、作業対象物の性質に応じて様々な修正成分を生成することができる。図3(b)~図3(d)は、修正成分の時間変化を例示するグラフである。図3(b)は、修正成分が三角波成分である場合を示している。図3(b)に示すように、誇張表現部9は、反力急変状態において、1周期分の三角波成分を修正成分として生成する。尚、三角波成分の1周期分に相当する期間は、例えば40msecであるが、操作者が知覚できる程度の長さであればよい。加減算部85は、力・速度変換部82によって生成された速度指令値vに、誇張表現部9によって生成された修正成分を加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。修正成分として三角波成分を使用することにより、マスタアーム2を操作する操作者に対し、スレーブアーム1が固い対象物に当たった感覚を誇張表現することができる。
 図3(c)は、修正成分がサイン波成分である場合を示している。図3(c)に示すように、誇張表現部9は、反力急変状態において、1周期分のサイン波成分を修正成分として生成する。加減算部85は、力・速度変換部82によって生成された速度指令値vに、誇張表現部9によって生成された修正成分を加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。修正成分としてサイン波成分を使用することにより、マスタアーム2を操作する操作者に対し、スレーブアーム1が軟らかい対象物に当たった感覚を誇張表現することができる。
 図3(d)は、修正成分が反力fの時間tの二階微分値である場合を示している。図3(d)に示すように、誇張表現部9は、反力急変状態において、三角波成分やサイン波成分の1周期に相当する成分を修正成分として生成する。加減算部85は、力・速度変換部82によって生成された速度指令値vに、誇張表現部9によって生成された修正成分を加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。修正成分として反力fの時間tの二階微分値を使用することにより、マスタアーム2を操作する操作者に対し、スレーブアーム1が実際に対象物に当たった感覚を誇張表現することができる。
(第2実施形態)
 次に、第2実施形態について説明する。本実施形態のロボットシステムの基本的な構成は、第1実施形態と同様である。以下では、第1実施形態と共通する構成の説明は省略し、相違する構成についてのみ説明する。
 図4は、本発明の第2実施形態に係るロボットシステムの制御系の構成を示すブロック図である。図4に示すように、本実施形態のロボットシステム100Aでは、第1実施形態と比較すると、制御装置3Aが位置ずれ補正部92および加減算部91を更に備える点が異なる。
 位置ずれ補正部92は、スレーブアーム1の位置情報と、修正成分を加味したマスタアーム2の位置情報に基づいて、スレーブアーム1とマスタアーム2の位置関係のずれを補正するための補正成分を生成する。具体的には、位置ずれ補正部92は、スレーブアームの位置指令値xdsと、修正成分を加味したマスタアームの位置指令値xdmとの偏差の積算値を算出し、マスタアーム2の位置指令値xdmを補正するための補正成分を生成する。
 加減算部91は、位置ずれ補正部92で生成された補正成分と誇張表現部9で生成された修正成分を加算し、これを加減算部85に出力する。加減算部85は、力・速度変換部82によって生成された速度指令値vと、誇張表現部9によって生成された修正成分に位置ずれの補正成分が加味されたものを加算し、これを速度・位置変換部84に出力する。速度・位置変換部84(マスタ側)は、修正および補正された速度指令値vに基づいてマスタアーム2の位置指令値xdmを更新し、これをマスタ側制御部12に出力する。これにより、並列型バイラテラル制御において、誇張表現部9により生じたマスタアーム2とスレーブアーム1の位置関係のずれを徐々に補正することができる。操作者に違和感がないように、操作感覚を誇張表現した後に、マスタアーム2がゆっくりと動いて補正されるので、マスタアーム2の操作に影響を与えることは無い。
 尚、本実施形態では、位置ずれ補正部92は、スレーブアーム1の位置指令値xdsと、修正成分を加味したマスタアーム2の位置指令値xdmに基づいて、これらの偏差の積算値を算出するように構成されたが、スレーブアーム1とマスタアーム2の位置情報であれば、各関節に設けられたサーボモータの回転角度位置を検出するエンコーダの検出値(実際値)を用いてもよい。
(第3実施形態)
 次に、第3実施形態について説明する。本実施形態のロボットシステムの基本的な構成は、上記実施形態と同様である。以下では、上記実施形態と共通する構成の説明は省略し、相違する構成についてのみ説明する。
 図5は、本発明の第3実施形態に係るロボットシステムの制御系の構成を示すブロック図である。図5に示すように、本実施形態のロボットシステム100Bは、第2実施形態(図4)と比較すると、制御装置3Bの誇張表現部9が作業状態判定部93および作業状態提示部13を更に備える点が異なる。
 本実施形態では、メモリ94には、予め、特定の作業における、スレーブアーム1の位置指令値xdm、マスタアーム2の操作力f、および、スレーブアーム1の反力fがデータとして収集され、収集したデータに応じて少なくとも一以上の作業状態が分類され、分類された作業状態が記憶されている。特定作業は、エンドエフェクタ7によって保持されたワークである嵌合部品W1を、対象物である被嵌合部品W2の穴に挿入する作業である。作業状態として、作業が開始された状態、対象物を探っている状態、および、ワークが対象物に挿入された状態が例示される。
 作業状態判定部93は、ロボットシステム100Bの動作中において、スレーブアーム1の位置指令値xdm、マスタアーム2の操作力f、および、スレーブアーム1の反力fのうち少なくとも一つの値に基づいて、メモリ94に記憶された作業状態のいずれに分類されるか否か判定する。本実施形態では、作業状態判定部93は、作業が開始された状態、対象物を探っている状態、および、ワークが対象物に挿入された状態のいずれかの作業状態であるか否かを判定する。作業状態提示部13は、作業状態を、音、マスタアームの振動および光のうち、少なくとも一つによって操作者に提示するように構成されている。
 次に、本実施形態のロボットシステム100Bの動作について図面を用いて説明する。図6に示すように、スレーブアーム1の手首座標系は手首1cの取り付け面に平行にX軸及びY軸が定義され、取り付け面に垂直な方向にZ軸が定義される。マスタアーム2の手首座標系は手首2cの取り付け面に平行にX軸及びY軸が定義され、取り付け面に垂直な方向にZ軸が定義される。図6(a)に示すように、ロボットシステム100Bでは、操作者は、操作情報の入力として、モニタ6に映し出されたカメラ5の映像を見ながらマスタアーム2の操作レバー21に所望の操作力を付与する。操作力に従って、マスタアーム2とともにスレーブアーム1が動作を行う。操作者は、モニタ6を見ながらエンドエフェクタ7によって保持されたワークである嵌合部品W1が、対象物である被嵌合部品W2の穴Hに挿入されるように、操作レバー21を操作する。
 まず、スレーブアーム1のエンドエフェクタ7によって保持されたワークである嵌合部品W1が、被嵌合部品W2である対象物に接触した場合を想定する。誇張表現部9は、例えば反力fが予めメモリに記憶された所定値以上である場合に反力急変始状態であると判定してもよいし、反力fの微小時間Δtにおける変化量が正であるか否かを場合に反力急変状態であると判定してもよい(図5参照)。誇張表現部9は、スレーブアーム1の力覚センサ4によって検出された反力fが急激に時間変化した状態である反力急変状態において、操作レバー21を操作する操作者に対し、操作感覚を誇張して提示する。誇張表現部9は、反力急変状態では、反力fに基づいて、マスタアーム2の位置指令値xdmを修正するための修正成分を生成することにより、スレーブアーム1の反力fがマスタアーム2の位置指令値xdmに反映されるので、操作者はスレーブアーム1のエンドエフェクタ7が対象物に接触したことを認識できる。
 また、本実施形態では、作業状態判定部93は、反力急変状態を作業が開始された状態であるとみなす(図5参照)。そして、作業状態提示部13は、この状態を、振動モータの振動によってマスタアームを操作する操作者に提示する。または光によって視覚的に操作者に認識させてもよい。これにより、マスタの応答性では対応できない、高周波の細かい感覚を提示することができる。
 操作者は、作業を進める。操作者は、図6(b)に示すように操作レバー21を横向きに操作することにより、マスタアーム2の手首座標系においてXY平面に平行な横向きの操作力fが操作レバー21に付与される。これにより、エンドエフェクタ7に保持された嵌合部品W1は、被嵌合部品W2と接触した状態を維持しながら、被嵌合部品W2の嵌合穴Hの方向に移動する。このとき、嵌合部品W1を把持したスレーブアーム1の反力fは上方向(図ではZ軸の正の方向)に発生し、かつ、マスタアーム2の操作力fは横方向(図ではY軸の正の方向)に発生する。作業状態判定部93は、スレーブアーム1の反力fおよびマスタアーム2の操作力fに基づいて、このような作業状態を、嵌合部品W1が対象物を探っている状態(searching)であると判定する。そして、作業状態提示部13は、この状態を、ガリガリという音によって操作者に提示する。これにより、マスタの応答性では対応できない、高周波の細かい感覚を提示することができる。
 操作者は、図6(c)に示すように、操作レバー21の所定の方向横向きの操作を継続する。その後、エンドエフェクタ7に保持された嵌合部品W1が被嵌合部品W2の嵌合穴Hに挿入される。このとき、ワークを把持したスレーブアーム1の位置は所定位置(図では被嵌合部品W2の表面)よりも下方向(図ではZ軸の負の方向)に位置し、かつ、スレーブアーム1の反力fが変化する。スレーブアーム1の反力fの大きさは、探っている状態と比べて減少する。作業状態判定部93は、スレーブアーム1の位置指令値xdsおよびスレーブアームの反力fに基づいて、このような作業状態を、ワークが対象物に挿入された状態(inserted)であると判定する。そして、作業状態提示部13は、ワークが対象物に挿入された状態を、音によって操作者に提示する。作業状態提示部13は、この状態を、例えばスピーカからのスッという音によって操作者に提示する。これにより、マスタの応答性では対応できない、高周波の細かい感覚を提示することができる。
 本実施形態によれば、操作者はスレーブアーム1のエンドエフェクタ7に保持されたワークが対象物に接触したことを認識するだけでなく、接触後に開始される作業の状態を正確に認識することができる。尚、制御装置3Bは位置ずれ補正部92および加減算部91を備えていなくても本実施形態の誇張表現部9の効果を得ることができる。
(その他の実施形態)
 尚、上記各実施形態のロボットシステムによる特定作業は、エンドエフェクタ7によって保持されたワークである嵌合部品W1を、対象物である被嵌合部品W2の穴に挿入する作業としたが、これに限られるものではない。例えば、ロボットシステムは外科手術システムであってエンドエフェクタは手術器具であってもよい。このようなシステムでは、施術者は、内視鏡画像を見ながらマスタアーム2を操作する。スレーブアーム1先端に取り付けられた手術器具は若干の反力を受けながらゲル状の人体の内部を進行し、対象物である骨に接触した状態で施術を行うような特定作業が想定される。
 また、作業状態判定部93によって判定される作業状態は、作業が開始された状態、対象物を探っている状態、および、ワークが対象物に挿入された状態が例示されたが、これに限られることはなく、特定作業に応じてその他の作業状態を判定してもよい。
 尚、上記各実施形態では、マスタ動作指令およびスレーブ動作指令は、各アームの各関節軸を駆動するサーボモータの位置指令であったが、これに限られず、各関節軸を駆動するサーボモータのトルク指令であってもよい。
 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造および/または機能の詳細を実質的に変更できる。
 本発明は、マスタ・スレーブ型のロボットシステムに有用である。
1 スレーブアーム
2 マスタアーム
3,3A,3B 制御装置
4 力覚センサ(スレーブ側)
5 カメラ
6 モニタ
7 エンドエフェクタ
8 動作指令生成部
9 誇張表現部
12 マスタ側制御部(マスタ側)
20 力覚センサ(マスタ側)
30 スレーブ側制御部(スレーブ側)
100,100A,100B ロボットシステム

Claims (12)

  1.  操作端を有するマスタアームと、
     作業端を有するスレーブアームと、
     操作者によって前記操作端に付与される操作力を検出する操作力検出部と、
     前記作業端又は当該作業端によって保持されたワークに付与される反力を検出する反力検出部と、
     前記操作力と前記反力に基づいて、マスタアームの動作指令を生成するとともに、スレーブアームの動作指令を生成するシステム制御部と、
     前記システム制御部によって生成されたマスタアームの動作指令に基づいて、マスタアームを制御するように構成されたマスタ側制御部と、
     前記システム制御部によって生成されたスレーブアームの動作指令に基づいて、スレーブアームを制御するように構成されたスレーブ側制御部と、
    を備えるロボットシステムであって、
     前記システム制御部は、前記反力が急激に時間変化した状態である反力急変状態において、前記操作端を操作する操作者に対し、操作感覚を誇張して提示するための誇張表現部を有する、ロボットシステム。
  2.  前記誇張表現部は、前記反力急変状態では、前記反力に基づいて、前記システム制御部によって生成されたマスタアームの動作指令を修正するための修正成分を生成する、請求項1に記載のロボットシステム。
  3.  前記修正成分は、三角波成分である、請求項2に記載のロボットシステム。
  4.  前記修正成分は、サイン波成分である、請求項2に記載のロボットシステム。
  5.  前記修正成分は、前記反力の時間の二階微分値である、請求項2に記載のロボットシステム。
  6.  前記動作指令は、位置指令である、請求項1乃至5のいずれか一項に記載のロボットシステム。
  7.  前記システム制御部は、前記スレーブアームの位置情報と、前記修正成分を加味したマスタアームの位置情報に基づいて、前記スレーブアームと前記マスタアームの位置関係のずれを補正するための補正成分を生成する位置ずれ補正部を
    更に備える、請求項6に記載のロボットシステム。
  8.  予め、ロボットシステムの特定の作業における、スレーブアームの位置情報、前記操作力、および、前記反力をデータとして収集し、収集したデータに応じて一以上の作業状態を分類し、分類した作業状態を記憶しておく記憶部を更に備え、
     前記誇張表現部は、
     ロボットシステムの動作中において、スレーブアームの位置情報、前記操作力、および、前記反力のうち少なくとも一つの値に基づいて、前記記憶部に記憶された前記作業状態のいずれに分類されるか否か判定する作業状態判定部を更に備える、請求項1乃至7のいずれか一項に記載のロボットシステム。
  9.  前記作業状態判定部は、
     ロボットシステムの動作中において、前記反力が所定の方向に発生し、かつ、前記操作力が前記所定の方向に直交する方向に発生している作業状態を、対象物を探っている状態(searching)であると判定する、請求項8に記載のロボットシステム。
  10.  前記作業状態判定部は、
     ロボットシステムの動作中において、スレーブアームの位置情報が所定位置よりも所定の方向に位置し、かつ、前記反力が変化した作業状態を、前記作業端によって保持されたワークが対象物に挿入された状態(inserted)であると判定する、請求項8に記載のロボットシステム。
  11.  前記誇張表現部は、前記作業状態を、音、マスタアームの振動および光のうち、少なくとも一つによって操作者に提示する作業状態提示部を更に備える、請求項8乃至10のいずれか一項に記載のロボットシステム。
  12.  操作端を有するマスタアームと、作業端を有するスレーブアームと、操作者によって前記操作端に付与される操作力を検出する操作力検出部と、前記作業端又は当該作業端によって保持されたワークに付与される反力を検出する反力検出部と、前記操作力と前記反力に基づいて、マスタアームの動作指令を生成するとともに、スレーブアームの動作指令を生成するシステム制御部と、前記システム制御部によって生成されたマスタアームの動作指令に基づいて、マスタアームを制御するように構成されたマスタ側制御部と、前記システム制御部によって生成されたスレーブアームの動作指令に基づいて、スレーブアームを制御するように構成されたスレーブ側制御部と、を備えるロボットシステムの制御方法であって、
     前記システム制御部により、前記反力が急激に時間変化した状態である反力急変状態において、前記操作端を操作する操作者に対し、操作感覚を誇張して提示する、ロボットシステムの制御方法。
PCT/JP2018/019018 2017-05-19 2018-05-17 ロボットシステム及びロボットシステムの制御方法 Ceased WO2018212259A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/614,987 US11701770B2 (en) 2017-05-19 2018-05-17 Robot system and method of controlling robot system
CN201880033129.9A CN110709211B (zh) 2017-05-19 2018-05-17 机器人系统和机器人系统的控制方法
EP18803224.7A EP3626404A4 (en) 2017-05-19 2018-05-17 ROBOTIC SYSTEM AND METHOD OF CONTROLLING THE ROBOTIC SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017100385A JP7049069B2 (ja) 2017-05-19 2017-05-19 ロボットシステム及びロボットシステムの制御方法
JP2017-100385 2017-05-19

Publications (1)

Publication Number Publication Date
WO2018212259A1 true WO2018212259A1 (ja) 2018-11-22

Family

ID=64273809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019018 Ceased WO2018212259A1 (ja) 2017-05-19 2018-05-17 ロボットシステム及びロボットシステムの制御方法

Country Status (5)

Country Link
US (1) US11701770B2 (ja)
EP (1) EP3626404A4 (ja)
JP (1) JP7049069B2 (ja)
CN (1) CN110709211B (ja)
WO (1) WO2018212259A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112659120A (zh) * 2020-12-11 2021-04-16 山东大学 一种液压作业机械臂的主从遥操作及力反馈控制方法
CN113165161A (zh) * 2018-12-21 2021-07-23 川崎重工业株式会社 机器人系统以及机器人系统的控制方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12011838B2 (en) * 2019-03-22 2024-06-18 Kawasaki Jukogyo Kabushiki Kaisha Robot system
JP2021094614A (ja) * 2019-12-13 2021-06-24 川崎重工業株式会社 ロボットシステム
JP7483420B2 (ja) 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
CA3117643A1 (en) * 2020-05-12 2021-11-12 Soremartec S.A. Operating device
CA3173703A1 (en) * 2020-07-01 2022-10-06 Kai Xu Master-slave motion control method, robot system, device, and storage medium
CN114905478B (zh) * 2021-02-08 2024-09-17 腾讯科技(深圳)有限公司 双边遥操作系统及控制方法
JP7722891B2 (ja) * 2021-10-05 2025-08-13 川崎重工業株式会社 制御装置、ロボットシステム、ロボット制御方法及びロボット制御プログラム
JP7755154B2 (ja) * 2022-01-19 2025-10-16 株式会社デンソーウェーブ 主従ロボットシステム
CN119768124B (zh) 2022-08-23 2025-08-01 瑞德医疗机器股份有限公司 手术机器人以及手术机器人的控制单元
CN116038685A (zh) * 2022-09-09 2023-05-02 深圳市越疆科技有限公司 遥操作系统、遥操作方法以及机械臂
CN115464672A (zh) * 2022-09-09 2022-12-13 深圳市越疆科技有限公司 遥操作系统、遥操作方法以及机械臂
JP2025017783A (ja) * 2023-07-25 2025-02-06 新東工業株式会社 ロボットシステム、コントローラ及びロボットシステムの制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60177883A (ja) * 1984-02-22 1985-09-11 株式会社日立製作所 力帰還型バイラテラルサ−ボ機構
JPH10202558A (ja) 1997-01-22 1998-08-04 Toshiba Corp マスタスレーブ装置
WO2017033378A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072361A (en) * 1990-02-01 1991-12-10 Sarcos Group Force-reflective teleoperation control system
US10820949B2 (en) * 1999-04-07 2020-11-03 Intuitive Surgical Operations, Inc. Medical robotic system with dynamically adjustable slave manipulator characteristics
JP4696307B2 (ja) * 2003-07-24 2011-06-08 学校法人慶應義塾 位置・力制御装置
US9789603B2 (en) * 2011-04-29 2017-10-17 Sarcos Lc Teleoperated robotic system
US8942846B2 (en) * 2011-04-29 2015-01-27 Raytheon Company System and method for controlling a teleoperated robotic agile lift system
KR102237597B1 (ko) * 2014-02-18 2021-04-07 삼성전자주식회사 수술 로봇용 마스터 장치 및 그 제어 방법
JP6547164B2 (ja) * 2014-04-30 2019-07-24 株式会社人機一体 マスタスレーブシステム
JP6504541B2 (ja) * 2014-06-16 2019-04-24 パナソニックIpマネジメント株式会社 マスタスレーブロボットの制御装置及び制御方法、マスタスレーブロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路
US10213925B2 (en) * 2016-09-09 2019-02-26 The Board Of Trustees Of The Leland Stanford Junior University Workpiece contact state estimating device and workpiece contact state estimation method
US11559364B2 (en) * 2016-12-15 2023-01-24 Intuitive Surgical Operations, Inc. Detection of user touch on controller handle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60177883A (ja) * 1984-02-22 1985-09-11 株式会社日立製作所 力帰還型バイラテラルサ−ボ機構
JPH10202558A (ja) 1997-01-22 1998-08-04 Toshiba Corp マスタスレーブ装置
WO2017033378A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3626404A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113165161A (zh) * 2018-12-21 2021-07-23 川崎重工业株式会社 机器人系统以及机器人系统的控制方法
CN113165161B (zh) * 2018-12-21 2024-02-06 川崎重工业株式会社 机器人系统以及机器人系统的控制方法
CN112659120A (zh) * 2020-12-11 2021-04-16 山东大学 一种液压作业机械臂的主从遥操作及力反馈控制方法

Also Published As

Publication number Publication date
JP2018192601A (ja) 2018-12-06
CN110709211A (zh) 2020-01-17
EP3626404A4 (en) 2021-03-10
EP3626404A1 (en) 2020-03-25
US20200198120A1 (en) 2020-06-25
US11701770B2 (en) 2023-07-18
CN110709211B (zh) 2022-12-06
JP7049069B2 (ja) 2022-04-06

Similar Documents

Publication Publication Date Title
WO2018212259A1 (ja) ロボットシステム及びロボットシステムの制御方法
TWI631447B (zh) Robot system
CN103237633B (zh) 主操作输入装置以及主-从机械手
AU2022224785B2 (en) Camera Control
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2011224745A (ja) ロボット教示装置、該装置のコントローラ、およびプログラム
GB2606672A (en) Camera control
WO2023200011A1 (ja) 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム
JP2024135097A (ja) 遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラム
CN119031998A (zh) 远程控制系统、远程控制方法以及远程控制程序
GB2605090A (en) Camera control
GB2605091A (en) Camera control

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18803224

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018803224

Country of ref document: EP

Effective date: 20191219