[go: up one dir, main page]

JP2024098591A - Robot control method and robot system - Google Patents

Robot control method and robot system Download PDF

Info

Publication number
JP2024098591A
JP2024098591A JP2023002166A JP2023002166A JP2024098591A JP 2024098591 A JP2024098591 A JP 2024098591A JP 2023002166 A JP2023002166 A JP 2023002166A JP 2023002166 A JP2023002166 A JP 2023002166A JP 2024098591 A JP2024098591 A JP 2024098591A
Authority
JP
Japan
Prior art keywords
center
robot
data
gravity
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023002166A
Other languages
Japanese (ja)
Inventor
晃子 冠木
Akiko Kabuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2023002166A priority Critical patent/JP2024098591A/en
Publication of JP2024098591A publication Critical patent/JP2024098591A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot control method and a robot system capable of more surely detecting the attitude of an object and accurately carrying out work for the object.SOLUTION: The control method of a robot equipped with a work tool for carrying out work on an object comprises: a detection step of detecting the attitude of the object using image data and gravity-center data of the object; and a work step of controlling driving of the robot on the basis of the attitude of the object detected in the detection step and carrying out the work on the object. The work tool is an ink jet head, and the work is printing work on the object. The gravity-center data is acquired by using a force sensor.SELECTED DRAWING: Figure 6

Description

本発明は、ロボットの制御方法およびロボットシステムに関する。 The present invention relates to a robot control method and a robot system.

特許文献1には、塗料を噴射するプリントヘッドを備えるロボットを用いて車体部品に塗装を行う塗装システムが記載されている。また、このような塗装システムでは、カメラでロボットと車体部品とを撮像し、得られた画像に基づいてロボットと車体部品との相対的な位置関係を検出する。 Patent Document 1 describes a painting system that uses a robot equipped with a print head that sprays paint to paint vehicle body parts. In addition, in this type of painting system, a camera captures images of the robot and the vehicle body part, and detects the relative positions of the robot and the vehicle body part based on the images obtained.

特表2020-501892号公報Special Publication No. 2020-501892

しかしながら、特許文献1の塗装システムのように、ロボットと車体部品との相対的な位置関係をカメラで取得した画像に基づいて検出する場合、カメラの露出不足または過多、ピントズレ、色ばらつき、色ムラ等によって、検出精度が低下したり、検出エラーが生じたりするおそれがある。 However, when the relative positional relationship between the robot and the vehicle body part is detected based on images captured by a camera, as in the painting system of Patent Document 1, there is a risk that detection accuracy will decrease or detection errors will occur due to insufficient or excessive exposure of the camera, focus issues, color variations, color unevenness, etc.

本発明のロボットの制御方法は、対象物に対して作業を行う作業ツールを備えるロボットの制御方法であって、
前記対象物の画像データおよび重心データを用いて前記対象物の姿勢を検出する検出ステップと、
前記検出ステップで検出した前記対象物の姿勢に基づいて前記ロボットの駆動を制御し、前記対象物に対して前記作業を行う作業ステップと、を含む。
A method for controlling a robot according to the present invention is a method for controlling a robot equipped with a work tool that performs work on an object, the method comprising the steps of:
a detection step of detecting a posture of the object using image data and center of gravity data of the object;
and a task step of controlling the drive of the robot based on the posture of the object detected in the detection step, and performing the task on the object.

本発明のロボットシステムは、対象物に対して作業を行う作業ツールを備えるロボットと、
前記対象物を撮像する撮像装置と、
前記対象物が載置され、前記対象物の重心位置を検出する重心位置検出装置と、
前記撮像装置で取得した前記対象物の画像データと前記重心位置検出装置で検出した前記対象物の重心位置とに基づいて前記対象物の姿勢を検出し、検出結果に基づいて前記ロボットの駆動を制御する制御装置と、を有する。
The robot system of the present invention includes: a robot having a work tool that performs work on an object;
an imaging device for imaging the object;
a center-of-gravity position detection device on which the object is placed and which detects the center-of-gravity position of the object;
The robot has a control device that detects the posture of the object based on image data of the object acquired by the imaging device and the center of gravity position of the object detected by the center of gravity position detection device, and controls the operation of the robot based on the detection result.

好適な実施形態に係るロボットシステムの構成図である。FIG. 1 is a configuration diagram of a robot system according to a preferred embodiment. 重心位置検出装置を上側から見た平面図である。FIG. 2 is a plan view of the center-of-gravity position detection device as viewed from above. 重心位置検出装置の変形例を上側から見た平面図である。FIG. 13 is a plan view of a modified example of the center-of-gravity position detection device as viewed from above. 重心位置検出装置の変形例を上側から見た平面図である。FIG. 13 is a plan view of a modified example of the center-of-gravity position detection device as viewed from above. 制御装置の構成を示す構成図である。FIG. 2 is a diagram showing the configuration of a control device. ロボットの制御方法を示すフローチャートである。1 is a flowchart showing a method for controlling a robot.

以下、本発明のロボットの制御方法およびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。 The robot control method and robot system of the present invention will be described in detail below based on the embodiments shown in the attached drawings.

図1は、好適な実施形態に係るロボットシステムの構成図である。図2は、重心位置検出装置を上側から見た平面図である。図3は、重心位置検出装置の変形例を上側から見た平面図である。図4は、重心位置検出装置の変形例を上側から見た平面図である。図5は、制御装置の構成を示す構成図である。図6は、ロボットの制御方法を示すフローチャートである。 Figure 1 is a configuration diagram of a robot system according to a preferred embodiment. Figure 2 is a plan view of a center-of-gravity position detection device as viewed from above. Figure 3 is a plan view of a modified center-of-gravity position detection device as viewed from above. Figure 4 is a plan view of a modified center-of-gravity position detection device as viewed from above. Figure 5 is a configuration diagram showing the configuration of a control device. Figure 6 is a flowchart showing a method of controlling a robot.

図1に示すロボットシステム1は、対象物Wの表面に設定された印刷面に対して所望の文字、模様、イラスト等の印刷データを印刷するDTS(Direct To Shape)印刷作業を行うシステムである。このようなロボットシステム1は、載置された対象物Wの重心Gの位置(以下「重心位置」とも言う。)を検出する重心位置検出装置2と、重心位置検出装置2上の対象物Wを撮像する撮像装置としてのカメラ3と、対象物Wに対して印刷作業を行うロボット4と、重心位置検出装置2およびカメラ3から得られる情報に基づいて重心位置検出装置2上の対象物Wの姿勢を検出し、検出結果に基づいてロボット4の駆動を制御する制御装置5と、を有する。重心位置検出装置2およびカメラ3とロボット4とのキャリブレーションは、実施済みであり、カメラ3で撮像した画像データ内での対象物Wの位置および重心位置検出装置2で検出した対象物Wの重心位置を、それぞれ、ロボット4に設定されたロボット座標系で特定することができる。 The robot system 1 shown in FIG. 1 is a system that performs DTS (Direct To Shape) printing work, which prints print data such as desired characters, patterns, illustrations, etc. on a printing surface set on the surface of an object W. Such a robot system 1 has a center of gravity position detection device 2 that detects the position of the center of gravity G of the placed object W (hereinafter also referred to as the "center of gravity position"), a camera 3 as an imaging device that images the object W on the center of gravity position detection device 2, a robot 4 that performs printing work on the object W, and a control device 5 that detects the posture of the object W on the center of gravity position detection device 2 based on information obtained from the center of gravity position detection device 2 and the camera 3, and controls the operation of the robot 4 based on the detection result. Calibration of the center of gravity position detection device 2, the camera 3, and the robot 4 has already been performed, and the position of the object W in the image data captured by the camera 3 and the center of gravity position of the object W detected by the center of gravity position detection device 2 can be specified in the robot coordinate system set in the robot 4.

[ロボット4]
ロボット4は、駆動軸を6つ有する6軸垂直多関節ロボットである。ロボット4は、床面に固定されたベース41と、ベース41に回動自在に連結されたロボットアーム42と、ロボットアーム42の先端に装着された作業ツール43と、を有する。また、ロボットアーム42は、6本のアーム421、422、423、424、425、426が回動自在に連結された構成であり、6つの関節J1、J2、J3、J4、J5、J6を備えている。これら6つの関節J1~J6のうち、関節J2、J3、J5が曲げ関節であり、関節J1、J4、J6がねじり関節である。また、作業ツール43は、対象物Wに印刷データを印刷するためインクジェットヘッド431である。このように、本実施形態のロボットシステム1では、作業ツールがインクジェットヘッド431であり、対象物Wに対して行う作業が印刷作業である。これにより、印刷作業に特化したロボットシステム1となる。
[Robot 4]
The robot 4 is a six-axis vertical articulated robot having six drive shafts. The robot 4 has a base 41 fixed to the floor surface, a robot arm 42 rotatably connected to the base 41, and a work tool 43 attached to the tip of the robot arm 42. The robot arm 42 has six arms 421, 422, 423, 424, 425, 426 rotatably connected to each other, and has six joints J1, J2, J3, J4, J5, and J6. Of these six joints J1 to J6, the joints J2, J3, and J5 are bending joints, and the joints J1, J4, and J6 are torsion joints. The work tool 43 is an inkjet head 431 for printing print data on the object W. Thus, in the robot system 1 of this embodiment, the work tool is the inkjet head 431, and the work performed on the object W is the printing work. This results in a robot system 1 specialized for printing work.

以上、ロボット4について説明したが、ロボット4の構成は、特に限定されない。例えば、スカラロボット、上述のロボットアーム42を2本備えた双腕ロボット等であってもよい。また、ベース41が固定されていない自走式のロボットであってもよい。また、対象物Wに対して行う作業についても、特に限定されず、印刷作業以外の作業であってもよい。また、作業ツールについても、特に限定されず、作業内容に応じて適宜変更することができる。 Although the robot 4 has been described above, the configuration of the robot 4 is not particularly limited. For example, it may be a SCARA robot, a dual-arm robot equipped with two of the above-mentioned robot arms 42, or the like. It may also be a self-propelled robot to which the base 41 is not fixed. The work performed on the target object W is also not particularly limited, and may be work other than printing work. The work tool is also not particularly limited, and can be changed as appropriate depending on the work content.

[重心位置検出装置2]
重心位置検出装置2は、その上面が対象物Wを載置する載置面20となっている。そして、重心位置検出装置2は、載置面20に載置された対象物Wの重心位置、より具体的には、重心位置のロボット座標系におけるX軸座標およびY軸座標を検出する。図2に示すように、本実施形態の重心位置検出装置2は、力センサー21である。これにより、対象物Wの重心位置を精度よく検出することができる。
[Center of gravity position detection device 2]
The center-of-gravity position detection device 2 has an upper surface serving as a placement surface 20 on which an object W is placed. The center-of-gravity position detection device 2 detects the center of gravity of the object W placed on the placement surface 20, more specifically, the X-axis coordinate and the Y-axis coordinate of the center of gravity position in the robot coordinate system. As shown in Fig. 2, the center-of-gravity position detection device 2 of this embodiment is a force sensor 21. This allows the center of gravity of the object W to be detected with high accuracy.

特に、力センサー21は、力センサー21に加えられた外力の6軸成分を検出可能な6軸力センサーである。なお、6軸成分は、X軸方向、Y軸方向およびZ軸方向の並進力(せん断力)成分と、これら3軸まわりの回転力(モーメント)成分と、からなる。力センサー21は、中心軸まわりに等間隔(90°間隔)に配置された4つの圧電デバイス22と、これら圧電デバイス22を収納するケースと、を有する。各圧電デバイス22は、例えば、水晶素子等の圧電体を備えており、圧電体の圧電効果を利用して受けた力を電気的な検出信号として取り出すことができる。 In particular, the force sensor 21 is a six-axis force sensor capable of detecting six-axis components of an external force applied to the force sensor 21. The six-axis components consist of translational force (shear force) components in the X-axis, Y-axis, and Z-axis directions, and rotational force (moment) components around these three axes. The force sensor 21 has four piezoelectric devices 22 arranged at equal intervals (90° intervals) around a central axis, and a case that houses these piezoelectric devices 22. Each piezoelectric device 22 has a piezoelectric body such as a quartz element, and can extract the received force as an electrical detection signal by utilizing the piezoelectric effect of the piezoelectric body.

力センサー21は、各圧電デバイス22から出力される検出信号を処理することにより、載置面20上の対象物Wから加えられた外力の6軸成分を検出する。そして、各成分に基づいて対象物Wの重心位置を検出する。なお、重心位置を検出するのに6軸成分の全てを用いる必要はない。例えば、6軸成分のうち、X軸方向の回転力成分とY軸方向の回転力成分とを用いることにより重心位置を検出することができる。なお、以下では、重心位置検出装置2が検出した重心位置を「重心データ」とも言う。 The force sensor 21 detects the six-axis components of the external force applied from the object W on the placement surface 20 by processing the detection signals output from each piezoelectric device 22. Then, it detects the center of gravity position of the object W based on each component. Note that it is not necessary to use all six-axis components to detect the center of gravity position. For example, the center of gravity position can be detected by using the rotational force component in the X-axis direction and the rotational force component in the Y-axis direction out of the six-axis components. Note that hereinafter, the center of gravity position detected by the center of gravity position detection device 2 is also referred to as "center of gravity data."

以上、重心位置検出装置2について説明したが、重心位置検出装置2の構成は、対象物Wの重心データを取得することができれば、特に限定されない。例えば、図3に示す重心位置検出装置2は、中心軸まわりに等間隔(120°間隔)に配置された3つの感圧センサー25と、感圧センサー25上に載置され、上面が載置面20である載置台24と、を有する。感圧センサー25は、受けた圧力に応じて抵抗値が変化する特性を有する。そのため、重心位置検出装置2では、各感圧センサー25の抵抗値を用いて載置面20上の対象物Wの重心位置を検出することができる。このような構成の重心位置検出装置2によっても、対象物Wの重心位置を精度よく検出することができる。なお、感圧センサー25の数や配置は、それぞれ、特に限定されない。 The center-of-gravity position detection device 2 has been described above, but the configuration of the center-of-gravity position detection device 2 is not particularly limited as long as it can acquire center-of-gravity data of the object W. For example, the center-of-gravity position detection device 2 shown in FIG. 3 has three pressure-sensitive sensors 25 arranged at equal intervals (120° intervals) around the central axis, and a mounting table 24 placed on the pressure-sensitive sensors 25, the upper surface of which is the mounting surface 20. The pressure-sensitive sensors 25 have a characteristic that their resistance value changes depending on the pressure received. Therefore, the center-of-gravity position detection device 2 can detect the center-of-gravity position of the object W on the mounting surface 20 using the resistance value of each pressure-sensitive sensor 25. The center-of-gravity position detection device 2 configured in this way can also detect the center-of-gravity position of the object W with high accuracy. The number and arrangement of the pressure-sensitive sensors 25 are not particularly limited.

また、例えば、図4に示す重心位置検出装置2は、中心軸まわりに等間隔(120°間隔)に配置された3つのロードセル26と、ロードセル26上に載置され、上面が載置面20である載置台24と、を有する。ロードセル26は、受けた荷重を計測することができる。そのため、重心位置検出装置2では、各ロードセル26が計測した荷重を用いて載置面20上の対象物Wの重心位置を検出することができる。このような構成の重心位置検出装置2によっても、対象物Wの重心位置を精度よく検出することができる。なお、ロードセル26の数や配置は、それぞれ、特に限定されない。 For example, the center-of-gravity position detection device 2 shown in FIG. 4 has three load cells 26 arranged at equal intervals (120° intervals) around the central axis, and a mounting table 24 placed on the load cells 26, with the upper surface being the mounting surface 20. The load cells 26 can measure the load received. Therefore, the center-of-gravity position detection device 2 can detect the center-of-gravity position of the object W on the mounting surface 20 using the loads measured by each load cell 26. The center-of-gravity position detection device 2 configured in this way can also detect the center-of-gravity position of the object W with high accuracy. Note that the number and arrangement of the load cells 26 are not particularly limited.

[カメラ3]
図1に示すように、カメラ3は、重心位置検出装置2の直上に位置しており、真上から重心位置検出装置2に載置された対象物Wを撮像する。ただし、カメラ3の配置は、重心位置検出装置2上の対象物Wを撮像することができれば、特に限定されない。例えば、カメラ3は、ロボット4に配置されていてもよい。
[Camera 3]
1, the camera 3 is located directly above the center-of-gravity position detection device 2, and captures an image of the object W placed on the center-of-gravity position detection device 2 from directly above. However, the location of the camera 3 is not particularly limited as long as it can capture an image of the object W on the center-of-gravity position detection device 2. For example, the camera 3 may be located on the robot 4.

[制御装置5]
制御装置5は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部装置との接続を行う外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶されたプログラム等を読み込んで実行することができる。
[Control device 5]
The control device 5 is, for example, configured from a computer, and has a processor (CPU) for processing information, a memory communicatively connected to the processor, and an external interface for connecting to an external device. Various programs executable by the processor are stored in the memory, and the processor can read and execute the programs stored in the memory.

制御装置5は、重心位置検出装置2が検出した対象物Wの重心位置およびカメラ3が取得した画像データに基づいて重心位置検出装置2上での対象物Wの姿勢を検出し、検出した姿勢に基づいてロボット4の駆動を制御することにより対象物Wに印刷データを印刷する。このような制御装置5は、図5に示すように、印刷データを記憶する印刷データ記憶部51と、対象物Wの形状データを記憶する形状データ記憶部52と、対象物Wの姿勢を検出する姿勢検出部53と、印刷データと対象物Wとの位置合わせおよび印刷データの補正を行う印刷データ補正部54と、ロボット4の駆動を制御するロボット制御部55と、を有する。 The control device 5 detects the posture of the object W on the center of gravity detection device 2 based on the center of gravity position of the object W detected by the center of gravity position detection device 2 and the image data acquired by the camera 3, and prints the print data on the object W by controlling the driving of the robot 4 based on the detected posture. As shown in FIG. 5, such a control device 5 has a print data storage unit 51 that stores the print data, a shape data storage unit 52 that stores shape data of the object W, a posture detection unit 53 that detects the posture of the object W, a print data correction unit 54 that aligns the print data with the object W and corrects the print data, and a robot control unit 55 that controls the driving of the robot 4.

印刷データ記憶部51は、対象物Wの印刷面に印刷する印刷データを記憶する。形状データ記憶部52は、対象物Wの形状データを記憶する。形状データは、例えば、対象物Wの3DCAD(Computer Aided Design)データである。また、この形状データには、対象物Wの重心位置が含まれている。このように、形状データとしてCADデータを用い、後述するように、このCADデータとカメラ3で取得した画像データとを比較することにより、対象物Wの姿勢を容易かつ精度よく検出することができる。ただし、形状データとしては、特に限定されない。例えば、3Dスキャナー等を用いて対象物Wを3Dスキャンして得られたスキャンデータを用いてもよい。このようなスキャンデータを用いても、CADデータと同様に、このスキャンデータとカメラ3で取得した画像データとを比較することにより、対象物Wの姿勢を容易かつ精度よく検出することができる。 The print data storage unit 51 stores print data to be printed on the printing surface of the object W. The shape data storage unit 52 stores shape data of the object W. The shape data is, for example, 3D CAD (Computer Aided Design) data of the object W. The shape data also includes the center of gravity position of the object W. In this way, by using CAD data as shape data and comparing this CAD data with image data acquired by the camera 3 as described below, the posture of the object W can be easily and accurately detected. However, the shape data is not particularly limited. For example, scan data obtained by 3D scanning the object W using a 3D scanner or the like may be used. Even if such scan data is used, the posture of the object W can be easily and accurately detected by comparing this scan data with image data acquired by the camera 3, as with CAD data.

姿勢検出部53は、重心位置検出装置2およびカメラ3から得られる情報に基づいて重心位置検出装置2上の対象物Wの姿勢を検出する。以下、この方法について具体的に説明する。 The attitude detection unit 53 detects the attitude of the object W on the center-of-gravity position detection device 2 based on information obtained from the center-of-gravity position detection device 2 and the camera 3. This method will be described in detail below.

まず、重心位置検出装置2で、その載置面20に載置された対象物Wの重心位置を検出する。重心位置の検出方法は、前述した通りであり、X軸方向の回転力成分とY軸方向の回転力成分とから検出することができる。また、載置面20に載置された対象物Wをカメラ3で撮像して対象物Wを含む画像データを取得する。次に、姿勢検出部53は、カメラ3が取得した画像データ内の対象物Wと形状データ記憶部52に記憶された対象物Wの形状データとを比較して対象物Wの姿勢を検出する。ここで、カメラ3の露出不足または過多、ピントズレ、色ばらつき、色ムラ等によって画像データ内の対象物Wが不鮮明となる場合がある。そして、不鮮明な画像データと形状データとを比較することにより、対象物Wの姿勢の検出精度低下、検出ミス、検出エラー等の不具合が生じるおそれがある。このような不具合は、印刷精度の低下、ダウンタイムの増加を招く。 First, the center of gravity position detection device 2 detects the center of gravity of the object W placed on the placement surface 20. The method for detecting the center of gravity is as described above, and it can be detected from the rotational force component in the X-axis direction and the rotational force component in the Y-axis direction. The object W placed on the placement surface 20 is imaged by the camera 3 to obtain image data including the object W. Next, the posture detection unit 53 detects the posture of the object W by comparing the object W in the image data acquired by the camera 3 with the shape data of the object W stored in the shape data storage unit 52. Here, the object W in the image data may become unclear due to insufficient or excessive exposure of the camera 3, focus deviation, color variation, color unevenness, etc. Then, by comparing the unclear image data with the shape data, there is a risk of problems such as a decrease in detection accuracy of the posture of the object W, detection mistakes, and detection errors. Such problems lead to a decrease in printing accuracy and an increase in downtime.

そこで、姿勢検出部53は、さらに、重心位置検出装置2が検出した対象物Wの重心データを用いることにより、検出精度低下、検出ミス、検出エラー等の不具合を抑制している。例えば、まず、姿勢検出部53は、形状データに基づいて、対象物Wの重心位置が実重心位置と一致する複数の姿勢を特定する。次に、姿勢検出部53は、特定した複数の姿勢と画像データ内の対象物Wとを比較して、対象物Wの姿勢を検出する。このような方法によれば、重心位置によって比較対象を予め絞っておくことができるため、画像データ内の対象物Wが不鮮明であっても対象物Wの姿勢を精度よく検出することができる可能性が高まる。このように、対象物Wの姿勢検出に対象物Wの重心位置を用いることにより、具体的には、形状データと重心データとの比較結果および形状データと画像データとの比較結果に基づいて対象物Wの姿勢を検出することにより、対象物Wの姿勢を精度よく検出することができる可能性が高まり、印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。 Therefore, the posture detection unit 53 further uses the center of gravity data of the object W detected by the center of gravity position detection device 2 to suppress problems such as a decrease in detection accuracy, detection errors, and detection errors. For example, first, the posture detection unit 53 identifies multiple postures in which the center of gravity position of the object W coincides with the actual center of gravity position based on the shape data. Next, the posture detection unit 53 compares the identified multiple postures with the object W in the image data to detect the posture of the object W. According to this method, since the comparison target can be narrowed down in advance by the center of gravity position, the possibility of accurately detecting the posture of the object W even if the object W in the image data is unclear is increased. In this way, by using the center of gravity position of the object W to detect the posture of the object W, specifically, by detecting the posture of the object W based on the comparison result between the shape data and the center of gravity data and the comparison result between the shape data and the image data, the possibility of accurately detecting the posture of the object W is increased, and printing work can be performed with high accuracy. In addition, downtime due to detection errors and detection errors can be reduced, and printing work can be performed efficiently.

ただし、対象物Wの姿勢を検出する方法は、カメラ3で取得した画像データと重心位置検出装置2で取得した重心データと、を用いていれば特に限定されない。また、例えば、画像データが十分に鮮明であるかを判定する判定部を設け、画像データが鮮明である場合は画像データだけを用いて対象物Wの姿勢を検出し、画像データが不鮮明である場合に画像データと重心データとを用いて対象物Wの姿勢を検出してもよい。 However, the method of detecting the posture of the object W is not particularly limited as long as it uses the image data acquired by the camera 3 and the center of gravity data acquired by the center of gravity position detection device 2. In addition, for example, a determination unit that determines whether the image data is sufficiently clear may be provided, and if the image data is clear, the posture of the object W may be detected using only the image data, and if the image data is unclear, the posture of the object W may be detected using the image data and the center of gravity data.

印刷データ補正部54は、姿勢検出部53が検出した対象物Wの姿勢に応じて、対象物Wの印刷面と印刷データとの位置決めを行う。また、印刷データ補正部54は、対象物Wの印刷面に印刷データが綺麗に印刷されるように、印刷面の形状に基づいて印刷データを補正する。具体的には、印刷データが2次元のデータであるため、仮に印刷面が3次元的に湾曲、屈曲等している場合、印刷面に印刷データをそのまま印刷すると印刷データが歪んでしまったり、印刷面からはみ出してしまったりする。そこで、印刷データ補正部54は、3次元の印刷面に対して印刷データが綺麗に印刷されるよう、印刷データを補正する。 The print data correction unit 54 positions the print data relative to the print surface of the object W according to the posture of the object W detected by the posture detection unit 53. The print data correction unit 54 also corrects the print data based on the shape of the print surface so that the print data is printed neatly on the print surface of the object W. Specifically, because the print data is two-dimensional data, if the print surface is curved or bent three-dimensionally, the print data will be distorted or extend beyond the print surface if it is printed as is on the print surface. Therefore, the print data correction unit 54 corrects the print data so that the print data is printed neatly on the three-dimensional print surface.

ロボット制御部55は、ロボット4の駆動を制御して、印刷データ補正部54によって補正された印刷データを対象物Wの印刷面に印刷する。 The robot control unit 55 controls the driving of the robot 4 to print the print data corrected by the print data correction unit 54 on the printing surface of the object W.

以上、ロボットシステム1について説明した。次に、ロボット4の制御方法つまりロボット4を用いた印刷作業について、図6に示すフローチャートに基づいて説明する。ロボット4の制御方法は、対象物Wの画像データおよび重心データを用いて対象物Wの姿勢を検出する検出ステップS1と、検出ステップS1で検出した対象物Wの姿勢に基づいてロボット4の駆動を制御し、対象物Wに対して印刷作業を行う作業ステップS2と、を含む。 The robot system 1 has been described above. Next, the control method of the robot 4, i.e., the printing work using the robot 4, will be described based on the flowchart shown in FIG. 6. The control method of the robot 4 includes a detection step S1 in which the posture of the object W is detected using image data and center of gravity data of the object W, and a work step S2 in which the driving of the robot 4 is controlled based on the posture of the object W detected in the detection step S1, and a printing work is performed on the object W.

[検出ステップS1]
検出ステップS1では、まず、ステップS11として、重心位置検出装置2の載置面20に対象物Wを載置する。なお、本ステップは、作業者が行ってもよいし、別のロボットシステムが行ってもよい。次に、ステップS12として、制御装置5は、図示しないホストコンピューター等から対象物Wの印刷面に印刷する印刷データを取得し、取得した印刷データを印刷データ記憶部51に記憶する。次に、ステップS13として、制御装置5は、図示しないホストコンピューター等から対象物Wの形状データを取得し、取得した形状データを形状データ記憶部52に記憶する。なお、ステップS11、S12、S13の順番は、限定されない。
[Detection step S1]
In the detection step S1, first, in step S11, the object W is placed on the placement surface 20 of the center-of-gravity position detection device 2. This step may be performed by an operator or by another robot system. Next, in step S12, the control device 5 acquires print data to be printed on the print surface of the object W from a host computer (not shown) or the like, and stores the acquired print data in the print data storage unit 51. Next, in step S13, the control device 5 acquires shape data of the object W from a host computer (not shown) or the like, and stores the acquired shape data in the shape data storage unit 52. The order of steps S11, S12, and S13 is not limited.

次に、ステップS14として、カメラ3で重心位置検出装置2上の対象物Wを撮像する。次に、ステップS15として、制御装置5は、ステップS14で得られた画像データをカメラ3から取得する。次に、ステップS16として、重心位置検出装置2で対象物Wの重心位置を検出して重心データを得る。次に、ステップS17として、制御装置5は、ステップS16で得られた重心データを重心位置検出装置2から取得する。次に、ステップS18として、制御装置5は、例えば、上述したようにして画像データと重心データとを用いて重心位置検出装置2上の対象物Wの姿勢を検出する。なお、ステップS14、S15、S16、S17の順番は、限定されない。 Next, in step S14, the camera 3 captures an image of the object W on the center of gravity position detection device 2. Next, in step S15, the control device 5 acquires the image data obtained in step S14 from the camera 3. Next, in step S16, the center of gravity position detection device 2 detects the center of gravity position of the object W to obtain center of gravity data. Next, in step S17, the control device 5 acquires the center of gravity data obtained in step S16 from the center of gravity position detection device 2. Next, in step S18, the control device 5 detects the posture of the object W on the center of gravity position detection device 2 using the image data and center of gravity data, for example, as described above. Note that the order of steps S14, S15, S16, and S17 is not limited.

[作業ステップS2]
作業ステップS2では、まず、ステップS21として、制御装置5は、ステップS18で検出された対象物Wの姿勢に基づいて、対象物Wの印刷面と印刷データとの位置決めを行うと共に、必要に応じて印刷データを補正する。補正内容は、前述した通りである。次に、ステップS22として、ステップS21で行った位置決めおよび補正に基づいてロボット4の駆動を制御し、対象物Wの印刷面に対して印刷データの印刷を行う。
[Work step S2]
In the work step S2, first, in step S21, the control device 5 performs positioning of the printing surface of the object W and the printing data based on the posture of the object W detected in step S18, and corrects the printing data as necessary. The correction contents are as described above. Next, in step S22, the drive of the robot 4 is controlled based on the positioning and correction performed in step S21, and the printing data is printed on the printing surface of the object W.

次に、ステップS23として、制御装置5は、対象物Wが他の印刷面を有するかを確認する。他の印刷面を有しない場合は、印刷作業を終了する。反対に、他の印刷面がある場合は、ステップS24として、対象物Wの姿勢を変えずに他の印刷面への印刷が可能であるかを判定する。印刷が可能である場合は、ステップS21に戻り、別の印刷面への印刷を行う。一方、印刷ができない場合は、ステップS25として、重心位置検出装置2上の対象物Wの姿勢を変化させる。姿勢を変化させる方法は、特に限定されず、例えば、作業者が行ってもよいし、別のロボットシステムが行ってもよい。そして、ステップS14に戻り、別の印刷面への印刷作業を開始する。 Next, in step S23, the control device 5 checks whether the object W has another printing surface. If it does not, the printing operation is terminated. Conversely, if it does have another printing surface, in step S24, it is determined whether printing on the other printing surface is possible without changing the posture of the object W. If printing is possible, the process returns to step S21, and printing is performed on the other printing surface. On the other hand, if printing is not possible, the process changes the posture of the object W on the center of gravity position detection device 2 in step S25. The method of changing the posture is not particularly limited, and may be performed by a worker or another robot system, for example. Then, the process returns to step S14, and printing on the other printing surface is started.

以上のようなロボット4の制御方法によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。 According to the above-described control method for the robot 4, the posture of the target object W is detected using center of gravity data in addition to shape data, making it difficult for mistakes or detection errors to occur in detecting the posture of the target object W. This increases the likelihood that the posture of the target object W can be detected accurately, and printing work on the target object W can be performed with high accuracy. In addition, downtime due to detection mistakes and detection errors can be reduced, allowing printing work to be performed efficiently.

以上、ロボット4の制御方法およびロボットシステム1について説明した。このようなロボット4の制御方法は、前述したように、対象物Wに対して作業を行う作業ツール43を備えるロボット4の制御方法であって、対象物Wの画像データおよび重心データを用いて対象物Wの姿勢を検出する検出ステップS1と、検出ステップS1で検出した対象物Wの姿勢に基づいてロボット4の駆動を制御し、対象物Wに対して作業を行う作業ステップS2と、を含む。このような方法によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。 The above describes the control method for the robot 4 and the robot system 1. As described above, the control method for the robot 4 is a control method for the robot 4 equipped with the work tool 43 that performs work on the object W, and includes a detection step S1 in which the posture of the object W is detected using image data and center of gravity data of the object W, and a work step S2 in which the robot 4 is driven and the work is performed on the object W based on the posture of the object W detected in the detection step S1. According to this method, the posture of the object W is detected using center of gravity data in addition to shape data, so that posture detection errors and detection errors of the object W are unlikely to occur. Therefore, the possibility of accurately detecting the posture of the object W is increased, and printing work on the object W can be performed accurately. In addition, downtime due to detection errors and detection errors can be reduced, and printing work can be performed efficiently.

また、前述したように、作業ツール43は、インクジェットヘッド431であり、作業は、対象物Wへの印刷作業である。これにより、印刷作業に特化したロボット4となる。 As described above, the work tool 43 is an inkjet head 431, and the work is printing on an object W. This makes the robot 4 specialized for printing work.

また、前述したように、重心データは、力センサー21を用いて取得する。これにより、重心データを精度よく検出することができる。 As mentioned above, the center of gravity data is acquired using the force sensor 21. This allows the center of gravity data to be detected with high accuracy.

また、前述したように、重心データは、感圧センサー25を用いて取得してもよい。これにより、重心データを精度よく検出することができる。 As described above, the center of gravity data may be obtained using the pressure sensor 25. This allows the center of gravity data to be detected with high accuracy.

また、前述したように、画像データは、カメラ3で対象物Wを撮像することにより取得する。これにより、画像データを容易に取得することができる。 As described above, the image data is acquired by capturing an image of the object W with the camera 3. This makes it easy to acquire the image data.

また、前述したように、対象物Wの形状および重心位置に関する情報を有する形状データを有し、検出ステップS1では、形状データと重心データとの比較結果および形状データと画像データとの比較結果に基づいて対象物Wの姿勢を検出する。これにより、対象物Wの姿勢を容易にかつ精度よく検出することができる。 As described above, the system has shape data that contains information about the shape and center of gravity of the object W, and in the detection step S1, the posture of the object W is detected based on the results of comparing the shape data with the center of gravity data and the results of comparing the shape data with the image data. This makes it possible to easily and accurately detect the posture of the object W.

また、前述したように、形状データは、CADデータである。これにより、対象物Wの姿勢を容易にかつ精度よく特定することができる。 As mentioned above, the shape data is CAD data. This allows the orientation of the target object W to be identified easily and accurately.

また、前述したように、形状データは、対象物Wを3Dスキャンしたデータであってもよい。これにより、対象物Wの姿勢を容易にかつ精度よく特定することができる。 As mentioned above, the shape data may be data obtained by 3D scanning the object W. This makes it possible to easily and accurately identify the posture of the object W.

また、前述したように、ロボットシステム1は、対象物Wに対して作業を行う作業ツール43を備えるロボット4と、対象物Wを撮像する撮像装置としてのカメラ3と、対象物Wが載置され、対象物Wの重心位置を検出する重心位置検出装置2と、カメラ3で取得した対象物Wの画像データと重心位置検出装置2で検出した対象物Wの重心位置とに基づいて対象物Wの姿勢を検出し、検出結果に基づいてロボット4の駆動を制御する制御装置5と、を有する。このような構成によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。 As described above, the robot system 1 includes a robot 4 equipped with a work tool 43 that performs work on the object W, a camera 3 as an imaging device that images the object W, a center of gravity position detection device 2 on which the object W is placed and that detects the center of gravity of the object W, and a control device 5 that detects the posture of the object W based on the image data of the object W acquired by the camera 3 and the center of gravity position of the object W detected by the center of gravity position detection device 2, and controls the operation of the robot 4 based on the detection result. With this configuration, the posture of the object W is detected using center of gravity data in addition to shape data, so that posture detection errors and detection errors of the object W are unlikely to occur. Therefore, the possibility of accurately detecting the posture of the object W is increased, and printing work on the object W can be performed accurately. In addition, downtime due to detection errors and detection errors can be reduced, and printing work can be performed efficiently.

以上、本発明のロボットの制御方法およびロボットシステムを図示の実施形態に基づいて説明したが本発明はこれに限定されるものではない。各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や他の任意の工程が付加されていてもよい。 The robot control method and robot system of the present invention have been described above based on the illustrated embodiment, but the present invention is not limited to this. The configuration of each part can be replaced with any configuration having a similar function. In addition, any other components or any other processes may be added to the present invention.

1…ロボットシステム、2…重心位置検出装置、20…載置面、21…力センサー、22…圧電デバイス、24…載置台、25…感圧センサー、26…ロードセル、3…カメラ、4…ロボット、41…ベース、42…ロボットアーム、421…アーム、422…アーム、423…アーム、424…アーム、425…アーム、426…アーム、43…作業ツール、431…インクジェットヘッド、5…制御装置、51…印刷データ記憶部、52…形状データ記憶部、53…姿勢検出部、54…印刷データ補正部、55…ロボット制御部、G…重心、J1…関節、J2…関節、J3…関節、J4…関節、J5…関節、J6…関節、S1…検出ステップ、S11…ステップ、S12…ステップ、S13…ステップ、S14…ステップ、S15…ステップ、S16…ステップ、S17…ステップ、S18…ステップ、S2…作業ステップ、S21…ステップ、S22…ステップ、S23…ステップ、S24…ステップ、S25…ステップ、W…対象物 1...Robot system, 2...Center of gravity position detection device, 20...Placement surface, 21...Force sensor, 22...Piezoelectric device, 24...Placement base, 25...Pressure sensor, 26...Load cell, 3...Camera, 4...Robot, 41...Base, 42...Robot arm, 421...Arm, 422...Arm, 423...Arm, 424...Arm, 425...Arm, 426...Arm, 43...Work tool, 431...Inkjet head, 5...Control device, 51...Print data storage unit, 52...Shape data storage unit, 53...Posture momentum detection unit, 54...print data correction unit, 55...robot control unit, G...center of gravity, J1...joint, J2...joint, J3...joint, J4...joint, J5...joint, J6...joint, S1...detection step, S11...step, S12...step, S13...step, S14...step, S15...step, S16...step, S17...step, S18...step, S2...work step, S21...step, S22...step, S23...step, S24...step, S25...step, W...object

Claims (9)

対象物に対して作業を行う作業ツールを備えるロボットの制御方法であって、
前記対象物の画像データおよび重心データを用いて前記対象物の姿勢を検出する検出ステップと、
前記検出ステップで検出した前記対象物の姿勢に基づいて前記ロボットの駆動を制御し、前記対象物に対して前記作業を行う作業ステップと、を含むことを特徴とするロボットの制御方法。
A method for controlling a robot equipped with a work tool that performs work on an object, comprising the steps of:
a detection step of detecting a posture of the object using image data and center of gravity data of the object;
a task step of controlling the drive of the robot based on the posture of the object detected in the detection step, and performing the task on the object.
前記作業ツールは、インクジェットヘッドであり、
前記作業は、前記対象物への印刷作業である請求項1に記載のロボットの制御方法。
the working tool is an inkjet head,
The robot control method according to claim 1 , wherein the task is a printing task on the object.
前記重心データは、力センサーを用いて取得する請求項1または2に記載のロボットの制御方法。 The method for controlling a robot according to claim 1 or 2, in which the center of gravity data is acquired using a force sensor. 前記重心データは、感圧センサーを用いて取得する請求項1または2に記載のロボットの制御方法。 The robot control method according to claim 1 or 2, in which the center of gravity data is acquired using a pressure sensor. 前記画像データは、カメラで前記対象物を撮像することにより取得する請求項1または2に記載のロボットの制御方法。 The method for controlling a robot according to claim 1 or 2, wherein the image data is acquired by capturing an image of the object with a camera. 前記対象物の形状および重心位置に関する情報を有する形状データを有し、
検出ステップでは、前記形状データと前記重心データとの比較結果および前記形状データと前記画像データとの比較結果に基づいて前記対象物の姿勢を検出する請求項1または2に記載のロボットの制御方法。
shape data having information about the shape and center of gravity of the object;
3. The robot control method according to claim 1, wherein in the detection step, a posture of the object is detected based on a comparison result between the shape data and the center of gravity data and a comparison result between the shape data and the image data.
前記形状データは、CADデータである請求項6に記載のロボットの制御方法。 The robot control method according to claim 6, wherein the shape data is CAD data. 前記形状データは、前記対象物を3Dスキャンしたデータである請求項6に記載のロボットの制御方法。 The robot control method according to claim 6, wherein the shape data is data obtained by 3D scanning the object. 対象物に対して作業を行う作業ツールを備えるロボットと、
前記対象物を撮像する撮像装置と、
前記対象物が載置され、前記対象物の重心位置を検出する重心位置検出装置と、
前記撮像装置で取得した前記対象物の画像データと前記重心位置検出装置で検出した前記対象物の重心位置とに基づいて前記対象物の姿勢を検出し、検出結果に基づいて前記ロボットの駆動を制御する制御装置と、を有することを特徴とするロボットシステム。
A robot having a work tool for performing work on an object;
an imaging device for imaging the object;
a center-of-gravity position detection device on which the object is placed and which detects the center-of-gravity position of the object;
a control device that detects the posture of the object based on image data of the object acquired by the imaging device and the center of gravity position of the object detected by the center of gravity position detection device, and controls the drive of the robot based on the detection result.
JP2023002166A 2023-01-11 2023-01-11 Robot control method and robot system Pending JP2024098591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023002166A JP2024098591A (en) 2023-01-11 2023-01-11 Robot control method and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023002166A JP2024098591A (en) 2023-01-11 2023-01-11 Robot control method and robot system

Publications (1)

Publication Number Publication Date
JP2024098591A true JP2024098591A (en) 2024-07-24

Family

ID=91957581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023002166A Pending JP2024098591A (en) 2023-01-11 2023-01-11 Robot control method and robot system

Country Status (1)

Country Link
JP (1) JP2024098591A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12291365B2 (en) 2018-06-21 2025-05-06 Packsize, Llc Packaging machine and systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12291365B2 (en) 2018-06-21 2025-05-06 Packsize, Llc Packaging machine and systems

Similar Documents

Publication Publication Date Title
JP7237483B2 (en) Robot system control method, control program, recording medium, control device, robot system, article manufacturing method
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP6180087B2 (en) Information processing apparatus and information processing method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6860843B2 (en) Robot system, robot control device, and robot control method
CN113015604B (en) Robot control system and robot control method
JP7062911B2 (en) Robot system
CN112297004B (en) Control device for a robot device for controlling the position of a robot
JP4794011B2 (en) Image processing apparatus and robot control system
JP4289619B2 (en) Tool position correction method for articulated robots
JP2019063954A (en) Robot system, calibration method and calibration program
US20200001454A1 (en) Motion teaching apparatus, robot system, and motion teaching method
JP2024098591A (en) Robot control method and robot system
JP2009125839A (en) Weld teaching position correction system
JP6807450B2 (en) Articulated robot parallelism determination method and articulated robot tilt adjustment device
JP2021024075A (en) Control device of robot device for controlling position of robot
WO2022195944A1 (en) Robot system, and control method for robot system
JP4212783B2 (en) Robot coordinate calibration system
JPH1011146A (en) Stopping posture correction device for moving objects
JP6965422B2 (en) Camera parallelism judgment method
CN113905859B (en) Robot control system and robot control method
JPH05108131A (en) Teaching device of robot
WO2019123517A1 (en) Work device and method for controlling same
JPH05204423A (en) Coordinate correcting method for robot device provided with visual device
JP2021094623A (en) Robot control device, observation system, robot system, and robot control method