JP2024098591A - Robot control method and robot system - Google Patents
Robot control method and robot system Download PDFInfo
- Publication number
- JP2024098591A JP2024098591A JP2023002166A JP2023002166A JP2024098591A JP 2024098591 A JP2024098591 A JP 2024098591A JP 2023002166 A JP2023002166 A JP 2023002166A JP 2023002166 A JP2023002166 A JP 2023002166A JP 2024098591 A JP2024098591 A JP 2024098591A
- Authority
- JP
- Japan
- Prior art keywords
- center
- robot
- data
- gravity
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 230000005484 gravity Effects 0.000 claims description 72
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000036544 posture Effects 0.000 description 51
- 238000013500 data storage Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 238000011960 computer-aided design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000010422 painting Methods 0.000 description 3
- 239000003973 paint Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000010453 quartz Substances 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの制御方法およびロボットシステムに関する。 The present invention relates to a robot control method and a robot system.
特許文献1には、塗料を噴射するプリントヘッドを備えるロボットを用いて車体部品に塗装を行う塗装システムが記載されている。また、このような塗装システムでは、カメラでロボットと車体部品とを撮像し、得られた画像に基づいてロボットと車体部品との相対的な位置関係を検出する。 Patent Document 1 describes a painting system that uses a robot equipped with a print head that sprays paint to paint vehicle body parts. In addition, in this type of painting system, a camera captures images of the robot and the vehicle body part, and detects the relative positions of the robot and the vehicle body part based on the images obtained.
しかしながら、特許文献1の塗装システムのように、ロボットと車体部品との相対的な位置関係をカメラで取得した画像に基づいて検出する場合、カメラの露出不足または過多、ピントズレ、色ばらつき、色ムラ等によって、検出精度が低下したり、検出エラーが生じたりするおそれがある。 However, when the relative positional relationship between the robot and the vehicle body part is detected based on images captured by a camera, as in the painting system of Patent Document 1, there is a risk that detection accuracy will decrease or detection errors will occur due to insufficient or excessive exposure of the camera, focus issues, color variations, color unevenness, etc.
本発明のロボットの制御方法は、対象物に対して作業を行う作業ツールを備えるロボットの制御方法であって、
前記対象物の画像データおよび重心データを用いて前記対象物の姿勢を検出する検出ステップと、
前記検出ステップで検出した前記対象物の姿勢に基づいて前記ロボットの駆動を制御し、前記対象物に対して前記作業を行う作業ステップと、を含む。
A method for controlling a robot according to the present invention is a method for controlling a robot equipped with a work tool that performs work on an object, the method comprising the steps of:
a detection step of detecting a posture of the object using image data and center of gravity data of the object;
and a task step of controlling the drive of the robot based on the posture of the object detected in the detection step, and performing the task on the object.
本発明のロボットシステムは、対象物に対して作業を行う作業ツールを備えるロボットと、
前記対象物を撮像する撮像装置と、
前記対象物が載置され、前記対象物の重心位置を検出する重心位置検出装置と、
前記撮像装置で取得した前記対象物の画像データと前記重心位置検出装置で検出した前記対象物の重心位置とに基づいて前記対象物の姿勢を検出し、検出結果に基づいて前記ロボットの駆動を制御する制御装置と、を有する。
The robot system of the present invention includes: a robot having a work tool that performs work on an object;
an imaging device for imaging the object;
a center-of-gravity position detection device on which the object is placed and which detects the center-of-gravity position of the object;
The robot has a control device that detects the posture of the object based on image data of the object acquired by the imaging device and the center of gravity position of the object detected by the center of gravity position detection device, and controls the operation of the robot based on the detection result.
以下、本発明のロボットの制御方法およびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。 The robot control method and robot system of the present invention will be described in detail below based on the embodiments shown in the attached drawings.
図1は、好適な実施形態に係るロボットシステムの構成図である。図2は、重心位置検出装置を上側から見た平面図である。図3は、重心位置検出装置の変形例を上側から見た平面図である。図4は、重心位置検出装置の変形例を上側から見た平面図である。図5は、制御装置の構成を示す構成図である。図6は、ロボットの制御方法を示すフローチャートである。 Figure 1 is a configuration diagram of a robot system according to a preferred embodiment. Figure 2 is a plan view of a center-of-gravity position detection device as viewed from above. Figure 3 is a plan view of a modified center-of-gravity position detection device as viewed from above. Figure 4 is a plan view of a modified center-of-gravity position detection device as viewed from above. Figure 5 is a configuration diagram showing the configuration of a control device. Figure 6 is a flowchart showing a method of controlling a robot.
図1に示すロボットシステム1は、対象物Wの表面に設定された印刷面に対して所望の文字、模様、イラスト等の印刷データを印刷するDTS(Direct To Shape)印刷作業を行うシステムである。このようなロボットシステム1は、載置された対象物Wの重心Gの位置(以下「重心位置」とも言う。)を検出する重心位置検出装置2と、重心位置検出装置2上の対象物Wを撮像する撮像装置としてのカメラ3と、対象物Wに対して印刷作業を行うロボット4と、重心位置検出装置2およびカメラ3から得られる情報に基づいて重心位置検出装置2上の対象物Wの姿勢を検出し、検出結果に基づいてロボット4の駆動を制御する制御装置5と、を有する。重心位置検出装置2およびカメラ3とロボット4とのキャリブレーションは、実施済みであり、カメラ3で撮像した画像データ内での対象物Wの位置および重心位置検出装置2で検出した対象物Wの重心位置を、それぞれ、ロボット4に設定されたロボット座標系で特定することができる。
The robot system 1 shown in FIG. 1 is a system that performs DTS (Direct To Shape) printing work, which prints print data such as desired characters, patterns, illustrations, etc. on a printing surface set on the surface of an object W. Such a robot system 1 has a center of gravity
[ロボット4]
ロボット4は、駆動軸を6つ有する6軸垂直多関節ロボットである。ロボット4は、床面に固定されたベース41と、ベース41に回動自在に連結されたロボットアーム42と、ロボットアーム42の先端に装着された作業ツール43と、を有する。また、ロボットアーム42は、6本のアーム421、422、423、424、425、426が回動自在に連結された構成であり、6つの関節J1、J2、J3、J4、J5、J6を備えている。これら6つの関節J1~J6のうち、関節J2、J3、J5が曲げ関節であり、関節J1、J4、J6がねじり関節である。また、作業ツール43は、対象物Wに印刷データを印刷するためインクジェットヘッド431である。このように、本実施形態のロボットシステム1では、作業ツールがインクジェットヘッド431であり、対象物Wに対して行う作業が印刷作業である。これにより、印刷作業に特化したロボットシステム1となる。
[Robot 4]
The robot 4 is a six-axis vertical articulated robot having six drive shafts. The robot 4 has a
以上、ロボット4について説明したが、ロボット4の構成は、特に限定されない。例えば、スカラロボット、上述のロボットアーム42を2本備えた双腕ロボット等であってもよい。また、ベース41が固定されていない自走式のロボットであってもよい。また、対象物Wに対して行う作業についても、特に限定されず、印刷作業以外の作業であってもよい。また、作業ツールについても、特に限定されず、作業内容に応じて適宜変更することができる。
Although the robot 4 has been described above, the configuration of the robot 4 is not particularly limited. For example, it may be a SCARA robot, a dual-arm robot equipped with two of the above-mentioned
[重心位置検出装置2]
重心位置検出装置2は、その上面が対象物Wを載置する載置面20となっている。そして、重心位置検出装置2は、載置面20に載置された対象物Wの重心位置、より具体的には、重心位置のロボット座標系におけるX軸座標およびY軸座標を検出する。図2に示すように、本実施形態の重心位置検出装置2は、力センサー21である。これにより、対象物Wの重心位置を精度よく検出することができる。
[Center of gravity position detection device 2]
The center-of-gravity
特に、力センサー21は、力センサー21に加えられた外力の6軸成分を検出可能な6軸力センサーである。なお、6軸成分は、X軸方向、Y軸方向およびZ軸方向の並進力(せん断力)成分と、これら3軸まわりの回転力(モーメント)成分と、からなる。力センサー21は、中心軸まわりに等間隔(90°間隔)に配置された4つの圧電デバイス22と、これら圧電デバイス22を収納するケースと、を有する。各圧電デバイス22は、例えば、水晶素子等の圧電体を備えており、圧電体の圧電効果を利用して受けた力を電気的な検出信号として取り出すことができる。
In particular, the
力センサー21は、各圧電デバイス22から出力される検出信号を処理することにより、載置面20上の対象物Wから加えられた外力の6軸成分を検出する。そして、各成分に基づいて対象物Wの重心位置を検出する。なお、重心位置を検出するのに6軸成分の全てを用いる必要はない。例えば、6軸成分のうち、X軸方向の回転力成分とY軸方向の回転力成分とを用いることにより重心位置を検出することができる。なお、以下では、重心位置検出装置2が検出した重心位置を「重心データ」とも言う。
The
以上、重心位置検出装置2について説明したが、重心位置検出装置2の構成は、対象物Wの重心データを取得することができれば、特に限定されない。例えば、図3に示す重心位置検出装置2は、中心軸まわりに等間隔(120°間隔)に配置された3つの感圧センサー25と、感圧センサー25上に載置され、上面が載置面20である載置台24と、を有する。感圧センサー25は、受けた圧力に応じて抵抗値が変化する特性を有する。そのため、重心位置検出装置2では、各感圧センサー25の抵抗値を用いて載置面20上の対象物Wの重心位置を検出することができる。このような構成の重心位置検出装置2によっても、対象物Wの重心位置を精度よく検出することができる。なお、感圧センサー25の数や配置は、それぞれ、特に限定されない。
The center-of-gravity
また、例えば、図4に示す重心位置検出装置2は、中心軸まわりに等間隔(120°間隔)に配置された3つのロードセル26と、ロードセル26上に載置され、上面が載置面20である載置台24と、を有する。ロードセル26は、受けた荷重を計測することができる。そのため、重心位置検出装置2では、各ロードセル26が計測した荷重を用いて載置面20上の対象物Wの重心位置を検出することができる。このような構成の重心位置検出装置2によっても、対象物Wの重心位置を精度よく検出することができる。なお、ロードセル26の数や配置は、それぞれ、特に限定されない。
For example, the center-of-gravity
[カメラ3]
図1に示すように、カメラ3は、重心位置検出装置2の直上に位置しており、真上から重心位置検出装置2に載置された対象物Wを撮像する。ただし、カメラ3の配置は、重心位置検出装置2上の対象物Wを撮像することができれば、特に限定されない。例えば、カメラ3は、ロボット4に配置されていてもよい。
[Camera 3]
1, the camera 3 is located directly above the center-of-gravity
[制御装置5]
制御装置5は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部装置との接続を行う外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶されたプログラム等を読み込んで実行することができる。
[Control device 5]
The
制御装置5は、重心位置検出装置2が検出した対象物Wの重心位置およびカメラ3が取得した画像データに基づいて重心位置検出装置2上での対象物Wの姿勢を検出し、検出した姿勢に基づいてロボット4の駆動を制御することにより対象物Wに印刷データを印刷する。このような制御装置5は、図5に示すように、印刷データを記憶する印刷データ記憶部51と、対象物Wの形状データを記憶する形状データ記憶部52と、対象物Wの姿勢を検出する姿勢検出部53と、印刷データと対象物Wとの位置合わせおよび印刷データの補正を行う印刷データ補正部54と、ロボット4の駆動を制御するロボット制御部55と、を有する。
The
印刷データ記憶部51は、対象物Wの印刷面に印刷する印刷データを記憶する。形状データ記憶部52は、対象物Wの形状データを記憶する。形状データは、例えば、対象物Wの3DCAD(Computer Aided Design)データである。また、この形状データには、対象物Wの重心位置が含まれている。このように、形状データとしてCADデータを用い、後述するように、このCADデータとカメラ3で取得した画像データとを比較することにより、対象物Wの姿勢を容易かつ精度よく検出することができる。ただし、形状データとしては、特に限定されない。例えば、3Dスキャナー等を用いて対象物Wを3Dスキャンして得られたスキャンデータを用いてもよい。このようなスキャンデータを用いても、CADデータと同様に、このスキャンデータとカメラ3で取得した画像データとを比較することにより、対象物Wの姿勢を容易かつ精度よく検出することができる。
The print
姿勢検出部53は、重心位置検出装置2およびカメラ3から得られる情報に基づいて重心位置検出装置2上の対象物Wの姿勢を検出する。以下、この方法について具体的に説明する。
The
まず、重心位置検出装置2で、その載置面20に載置された対象物Wの重心位置を検出する。重心位置の検出方法は、前述した通りであり、X軸方向の回転力成分とY軸方向の回転力成分とから検出することができる。また、載置面20に載置された対象物Wをカメラ3で撮像して対象物Wを含む画像データを取得する。次に、姿勢検出部53は、カメラ3が取得した画像データ内の対象物Wと形状データ記憶部52に記憶された対象物Wの形状データとを比較して対象物Wの姿勢を検出する。ここで、カメラ3の露出不足または過多、ピントズレ、色ばらつき、色ムラ等によって画像データ内の対象物Wが不鮮明となる場合がある。そして、不鮮明な画像データと形状データとを比較することにより、対象物Wの姿勢の検出精度低下、検出ミス、検出エラー等の不具合が生じるおそれがある。このような不具合は、印刷精度の低下、ダウンタイムの増加を招く。
First, the center of gravity
そこで、姿勢検出部53は、さらに、重心位置検出装置2が検出した対象物Wの重心データを用いることにより、検出精度低下、検出ミス、検出エラー等の不具合を抑制している。例えば、まず、姿勢検出部53は、形状データに基づいて、対象物Wの重心位置が実重心位置と一致する複数の姿勢を特定する。次に、姿勢検出部53は、特定した複数の姿勢と画像データ内の対象物Wとを比較して、対象物Wの姿勢を検出する。このような方法によれば、重心位置によって比較対象を予め絞っておくことができるため、画像データ内の対象物Wが不鮮明であっても対象物Wの姿勢を精度よく検出することができる可能性が高まる。このように、対象物Wの姿勢検出に対象物Wの重心位置を用いることにより、具体的には、形状データと重心データとの比較結果および形状データと画像データとの比較結果に基づいて対象物Wの姿勢を検出することにより、対象物Wの姿勢を精度よく検出することができる可能性が高まり、印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。
Therefore, the
ただし、対象物Wの姿勢を検出する方法は、カメラ3で取得した画像データと重心位置検出装置2で取得した重心データと、を用いていれば特に限定されない。また、例えば、画像データが十分に鮮明であるかを判定する判定部を設け、画像データが鮮明である場合は画像データだけを用いて対象物Wの姿勢を検出し、画像データが不鮮明である場合に画像データと重心データとを用いて対象物Wの姿勢を検出してもよい。
However, the method of detecting the posture of the object W is not particularly limited as long as it uses the image data acquired by the camera 3 and the center of gravity data acquired by the center of gravity
印刷データ補正部54は、姿勢検出部53が検出した対象物Wの姿勢に応じて、対象物Wの印刷面と印刷データとの位置決めを行う。また、印刷データ補正部54は、対象物Wの印刷面に印刷データが綺麗に印刷されるように、印刷面の形状に基づいて印刷データを補正する。具体的には、印刷データが2次元のデータであるため、仮に印刷面が3次元的に湾曲、屈曲等している場合、印刷面に印刷データをそのまま印刷すると印刷データが歪んでしまったり、印刷面からはみ出してしまったりする。そこで、印刷データ補正部54は、3次元の印刷面に対して印刷データが綺麗に印刷されるよう、印刷データを補正する。
The print
ロボット制御部55は、ロボット4の駆動を制御して、印刷データ補正部54によって補正された印刷データを対象物Wの印刷面に印刷する。
The
以上、ロボットシステム1について説明した。次に、ロボット4の制御方法つまりロボット4を用いた印刷作業について、図6に示すフローチャートに基づいて説明する。ロボット4の制御方法は、対象物Wの画像データおよび重心データを用いて対象物Wの姿勢を検出する検出ステップS1と、検出ステップS1で検出した対象物Wの姿勢に基づいてロボット4の駆動を制御し、対象物Wに対して印刷作業を行う作業ステップS2と、を含む。 The robot system 1 has been described above. Next, the control method of the robot 4, i.e., the printing work using the robot 4, will be described based on the flowchart shown in FIG. 6. The control method of the robot 4 includes a detection step S1 in which the posture of the object W is detected using image data and center of gravity data of the object W, and a work step S2 in which the driving of the robot 4 is controlled based on the posture of the object W detected in the detection step S1, and a printing work is performed on the object W.
[検出ステップS1]
検出ステップS1では、まず、ステップS11として、重心位置検出装置2の載置面20に対象物Wを載置する。なお、本ステップは、作業者が行ってもよいし、別のロボットシステムが行ってもよい。次に、ステップS12として、制御装置5は、図示しないホストコンピューター等から対象物Wの印刷面に印刷する印刷データを取得し、取得した印刷データを印刷データ記憶部51に記憶する。次に、ステップS13として、制御装置5は、図示しないホストコンピューター等から対象物Wの形状データを取得し、取得した形状データを形状データ記憶部52に記憶する。なお、ステップS11、S12、S13の順番は、限定されない。
[Detection step S1]
In the detection step S1, first, in step S11, the object W is placed on the
次に、ステップS14として、カメラ3で重心位置検出装置2上の対象物Wを撮像する。次に、ステップS15として、制御装置5は、ステップS14で得られた画像データをカメラ3から取得する。次に、ステップS16として、重心位置検出装置2で対象物Wの重心位置を検出して重心データを得る。次に、ステップS17として、制御装置5は、ステップS16で得られた重心データを重心位置検出装置2から取得する。次に、ステップS18として、制御装置5は、例えば、上述したようにして画像データと重心データとを用いて重心位置検出装置2上の対象物Wの姿勢を検出する。なお、ステップS14、S15、S16、S17の順番は、限定されない。
Next, in step S14, the camera 3 captures an image of the object W on the center of gravity
[作業ステップS2]
作業ステップS2では、まず、ステップS21として、制御装置5は、ステップS18で検出された対象物Wの姿勢に基づいて、対象物Wの印刷面と印刷データとの位置決めを行うと共に、必要に応じて印刷データを補正する。補正内容は、前述した通りである。次に、ステップS22として、ステップS21で行った位置決めおよび補正に基づいてロボット4の駆動を制御し、対象物Wの印刷面に対して印刷データの印刷を行う。
[Work step S2]
In the work step S2, first, in step S21, the
次に、ステップS23として、制御装置5は、対象物Wが他の印刷面を有するかを確認する。他の印刷面を有しない場合は、印刷作業を終了する。反対に、他の印刷面がある場合は、ステップS24として、対象物Wの姿勢を変えずに他の印刷面への印刷が可能であるかを判定する。印刷が可能である場合は、ステップS21に戻り、別の印刷面への印刷を行う。一方、印刷ができない場合は、ステップS25として、重心位置検出装置2上の対象物Wの姿勢を変化させる。姿勢を変化させる方法は、特に限定されず、例えば、作業者が行ってもよいし、別のロボットシステムが行ってもよい。そして、ステップS14に戻り、別の印刷面への印刷作業を開始する。
Next, in step S23, the
以上のようなロボット4の制御方法によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。 According to the above-described control method for the robot 4, the posture of the target object W is detected using center of gravity data in addition to shape data, making it difficult for mistakes or detection errors to occur in detecting the posture of the target object W. This increases the likelihood that the posture of the target object W can be detected accurately, and printing work on the target object W can be performed with high accuracy. In addition, downtime due to detection mistakes and detection errors can be reduced, allowing printing work to be performed efficiently.
以上、ロボット4の制御方法およびロボットシステム1について説明した。このようなロボット4の制御方法は、前述したように、対象物Wに対して作業を行う作業ツール43を備えるロボット4の制御方法であって、対象物Wの画像データおよび重心データを用いて対象物Wの姿勢を検出する検出ステップS1と、検出ステップS1で検出した対象物Wの姿勢に基づいてロボット4の駆動を制御し、対象物Wに対して作業を行う作業ステップS2と、を含む。このような方法によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。
The above describes the control method for the robot 4 and the robot system 1. As described above, the control method for the robot 4 is a control method for the robot 4 equipped with the
また、前述したように、作業ツール43は、インクジェットヘッド431であり、作業は、対象物Wへの印刷作業である。これにより、印刷作業に特化したロボット4となる。
As described above, the
また、前述したように、重心データは、力センサー21を用いて取得する。これにより、重心データを精度よく検出することができる。
As mentioned above, the center of gravity data is acquired using the
また、前述したように、重心データは、感圧センサー25を用いて取得してもよい。これにより、重心データを精度よく検出することができる。
As described above, the center of gravity data may be obtained using the
また、前述したように、画像データは、カメラ3で対象物Wを撮像することにより取得する。これにより、画像データを容易に取得することができる。 As described above, the image data is acquired by capturing an image of the object W with the camera 3. This makes it easy to acquire the image data.
また、前述したように、対象物Wの形状および重心位置に関する情報を有する形状データを有し、検出ステップS1では、形状データと重心データとの比較結果および形状データと画像データとの比較結果に基づいて対象物Wの姿勢を検出する。これにより、対象物Wの姿勢を容易にかつ精度よく検出することができる。 As described above, the system has shape data that contains information about the shape and center of gravity of the object W, and in the detection step S1, the posture of the object W is detected based on the results of comparing the shape data with the center of gravity data and the results of comparing the shape data with the image data. This makes it possible to easily and accurately detect the posture of the object W.
また、前述したように、形状データは、CADデータである。これにより、対象物Wの姿勢を容易にかつ精度よく特定することができる。 As mentioned above, the shape data is CAD data. This allows the orientation of the target object W to be identified easily and accurately.
また、前述したように、形状データは、対象物Wを3Dスキャンしたデータであってもよい。これにより、対象物Wの姿勢を容易にかつ精度よく特定することができる。 As mentioned above, the shape data may be data obtained by 3D scanning the object W. This makes it possible to easily and accurately identify the posture of the object W.
また、前述したように、ロボットシステム1は、対象物Wに対して作業を行う作業ツール43を備えるロボット4と、対象物Wを撮像する撮像装置としてのカメラ3と、対象物Wが載置され、対象物Wの重心位置を検出する重心位置検出装置2と、カメラ3で取得した対象物Wの画像データと重心位置検出装置2で検出した対象物Wの重心位置とに基づいて対象物Wの姿勢を検出し、検出結果に基づいてロボット4の駆動を制御する制御装置5と、を有する。このような構成によれば、形状データに加えて重心データを用いて対象物Wの姿勢を検出するため、対象物Wの姿勢検出ミスや検出エラーが生じ難い。そのため、対象物Wの姿勢を精度よく検出することができる可能性が高まり、対象物Wへの印刷作業を精度よく行うことができる。また、検出ミス、検出エラーによるダウンタイムを削減することができ、印刷作業を効率的に行うことができる。
As described above, the robot system 1 includes a robot 4 equipped with a
以上、本発明のロボットの制御方法およびロボットシステムを図示の実施形態に基づいて説明したが本発明はこれに限定されるものではない。各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や他の任意の工程が付加されていてもよい。 The robot control method and robot system of the present invention have been described above based on the illustrated embodiment, but the present invention is not limited to this. The configuration of each part can be replaced with any configuration having a similar function. In addition, any other components or any other processes may be added to the present invention.
1…ロボットシステム、2…重心位置検出装置、20…載置面、21…力センサー、22…圧電デバイス、24…載置台、25…感圧センサー、26…ロードセル、3…カメラ、4…ロボット、41…ベース、42…ロボットアーム、421…アーム、422…アーム、423…アーム、424…アーム、425…アーム、426…アーム、43…作業ツール、431…インクジェットヘッド、5…制御装置、51…印刷データ記憶部、52…形状データ記憶部、53…姿勢検出部、54…印刷データ補正部、55…ロボット制御部、G…重心、J1…関節、J2…関節、J3…関節、J4…関節、J5…関節、J6…関節、S1…検出ステップ、S11…ステップ、S12…ステップ、S13…ステップ、S14…ステップ、S15…ステップ、S16…ステップ、S17…ステップ、S18…ステップ、S2…作業ステップ、S21…ステップ、S22…ステップ、S23…ステップ、S24…ステップ、S25…ステップ、W…対象物 1...Robot system, 2...Center of gravity position detection device, 20...Placement surface, 21...Force sensor, 22...Piezoelectric device, 24...Placement base, 25...Pressure sensor, 26...Load cell, 3...Camera, 4...Robot, 41...Base, 42...Robot arm, 421...Arm, 422...Arm, 423...Arm, 424...Arm, 425...Arm, 426...Arm, 43...Work tool, 431...Inkjet head, 5...Control device, 51...Print data storage unit, 52...Shape data storage unit, 53...Posture momentum detection unit, 54...print data correction unit, 55...robot control unit, G...center of gravity, J1...joint, J2...joint, J3...joint, J4...joint, J5...joint, J6...joint, S1...detection step, S11...step, S12...step, S13...step, S14...step, S15...step, S16...step, S17...step, S18...step, S2...work step, S21...step, S22...step, S23...step, S24...step, S25...step, W...object
Claims (9)
前記対象物の画像データおよび重心データを用いて前記対象物の姿勢を検出する検出ステップと、
前記検出ステップで検出した前記対象物の姿勢に基づいて前記ロボットの駆動を制御し、前記対象物に対して前記作業を行う作業ステップと、を含むことを特徴とするロボットの制御方法。 A method for controlling a robot equipped with a work tool that performs work on an object, comprising the steps of:
a detection step of detecting a posture of the object using image data and center of gravity data of the object;
a task step of controlling the drive of the robot based on the posture of the object detected in the detection step, and performing the task on the object.
前記作業は、前記対象物への印刷作業である請求項1に記載のロボットの制御方法。 the working tool is an inkjet head,
The robot control method according to claim 1 , wherein the task is a printing task on the object.
検出ステップでは、前記形状データと前記重心データとの比較結果および前記形状データと前記画像データとの比較結果に基づいて前記対象物の姿勢を検出する請求項1または2に記載のロボットの制御方法。 shape data having information about the shape and center of gravity of the object;
3. The robot control method according to claim 1, wherein in the detection step, a posture of the object is detected based on a comparison result between the shape data and the center of gravity data and a comparison result between the shape data and the image data.
前記対象物を撮像する撮像装置と、
前記対象物が載置され、前記対象物の重心位置を検出する重心位置検出装置と、
前記撮像装置で取得した前記対象物の画像データと前記重心位置検出装置で検出した前記対象物の重心位置とに基づいて前記対象物の姿勢を検出し、検出結果に基づいて前記ロボットの駆動を制御する制御装置と、を有することを特徴とするロボットシステム。 A robot having a work tool for performing work on an object;
an imaging device for imaging the object;
a center-of-gravity position detection device on which the object is placed and which detects the center-of-gravity position of the object;
a control device that detects the posture of the object based on image data of the object acquired by the imaging device and the center of gravity position of the object detected by the center of gravity position detection device, and controls the drive of the robot based on the detection result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023002166A JP2024098591A (en) | 2023-01-11 | 2023-01-11 | Robot control method and robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023002166A JP2024098591A (en) | 2023-01-11 | 2023-01-11 | Robot control method and robot system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024098591A true JP2024098591A (en) | 2024-07-24 |
Family
ID=91957581
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023002166A Pending JP2024098591A (en) | 2023-01-11 | 2023-01-11 | Robot control method and robot system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024098591A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12291365B2 (en) | 2018-06-21 | 2025-05-06 | Packsize, Llc | Packaging machine and systems |
-
2023
- 2023-01-11 JP JP2023002166A patent/JP2024098591A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12291365B2 (en) | 2018-06-21 | 2025-05-06 | Packsize, Llc | Packaging machine and systems |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7237483B2 (en) | Robot system control method, control program, recording medium, control device, robot system, article manufacturing method | |
| JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
| JP6180087B2 (en) | Information processing apparatus and information processing method | |
| JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
| JP6860843B2 (en) | Robot system, robot control device, and robot control method | |
| CN113015604B (en) | Robot control system and robot control method | |
| JP7062911B2 (en) | Robot system | |
| CN112297004B (en) | Control device for a robot device for controlling the position of a robot | |
| JP4794011B2 (en) | Image processing apparatus and robot control system | |
| JP4289619B2 (en) | Tool position correction method for articulated robots | |
| JP2019063954A (en) | Robot system, calibration method and calibration program | |
| US20200001454A1 (en) | Motion teaching apparatus, robot system, and motion teaching method | |
| JP2024098591A (en) | Robot control method and robot system | |
| JP2009125839A (en) | Weld teaching position correction system | |
| JP6807450B2 (en) | Articulated robot parallelism determination method and articulated robot tilt adjustment device | |
| JP2021024075A (en) | Control device of robot device for controlling position of robot | |
| WO2022195944A1 (en) | Robot system, and control method for robot system | |
| JP4212783B2 (en) | Robot coordinate calibration system | |
| JPH1011146A (en) | Stopping posture correction device for moving objects | |
| JP6965422B2 (en) | Camera parallelism judgment method | |
| CN113905859B (en) | Robot control system and robot control method | |
| JPH05108131A (en) | Teaching device of robot | |
| WO2019123517A1 (en) | Work device and method for controlling same | |
| JPH05204423A (en) | Coordinate correcting method for robot device provided with visual device | |
| JP2021094623A (en) | Robot control device, observation system, robot system, and robot control method |