[go: up one dir, main page]

JP2012030320A - Work system, working robot controller, and work program - Google Patents

Work system, working robot controller, and work program Download PDF

Info

Publication number
JP2012030320A
JP2012030320A JP2010171866A JP2010171866A JP2012030320A JP 2012030320 A JP2012030320 A JP 2012030320A JP 2010171866 A JP2010171866 A JP 2010171866A JP 2010171866 A JP2010171866 A JP 2010171866A JP 2012030320 A JP2012030320 A JP 2012030320A
Authority
JP
Japan
Prior art keywords
work
tray
imaging
trays
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2010171866A
Other languages
Japanese (ja)
Inventor
Koji Sakurai
浩司 櫻井
Hiroyuki Onishi
浩之 大西
Shigeo Murakami
繁男 村上
Yasushi Sasa
泰志 佐々
Yuji Okita
有史 沖田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2010171866A priority Critical patent/JP2012030320A/en
Publication of JP2012030320A publication Critical patent/JP2012030320A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a work system that efficiently recognizes components for work even if a position or the like of the component on each tray is changed.SOLUTION: The work system recognizes a plurality of trays 4 movably disposed, on an image with low spatial resolution in a wide field of view, and thereafter carries out image processing with high spatial resolution in a narrow field of view, thereby identifying the components 3 mounted on the trays 4 and recognizing arrangement of the trays 4. During the tray recognition step, there is no need to process a large amount of images due to the low spatial resolution, and during the component recognition step, the large amount of image processing is not required due to the narrow field of view. Therefore, three-dimensional positions and postures of the components 3 to be mounted on the trays 4 can be efficiently recognized. The two-step image recognition enables a work robot 2 to efficiently perform work.

Description

本発明は作業システム、作業ロボット制御装置および作業プログラムに関し、特に複数のトレイに載置された部品を用いて作業動作する作業ロボット、およびその制御に関する。   The present invention relates to a work system, a work robot control device, and a work program, and more particularly, to a work robot that performs a work operation using parts placed on a plurality of trays, and control thereof.

作業ロボットを用いて製品を生産するシステム(例えばライン生産やセル生産等。以降、作業システム)では、作業ロボットに対し適切に作業指示を与え、作業ロボットは当該作業指示に従って製品の生産を行う。   In a system for producing a product using a work robot (for example, line production, cell production, etc., hereinafter a work system), a work instruction is appropriately given to the work robot, and the work robot produces a product according to the work instruction.

例えば特許文献1では、作業対象物の物体モデルと、それら作業対象物に対応する作業モデルとを予め記憶しておき、ロボットが画像認識した作業対象物を記憶した物体モデルと照合し、対応する作業モデルを選択してロボットに作業させている。   For example, in Patent Document 1, object models of work objects and work models corresponding to the work objects are stored in advance and collated with an object model that stores work objects recognized by the robot. A work model is selected and the robot is made to work.

また、特許文献2では、作業対象物の認識に際し、予めマークを撮像し、作業対象物の3次元位置を修正および調整している。このようにして、作業対象物の3次元位置を把握しながら作業を行っている。   Moreover, in patent document 2, when recognizing a work target, a mark is imaged in advance, and the three-dimensional position of the work target is corrected and adjusted. In this way, the work is performed while grasping the three-dimensional position of the work object.

また、特許文献3のように、作業対象物の認識に際し、ランダムに積まれた作業対象物を一つずつ取り出して作業エリアに置き、その3次元位置・姿勢を認識することで画像解析を簡易にしているものもある。また、特許文献4のように、複数の作業ロボットにより作業を行う際に、作業信頼度に応じて作業ロボット間の作業計画を変更し、作業の効率化を図るものもある。   In addition, as in Patent Document 3, when recognizing a work object, each of the randomly stacked work objects is taken out one by one and placed in the work area, and its three-dimensional position / orientation is recognized to simplify image analysis. Some of them are Also, as disclosed in Patent Document 4, when a work is performed by a plurality of work robots, there is a technique in which a work plan between the work robots is changed in accordance with work reliability to improve work efficiency.

特開2008−68348号公報JP 2008-68348 A 特開2010−64198号公報JP 2010-64198 A 特開平9−239682号公報JP-A-9-239682 特開平10−44074号公報Japanese Patent Laid-Open No. 10-44074

作業システムにおける作業ロボットの動作には、例えばシステムが置かれた工場内の環境や生産される個別の製品に合わせて、作業対象の3次元位置等が適切に教示される必要があり、それに応じて動作が適切に制御される必要がある。   For the operation of the work robot in the work system, for example, the three-dimensional position of the work target needs to be appropriately taught in accordance with the environment in the factory where the system is placed and the individual products to be produced. Therefore, the operation needs to be controlled appropriately.

一方、製品の生産のために必要な部品の供給は、その部品が予め定められた3次元位置に配置され、その部品を載置する容器であるトレイ等も既定の配置位置に設置されて行われることが前提となり、部品の3次元位置・姿勢に関して作業ロボットに予め教示されていることで、作業ロボットは部品を把持し、それらを組み合わせること等の動作ができる。   On the other hand, supply of parts necessary for product production is performed by placing the parts in a predetermined three-dimensional position and placing a tray or the like on which the parts are placed at a predetermined position. Since the work robot is previously taught about the three-dimensional position and orientation of the parts, the work robot can perform operations such as gripping the parts and combining them.

供給された部品を組み合わせた後も、組み合わせて作成された中間組立品の置き場所等を予め作業ロボットに教示しておくことで、さらに部品を組み合わせて製品を生産できる。   Even after the supplied parts are combined, it is possible to produce a product by further combining the parts by previously teaching the work robot where to place the intermediate assembly created by the combination.

このような作業システムでは、部品、それらを組み合わせた中間組立品の3次元位置・姿勢等が一定であることが必要とされており、例えば、工程中にそれらの3次元位置・姿勢等の変化が許容範囲を超えると作業対象物を把握できなくなり、システム全体が一時停止し人の手により復旧作業をしなければならない等の問題があった。部品を載置するトレイ等も、作業ロボットが認識できるように予め決められた配置位置への正確な位置決めが必要とされており、部品の補充等によりトレイ等の3次元位置・姿勢が変化した場合には、その度に正確な位置決めをしなおし、作業ロボットのティーチングを行う必要があった。   In such a work system, it is necessary that the three-dimensional position / orientation, etc., of the parts and the intermediate assembly obtained by combining them be constant. When the value exceeds the allowable range, it is impossible to grasp the work target, and there is a problem that the entire system is temporarily stopped and the restoration work must be performed manually. The tray on which the component is placed is also required to be accurately positioned at a predetermined position so that the work robot can recognize it, and the three-dimensional position / posture of the tray has changed due to the supplementation of the component. In some cases, it was necessary to perform accurate positioning each time and teach the work robot.

また、位置決めをせずに部品の3次元位置・姿勢を認識しようとする場合には、作業エリア全体を撮像してその中から部品を発見するとともに、その部品の3次元的な位置(3次元位置)および3次元位置・姿勢を画像処理によって認識することが必要である。それにあたって、認識精度を向上させるために、作業エリア全体にわたって空間的に高い分解能で撮像および画像処理を行うと、認識の完了までに長時間を要するという問題があった。   Further, when trying to recognize the three-dimensional position / orientation of a part without positioning, the entire work area is imaged and the part is found in the image, and the three-dimensional position of the part (three-dimensional) It is necessary to recognize the position) and the three-dimensional position / posture by image processing. In doing so, when imaging and image processing are performed with a spatially high resolution over the entire work area in order to improve recognition accuracy, there is a problem that it takes a long time to complete recognition.

本発明は上記のような問題を解決するためになされたものであり、部品の3次元位置・姿勢が変更されても、効率的にその部品の3次元位置・姿勢を認識し作業動作ができる作業ロボットシステムおよびその関連技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and even if the three-dimensional position / orientation of a part is changed, the operation can be performed by efficiently recognizing the three-dimensional position / orientation of the part. An object is to provide a working robot system and related technology.

請求項1の発明である作業システムは、所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業システムであって、各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部と、前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、3次元位置・姿勢が特定された各トレイ上の各部品に所定の順序でアクセスし、各部品を用いて所定の作業を行う作業ロボットとを備えることを特徴とする。   The work system according to the first aspect of the present invention is a work system in which a part to be worked is taken out from a plurality of trays movably arranged in a predetermined work area, and a predetermined work is performed using the part. A plurality of trays present in the work area are collectively collected with a relatively wide field of view, corresponding storage means for storing tray correspondence data indicating the correspondence between each tray and the type of each component placed on the tray. Based on the imaging result of the first imaging mode in the first imaging mode by the imaging unit, and the imaging unit having the first imaging mode for imaging the second tray and the second imaging mode for individually imaging the plurality of trays with a relatively narrow field of view. First recognition means for performing first image processing with a relatively low spatial resolution, identifying each tray and specifying its arrangement position, and imaging by the imaging unit according to the specified arrangement position of each tray Direction And changing the types of components on each tray based on the tray correspondence data, and imaging control means for causing the imaging unit to image the components placed on the tray for each tray in the second imaging mode. On the other hand, the second image processing with a relatively high spatial resolution is performed based on the imaging result of each component in the second imaging mode, so that the second three-dimensional position / posture of each component on each tray is recognized. It comprises a recognition means, and a work robot that accesses each part on each tray for which the three-dimensional position / orientation is specified in a predetermined order and performs a predetermined work using each part.

請求項2の発明は、請求項1に記載の作業システムであって、前記所定の作業に実行中に割り込みを行って前記所定の作業を中断させ、各トレイ上の各部品の3次元位置・姿勢の認識を再度実行させてから前記所定の作業を再開する割り込み制御手段をさらに備えることを特徴とする。   The invention according to claim 2 is the work system according to claim 1, wherein the predetermined work is interrupted during execution to interrupt the predetermined work, and the three-dimensional position of each part on each tray It is further characterized by further comprising an interrupt control means for restarting the predetermined work after the posture recognition is executed again.

請求項3の発明は、請求項1または2に記載の作業システムであって、前記撮像部は、前記作業ロボットに付設されていることを特徴とする。   A third aspect of the present invention is the work system according to the first or second aspect, wherein the imaging unit is attached to the work robot.

請求項4の発明は、請求項1〜3のいずれかに記載の作業システムであって、前記撮像部は、前記第1撮像モードでの撮像を行う第1撮像部と、撮像位置および撮像方向が可変であって、前記第2撮像モードでの撮像を行う第2撮像部と備えることを特徴とする。   Invention of Claim 4 is a work system in any one of Claims 1-3, Comprising: The said imaging part, the 1st imaging part which images in the said 1st imaging mode, an imaging position, and an imaging direction Is variable and includes a second imaging unit that performs imaging in the second imaging mode.

請求項5の発明は、請求項4に記載の作業システムであって、前記作業ロボットは、前記部品を保持するハンド部がその一端に連結された可動の腕部を備え、前記第2撮像部は、前記腕部に付設されることを特徴とする。   According to a fifth aspect of the present invention, in the work system according to the fourth aspect, the work robot includes a movable arm portion connected to one end of the hand portion that holds the component, and the second imaging unit. Is attached to the arm portion.

請求項6の発明は、請求項1〜5のいずれかに記載の作業システムであって、前記対応記憶手段は、前記部品ごとに予め設定された作業内容を指示する、作業データをさらに記憶し、前記作業ロボットは、特定された前記部品および前記作業データに基づいて、当該部品についての作業を実行することを特徴とする。   A sixth aspect of the present invention is the work system according to any one of the first to fifth aspects, wherein the correspondence storage unit further stores work data for instructing work contents preset for each of the parts. The work robot performs work on the part based on the specified part and the work data.

請求項7の発明は、請求項1〜6のいずれかに記載の作業システムであって、前記対応記憶手段は、前記部品ごとの3次元形状を示す、部品形状データをさらに記憶し、前記第2認識手段は、特定した前記部品および前記部品形状データに基づいて、当該部品の3次元位置・姿勢を認識することを特徴とする。   The invention according to claim 7 is the work system according to any one of claims 1 to 6, wherein the correspondence storage means further stores part shape data indicating a three-dimensional shape for each part, and The two recognizing means recognizes the three-dimensional position / posture of the part based on the specified part and the part shape data.

請求項8の発明は、請求項1〜7のいずれかに記載の作業システムであって、前記対応記憶手段は、前記トレイごとの3次元形状を示す、トレイ形状データをさらに記憶し、前記第1認識手段は、前記第1撮像モードで撮像した前記トレイの画像および前記トレイ形状データに基づいて、当該トレイの配置位置を認識することを特徴とする。   The invention according to claim 8 is the work system according to any one of claims 1 to 7, wherein the correspondence storage means further stores tray shape data indicating a three-dimensional shape for each tray, and 1 recognition means recognizes the arrangement position of the tray based on the tray image and the tray shape data imaged in the first imaging mode.

請求項9の発明は、請求項1〜8のいずれかに記載の作業システムであって、前記複数のトレイのうち少なくとも一部のトレイは、複数種の部品を載置可能であることを特徴とする。   A ninth aspect of the present invention is the work system according to any one of the first to eighth aspects, wherein at least some of the plurality of trays can mount a plurality of types of components. And

また、請求項10の発明である作業ロボット制御装置は、所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業ロボット制御装置であって、前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部が前記作業ロボットに付随しており、前記制御装置が、各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、3次元位置・姿勢が特定された各トレイ上の部品を取り出して所定の作業を行う動作指令を作業ロボットに与える動作指令手段とを備えることを特徴とする。   The work robot control device according to claim 10 is a work for taking out a part to be worked from a plurality of trays movably arranged in a predetermined work area and performing a predetermined work using the parts. A robot control apparatus, wherein the plurality of trays existing in the work area are collectively imaged with a relatively wide field of view, and the plurality of trays are individually imaged with a relatively narrow field of view. An image pickup unit having a second image pickup mode is attached to the work robot, and the control device stores tray correspondence data indicating a correspondence relationship between each tray and the type of each component placed on the tray. A first image processing is performed to identify each tray and to specify its arrangement position based on the storage means and the first image processing with a relatively low spatial resolution based on the imaging result in the first imaging mode by the imaging unit. The imaging unit causes the imaging unit to capture an image of the component placed on the tray for each tray in the second imaging mode while changing the imaging direction of the imaging unit according to the identification unit and the specified arrangement position of each tray. The second image processing with a relatively high spatial resolution is performed based on the imaging result of each component in the second imaging mode while limiting the types of components on each tray based on the control means and the tray correspondence data. Second recognition means for recognizing the three-dimensional position / orientation of each component on each tray, and an operation command for taking out a component on each tray with the specified three-dimensional position / orientation and performing a predetermined operation. It is provided with the operation command means given to a work robot.

また、請求項11の発明は、請求項10の発明に対応するプログラム発明である。   The invention of claim 11 is a program invention corresponding to the invention of claim 10.

請求項1〜11の発明によれば、複数のトレイの識別およびその配置位置を認識し、さらにトレイとトレイに載置される部品との対応関係を参照することにより、複数のトレイが移動し載置される部品の3次元位置・姿勢が変化する場合であっても、認識したトレイの配置位置に基づいて載置された部品を効率的に把握することで、部品の3次元位置・姿勢を認識し、作業ロボットにより部品を用いた作業動作を行うことができる。   According to the first to eleventh aspects of the present invention, the plurality of trays can be moved by recognizing the identification of the plurality of trays and their arrangement positions and referring to the correspondence between the tray and the components placed on the tray. Even when the three-dimensional position / posture of the mounted component changes, the component's three-dimensional position / posture can be efficiently grasped based on the recognized tray placement position. Can be recognized, and the work operation using the parts can be performed by the work robot.

そして、トレイを集合的に撮像して各トレイの認識を行う第1画像処理では広視野かつ低空間分解能とされ、トレイを個別的に撮像してその中の部品の認識を行う第2画像処理では狭視野かつ高空間分解能としているため、過剰なデータ処理が不要となる。広視野かつ高空間分解能で1段階画像処理を行う場合と比較して、この発明の2段階処理ではデータ量が少なくなるために処理時間が短縮され、効率が高い。   In the first image processing in which the trays are collectively imaged to recognize each tray, the second image processing has a wide field of view and low spatial resolution, and the trays are individually imaged to recognize the components therein. However, since it has a narrow field of view and high spatial resolution, excessive data processing becomes unnecessary. Compared with the case where one-step image processing is performed with a wide field of view and high spatial resolution, the two-step processing of the present invention reduces the amount of data and thus reduces the processing time and increases the efficiency.

特に請求項2の発明によれば、トレイまたはトレイ上の部品の状況が変化したときに割り込み処理によって部品の位置の再認識を行うため、トレイや部品の搬入・搬出のほか、不慮の位置ずれなどが生じたときにも、古い位置データを使用して誤った作業を続行することを防止することが可能となる。   In particular, according to the invention of claim 2, since the position of the component is re-recognized by the interruption process when the status of the tray or the component on the tray changes, in addition to the loading and unloading of the tray and the component, an unexpected misalignment In such a case, it is possible to prevent the erroneous operation from being continued using the old position data.

特に請求項4、5の発明によれば、トレイを撮像する第1撮像部と部品を撮像する第2撮像部とを備え、第2撮像部は作業ロボットの腕部に備えられることにより、撮像対象の役割分担ができ、また第2撮像部は腕部の動作に従って移動することができるので、部品を効率的に撮像できる。   In particular, according to the fourth and fifth aspects of the present invention, the first imaging unit for imaging the tray and the second imaging unit for imaging the component are provided, and the second imaging unit is provided on the arm portion of the work robot, thereby imaging. Since the roles of the objects can be shared, and the second imaging unit can move according to the operation of the arm, it is possible to efficiently image the parts.

特に請求項9の発明によれば、1つのトレイに複数種の部品を載置することにより、例えば工程段階ごとに部品をトレイに割り当て、工程の進行状況が視覚的に確認することが可能となるので、部品の補充等のタイミングの調整等に適している。   In particular, according to the invention of claim 9, by placing a plurality of types of parts on one tray, for example, it is possible to assign parts to the tray for each process step and visually check the progress of the process. Therefore, it is suitable for adjustment of timing such as replenishment of parts.

第1実施形態にかかる作業ロボットを備える作業システムを示す概念的な平面図である。It is a notional top view showing a work system provided with a work robot concerning a 1st embodiment. 第1実施形態にかかる作業ロボットの第1の具体例を示す図である。It is a figure which shows the 1st specific example of the working robot concerning 1st Embodiment. 第1実施形態にかかる作業ロボットの第2の具体例を示す図である。It is a figure which shows the 2nd specific example of the working robot concerning 1st Embodiment. 第1実施形態にかかる作業システムの機能ブロック図である。It is a functional block diagram of the work system concerning a 1st embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. 第1実施形態にかかる作業システムの動作を示す図である。It is a figure which shows operation | movement of the work system concerning 1st Embodiment. トレイ識別データTIとトレイ対応データTCとの例を示す図である。It is a figure which shows the example of tray identification data TI and tray corresponding | compatible data TC. トレイの識別マーカの例を示す図である。It is a figure which shows the example of the identification marker of a tray. 第1実施形態の基本動作を示すフローチャートである。It is a flowchart which shows the basic operation | movement of 1st Embodiment. 第1実施形態の割り込み動作を示すフローチャートである。It is a flowchart which shows the interruption operation | movement of 1st Embodiment.

<A.システム構成>
図1は、本発明の第1実施形態にかかる作業システムWSの構成を概念的に示す平面図である。図1に示すように作業システムWSは、作業エリア1内に、移動可能に分布して水平配置された複数のトレイ4と、作業エリア1内において作業動作を行う作業ロボット2とを備える。また複数のトレイ4には、部品組み立ての作業動作に用いられる複数の部品3が所定の規則で各トレイ4に振り分けて載置されている。
<A. System configuration>
FIG. 1 is a plan view conceptually showing the configuration of the work system WS according to the first embodiment of the present invention. As shown in FIG. 1, the work system WS includes a plurality of trays 4 that are movably distributed and horizontally arranged in the work area 1, and a work robot 2 that performs work operations in the work area 1. In addition, a plurality of parts 3 used for part assembly work operations are distributed and placed on the respective trays 4 according to a predetermined rule.

複数のトレイ4は、たとえば、後述する図2にも示されているように、部品3が載置される天板部分が複数の脚部によって支持されるとともに、トレイ4が床面上を移動可能となるように各脚部の下端に車輪等を備えたものであってもよい。後述するように、各トレイ4上とその上に載置される部品3との対応関係はあらかじめ定められているが、各トレイ4上における各部品3の位置や姿勢については任意である。すなわち、いわゆる「ばら状態」で部品3がトレイ4上に載置されるものであり、部品3をトレイ4上に高精度で位置決めされる必要はない。また、複数のトレイ4の配置も図1の場合に限られず、様々な配置のバリエーションが可能である。さらに、トレイ4に載置された部品3は、作業ロボット2による作業動作の進行によって適宜に外部から補充等が可能である。   For example, as shown in FIG. 2 described later, the plurality of trays 4 are supported by a plurality of legs on the top plate portion on which the component 3 is placed, and the trays 4 move on the floor surface. A wheel or the like may be provided at the lower end of each leg so as to be possible. As will be described later, the correspondence between each tray 4 and the component 3 placed thereon is determined in advance, but the position and orientation of each component 3 on each tray 4 are arbitrary. That is, the component 3 is placed on the tray 4 in a so-called “separated state”, and it is not necessary to position the component 3 on the tray 4 with high accuracy. Further, the arrangement of the plurality of trays 4 is not limited to the case of FIG. 1, and various arrangement variations are possible. Furthermore, the component 3 placed on the tray 4 can be appropriately replenished from the outside as the work robot 2 performs the work operation.

図1では、それぞれのトレイ4に載置される部品3は単一種となっているが、数種の部品がひとつのトレイ4に混在している場合があってもよい。また、トレイの総数も固定ではなく、作業内容に応じて可変である。   In FIG. 1, the components 3 placed on each tray 4 are a single type, but several types of components may be mixed in one tray 4. Further, the total number of trays is not fixed, but can be changed according to the work contents.

作業ロボット2は、トレイ4に載置されている部品3を用いて作業動作する。例えば複数の部品3をそれぞれトレイ4から取り出し、互いを組み合わせて製品またはその中間組立品を生成し、生成した組立体を作業エリア1内の所定の場所に載置する。載置する場所は専用の場所であってもよく、空のトレイ4や、その時点で載置されている部品3が少ないトレイの空き部分であってもよい。   The work robot 2 operates using the component 3 placed on the tray 4. For example, a plurality of parts 3 are respectively taken out from the tray 4 and combined with each other to generate a product or an intermediate assembly thereof, and the generated assembly is placed at a predetermined location in the work area 1. The place to be placed may be a dedicated place, or may be an empty tray 4 or an empty part of a tray with few parts 3 placed at that time.

図1においては、作業ロボット2が組み立て作業を行う組み立てエリア11として所定のテーブルが備えられている。この組み立てエリア11は、たとえば第1部品をその上に載置して作業ロボット2の一方のハンド部H(図2、図3参照)で把持して固定し、他方のハンド部Hで第2部品を第1部品に組み付けるような用途として使用される。第1部品を載置せずに作業ロボット2の両ハンド部H上(つまり空中)での組み立てが可能な作業の場合には、当該組み立てエリア11は特に備えられていなくともよい。また、組み立てエリア11が備えられない場合には、後述する全体認識作業によって作業エリア1内において空いているスペースを見出し、そこで作業動作をするようにしてもよい。   In FIG. 1, a predetermined table is provided as an assembly area 11 in which the work robot 2 performs assembly work. In this assembly area 11, for example, the first part is placed thereon, and is gripped and fixed by one hand portion H (see FIGS. 2 and 3) of the work robot 2, and the second hand portion H is the second portion. It is used as an application for assembling a part to a first part. In the case of work that can be assembled on both hands H (that is, in the air) of the work robot 2 without placing the first part, the assembly area 11 may not be particularly provided. If the assembly area 11 is not provided, an empty space in the work area 1 may be found by the overall recognition work described later, and the work operation may be performed there.

組み立てエリア11としてテーブル等を用いる場合には、組み立て作業がしやすいように、組み立てエリア11にて部品3の姿勢を適宜変更することも可能である。   When a table or the like is used as the assembly area 11, the posture of the component 3 can be changed as appropriate in the assembly area 11 so that the assembly work can be easily performed.

図2は、本発明の第1実施形態にかかる作業ロボット2を示す図である。図1においては当該作業ロボット2を上面から見ていることになる。   FIG. 2 is a diagram showing the work robot 2 according to the first embodiment of the present invention. In FIG. 1, the work robot 2 is viewed from above.

図2に示すように作業ロボット2は、撮像部として全体カメラ5とステレオカメラ6(6A、6B)とを備えており、これら全体カメラ5、ステレオカメラ6はデジタルカメラであって、画素ごとの画像情報をデジタル信号列として出力する。   As shown in FIG. 2, the work robot 2 includes a whole camera 5 and a stereo camera 6 (6A, 6B) as an imaging unit. The whole camera 5 and the stereo camera 6 are digital cameras, and each pixel is a pixel. Image information is output as a digital signal sequence.

図2においては例として、全体カメラ5は作業ロボット2の頭部に付設され、ステレオカメラ6(6A、6B)は作業ロボット2の2つの腕部7(7A、7B)にそれぞれ付設されている。全体カメラ5が付設されたロボット頭部は首部を介して作業ロボット2の筐体(基台)と可動に連結されており、首部の水平旋回と鉛直方向への伸縮とによって、全体カメラ5の視野方向(撮像方向)を変化させることができる。ステレオカメラ6の付設位置は、作業ロボット2の腕部7に限られるものではなく、ハンド部Hに付設してもよい。ステレオカメラ6がハンド部Hの指の構造に対して十分小さい場合は、ハンド部Hの指に付設してもよい。ハンド部Hに付設する場合、ハンド部Hに例えば人間の手の甲に相当する部位があれば、その部位に付設すればよい。このようにすることで、ステレオカメラ6をより撮像対象物に近接させることができるという効果がある。   As an example in FIG. 2, the whole camera 5 is attached to the head of the work robot 2, and the stereo camera 6 (6 </ b> A, 6 </ b> B) is attached to each of the two arms 7 (7 </ b> A, 7 </ b> B) of the work robot 2. . The robot head to which the whole camera 5 is attached is movably connected to the casing (base) of the work robot 2 via the neck, and the whole camera 5 has a horizontal rotation and vertical expansion and contraction. The viewing direction (imaging direction) can be changed. The attachment position of the stereo camera 6 is not limited to the arm portion 7 of the work robot 2 and may be attached to the hand portion H. When the stereo camera 6 is sufficiently small with respect to the finger structure of the hand unit H, it may be attached to the finger of the hand unit H. When attaching to the hand part H, if the hand part H has a part corresponding to, for example, the back of a human hand, it may be attached to that part. By doing in this way, there exists an effect that the stereo camera 6 can be brought closer to an imaging target object.

一対のステレオカメラ6A、6Bのそれぞれは撮像位置および視野方向(撮像方向)を個別に変化させることが可能であるが、それは、各ステレオカメラ6A、6Bが固定されている腕部7A、7Bの動きに伴って生じる動きである。各ステレオカメラ6A、6Bからの画像を取得することで、撮影対象物の3次元位置情報を得ることができる。作業エリア1内の任意の部分を撮像可能であれば、ステレオカメラ6は1台でもよい。   Each of the pair of stereo cameras 6A and 6B can individually change the imaging position and the visual field direction (imaging direction), but this is because of the arm portions 7A and 7B to which the stereo cameras 6A and 6B are fixed. It is the movement that occurs with the movement. By acquiring images from the stereo cameras 6A and 6B, it is possible to obtain three-dimensional position information of the object to be imaged. One stereo camera 6 may be used as long as an arbitrary part in the work area 1 can be imaged.

第1撮像部としての全体カメラ5は、広い視野を確保し、作業エリア1内の複数のトレイ4の配置位置を認識するための広視野(広画角)カメラである。第2撮像部としてのステレオカメラ6は、全体カメラ5より視野は狭いが、作業ロボット2に備えられた腕部7の稼働に合わせて移動し、トレイ4に載置された部品3の3次元位置・姿勢を認識するための狭視野(狭画角)カメラである。ここで3次元位置・姿勢とは、対象体の空間位置および空間姿勢の少なくとも一方(典型的には双方)を含む座標値の組として定義されるものである。全体カメラ5の視野がステレオカメラ6の視野よりも広いという条件を、以下では「視野条件」と呼ぶ。   The whole camera 5 as the first imaging unit is a wide field of view (wide field of view) camera for ensuring a wide field of view and recognizing the arrangement positions of the plurality of trays 4 in the work area 1. The stereo camera 6 as the second imaging unit has a narrower field of view than the whole camera 5, but moves in accordance with the operation of the arm unit 7 provided in the work robot 2, and the three-dimensional of the component 3 placed on the tray 4. It is a narrow field of view (narrow field of view) camera for recognizing position and orientation. Here, the three-dimensional position / posture is defined as a set of coordinate values including at least one (typically both) of the spatial position and the spatial posture of the object. The condition that the field of view of the entire camera 5 is wider than the field of view of the stereo camera 6 is hereinafter referred to as “field condition”.

全体カメラ5およびステレオカメラ6のそれぞれの撮像画素数は、同じであってもよく、互いに異なっていてもよい。ただし、全体カメラ5は作業エリア1を比較的広視野で撮像した際の撮像結果(広視野画像)と、ステレオカメラ6によってそれぞれのトレイ4を比較的狭視野で撮像した際の撮像結果(狭視野画像)との間で比較したときには、全体カメラ5の空間分解能よりもステレオカメラ6の空間分解能の方が高くなる(より小さな距離を区別できる)ように、それぞれのカメラでの撮像素子数と光学系とが決定されている。このような「広視野画像の空間分解能を、狭視野画像の空間分解能よりも小さくする」という条件を、以下では「空間分解能条件」と呼ぶが、ここにおける「空間分解能」とは、撮像された画像中の1画素に対応する実空間での距離の大小を示し、「空間分解能が高い」とは、実空間での短い距離が画素配列上で区別可能であるという意味で定義する。   The number of imaging pixels of the entire camera 5 and the stereo camera 6 may be the same or different from each other. However, the whole camera 5 captures an imaging result (wide field image) when the work area 1 is imaged with a relatively wide field of view, and an imaging result (narrow field) when each tray 4 is imaged with a relatively narrow field of view by the stereo camera 6. And the number of image sensors in each camera so that the spatial resolution of the stereo camera 6 is higher (the smaller distance can be distinguished) than the spatial resolution of the entire camera 5. The optical system is determined. Such a condition that “the spatial resolution of the wide-field image is made smaller than the spatial resolution of the narrow-field image” is hereinafter referred to as “spatial resolution condition”. The magnitude of the distance in the real space corresponding to one pixel in the image is shown, and “high spatial resolution” is defined in the sense that a short distance in the real space can be distinguished on the pixel array.

たとえば、撮像された画像での1画素が実空間での3mmに相当する場合と、1画素が実空間での1mmに相当する場合とでは、後者の方が空間分解能が高い。   For example, in the case where one pixel in the captured image corresponds to 3 mm in real space and the case in which one pixel corresponds to 1 mm in real space, the latter has higher spatial resolution.

全体カメラ5およびステレオカメラ6のそれぞれの撮像素子数が同じ場合でも、全体カメラ5は比較的遠距離から対象物を撮像するからその空間分解能は低くなり、ステレオカメラ6は比較的近距離から対象物を撮像するからその空間分解能は高くなるため、空間分解能条件を満たす。カメラのそれぞれの撮像画素数が同じであってもよいのは、そのような理由による。また、全体カメラ5の撮像画素数よりもステレオカメラ6の撮像画素数を多くすれば、撮像対象物の遠近の違いによって、上記のような空間分解能条件は自動的に満たされる。   Even when the number of image pickup devices of the whole camera 5 and the stereo camera 6 is the same, the whole camera 5 picks up an object from a relatively long distance, so the spatial resolution is low, and the stereo camera 6 is a target from a relatively short distance. Since an object is imaged, its spatial resolution is high, so that the spatial resolution condition is satisfied. This is the reason why the number of imaging pixels of each camera may be the same. Further, if the number of imaging pixels of the stereo camera 6 is made larger than the number of imaging pixels of the whole camera 5, the above spatial resolution condition is automatically satisfied due to the difference in perspective of the imaging object.

さらに、全体カメラ5での撮像そのものは画素数が多い撮像素子を用いて行い、後の画像認識の段階で画素間引きなどを行うことによって演算対象となる画素数を制限すれば、実質的に「低い空間分解能」での処理を行ったことと等価となり、画像認識に要する時間も、全体を通して高い空間分解能で処理を行った場合よりも短くなる。したがって、空間分解能条件は、撮像後における対象物の認識の段階で達成されていればよく、必ずしも最初の撮像段階から満足されていなくてもよいことになる。   Furthermore, if the whole camera 5 captures the image itself using an image sensor having a large number of pixels, and if the number of pixels to be calculated is limited by performing pixel thinning or the like at a later stage of image recognition, substantially “ This is equivalent to performing processing at “low spatial resolution”, and the time required for image recognition is shorter than when processing is performed at high spatial resolution throughout. Therefore, the spatial resolution condition only needs to be achieved at the stage of recognition of an object after imaging, and is not necessarily satisfied from the first imaging stage.

全体カメラ5はトレイ4の識別と配置位置の認識に使用され、ステレオカメラ6は各トレイ4内での部品3の3次元位置・姿勢の認識に使用される。   The whole camera 5 is used for identifying the tray 4 and recognizing the arrangement position, and the stereo camera 6 is used for recognizing the three-dimensional position / posture of the component 3 in each tray 4.

このうち、全体カメラ5を用いた画像認識は一度に広い範囲を撮像することが必要であるから「広視野」とされるが、トレイサイズでの認識ができれば十分であるために低い空間分解能とされる。   Among these, image recognition using the whole camera 5 is considered to be “wide field of view” because it is necessary to capture a wide range at a time, but it is sufficient if recognition at the tray size is possible, so low spatial resolution and Is done.

他方、ステレオカメラ6を用いた画像認識は各トレイ4内での部品3の認識を行うためには高い空間分解能で行う必要はあるが、各時点ではひとつのトレイ4が視野(画角)内に入れば十分であるため、狭視野にとどめる。   On the other hand, image recognition using the stereo camera 6 needs to be performed with a high spatial resolution in order to recognize the component 3 in each tray 4, but one tray 4 is within the field of view (view angle) at each time point. Since it is enough to enter, keep a narrow field of view.

このように、全体カメラ5とステレオカメラ6とでそれぞれの役割を分担させることにより、画像認識全体に要する全体時間を削減し、作業効率を向上させることができる。   Thus, by sharing the respective roles between the entire camera 5 and the stereo camera 6, it is possible to reduce the overall time required for the entire image recognition and improve the work efficiency.

比較例として、広視野かつ高空間分解能の1つのステレオカメラを用いて、作業エリア1の全体を一括して撮像し、その撮像結果を用いてトレイ4の認識だけでなく各トレイ4内の部品3の認識までも行う場合を考える。この場合には、作業エリア1のうちトレイ4が配置されていないスペースまでも高い空間分解能で撮像して画像処理を行うことになるため、それぞれの演算量は大きくなり、処理時間も長時間となる。これに対して本実施形態のシステムWSでは、細かな画像処理を必要としないエリアについては画像処理を簡素化しているため、画像認識の精度を落とすことなく、演算量や処理時間を削減可能である。   As a comparative example, using a single stereo camera with a wide field of view and high spatial resolution, the entire work area 1 is imaged all at once, and not only the tray 4 is recognized but also the components in each tray 4 using the imaging result. Consider the case where even 3 recognition is performed. In this case, even the space where the tray 4 is not arranged in the work area 1 is imaged with high spatial resolution and image processing is performed, so that the amount of each calculation becomes large and the processing time is also long. Become. On the other hand, in the system WS of the present embodiment, the image processing is simplified for areas that do not require fine image processing, so that the amount of calculation and processing time can be reduced without reducing the accuracy of image recognition. is there.

もっとも、これら2つの段階の撮像および画像認識の機能を、作業ロボット2のいずれかの部分に備えられた1つのカメラ(図示せず)で賄うことも可能である。すなわち、全体カメラ5での撮像結果の解析結果によって特定された各トレイ4の方向にステレオカメラ6の撮影方向を順次に変化させて各トレイ4上の部品の画像認識を行うから、このプロセス中には、全体カメラ5とステレオカメラ6とで同時に撮像を行うことを必要としない。したがって、1台の多焦点カメラないしはズームカメラを用いて、全体撮像の段階では広視野撮像を行い、各トレイ4の個別撮像の段階では狭視野撮影を行えば、実質的に全体カメラ5とステレオカメラ6とを用いて、視野条件と空間分解能条件との双方を満足させることができる。ただし、その場合には、ステレオカメラ6の機能で視野を移動させること必要となることに対応して、当該1台の共用カメラは、その撮像方向が変更できるように、それ自身に可動機構を設けるか、あるいは図2と同様に作業ロボットの可動部分に付設しておく。   However, it is also possible to provide these two-stage imaging and image recognition functions with a single camera (not shown) provided in any part of the work robot 2. That is, the image recognition of the components on each tray 4 is performed by sequentially changing the shooting direction of the stereo camera 6 in the direction of each tray 4 specified by the analysis result of the imaging result of the entire camera 5. Therefore, it is not necessary to simultaneously capture images with the whole camera 5 and the stereo camera 6. Therefore, if one multifocal camera or zoom camera is used to perform wide-field imaging at the whole imaging stage and narrow-field imaging at the individual imaging stage of each tray 4, substantially the whole camera 5 and the stereo camera can be used. The camera 6 can be used to satisfy both the viewing condition and the spatial resolution condition. However, in that case, in response to the need to move the field of view with the function of the stereo camera 6, the single shared camera has a movable mechanism in itself so that the imaging direction can be changed. It is provided or attached to the movable part of the work robot as in FIG.

また、図2において腕部7(7A、7B)は双腕であり、左右の腕部7A、7Bを連動させて部品3を組み合わせる作業ロボット2を示しているが、一方の部品3を固定する等の冶具を準備することにより、片腕の腕部で動作する作業ロボットであってもよい。また、腕部が2本を超える本数であってもよいし、その形状も図に示すものに限られない。   In FIG. 2, the arm portion 7 (7A, 7B) is a double arm, and the working robot 2 is shown in which the left and right arm portions 7A, 7B are interlocked to combine the components 3, but one component 3 is fixed. A working robot that operates with the arm portion of one arm by preparing a jig such as the above may be used. The number of arms may be more than two, and the shape is not limited to that shown in the figure.

また図3に示すように、全体カメラ5を作業ロボット20には備えず、作業エリア1全体を撮像できるように作業システムWS内の他の箇所に備えられる場合であってもよい。例えば、作業システムWS上部に設置されたレール上を、当該カメラが移動できるようにしてもよい。図3においては全体カメラ5のみが作業ロボット20から分離しているが、第2撮像部としてのステレオカメラ6がそのように備えられていてもよい。なお、図3においては、図2に示すような組み立てエリアは備えられていないが、備えていてもよい。   Further, as shown in FIG. 3, the whole camera 5 may not be provided in the work robot 20 but may be provided in another place in the work system WS so that the entire work area 1 can be imaged. For example, the camera may be movable on a rail installed on the work system WS. Although only the whole camera 5 is separated from the work robot 20 in FIG. 3, the stereo camera 6 as the second imaging unit may be provided as such. In addition, in FIG. 3, although the assembly area as shown in FIG. 2 is not provided, you may provide.

図4は、本発明の実施形態にかかる作業システムWSの機能ブロック図であり、ハードウエア要素の関係とともに描かれている。   FIG. 4 is a functional block diagram of the work system WS according to the embodiment of the present invention, which is drawn together with the relationship of hardware elements.

図4に示すようにこの作業システムWSは、作業ロボット2と撮像部12とに通信可能に接続された制御コンピュータCOMを備える。撮像部12は第1撮像部(全体カメラ5)および第2撮像部(ステレオカメラ6)の組み合わせに相当する。作業ロボット2はたとえば多関節ロボットであり、図2および図3で例示したように、複数の可動の腕部(アーム)が連設され、その先端にはワーク(作業対象物)を把持し、あるいはワークの組み付けなどの諸作業に適したハンド部Hが設けられる。ハンド部Hはまた、ネジ締めツールなどのエンドエフェクタ(ロボットの作業ツール)を備えていてもよい。   As shown in FIG. 4, the work system WS includes a control computer COM that is communicably connected to the work robot 2 and the imaging unit 12. The imaging unit 12 corresponds to a combination of a first imaging unit (entire camera 5) and a second imaging unit (stereo camera 6). The work robot 2 is, for example, an articulated robot, and as illustrated in FIGS. 2 and 3, a plurality of movable arms (arms) are connected in series, and a workpiece (work object) is held at the tip thereof. Or the hand part H suitable for various operations, such as assembly | attachment of a workpiece | work, is provided. The hand unit H may also include an end effector (robot work tool) such as a screw tightening tool.

制御コンピュータCOMは、CPUおよび記憶装置を備えており、この記憶装置にあらかじめ記憶されてインストールされたプログラムを制御コンピュータCOMが実行することにより、各機能手段としての第1認識手段8A(トレイ認識)、第2認識手段8B(部品認識)、対応記憶手段9、撮像制御手段10、動作指令手段200を制御コンピュータCOMのハ−ドウエア資源とソフトウェアとで実現可能である。   The control computer COM includes a CPU and a storage device. When the control computer COM executes a program stored and installed in advance in the storage device, first control means 8A (tray recognition) as each functional means. The second recognition means 8B (part recognition), the correspondence storage means 9, the imaging control means 10, and the operation command means 200 can be realized by hardware resources and software of the control computer COM.

全体カメラ5は、作業エリア1内に移動可能に配置された複数個のトレイ4を一括して撮像する第1撮像モードで使用される。第1認識手段8Aは、全体カメラ5による第1撮影モードでのその撮像結果に基づいて第1画像処理を行い、各トレイ4の識別とその配置位置の特定とを行う。   The whole camera 5 is used in a first imaging mode in which a plurality of trays 4 that are movably arranged in the work area 1 are collectively imaged. The first recognizing means 8A performs the first image processing based on the imaging result of the entire camera 5 in the first imaging mode, and identifies each tray 4 and specifies its arrangement position.

制御コンピュータCOMの記憶装置には、図13に例示するように、各トレイ4を相互に識別するためのトレイ識別データTIと、各トレイ4とそれに載置される各部品3の種類との対応関係を示すトレイ対応データTCとがあらかじめ記憶されている。ただし、図13の例では、これらは、統合されたひとつのテーブルとして作成されている。   In the storage device of the control computer COM, as illustrated in FIG. 13, the correspondence between the tray identification data TI for mutually identifying each tray 4 and the type of each tray 4 and each component 3 placed on it. Tray correspondence data TC indicating the relationship is stored in advance. However, in the example of FIG. 13, these are created as one integrated table.

これらのうち、トレイ識別データTIは、各トレイ4のトレイ番号とそのトレイの幾何学的な形状データ(トレイ形状データ)とを対応させて登録したデータである。またトレイ対応データTCは、どのトレイ4にどの部品3の種類が載置されるかの対応を示すデータであって、トレイ番号と、そのトレイに載置されることが予定されている各部品の部品番号、およびそれらの部品ごとの幾何学的な形状データ(部品形状データ)が相互に対応させて登録されている。トレイ形状データ、部品形状データは、例えば各点が3次元位置情報を持つ点群データ(モデル点群)である。   Among these, the tray identification data TI is data in which the tray number of each tray 4 is associated with the geometric shape data (tray shape data) of the tray. The tray correspondence data TC is data indicating correspondence between which type of component 3 is placed in which tray 4, and each component scheduled to be placed in that tray. Part numbers and geometric shape data (part shape data) for each part are registered in correspondence with each other. The tray shape data and component shape data are, for example, point cloud data (model point cloud) in which each point has three-dimensional position information.

各トレイ4の形状は同一ではなく、外観的に相互に識別可能な特徴を持たせて形成されている。ただし、ここにおける「形状」とは幾何学的に相似な形状も別形状として扱う。したがって、各トレイ4の特徴点、たとえば撮像されたトレイ4の各頂点を示す点群のそれぞれの位置と、あらかじめ登録されているモデル点群の位置とを比較することにより、トレイ4の識別と位置の特定とが可能である。また、たとえば、図14のように、トレイ4ごとに異なる形状マーカM1、M2、…をトレイ4のフレームFMの頂部に付しておくことにより、それらのマーカM1、M2等の違いによっても各トレイ4の相互識別が可能である。なお、図14に示すトレイ4のフレームFMには、2次元的な配置方向の識別のために、カット部が非対称に形成されている。   The shapes of the trays 4 are not the same, and are formed so as to have features that can be distinguished from each other in appearance. However, a shape that is geometrically similar to the “shape” here is treated as a different shape. Therefore, the identification of the tray 4 can be identified by comparing the position of the feature point of each tray 4, for example, the position of each point group indicating each vertex of the imaged tray 4 with the position of the model point group registered in advance. The position can be specified. Further, for example, as shown in FIG. 14, different shape markers M 1, M 2,... For each tray 4 are attached to the top of the frame FM of the tray 4, so that each of the markers M 1, M 2, etc. The trays 4 can be identified with each other. Note that a cut portion is formed asymmetrically in the frame FM of the tray 4 shown in FIG. 14 for identification of the two-dimensional arrangement direction.

それ以外に、トレイ4ごとに異なる色を付し、あるいはトレイ4ごとに異なるコードのバーコードなどを所定の位置に付すことなどによっても、トレイの相互識別が可能である。図13のテーブルにおけるトレイ形状データは、そのようなトレイの外観的特徴の情報を含むデータである。   In addition, the trays can be distinguished from each other by giving different colors to the trays 4 or attaching barcodes with different codes to the trays 4 at predetermined positions. The tray shape data in the table of FIG. 13 is data including information on the appearance characteristics of such a tray.

このトレイ識別データTIは、第1認識手段8Aの機能の一部をなす。したがって、全体カメラ5によって作業エリア1内の各トレイ4を一括に撮像し、あるいは作業エリア1をいくつかのサブエリアに分けた広視野で撮像して得た情報に基づいて、第1認識手段8Aがトレイ識別データTIを参照することにより、各トレイ4の相互識別と配置位置特定とが可能となる。   This tray identification data TI forms part of the function of the first recognition means 8A. Therefore, the first recognition means is based on information obtained by capturing images of the trays 4 in the work area 1 with the whole camera 5 in a lump or by capturing the work area 1 with a wide field of view divided into several sub-areas. By referring to the tray identification data TI by the 8A, mutual identification and arrangement position specification of each tray 4 can be performed.

撮像制御手段10は、撮像部12および作業ロボット2に制御信号を与えて、第1認識手段8Aが特定した各トレイ4の配置位置に応じてステレオカメラ6による撮像方向を変更しつつ、トレイ4ごとに、当該トレイ4に載置された部品3を第2撮影モードでステレオカメラ6に撮像させるという制御を行う。   The imaging control unit 10 gives control signals to the imaging unit 12 and the work robot 2, and changes the imaging direction by the stereo camera 6 according to the arrangement position of each tray 4 specified by the first recognition unit 8 </ b> A. Every time, the control is performed such that the component 3 placed on the tray 4 is imaged by the stereo camera 6 in the second imaging mode.

第2認識手段8Bは、その時点で撮像しているトレイ4のトレイ番号をキーとしてトレイ対応データTCを検索し、当該トレイ4に対応する部品3の種類(部品番号)やそれらの部品3についての部品形状データを参照する。そして、それに基づいて、撮像しているトレイ4上の各部品3がどの部品であるかという部品の種類の特定を行うとともに、各部品3の3次元位置・姿勢をステレオ法等を利用して特定する。部品3に固有の色を付している場合には、部品形状データにはそのような色情報を含んでいてもよい。   The second recognizing means 8B searches the tray correspondence data TC using the tray number of the tray 4 being imaged at that time as a key, and the type (part number) of the parts 3 corresponding to the tray 4 and the parts 3 thereof. Refer to the part shape data. Based on this, the type of component such as which component 3 on the tray 4 being imaged is specified, and the three-dimensional position / orientation of each component 3 is determined using a stereo method or the like. Identify. In the case where the component 3 has a unique color, the component shape data may include such color information.

トレイ対応データTCの各トレイ4のレコードには、そのトレイ4に載置される予定範囲の部品3だけが列挙されているから、第1認識手段8Aによってトレイ4を識別しておくことにより、ステレオカメラ6で撮像している当該トレイ4上の部品3の種類が限定されることになる。すなわち、たとえば部品3として10種類が存在する場合を考え、第1トレイにはその4種類の部品のうちの1種あるいは複数種が載置されると予定されているときには、トレイ対応データTCの第1トレイのレコードにはその4種類の部品3についてのデータのみ登録されている。したがって、第2認識手段8Bが各部品3の識別を行うに際しては、撮像によって得た画像と、当該4種類の部品3の形状とのマッチングを行えば足りることになり、10種類すべての部品3の形状とのマッチングを行うような比較例の場合よりも、処理速度は向上する。   In the record of each tray 4 of the tray correspondence data TC, only the parts 3 in the planned range to be placed on the tray 4 are listed. Therefore, by identifying the tray 4 by the first recognition unit 8A, The types of the parts 3 on the tray 4 that are captured by the stereo camera 6 are limited. That is, for example, when there are 10 types of parts 3 and one or more of the four types of parts are scheduled to be placed on the first tray, the tray correspondence data TC Only the data for the four types of parts 3 are registered in the record of the first tray. Therefore, when the second recognizing means 8B identifies each component 3, it is sufficient to perform matching between the image obtained by imaging and the shapes of the four types of components 3, and all the ten types of components 3 can be obtained. The processing speed is improved as compared with the comparative example in which matching is performed with the shape.

第2認識手段8Bでのこのような画像処理(第2画像処理)は、第1認識手段8Aでの画像処理(第1画像処理)よりも高い空間分解能で行う。それによって各部品3の識別と3次元位置・姿勢の決定とが高精度で行われるが、上記のようにマッチングすべき部品3の種類がトレイ4ごとに限定されるため、そのような高精度での画像処理を用いつつも、全体としての処理時間の増大を防止可能である。   Such image processing (second image processing) in the second recognition unit 8B is performed with higher spatial resolution than image processing (first image processing) in the first recognition unit 8A. As a result, the identification of each component 3 and the determination of the three-dimensional position / posture are performed with high accuracy. However, since the types of components 3 to be matched are limited to each tray 4 as described above, such high accuracy is achieved. It is possible to prevent an increase in processing time as a whole while using the image processing in FIG.

第2認識手段8Bによって各トレイ4の各部品3の識別と3次元位置・姿勢との特定が完了すると、あらかじめ制御コンピュータCOMの記憶装置に記憶されている作業ルーチンのプログラムに従って、動作指令手段200は作業ロボット2に動作指令を与える。そこでは、作業ロボット2が各トレイ4上の各部品3に所定の順序でアクセスし、各部品3を所要の順序で順次にトレイ4から取り出して部品組み立てなどの所定の作業を行う。そのような動作の際に、第2認識手段8Bが得た各トレイ4の各部品3の配置情報が用いられる。   When the identification of each part 3 of each tray 4 and the identification of the three-dimensional position / orientation are completed by the second recognition means 8B, the operation command means 200 according to the work routine program stored in advance in the storage device of the control computer COM. Gives an operation command to the work robot 2. There, the work robot 2 accesses each part 3 on each tray 4 in a predetermined order, and sequentially removes each part 3 from the tray 4 in a predetermined order to perform a predetermined operation such as part assembly. In such an operation, the arrangement information of each component 3 of each tray 4 obtained by the second recognition unit 8B is used.

この作業ルーチンにおいては、作業データも参照される。作業データは、どの部品3にどのような作業動作が予め設定されているかの対応を示すデータであって、制御コンピュータCOMの対応記憶手段9にあらかじめ記憶されている。1つの部品3に設定できる作業動作は複数あってもよく、その場合には、作業ロボット2がどの作業動作を選択すべきかの選択もできるようになっている。対応づけられる作業動作内容としては、例えば、組み合わせる部品3、作業動作時の姿勢、組み合わせるために搬送する場所、組み合わせにより生成された中間組立品を搬送する場所等がある。   In this work routine, work data is also referred to. The work data is data indicating the correspondence of which work operation is preset for which component 3, and is stored in advance in the correspondence storage means 9 of the control computer COM. There may be a plurality of work operations that can be set for one component 3, and in that case, the work robot 2 can select which work operation to select. The work operation contents associated with each other include, for example, the part 3 to be combined, the posture at the time of the work operation, the place to be transferred for combining, the place to transfer the intermediate assembly generated by the combination, and the like.

いくつかの部品3を組み立てた後の中間組立品をいずれかのトレイ4に一時的に載置する場合にも、第2認識手段8Bの認識結果が利用される。すなわち、第2認識手段8Bがトレイ4中の部品3の3次元位置・姿勢を認識することにより、当該トレイ4上の空スペースがどの位置にあるかという情報も付随的に得ることができる。この空スペース情報をトレイ4ごとに記憶しておき、中間組立品の載置が必要になった段階でその空スペース情報を参照することにより、中間組立品の載置場所として、いずれかのトレイ4の空スペースを利用できる。また部品3が全く載置されていない空トレイを認識してそのトレイ4の位置を記憶させておくことにより、そのような空トレイも中間組立品の載置場所として利用できる。   Even when an intermediate assembly after assembling several parts 3 is temporarily placed on any tray 4, the recognition result of the second recognition means 8B is used. That is, when the second recognizing unit 8B recognizes the three-dimensional position / orientation of the component 3 in the tray 4, information on the position of the empty space on the tray 4 can be obtained incidentally. This empty space information is stored for each tray 4, and when the intermediate assembly is required to be placed, the empty space information is referred to, so that any tray can be used as the intermediate assembly placement location. 4 empty spaces are available. Further, by recognizing an empty tray on which no part 3 is placed and storing the position of the tray 4, such an empty tray can also be used as a place for placing an intermediate assembly.

図4に示す操作入力手段300は、制御コンピュータCOMに付随して設けられており、オペレータによる制御コンピュータCOMへのデータ入力や操作指示入力などに使用される。   The operation input means 300 shown in FIG. 4 is provided in association with the control computer COM, and is used for data input, operation instruction input, and the like by the operator to the control computer COM.

<B.動作>
<B−1.基本動作>
次に、本実施形態にかかる作業システムの動作について説明する。図5〜8は、作業システムの一例の上面図であり、図5〜8に示すように、作業エリア1内に、トレイ40、41、42、43、組み立てエリア11、腕部7(7A、7B)を有する作業ロボット2がそれぞれ配置されている。トレイ40、41、42には、部品30、31、32がそれぞれ載置されている。
<B. Operation>
<B-1. Basic operation>
Next, the operation of the work system according to the present embodiment will be described. 5 to 8 are top views of examples of the work system. As shown in FIGS. 5 to 8, the work area 1 includes trays 40, 41, 42, 43, an assembly area 11, and arm portions 7 (7 </ b> A, The work robots 2 having 7B) are respectively arranged. Components 30, 31, and 32 are placed on the trays 40, 41, and 42, respectively.

図15はこの作業ロボットシステムWSの動作を示すフローチャートであり、このうち第1ルーチンR1は各トレイや部品の配置状況を認識するための準備ルーチンであり、第2ルーチンR2はそのような認識結果に基づいて作業ロボット2に作業させる実可動ルーチンである。   FIG. 15 is a flowchart showing the operation of the work robot system WS. Of these, the first routine R1 is a preparation routine for recognizing the arrangement status of each tray and parts, and the second routine R2 is a result of such recognition. This is an actual movable routine for causing the work robot 2 to work based on the above.

まず第1撮像モードが起動され、図5に示すように、作業ロボット2に付設した全体カメラ5(図2、3参照)によって作業エリア1の全体に分布するトレイ40〜43を広視野で撮像し(図15:ステップS1)、第1認識手段8A(図4参照)がトレイ識別データTI(図13)を参照しつつ、それぞれのトレイ40〜43の識別を行うとともに各トレイ40〜43の配置位置を認識する(ステップS2)。ここにおいてはさらに、トレイ40〜43の3次元姿勢も認識してもよい。また、床面からの各トレイ40〜43の高さはあらかじめ規定されていることが通例であるため、その高さでの各トレイ40〜43の2次元位置(または2次元位置・姿勢)の認識であってもよい。   First, the first imaging mode is activated, and the trays 40 to 43 distributed over the entire work area 1 are imaged with a wide field of view by the entire camera 5 (see FIGS. 2 and 3) attached to the work robot 2 as shown in FIG. (FIG. 15: Step S1), the first recognition means 8A (see FIG. 4) identifies each of the trays 40 to 43 while referring to the tray identification data TI (FIG. 13). The arrangement position is recognized (step S2). Here, the three-dimensional postures of the trays 40 to 43 may also be recognized. In addition, since the height of each tray 40 to 43 from the floor is usually specified in advance, the two-dimensional position (or two-dimensional position / posture) of each tray 40 to 43 at that height is usually determined. It may be recognition.

また、全体カメラ5によって作業エリア1のトレイ40〜43の全部を一度に撮像できないときには、作業エリア1を概念的に複数のサブエリアに分割し、各サブエリアごとにその中に存在するトレイ集団ごとに撮像してもよい。すなわち、このステップS1では、後記の第2撮像モードと比較して、作業エリア1が広視野で集合的に撮像されることになる。   When the entire camera 5 cannot capture all of the trays 40 to 43 in the work area 1 at a time, the work area 1 is conceptually divided into a plurality of sub areas, and each sub area has a tray group existing therein. You may image every. That is, in this step S1, the work area 1 is collectively imaged with a wide field of view as compared to the second imaging mode described later.

既述したように、トレイ40〜43は、トレイの形状に違いを設けたり、異なる色をつけたりすることで識別でき、当該識別は2次元画像解析等で簡易に行うこともできる。また、トレイ40〜43の配置位置についても、制御コンピュータCOMの記憶装置に記憶されたモデル点群(トレイ識別データTI中のトレイ形状データ)を用いてマッチングすることも可能であるが、2次元画像解析等から、モデル点群との比較を行わずにトレイ40〜43が置かれた領域が特定できる程度の精度で簡易に認識することもできる。   As described above, the trays 40 to 43 can be identified by providing a difference in the shapes of the trays or by applying different colors, and the identification can be easily performed by two-dimensional image analysis or the like. Also, the arrangement positions of the trays 40 to 43 can be matched using the model point group (tray shape data in the tray identification data TI) stored in the storage device of the control computer COM. From image analysis or the like, it is also possible to easily recognize the area where the trays 40 to 43 are placed with an accuracy that can specify the area without the comparison with the model point group.

次に、トレイ40〜43のうちの一部を選択する(ステップS3)。選択するトレイはひとつずつでもよく、空間的に隣接する少数個のトレイであってもよい。ここでは、認識した各トレイの大きさおよび配置位置とステレオカメラ6の視野とを比較し、ステレオカメラ6の視野内にひとつのトレイのみが入るときにはひとつずつトレイを選択するが、視野内に複数のトレイを納めることができる場合には、複数のトレイを選択することもできる。トレイ40〜43の選択順序としては、たとえば作業ロボット2の中心鉛直軸まわりに時計まわりとするような規則を定めておくことができる。ここでは2つのトレイ40、41が選択されたと仮定する。   Next, a part of the trays 40 to 43 is selected (step S3). The trays to be selected may be one by one, or a small number of spatially adjacent trays. Here, the size and arrangement position of each recognized tray and the visual field of the stereo camera 6 are compared, and when only one tray falls within the visual field of the stereo camera 6, one tray is selected one by one. A plurality of trays can be selected when the trays can be accommodated. As a selection order of the trays 40 to 43, for example, a rule for clockwise rotation around the central vertical axis of the work robot 2 can be determined. Here, it is assumed that two trays 40 and 41 are selected.

一般に、第1撮像部(第1撮像モード)による撮像が「集合的」であるのに対して、第2撮像部(第2撮像モード)による撮像が「個別的」とされるが、これらは、1回の撮像で取得するトレイの数が相対的に多い方を「集合的(な撮像)」、相対的に少ない方を「個別的(な撮像)」と定義することができる。   In general, imaging by the first imaging unit (first imaging mode) is “collective”, whereas imaging by the second imaging unit (second imaging mode) is “individual”. One having a relatively large number of trays acquired in one imaging can be defined as “collective (capturing)”, and one having a relatively small number of trays can be defined as “individual (capturing)”.

図6に示すように、認識したトレイ40、41の配置位置に基づいて、撮像制御手段10(図4参照)の制御により、腕部7のうち一方の腕部7Aをトレイ40の上方に移動させることによって撮像方向を変更し、当該腕部7Aに備えられた1つのステレオカメラ6Aによって、トレイ40に載置された部品30をトレイ40とともに撮像する。必要ならば、作業ロボット2自体もトレイ40側へ並進移動するように制御する。腕部7Bについても同様に、トレイ41の上方に移動させることによって撮像方向を変更し、腕部7Bに備えられたステレオカメラ6Bによって、トレイ41に載置された部品31をトレイ41とともに撮像する。トレイ40、41の配置位置を予め特定しているため、視野が狭いステレオカメラ6A、6Bでも効率的に部品30、31が存在する領域をとらえるように制御し、効率的に部品30、31を撮像することができる。   As shown in FIG. 6, one arm portion 7 </ b> A of the arm portions 7 is moved above the tray 40 by the control of the imaging control means 10 (see FIG. 4) based on the recognized arrangement positions of the trays 40 and 41. Thus, the imaging direction is changed, and the component 30 placed on the tray 40 is imaged together with the tray 40 by one stereo camera 6A provided in the arm portion 7A. If necessary, the work robot 2 itself is controlled to translate to the tray 40 side. Similarly, the imaging direction is changed by moving the arm portion 7B above the tray 41, and the component 31 placed on the tray 41 is imaged together with the tray 41 by the stereo camera 6B provided in the arm portion 7B. . Since the arrangement positions of the trays 40 and 41 are specified in advance, the stereo cameras 6A and 6B with a narrow field of view are controlled so as to efficiently capture the region where the components 30 and 31 are present, and the components 30 and 31 are efficiently An image can be taken.

一方で、第2認識手段8Bにおいて、トレイ40、41とそれぞれに載置される部品30、31との対応関係を、トレイ対応データTCを参照して把握する。たとえば、トレイ40に載置されるのは部品30であり、トレイ41には2種類の部品31、32のいずれかが載置されるという対応関係が、トレイ対応データTCに登録されていると仮定する。この場合、トレイ40上の部品の画像が部品30についての部品形状データと照合されて当該画像が部品30であると認識されるとともに、トレイ40上の部品30の3次元位置・姿勢が認識される。また、トレイ41上の部品の画像が部品31、32のそれぞれの部品形状データと照合されて、当該画像が部品31であると認識されるとともに、トレイ41上の部品31の3次元位置・姿勢が認識される。このようにして認識された結果は、制御コンピュータCOMの記憶装置に記憶される。以上の工程が図15のステップS5に相当する。   On the other hand, in the second recognition unit 8B, the correspondence relationship between the trays 40 and 41 and the components 30 and 31 placed on the trays 40 and 41 is grasped with reference to the tray correspondence data TC. For example, it is the component 30 that is placed on the tray 40 and the correspondence relationship that either one of the two types of components 31 and 32 is placed on the tray 41 is registered in the tray correspondence data TC. Assume. In this case, the image of the component on the tray 40 is collated with the component shape data for the component 30, and the image is recognized as the component 30, and the three-dimensional position and orientation of the component 30 on the tray 40 are recognized. The Further, the image of the component on the tray 41 is collated with the component shape data of each of the components 31 and 32 to recognize that the image is the component 31, and the three-dimensional position / posture of the component 31 on the tray 41. Is recognized. The result recognized in this way is stored in the storage device of the control computer COM. The above process corresponds to step S5 in FIG.

次のステップS6では、まだ認識していないトレイが残っているか否かがチェックされ、残っているときにはステップS3に戻って新たなトレイを選択する。図示例では、トレイ42、43が選択され、前回と同様にステップS4およびS5を実行する。トレイ43には部品は載置されていないため、トレイ43は空であることが認識されて、その旨が記憶される。   In the next step S6, it is checked whether or not there is a tray that has not been recognized yet, and if it remains, the process returns to step S3 to select a new tray. In the illustrated example, the trays 42 and 43 are selected, and steps S4 and S5 are executed as in the previous time. Since no components are placed on the tray 43, it is recognized that the tray 43 is empty, and that fact is stored.

トレイのすべての撮像と部品の認識が完了するまで以上のステップS3〜S6を繰り返し、すべてのトレイについての部品の撮像と認識が完了すると、ステップS7へ移行する。   The above steps S3 to S6 are repeated until all the trays are imaged and the parts are recognized. When the parts are imaged and recognized for all the trays, the process proceeds to step S7.

ステップS7では、制御コンピュータCOMの記憶装置に記憶されている作業ルーチンのプログラム(作業データ)中の部品変数に、各トレイ40〜42に載置された部品30〜32の種類と3次元位置・姿勢との情報を代入し、作業ルーチンのプログラムを具体化する。   In step S7, the types of the parts 30 to 32 placed on the respective trays 40 to 42, the three-dimensional positions, and the like are added to the part variables in the work routine program (work data) stored in the storage device of the control computer COM. By substituting information on posture, the work routine program is realized.

トレイに載置された特定種の部品につき、その種類の部品を作業対象とする動作が作業ルーチンのプログラム上に設定されていない場合には、その部品の扱いをスキップし、他のトレイに対応する部品についてのみ作業動作との対応関係を認識する。このようにすることで、行おうとする作業動作に関係のない部品が作業エリア1に配置されている場合でも、滞りなく作業動作を進行させることができる。   For specific types of parts placed on a tray, if the operation for that type of part is not set in the work routine program, the handling of that part is skipped and other trays are supported. Recognize the correspondence with work operations only for the parts to be performed. By doing in this way, even when parts irrelevant to the work operation to be performed are arranged in the work area 1, the work operation can be advanced without delay.

図5では、トレイ40の部品30とトレイ41の部品31とが互いに組み合わせられる作業動作と、それによって生成される中間組立品をトレイ43に搬送する作業動作とが設定されていた場合であるとする(使用されるトレイを太枠で示す)。部品32には異なる作業動作が設定されている、または作業動作が設定されていないとして、扱いをスキップする。   In FIG. 5, a work operation in which the component 30 of the tray 40 and the component 31 of the tray 41 are combined with each other and a work operation for conveying the intermediate assembly generated thereby to the tray 43 are set. (The tray used is indicated by a thick frame). Handling is skipped on the assumption that a different work operation is set for the part 32 or no work operation is set.

以上の第1ルーチンR1(準備ルーチン)が完了すると、第2ルーチンR2(実可動ルーチン)に移行する。   When the above first routine R1 (preparation routine) is completed, the routine proceeds to a second routine R2 (actual movable routine).

第2ルーチンR2では、具体化された作業ルーチンのプログラムの実行が開始され、動作指令手段200が作業ロボット2に駆動指令信号を与えることにより、当該プログラムで規定された順序で作業ロボット2が部品30、31にアクセスして、それらを順次に腕部7の把持機構(ハンド部H)を用いて把持して、トレイ40、41から取り出す。それにあたっては、既に認識された部品30、31の3次元位置・姿勢の情報を利用する。そして、作業ルーチンのプログラムで指定された作業動作内容に従って、組み立てエリア11に部品30、31を搬送するよう作業ロボット2を制御する(図6参照)。   In the second routine R2, the execution of the embodied work routine program is started, and the operation command means 200 gives a drive command signal to the work robot 2, so that the work robot 2 is operated in the order defined by the program. 30 and 31 are accessed, and are sequentially gripped by using the gripping mechanism (hand portion H) of the arm portion 7 and taken out from the trays 40 and 41. In doing so, information on the three-dimensional positions and orientations of the components 30 and 31 that have already been recognized is used. Then, the work robot 2 is controlled so as to transport the parts 30 and 31 to the assembly area 11 according to the work operation content specified by the work routine program (see FIG. 6).

次に図7に示すように、組み立てエリア11に必要な部品30、31を組み立てエリア11に搬送したら、組み合わせのために部品30、31の姿勢を適宜変更し、組み合わせた中間組立品50を生成する。次に図8に示すように、特定された作業動作内容に従って、中間組立品50をトレイ43に搬送する。   Next, as shown in FIG. 7, when the parts 30 and 31 necessary for the assembly area 11 are transported to the assembly area 11, the postures of the parts 30 and 31 are appropriately changed for combination, and a combined intermediate assembly 50 is generated. To do. Next, as shown in FIG. 8, the intermediate assembly 50 is transported to the tray 43 according to the specified work operation content.

部品としては、例えばネジ、ナット等も含めた様々な大きさのものが考えられ、中間組立品として生成される様々なパーツを組み合わせることによって、複雑な工程を持つ工業製品を生成することが可能となる。   For example, parts of various sizes including screws, nuts, etc. are conceivable. By combining various parts generated as intermediate assemblies, it is possible to produce industrial products with complicated processes. It becomes.

以上のうち、トレイ40〜43の認識動作(ステップS2)については、部品30〜32の補充等のためにトレイ40〜43の配置位置を変更する場合にのみ行えばよいが、本実施形態にかかる作業システムWSにおいてはトレイ40〜43を固定しないので、作業動作途中にトレイ40〜43の配置位置が変わってしまうことも考えられる。よって、そのような場合には部品30〜32の補充等がなくとも、作業動作ごとにトレイ40〜43の配置位置を認識しなおしてもよい。また、トレイ40〜43の配置位置が変更されたことを検出可能なセンサ(図示せず)を設けておくことによって、作業動作段階に関係なく、トレイ40〜43の配置位置が変更された時点で、トレイ40〜43の配置位置を認識しなおすことも可能である。作業中の衝撃などによって部品位置がずれるような場合にも、衝撃センサーを設けておいてそれを検知することによって、トレイや部品の認識をやりなおすこともできる。   Among the above, the recognition operation (step S2) of the trays 40 to 43 may be performed only when the arrangement positions of the trays 40 to 43 are changed for replenishment of the components 30 to 32, but in this embodiment. In such a work system WS, since the trays 40 to 43 are not fixed, it is conceivable that the arrangement positions of the trays 40 to 43 change during the work operation. Therefore, in such a case, the arrangement positions of the trays 40 to 43 may be re-recognized for each work operation without replenishment of the components 30 to 32 or the like. Further, by providing a sensor (not shown) that can detect that the arrangement positions of the trays 40 to 43 are changed, the time when the arrangement positions of the trays 40 to 43 are changed regardless of the operation operation stage. Thus, it is possible to recognize the arrangement positions of the trays 40 to 43 again. Even in the case where the position of a component is shifted due to an impact or the like during work, the tray or the component can be recognized again by providing an impact sensor and detecting it.

また、トレイ内の部品が搬送され尽くした場合に、部品を補充する必要があることを報知する報知装置等(図示せず)を備えることにより、作業動作を滞りなく進行させることができる。   In addition, by providing a notification device or the like (not shown) for notifying that it is necessary to replenish components when the components in the tray are completely transported, the work operation can proceed without delay.

図16は、これらの事情に対応して、作業ロボット2による組み立て作業の繰り返し中に生じる割り込み動作を示すフローチャートであり、この割り込みルーチンもまた、制御コンピュータCOMにインストールされている。   FIG. 16 is a flowchart showing an interrupt operation that occurs during the repetition of the assembly work by the work robot 2 in response to these circumstances, and this interrupt routine is also installed in the control computer COM.

ステップS11は図15の第2ルーチンR2に相当するが、その実行中に
・トレイの移動、搬入または搬出;
・部品の搬入(補充);
・上記中間組立品などのような、作業ロボット2の作業成果物である組立品の搬出;
などが発生したときには、その事情の発生の検知に応答して、組み立て作業が割り込み停止される(ステップS12、S13)。この発生検知は、上記のようなセンサーによる自動検知であってもよく、図4の操作入力手段300を用いてオペレータがボタンなどを操作することによって、制御コンピュータCOMに旨を報知するものであってもよい。
Step S11 corresponds to the second routine R2 of FIG. 15, but during its execution: • tray movement, loading or unloading;
-Carrying in parts (replenishment);
-Unloading an assembly that is a work product of the work robot 2, such as the above intermediate assembly;
Etc. occurs, the assembly work is interrupted and stopped in response to detection of the occurrence of the situation (steps S12 and S13). This occurrence detection may be automatic detection by the sensor as described above, and notifies the control computer COM that the operator operates a button or the like using the operation input means 300 of FIG. May be.

このような割り込みが入ると、図15における第1ルーチンR1(準備ルーチン)に相当するルーチンが再度実行され、その結果に基づいてロボット作業プログラムの再度の具体化(更新)が行われる(ステップS14)。そして、ステップS15で割り込み処理が解除され、作業ロボット2による作業プログラムが再開される。   When such an interruption occurs, a routine corresponding to the first routine R1 (preparation routine) in FIG. 15 is executed again, and the robot work program is instantiated (updated) again based on the result (step S14). ). In step S15, the interrupt process is canceled and the work program by the work robot 2 is resumed.

<B−2.部品の割り当て方法:第1の形式>
トレイに載置される部品の具体的な割り当て方法として、同一種の部品ごとに分けてトレイに割り当てる方法がある。すなわち図5〜8に示す方法と同様の方法である。
<B-2. Component allocation method: first format>
As a specific method of assigning the components placed on the tray, there is a method of assigning the components separately to the same type of components. That is, it is the same method as the method shown in FIGS.

この方法の場合は、トレイ40に部品30、トレイ41に部品31、トレイ42に部品32というように、各トレイに例えば1種類の部品が割り当てられる。   In this method, for example, one type of component is assigned to each tray, such as component 30 for tray 40, component 31 for tray 41, component 32 for tray 42, and the like.

トレイを識別できれば対応する部品を特定できるので、部品の3次元位置・姿勢を認識する際にマッチングを行う形状データ等を特定することができる。よって形状データ等の選択が不要となり、マッチング効率を向上させ全体の作業効率を向上させることができる。トレイに割り当てられる部品が数種類ある場合でも、その数種類の部品の形状データ等のうちから適切なものを選択すればよいので、やはりマッチング効率を向上させることができ全体の作業効率を向上させることが可能となる。   If the tray can be identified, the corresponding part can be specified, so that it is possible to specify shape data to be matched when recognizing the three-dimensional position / orientation of the part. Therefore, selection of shape data or the like is not necessary, and matching efficiency can be improved and overall work efficiency can be improved. Even if there are several types of parts assigned to the tray, it is only necessary to select an appropriate one from the shape data of the several kinds of parts, so that the matching efficiency can be improved and the overall work efficiency can be improved. It becomes possible.

また、作業動作に用いられ部品がなくなったトレイには、同一または異なる部品を適宜補充し再利用することで、作業エリアを効率的に利用して作業動作を進めることができる。   In addition, the same or different parts are appropriately replenished and reused in a tray that has no parts used for the work operation, so that the work operation can be performed efficiently using the work area.

<B−3.部品の割り当て方法:第2の形式>
また、トレイに載置される部品の具体的な割り当て方法として、同一工程段階で用いられる部品ごとに分けてトレイに割り当てる方法がある。
<B-3. Parts assignment method: second format>
In addition, as a specific method for assigning the components placed on the tray, there is a method for assigning the components separately for each component used in the same process step.

この方法の場合は図9に示すように、まずトレイ44に部品30、31、33〜35が全て割り当てられる。そして、トレイ41、42はそれぞれ、以降の各工程段階で生成される中間組立品を収納するために割り当てられる。ここでは例として、第2工程段階をトレイ41に、第3工程段階をトレイ42にそれぞれ割り当てる。   In the case of this method, as shown in FIG. 9, first, all the parts 30, 31, 33 to 35 are allocated to the tray 44. Each of the trays 41 and 42 is assigned to store an intermediate assembly generated in each subsequent process step. Here, as an example, the second process stage is assigned to the tray 41 and the third process stage is assigned to the tray 42.

最初の工程段階として、部品30と部品31、部品33と部品34をそれぞれ組み立てエリア11に搬送し、それぞれを互いに組み合わせ、生成される中間組立品50、51をトレイ41へ搬送する。   As the first process step, the parts 30 and 31, the parts 33 and 34 are respectively transported to the assembly area 11, and are combined with each other, and the generated intermediate assemblies 50 and 51 are transported to the tray 41.

次に図10、11に示すように、第2工程段階として、中間組立品50、51、部品35を組み立てエリア11に搬送し、組み合わせて中間組立品52を生成する。そして、図12に示すように、中間組立品52をトレイ42へ搬送する。   Next, as shown in FIGS. 10 and 11, as a second process step, the intermediate assemblies 50 and 51 and the part 35 are transported to the assembly area 11 and combined to generate an intermediate assembly 52. Then, as shown in FIG. 12, the intermediate assembly 52 is conveyed to the tray 42.

このように各工程段階で用いられる部品ごとにトレイを割り当てることで、各トレイの部品の載置の有無により工程の進行度合いが視覚的に確認でき、作業システムが適切に動作しているか、部品補充のタイミングが適当かどうか等を判断できる。   By assigning a tray to each part used in each process step in this way, the progress of the process can be visually confirmed depending on whether or not a part is placed on each tray, and the work system is operating properly. It is possible to determine whether or not the replenishment timing is appropriate.

<C.効果>
以上のように、本発明の実施形態によれば、複数のトレイ40、41、42、43の識別およびその配置位置を認識し、さらにトレイ40、41、42、43とトレイに載置される部品30、31、32との対応関係を参照することにより、複数のトレイ40、41、42、43が移動し載置される部品30、31、32の3次元位置・姿勢が変化する場合であっても、認識したトレイ40、41、42、43の配置位置に基づいて載置された部品30、31、32を効率的に把握することで、部品30、31、32の3次元位置・姿勢を認識し、作業ロボット2により部品30、31、32を用いた作業動作を行うことができる。
<C. Effect>
As described above, according to the embodiment of the present invention, the plurality of trays 40, 41, 42, 43 are identified and their arrangement positions are recognized, and are further placed on the trays 40, 41, 42, 43 and the trays. By referring to the correspondence relationship with the parts 30, 31, 32, the three-dimensional positions and postures of the parts 30, 31, 32 to be moved and placed on the trays 40, 41, 42, 43 are changed. Even in such a case, by efficiently grasping the placed parts 30, 31, 32 based on the recognized positions of the trays 40, 41, 42, 43, the three-dimensional positions of the parts 30, 31, 32 The posture can be recognized, and the work robot 2 can perform work operations using the parts 30, 31, and 32.

また、トレイ4を撮像する第1撮像部としての全体カメラ5と部品3を撮像する第2撮像部としてのステレオカメラ6とを備え、ステレオカメラ6は作業ロボット2の腕部7に備えられることにより、撮像対象の役割分担ができ、またステレオカメラ6は腕部7の動作に従って移動することができるので、部品3を効率的に撮像できる。   Moreover, the whole camera 5 as a 1st imaging part which images the tray 4 and the stereo camera 6 as a 2nd imaging part which images the component 3 are provided, and the stereo camera 6 is provided in the arm part 7 of the work robot 2. Thus, the roles of the imaging target can be divided, and the stereo camera 6 can move according to the operation of the arm portion 7, so that the part 3 can be imaged efficiently.

特に、全体カメラ5の撮像結果に基づく第1画像処理は「広視野かつ低空間分解能」であり、ステレオカメラ6の撮像結果による第2画像処理は「狭視野かつ高空間分解能」とされる。このため、第1画像処理は広視野で多数のトレイを同時に認識可能であるが、空間分解能を高くしていないので画像処理に要する時間は短くて済む。また、第2画像処理は、高い空間分解能で認識を行うが、そこでは狭視野で少数のトレイ上の部品を認識するだけであるため、ここでも画像処理に要する時間は短くて済む。   In particular, the first image processing based on the imaging result of the whole camera 5 is “wide field of view and low spatial resolution”, and the second image processing based on the imaging result of the stereo camera 6 is “narrow field of view and high spatial resolution”. For this reason, the first image processing can simultaneously recognize a large number of trays with a wide field of view. However, since the spatial resolution is not increased, the time required for the image processing can be shortened. In the second image processing, recognition is performed with a high spatial resolution. However, since only the components on a small number of trays are recognized with a narrow field of view, the time required for the image processing is short here.

また、1つのトレイ44に複数種の部品30、31、33、34、35を載置する場合には、例えば工程段階ごとに部品30、31、33、34、35をトレイ44、41、42に割り当て、工程の進行状況が視覚的に確認することが可能となるので、部品の補充等のタイミングの調整等に適している。   Further, when a plurality of types of parts 30, 31, 33, 34, 35 are placed on one tray 44, for example, the parts 30, 31, 33, 34, 35 are placed on the trays 44, 41, 42 for each process step. Since it is possible to visually check the progress of the process, it is suitable for timing adjustment such as replenishment of parts.

<D.変形例>
トレイの配置高さが固定されており、部品が平坦形状のものばかりであるような場合には、部品の2次元的な位置および姿勢を認識すれば、部品の高さの値は固定値にして部品の3次元位置・姿勢を特定できる。したがって、上記実施形態では第2撮像部としてステレオカメラを用いているが、2次元カメラを用いたシステムも構築可能である。
<D. Modification>
If the tray height is fixed and the parts are only flat, the height value of the parts is fixed if the two-dimensional position and orientation of the parts are recognized. The three-dimensional position and orientation of the part can be specified. Accordingly, in the above embodiment, a stereo camera is used as the second imaging unit, but a system using a two-dimensional camera can also be constructed.

また、上記実施形態では、撮像部を構成する各カメラはスチルカメラであるが、ムービーカメラであってもよい。   Moreover, in the said embodiment, although each camera which comprises an imaging part is a still camera, a movie camera may be sufficient.

作業ロボットによってオートメーション化されたライン生産システム、およびセル生産システム等に利用可能である。   The present invention can be used for a line production system automated by a work robot, a cell production system, and the like.

1 作業エリア
2,20 作業ロボット
3,30〜35 部品
4,40〜44 トレイ
5 全体カメラ(第1撮像部)
6,6A,6B ステレオカメラ(第2撮像部)
7,7A,7B 腕部
8A 第1認識手段
8B 第2認識手段
9 対応記憶手段
10 撮像制御手段
11 組み立てエリア
12 撮像部
50〜52 中間組立品
200 動作指令手段
300 操作入力手段
FM フレーム
M1,M2 マーカ
H ハンド部
WS 作業ロボットシステム
DESCRIPTION OF SYMBOLS 1 Work area 2,20 Work robot 3,30-35 Parts 4,40-44 Tray 5 Whole camera (1st imaging part)
6, 6A, 6B Stereo camera (second imaging unit)
7, 7A, 7B Arm portion 8A First recognition means 8B Second recognition means 9 Corresponding storage means 10 Imaging control means 11 Assembly area 12 Imaging section 50 to 52 Intermediate assembly 200 Operation command means 300 Operation input means FM frame M1, M2 Marker H Hand part WS Work robot system

Claims (11)

所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業システムであって、
各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、
前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部と、
前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、
特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、
前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、
3次元位置・姿勢が特定された各トレイ上の各部品に所定の順序でアクセスし、各部品を用いて所定の作業を行う作業ロボットと、
を備えることを特徴とする、
作業システム。
A work system for taking out a part to be worked from a plurality of trays movably arranged in a predetermined work area and performing a predetermined work using the part,
Corresponding storage means for storing tray correspondence data indicating the correspondence between each tray and the type of each component placed thereon;
A first imaging mode that collectively images the plurality of trays existing in the work area with a relatively wide field of view; and a second imaging mode that individually images the plurality of trays with a relatively narrow field of view. An imaging unit having
First recognition means for performing first image processing with a relatively low spatial resolution based on a result of imaging in the first imaging mode by the imaging unit, identifying each tray and specifying its arrangement position;
An imaging control means for causing the imaging unit to image the component placed on the tray for each tray in the second imaging mode, while changing the imaging direction by the imaging unit according to the specified position of each tray;
By performing the second image processing with a relatively high spatial resolution based on the imaging result of each component in the second imaging mode, while limiting the types of components on each tray based on the tray correspondence data, Second recognition means for recognizing the three-dimensional position / posture of each part on each tray;
A work robot that accesses each part on each tray for which the three-dimensional position / orientation is specified in a predetermined order and performs a predetermined work using each part;
Characterized by comprising,
Work system.
請求項1に記載の作業システムであって、
前記所定の作業に実行中に割り込みを行って前記所定の作業を中断させ、各トレイ上の各部品の3次元位置・姿勢の認識を再度実行させてから前記所定の作業を再開する割り込み制御手段、
をさらに備えることを特徴とする、
作業システム。
The work system according to claim 1,
Interrupt control means for interrupting the predetermined work during execution of the predetermined work, interrupting the predetermined work, re-recognizing the three-dimensional position / posture of each part on each tray, and restarting the predetermined work ,
Further comprising:
Work system.
請求項1または2に記載の作業システムであって、
前記撮像部は、前記作業ロボットに付設されていることを特徴とする、
作業システム。
The work system according to claim 1 or 2,
The imaging unit is attached to the work robot,
Work system.
請求項1〜3のいずれかに記載の作業システムであって、
前記撮像部は、
前記第1撮像モードでの撮像を行う第1撮像部と、
撮像位置および撮像方向が可変であって、前記第2撮像モードでの撮像を行う第2撮像部と、
を備えることを特徴とする、
作業システム。
The work system according to any one of claims 1 to 3,
The imaging unit
A first imaging unit that performs imaging in the first imaging mode;
A second imaging unit that has a variable imaging position and imaging direction and performs imaging in the second imaging mode;
Characterized by comprising,
Work system.
請求項4に記載の作業システムであって、
前記作業ロボットは、
前記部品を保持するハンド部がその一端に連結された可動の腕部、
を備え、
前記第2撮像部は、前記腕部または前記ハンド部に付設されることを特徴とする、
作業システム。
The work system according to claim 4,
The working robot is
A movable arm unit connected to one end of the hand unit holding the component;
With
The second imaging unit is attached to the arm unit or the hand unit,
Work system.
請求項1〜5のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記部品ごとに予め設定された作業内容を指示する、作業データをさらに記憶し、
前記作業ロボットは、
特定された前記部品および前記作業データに基づいて、当該部品についての作業を実行することを特徴とする、
作業システム。
A work system according to any one of claims 1 to 5,
The correspondence storage means further stores work data for instructing a work content set in advance for each component,
The working robot is
Based on the identified part and the work data, the work for the part is performed,
Work system.
請求項1〜6のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記部品ごとの3次元形状を示す、部品形状データをさらに記憶し、
前記第2認識手段は、特定した前記部品および前記部品形状データに基づいて、当該部品の3次元位置・姿勢を認識することを特徴とする、
作業システム。
The work system according to any one of claims 1 to 6,
The correspondence storage means further stores component shape data indicating a three-dimensional shape for each component,
The second recognizing means recognizes a three-dimensional position / posture of the part based on the identified part and the part shape data.
Work system.
請求項1〜7のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記トレイごとの3次元形状を示す、トレイ形状データをさらに記憶し、
前記第1認識手段は、前記第1撮像モードで撮像した前記トレイの画像および前記トレイ形状データに基づいて、当該トレイの配置位置を認識することを特徴とする、
作業システム。
A work system according to any one of claims 1 to 7,
The correspondence storage means further stores tray shape data indicating a three-dimensional shape for each tray,
The first recognizing unit recognizes an arrangement position of the tray based on the tray image captured in the first imaging mode and the tray shape data.
Work system.
請求項1〜8のいずれかに記載の作業システムであって、
前記複数のトレイのうち少なくとも一部のトレイは、複数種の部品を載置可能であることを特徴とする、
作業システム。
A work system according to any one of claims 1 to 8,
At least some of the plurality of trays can be loaded with a plurality of types of components.
Work system.
所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業ロボット制御装置であって、
前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部が前記作業ロボットに付随しており、
前記制御装置が、
各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、
前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、
特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、
前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、
3次元位置・姿勢が特定された各トレイ上の部品を取り出して所定の作業を行う動作指令を作業ロボットに与える動作指令手段と、
を備えることを特徴とする、
作業ロボット制御装置。
A work robot control apparatus that takes out a part to be worked from a plurality of trays movably arranged in a predetermined work area and performs a predetermined work using the part,
A first imaging mode that collectively images the plurality of trays existing in the work area with a relatively wide field of view; and a second imaging mode that individually images the plurality of trays with a relatively narrow field of view. An imaging unit having an attachment to the work robot;
The control device is
Corresponding storage means for storing tray correspondence data indicating the correspondence between each tray and the type of each component placed thereon;
First recognition means for performing first image processing with a relatively low spatial resolution based on a result of imaging in the first imaging mode by the imaging unit, identifying each tray and specifying its arrangement position;
An imaging control means for causing the imaging unit to image the component placed on the tray for each tray in the second imaging mode, while changing the imaging direction by the imaging unit according to the specified position of each tray;
By performing the second image processing with a relatively high spatial resolution based on the imaging result of each component in the second imaging mode, while limiting the types of components on each tray based on the tray correspondence data, Second recognition means for recognizing the three-dimensional position / posture of each part on each tray;
Action command means for giving a work robot an action command for taking out a part on each tray whose three-dimensional position / posture is specified and performing a predetermined work;
Characterized by comprising,
Work robot controller.
コンピュータにインストールされて実行されることにより、前記コンピュータを請求項10に記載の制御装置として機能させることを特徴とする、
作業プログラム。
When the computer is installed and executed, the computer is caused to function as the control device according to claim 10.
Work program.
JP2010171866A 2010-07-30 2010-07-30 Work system, working robot controller, and work program Abandoned JP2012030320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010171866A JP2012030320A (en) 2010-07-30 2010-07-30 Work system, working robot controller, and work program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010171866A JP2012030320A (en) 2010-07-30 2010-07-30 Work system, working robot controller, and work program

Publications (1)

Publication Number Publication Date
JP2012030320A true JP2012030320A (en) 2012-02-16

Family

ID=45844377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010171866A Abandoned JP2012030320A (en) 2010-07-30 2010-07-30 Work system, working robot controller, and work program

Country Status (1)

Country Link
JP (1) JP2012030320A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012228765A (en) * 2011-04-27 2012-11-22 Toyota Motor Corp Robot, method for operating robot and program
JP2013173191A (en) * 2012-02-23 2013-09-05 Seiko Epson Corp Robot apparatus, robot control apparatus, robot control method, and robot control program
JP2014061578A (en) * 2012-09-24 2014-04-10 Seiko Epson Corp Robot, robot system, robot control device, robot control method, and program
JP2014184542A (en) * 2013-03-25 2014-10-02 Seiko Epson Corp Robot control method, robot control device, robot, robot system and program
JP2015085457A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and robot control device
JP2015085456A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot and robot system
JP2016031619A (en) * 2014-07-28 2016-03-07 グローリー株式会社 Storage work device, valuable medium storage system, and storage work method
EP3296067A1 (en) * 2016-09-20 2018-03-21 Hirata Corporation Part support apparatus, control method, and manufacturing method
JP2019150931A (en) * 2018-03-05 2019-09-12 パナソニック株式会社 Robot system, control device, and robot
CN110914021A (en) * 2017-08-07 2020-03-24 罗伯特·博世有限公司 Handling device with handling device for carrying out at least one work step, as well as method and computer program
US10722992B2 (en) 2017-11-24 2020-07-28 Fanuc Corporation Workpiece placement system for placing workpiece in containment area or on jig
JP2020534887A (en) * 2017-09-27 2020-12-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for deploying mobile medical imaging systems
DE102019125126B4 (en) * 2018-09-27 2020-12-17 Canon Kabushiki Kaisha Information processing apparatus, information processing method and system
CN112218746A (en) * 2018-06-14 2021-01-12 雅马哈发动机株式会社 Parts arranging device for arranging parts on a loading tray
JPWO2020121396A1 (en) * 2018-12-11 2021-09-02 株式会社Fuji Robot calibration system and robot calibration method
CN113947558A (en) * 2020-06-30 2022-01-18 青岛海尔智能技术研发有限公司 Part pickup operation table, operation method of part pickup operation table, and storage medium
US11637968B2 (en) * 2017-11-15 2023-04-25 Samsung Electronics Co., Ltd. Image photographing method of electronic device and electronic device
US12263576B2 (en) 2021-08-19 2025-04-01 Hyundai Mobis Co., Ltd. Robot system for automated assembly of modular component

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012228765A (en) * 2011-04-27 2012-11-22 Toyota Motor Corp Robot, method for operating robot and program
JP2013173191A (en) * 2012-02-23 2013-09-05 Seiko Epson Corp Robot apparatus, robot control apparatus, robot control method, and robot control program
JP2014061578A (en) * 2012-09-24 2014-04-10 Seiko Epson Corp Robot, robot system, robot control device, robot control method, and program
JP2014184542A (en) * 2013-03-25 2014-10-02 Seiko Epson Corp Robot control method, robot control device, robot, robot system and program
JP2015085457A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and robot control device
JP2015085456A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Robot and robot system
JP2016031619A (en) * 2014-07-28 2016-03-07 グローリー株式会社 Storage work device, valuable medium storage system, and storage work method
US10449674B2 (en) 2016-09-20 2019-10-22 Hirata Corporation Part support apparatus, control method, and manufacturing method
EP3296067A1 (en) * 2016-09-20 2018-03-21 Hirata Corporation Part support apparatus, control method, and manufacturing method
JP2020529932A (en) * 2017-08-07 2020-10-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Handling assemblies, methods and computer programs with handling devices for performing at least one work step
CN110914021A (en) * 2017-08-07 2020-03-24 罗伯特·博世有限公司 Handling device with handling device for carrying out at least one work step, as well as method and computer program
US11478932B2 (en) 2017-08-07 2022-10-25 Robert Bosch Gmbh Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
JP7198808B2 (en) 2017-09-27 2023-01-04 コーニンクレッカ フィリップス エヌ ヴェ Systems and methods for deploying mobile medical imaging systems
JP2020534887A (en) * 2017-09-27 2020-12-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for deploying mobile medical imaging systems
US11637968B2 (en) * 2017-11-15 2023-04-25 Samsung Electronics Co., Ltd. Image photographing method of electronic device and electronic device
US10722992B2 (en) 2017-11-24 2020-07-28 Fanuc Corporation Workpiece placement system for placing workpiece in containment area or on jig
DE102018128784B4 (en) 2017-11-24 2023-06-22 Fanuc Corporation Workpiece placement system that places workpieces in a receiving area or on a fixture
JP2019150931A (en) * 2018-03-05 2019-09-12 パナソニック株式会社 Robot system, control device, and robot
CN112218746A (en) * 2018-06-14 2021-01-12 雅马哈发动机株式会社 Parts arranging device for arranging parts on a loading tray
CN112218746B (en) * 2018-06-14 2023-08-22 雅马哈发动机株式会社 Component arrangement device for arranging components on loading disk
DE102019125126B4 (en) * 2018-09-27 2020-12-17 Canon Kabushiki Kaisha Information processing apparatus, information processing method and system
US11541545B2 (en) 2018-09-27 2023-01-03 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and system
JP7153085B2 (en) 2018-12-11 2022-10-13 株式会社Fuji ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
JPWO2020121396A1 (en) * 2018-12-11 2021-09-02 株式会社Fuji Robot calibration system and robot calibration method
CN113947558A (en) * 2020-06-30 2022-01-18 青岛海尔智能技术研发有限公司 Part pickup operation table, operation method of part pickup operation table, and storage medium
US12263576B2 (en) 2021-08-19 2025-04-01 Hyundai Mobis Co., Ltd. Robot system for automated assembly of modular component

Similar Documents

Publication Publication Date Title
JP2012030320A (en) Work system, working robot controller, and work program
JP7467041B2 (en) Information processing device, information processing method and system
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP5930708B2 (en) Work management device and work management system
CN112276936B (en) Three-dimensional data generating device and robot control system
CN111452040B (en) System and method for associating machine vision coordinate space in a pilot assembly environment
JP6000579B2 (en) Information processing apparatus and information processing method
JP5977544B2 (en) Information processing apparatus and information processing method
CN103687702B (en) Assembly supply device
US20170151673A1 (en) Manipulator system, and image capturing system
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP2014161965A (en) Article takeout device
CN110980276B (en) A method for automatic blanking of castings with three-dimensional vision and robots
CN109952178B (en) Working robot and working position correction method
EP2221152A1 (en) A robot system and a method for picking and placing components
Malik et al. Advances in machine vision for flexible feeding of assembly parts
JP2016147327A (en) Work takeout robot system with conversion calculation of position and attitude, and work taking-out method
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
US20210197391A1 (en) Robot control device, robot control method, and robot control non-transitory computer readable medium
WO2021039775A1 (en) Image processing device, image capturing device, robot, and robot system
TWI696529B (en) Automatic positioning method and automatic control apparatus
CN115070779B (en) Robot grabbing control method and system and electronic equipment
JP7549121B2 (en) Robot system and control device
CN111390910A (en) Manipulator target grabbing and positioning method, computer readable storage medium and manipulator
US20240157567A1 (en) Picking system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130521

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20140204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140213