[go: up one dir, main page]

JP2019042853A - Image information processing apparatus, gripping system, and image information processing method - Google Patents

Image information processing apparatus, gripping system, and image information processing method Download PDF

Info

Publication number
JP2019042853A
JP2019042853A JP2017167491A JP2017167491A JP2019042853A JP 2019042853 A JP2019042853 A JP 2019042853A JP 2017167491 A JP2017167491 A JP 2017167491A JP 2017167491 A JP2017167491 A JP 2017167491A JP 2019042853 A JP2019042853 A JP 2019042853A
Authority
JP
Japan
Prior art keywords
finger
image information
gripping
contact
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017167491A
Other languages
Japanese (ja)
Inventor
聖也 渡邉
Toshiya Watanabe
聖也 渡邉
野村 祐樹
Yuki Nomura
祐樹 野村
晋治 川畑
Shinji Kawabata
晋治 川畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THK Co Ltd
Original Assignee
THK Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THK Co Ltd filed Critical THK Co Ltd
Priority to JP2017167491A priority Critical patent/JP2019042853A/en
Publication of JP2019042853A publication Critical patent/JP2019042853A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique for grasping which of plural planes is a plane contactable by a finger part of a hand mechanism, in an object that is a polyhedron.SOLUTION: On a prescribed plane of an object that is to become an imaging target using an imaging device, a prescribed position on each side forming the prescribed plane is preset as a determination point. Further, on the basis of image information acquired by the imaging device, it is determined for each of the determination points on the prescribed plane of the object whether the determination point is in contact with a peripheral object. Then, other planes neighboring the prescribed plane by interposing a side on which a determination point determined not to be in contact with a peripheral object is positioned, are set as finger contactable planes. However, other planes neighboring the prescribed plane by interposing a side on which a determination point determined to be in contact with a peripheral object is positioned, are set as finger non-contactable planes.SELECTED DRAWING: Figure 14

Description

本発明は、複数の指部を有するハンド機構によって対象物を把持する把持システム、および、該把持システムにおいて該対象物を含む画像情報を処理するための画像情報処理装置、画像情報処理方法に関する。   The present invention relates to a gripping system for gripping an object by a hand mechanism having a plurality of finger parts, and an image information processing apparatus and an image information processing method for processing image information including the object in the gripping system.

従来、複数の指部を有するハンド機構によって対象物を把持する把持システムが開発されている。また、把持システムとして、対象物を含む画像を撮像する撮像装置を備えたものが知られている。このような撮像装置を備えた把持システムでは、該撮像装置によって取得された画像情報に基づいて対象物を認識する。さらに、認識された対象物を把持すべく、画像情報に基づいてハンド機構を制御する。   Conventionally, a gripping system for gripping an object by a hand mechanism having a plurality of fingers has been developed. As a gripping system, one having an imaging device that captures an image including an object is known. In a gripping system including such an imaging device, an object is recognized based on image information acquired by the imaging device. Further, the hand mechanism is controlled based on the image information in order to hold the recognized object.

例えば、特許文献1には、複数の箱状ワークを上方から撮影して全体画像を取得する単眼カメラを備えたピッキングシステム(把持システム)が開示されている。この特許文献1に記載のピッキングシステムは、単眼カメラに加えて、複数の箱状ワーク全体の三次元形状を計測する距離センサを備えている。そして、単眼カメラが取得した全体画像から箱状ワークのエッジ部分を検出し、検出されたエッジ部分を境界として、該エッジ部分に対応する、距離センサによる計測点の点群を抽出する。さらに、抽出された点群に基づいて、距離センサによって計測された三次元形状から各箱状ワークの位置と姿勢とを認識する。その上で、ピッキングの対象となる箱状ワークの位置と姿勢を出力する。   For example, Patent Document 1 discloses a picking system (gripping system) including a monocular camera that captures a plurality of box-shaped workpieces from above and acquires an entire image. The picking system described in Patent Document 1 includes a distance sensor that measures a three-dimensional shape of a plurality of box-shaped workpieces in addition to a monocular camera. Then, an edge portion of the box-shaped workpiece is detected from the entire image acquired by the monocular camera, and a point group of measurement points by the distance sensor corresponding to the edge portion is extracted with the detected edge portion as a boundary. Furthermore, based on the extracted point group, the position and posture of each box-shaped workpiece are recognized from the three-dimensional shape measured by the distance sensor. After that, the position and posture of the box-shaped workpiece to be picked are output.

特許第5429614号公報Japanese Patent No. 5429614

ハンド機構によって対象物を把持しようとした場合、該対象物の表面における、該ハンド機構の指部によって該対象物を挟み込むことが可能な位置に、該ハンド機構の指部を接触させる必要がある。しかしながら、対象物が多面体である場合、該対象物の載置状況によっては、ハンド機構の指部を接触させることが困難な平面が生じる場合がある。つまり、対象物が、その周辺に存在する周辺物体(例えば、他の対象物、または、対象物を収容する収容容器)に接触した状態で置載されている場合、そのままの状態では、該対象物における該周辺物体に接触している平面にはハンド機構の指部を接触させることができない。したがって、ハンド機構によって対象物を把持する場合、該対象物におけるどの平面に該ハンド機構の指部を接触されることができるのかを把握する必要がある。   When an object is to be gripped by the hand mechanism, it is necessary to bring the finger part of the hand mechanism into contact with a position on the surface of the object where the object can be sandwiched by the finger part of the hand mechanism. . However, when the target object is a polyhedron, depending on the mounting state of the target object, there may be a plane on which it is difficult to contact the finger part of the hand mechanism. That is, when an object is placed in contact with a peripheral object (for example, another object or a container that contains the object) that exists in the vicinity of the object, The finger part of the hand mechanism cannot be brought into contact with the plane of the object that is in contact with the surrounding object. Therefore, when the object is gripped by the hand mechanism, it is necessary to grasp which plane of the object can be touched by the finger portion of the hand mechanism.

本発明は、上記問題に鑑みてなされたものであって、多面体である対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することが可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of grasping which plane is a plane that can be touched by a finger portion of a hand mechanism in an object that is a polyhedron. The purpose is to do.

本発明に係る画像情報処理装置は、複数の指部を有するハンド機構によって対象物を把持する把持システムであって、少なくとも一つの該対象物を含んだ画像を撮像する撮像装置を有する把持システムに適用され、該撮像装置によって取得される画像情報を処理する画像情報処理装置において、前記対象物が多面体であって、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の
位置が判定ポイントとして予め設定されており、前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定部と、前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定部と、を備える。
An image information processing apparatus according to the present invention is a gripping system that grips an object by a hand mechanism having a plurality of fingers, and includes an imaging device that captures an image including at least one object. In an image information processing apparatus that is applied and processes image information acquired by the imaging device, the target is a polyhedron, and the predetermined target plane is a target of imaging by the imaging device on the target. A predetermined position on each side forming the plane of the object is preset as a determination point, and the determination is made for each determination point of the predetermined plane of the object based on the image information acquired by the imaging device. A determination unit that determines whether or not the point is in contact with a peripheral object; and the determination unit determines that the point is not in contact with the peripheral object. In addition, another plane adjacent to the predetermined plane across the side where the determination point is located is set as a finger contactable surface that can be contacted by the finger portion of the hand mechanism, and the determination unit sets the periphery. A finger contact impossible surface that cannot be contacted by the finger portion of the hand mechanism on another plane adjacent to the predetermined plane across the side where the determination point determined to be in contact with an object is located And a setting unit for setting as

本発明によれば、多面体である対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することができる。   ADVANTAGE OF THE INVENTION According to this invention, in the target object which is a polyhedron, it can grasp | ascertain which plane is a plane which can contact the finger | toe part of a hand mechanism.

実施例に係る把持システムの概略構成を示す図である。It is a figure which shows schematic structure of the holding | grip system which concerns on an Example. 実施例に係るロボットアームの概略構成を示す図である。It is a figure which shows schematic structure of the robot arm which concerns on an Example. 実施例に係るハンド機構の斜視図である。It is a perspective view of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の上面図である。It is a top view of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の指部の側面図である。It is a side view of the finger | toe part of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の指部の先端部側を図5の矢印Aの方向から見た図である。It is the figure which looked at the front-end | tip part side of the finger | toe part of the hand mechanism which concerns on an Example from the direction of the arrow A of FIG. 実施例に係るハンド機構の、ベース部における指部の接続部近傍部分の内部構造、および、指部における基端部および第2関節部の内部構造を示す図である。It is a figure which shows the internal structure of the connection part vicinity of the finger part in a base part, and the internal structure of the base end part in a finger part, and a 2nd joint part of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の、指部における第1関節部および第2指リンク部の内部構造を示す図である。It is a figure which shows the internal structure of the 1st joint part in a finger part, and the 2nd finger link part of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の指部における第2関節部の可動範囲を示す図である。It is a figure which shows the movable range of the 2nd joint part in the finger | toe part of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の指部における第1関節部の可動範囲を示す図である。It is a figure which shows the movable range of the 1st joint part in the finger | toe part of the hand mechanism which concerns on an Example. 実施例に係るハンド機構の指部の第1リンク部における感圧センサの配置を示す図である。It is a figure which shows arrangement | positioning of the pressure sensor in the 1st link part of the finger | toe part of the hand mechanism which concerns on an Example. 実施例に係るアーム制御装置、ハンド制御装置、画像情報処理装置に含まれる各機能部を示すブロック図である。It is a block diagram which shows each function part contained in the arm control apparatus which concerns on an Example, a hand control apparatus, and an image information processing apparatus. 実施例に係る、対象物の形状および該対象物における判定ポイントの位置の一例を示す図である。It is a figure which shows an example of the shape of the target object, and the position of the determination point in this target object based on an Example. 実施例に係る、対象物が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物の上面の各判定ポイントの状態の具体例を示す第一の図である。It is a 1st figure which shows the specific example of the state of each determination point of the upper surface of the said target object in image information when the target object is mounted in the state which contacted the surrounding object based on an Example. 実施例に係る、対象物が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物の上面の各判定ポイントの状態の具体例を示す第二の図である。It is a 2nd figure which shows the specific example of the state of each determination point of the upper surface of the said target object in image information when the target object is mounted in the state which contacted the surrounding object based on an Example. 実施例に係る、対象物が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物の上面の各判定ポイントの状態の具体例を示す第三の図である。It is a 3rd figure which shows the specific example of the state of each determination point of the upper surface of the said target object in image information when the target object is mounted in the state which contacted the surrounding object based on an Example. 実施例に係る、対象物が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物の上面の各判定ポイントの状態の具体例を示す第四の図である。FIG. 10 is a fourth diagram illustrating a specific example of the state of each determination point on the upper surface of the target object in the image information when the target object is placed in contact with a peripheral object according to the example. 実施例に係る、対象物が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物の上面の各判定ポイントの状態の具体例を示す第五の図である。It is a 5th figure which shows the specific example of the state of each determination point of the upper surface of the said target object in image information when the target object is mounted in the state which contacted the surrounding object based on an Example. 実施例1に係る、画像情報処理装置において行われる画像情報処理のフローを示すフローチャートである。3 is a flowchart illustrating a flow of image information processing performed in the image information processing apparatus according to the first embodiment. 実施例2に係る画像情報処理装置に含まれる各機能部を示すブロック図である。FIG. 6 is a block diagram illustrating functional units included in an image information processing apparatus according to a second embodiment. 実施例2に係る、画像情報処理装置において行われる画像情報処理のフローを示すフローチャートである。10 is a flowchart illustrating a flow of image information processing performed in the image information processing apparatus according to the second embodiment. 実施例3に係る画像情報処理装置に含まれる各機能部を示すブロック図である。FIG. 10 is a block diagram illustrating functional units included in an image information processing apparatus according to a third embodiment. 実施例3に係る、直接把持によって対象物を把持したときのハンド機構および該対象物の状態を示す図である。FIG. 10 is a diagram illustrating a hand mechanism and a state of the target object when the target object is gripped by direct gripping according to a third embodiment. 実施例3に係る、傾倒把持によって対象物を把持したときのハンド機構および該対象物の状態を示す第一の図である。FIG. 10 is a first diagram illustrating a hand mechanism and a state of the target object when the target object is gripped by tilting gripping according to the third embodiment. 実施例3に係る、傾倒把持によって対象物を把持したときのハンド機構および該対象物の状態を示す第二の図である。It is a 2nd figure which shows the hand mechanism when the target object is gripped by tilting gripping, and the state of the target object according to the third embodiment. 実施例3に係る、傾倒把持によって対象物を把持したときのハンド機構および該対象物の状態を示す第三の図である。FIG. 10 is a third diagram illustrating a hand mechanism and a state of the target object when the target object is gripped by tilting gripping according to the third embodiment. 実施例3に係る、画像情報処理装置において行われる画像情報処理のフローを示すフローチャートである。12 is a flowchart illustrating a flow of image information processing performed in the image information processing apparatus according to the third embodiment.

以下、本発明の具体的な実施例について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。   Specific embodiments of the present invention will be described below with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.

本発明に係る把持システムは、対象物を含んだ画像を撮像する撮像装置を有している。そして、本発明に係る画像情報処理装置は、対象物におけるどの平面がハンド機構の指部の接触が可能な平面であるのかを把握すべく、撮像装置によって取得される画像情報を処理する。   The gripping system according to the present invention includes an imaging device that captures an image including an object. Then, the image information processing apparatus according to the present invention processes the image information acquired by the imaging apparatus in order to grasp which plane in the object is a plane that can be touched by the finger part of the hand mechanism.

より詳細には、本発明においては、多面体である対象物が撮像装置によって撮像される際には、該対象物における所定の平面(すなわち、撮像装置と向き合った状態となる平面)が撮像の対象となる。そして、この対象物の所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されている。これによれば、撮像装置によって取得される画像情報には、対象物の所定の平面における各判定ポイントの状態が含まれることになる。そこで、本発明に係る画像情報処理装置においては、撮像装置によって取得された画像情報に基づいて、対象物における所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定部によって判定する。   More specifically, in the present invention, when an object that is a polyhedron is imaged by the imaging device, a predetermined plane (that is, a plane facing the imaging device) of the object is an object to be imaged. It becomes. And in the predetermined plane of this object, the predetermined position on each side which forms the predetermined plane is preset as a determination point. According to this, the image information acquired by the imaging device includes the state of each determination point on a predetermined plane of the object. Therefore, in the image information processing apparatus according to the present invention, for each determination point on a predetermined plane of the target object, whether or not the determination point is in contact with a surrounding object based on the image information acquired by the imaging apparatus. Determined by the determination unit.

ここで、画像情報において、対象物における所定の平面のある判定ポイントが周辺物体と接触していた場合、該判定ポイントが位置する辺を挟んで該所定の平面と隣り合う他の平面(すなわち、該判定ポイントが位置する辺で該所定の平面と接している他の平面)は周辺物体と接触した状態にあると考えられる。一方で、画像情報において、対象物における所定の平面のある判定ポイントが周辺物体と接触していなかった場合、該判定ポイントが位置する辺を挟んで該所定の平面と隣り合う他の平面は周辺物体とは接触していない状態にあると考えられる。そして、対象物において周辺物体と接触している平面には、そのままの状態ではハンド機構の指部を接触させることができない。一方で、対象物において周辺物体と接触していない平面にはハンド機構の指部を接触させることができる。   Here, in the image information, when a certain determination point of a predetermined plane in the target object is in contact with a peripheral object, another plane adjacent to the predetermined plane across the side where the determination point is located (that is, The other plane in contact with the predetermined plane at the side where the determination point is located is considered to be in contact with the peripheral object. On the other hand, in the image information, when a determination point having a predetermined plane in the target object is not in contact with a surrounding object, the other plane adjacent to the predetermined plane is around the side where the determination point is located. It is considered that the object is not in contact. And the finger part of the hand mechanism cannot be brought into contact with the plane in contact with the peripheral object in the object as it is. On the other hand, the finger part of the hand mechanism can be brought into contact with a plane that is not in contact with the surrounding object in the object.

そこで、本発明に係る画像情報処理装置においては、判定部によって周辺物体と接触していないと判定された判定ポイントが位置する辺を挟んで所定の平面と隣り合う他の平面
を、設定部によって、ハンド機構の指部による接触が可能な指接触可能面として設定する。一方で、判定部によって周辺物体と接触していると判定された判定ポイントが位置する辺を挟んで所定の平面と隣り合う他の平面を、設定部によって、ハンド機構の指部による接触が不可能な指接触不可能面として設定する。これによれば、載置されている対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することができる。
Therefore, in the image information processing apparatus according to the present invention, the setting unit sets another plane adjacent to the predetermined plane across the side where the determination point determined to be not in contact with the surrounding object by the determination unit is located. Then, it is set as a finger contactable surface that can be contacted by the finger part of the hand mechanism. On the other hand, another plane adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit is not contacted by the finger of the hand mechanism by the setting unit. Set as possible finger contact impossible surface. According to this, it is possible to grasp which plane is a plane in which the finger part of the hand mechanism can be contacted in the placed object.

<実施例1>
以下、本発明の具体的な実施例について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。
<Example 1>
Specific embodiments of the present invention will be described below with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.

ここでは、本発明を、ロボットアームを備えた把持システムに適用した場合について説明する。図1は、本実施例に係る把持システムの概略構成を示す図である。把持システム100は、ロボットアーム1と撮像装置8とを含んでいる。撮像装置8は、例えばカメラであって、対象物10の上方に設置されている。そして、撮像装置8は、対象物10の上方から、該対象物10およびその周囲を含んだ画像を撮像する。また、ロボットアーム1は、対象物10を把持するためのハンド機構2、アーム機構3、および台座部4を備えている。ここで、ロボットアーム1における、アーム機構3、ハンド機構2、および台座部4の詳細な構成について説明する。   Here, the case where the present invention is applied to a gripping system including a robot arm will be described. FIG. 1 is a diagram illustrating a schematic configuration of a gripping system according to the present embodiment. The gripping system 100 includes a robot arm 1 and an imaging device 8. The imaging device 8 is a camera, for example, and is installed above the object 10. Then, the imaging device 8 captures an image including the object 10 and its surroundings from above the object 10. The robot arm 1 also includes a hand mechanism 2 for holding the object 10, an arm mechanism 3, and a pedestal portion 4. Here, the detailed structure of the arm mechanism 3, the hand mechanism 2, and the base part 4 in the robot arm 1 will be described.

(アーム機構)
図2は、ロボットアーム1の概略構成を示す図である。アーム機構3の一端にはハンド機構2が取り付けられている。また、アーム機構3の他端は台座部4に取り付けられている。アーム機構3は、第1アームリンク部31、第2アームリンク部32、第3アームリンク部33、第4アームリンク部34、第5アームリンク部35、および接続部材36を備えている。そして、ハンド機構2のベース部20が、アーム機構3の第1アームリンク部31の一端側に形成された第1関節部30aに接続されている。第1関節部30aには、第1アームリンク部31に対してハンド機構2を該第1アームリンク部31の軸周りに回転させるためのモータ(図示略)が設けられている。第1アームリンク部31の他端側は、第2関節部30bで第2アームリンク部32の一端側に接続されている。第1アームリンク部31と第2アームリンク部32とはその中心軸が垂直に交わるように接続されている。そして、第2関節部30bには、第2アームリンク部32に対して、第1アームリンク部31を、その他端側を中心に該第2アームリンク部32の軸周りに回転させるためのモータ(図示略)が設けられている。また、第2アームリンク部32の他端側は、第3関節部30cで第3アームリンク部33の一端側に接続されている。第3関節部30cには、第3アームリンク部33に対して第2アームリンク部32を相対的に回転させるためのモータ(図示略)が設けられている。
(Arm mechanism)
FIG. 2 is a diagram showing a schematic configuration of the robot arm 1. A hand mechanism 2 is attached to one end of the arm mechanism 3. The other end of the arm mechanism 3 is attached to the pedestal portion 4. The arm mechanism 3 includes a first arm link portion 31, a second arm link portion 32, a third arm link portion 33, a fourth arm link portion 34, a fifth arm link portion 35, and a connection member 36. The base portion 20 of the hand mechanism 2 is connected to a first joint portion 30 a formed on one end side of the first arm link portion 31 of the arm mechanism 3. The first joint portion 30 a is provided with a motor (not shown) for rotating the hand mechanism 2 around the axis of the first arm link portion 31 with respect to the first arm link portion 31. The other end side of the first arm link portion 31 is connected to one end side of the second arm link portion 32 at the second joint portion 30b. The first arm link part 31 and the second arm link part 32 are connected so that their central axes intersect perpendicularly. A motor for rotating the first arm link part 31 around the axis of the second arm link part 32 around the other end side with respect to the second arm link part 32 is provided in the second joint part 30b. (Not shown) is provided. Further, the other end side of the second arm link portion 32 is connected to one end side of the third arm link portion 33 at the third joint portion 30c. The third joint part 30 c is provided with a motor (not shown) for rotating the second arm link part 32 relative to the third arm link part 33.

同じように、第3アームリンク部33の他端側は、第4関節部30dで第4アームリンク部34の一端側に接続されている。また、第4アームリンク部34の他端側は、第5関節部30eで第5アームリンク部35に接続されている。そして、第4関節部30dには、第4アームリンク部34に対して第3アームリンク部33を相対的に回転させるためのモータ(図示略)が設けられている。また、第5関節部30eには、第5アームリンク部35に対して第4アームリンク部34を相対的に回転させるためのモータ(図示略)が設けられている。さらに、第5アームリンク部35は、台座部4から垂直に配置された接続部材36に第6関節部30fで接続されている。第5アームリンク部35と接続部材36とは、それぞれの中心軸が同軸となるように接続されている。そして、第6関節部30fには、第5アームリンク部35を、該第5アームリンク部35および接続部材36の軸回りに回転させるためのモータ(図示略)が設けられている。アーム機構3をこのような構
成とすることで、例えば、該アーム機構3を6自由度の自由度を有する機構とすることができる。
Similarly, the other end side of the third arm link portion 33 is connected to one end side of the fourth arm link portion 34 at the fourth joint portion 30d. Further, the other end side of the fourth arm link portion 34 is connected to the fifth arm link portion 35 by a fifth joint portion 30e. The fourth joint portion 30d is provided with a motor (not shown) for rotating the third arm link portion 33 relative to the fourth arm link portion 34. Further, the fifth joint portion 30e is provided with a motor (not shown) for rotating the fourth arm link portion 34 relative to the fifth arm link portion 35. Further, the fifth arm link portion 35 is connected to a connection member 36 disposed vertically from the pedestal portion 4 by a sixth joint portion 30f. The fifth arm link portion 35 and the connection member 36 are connected so that their central axes are coaxial. The sixth joint portion 30f is provided with a motor (not shown) for rotating the fifth arm link portion 35 around the axes of the fifth arm link portion 35 and the connection member 36. With the arm mechanism 3 having such a configuration, for example, the arm mechanism 3 can be a mechanism having six degrees of freedom.

(ハンド機構)
次に、ハンド機構2の構成について図3から図11に基づいて説明する。図3はハンド機構2の斜視図である。図4はハンド機構2の上面図である。なお、図4において、矢印は、各指部21の回転可動範囲を示している。ハンド機構2は、アーム機構3に接続されるベース部20と、該ベース部20に設けられた4本の指部21とを備えている。また、図3および図4に示すように、ハンド機構2においては、ベース部20に4本の指部21が、ハンド機構2の長手方向(図4において紙面に垂直な方向)の軸を中心とした円周上に、等角度間隔(すなわち90deg間隔)に配置されている。また、4本の指部21は全て同一の構造を有し且つ同一の長さである。但し、各指部21の動作は、それぞれ独立して制御される。
(Hand mechanism)
Next, the configuration of the hand mechanism 2 will be described with reference to FIGS. FIG. 3 is a perspective view of the hand mechanism 2. FIG. 4 is a top view of the hand mechanism 2. In FIG. 4, the arrows indicate the rotation movable ranges of the finger portions 21. The hand mechanism 2 includes a base portion 20 connected to the arm mechanism 3 and four finger portions 21 provided on the base portion 20. As shown in FIGS. 3 and 4, in the hand mechanism 2, the four fingers 21 on the base 20 are centered on the axis in the longitudinal direction of the hand mechanism 2 (the direction perpendicular to the paper surface in FIG. 4). Are arranged at equiangular intervals (ie, 90 deg intervals). The four finger portions 21 all have the same structure and the same length. However, the operation of each finger 21 is controlled independently.

図5から図11は、ハンド機構2の指部21の構成およびその駆動機構について説明するための図である。図5は指部21の側面図である。なお、図5では、ベース部20が透過された状態で記載されており、ベース部20の内部に位置する指部21の一部の内部構造をも示している。また、図6は、指部21の先端部側を図5の矢印Aの方向から見た図である。なお、図5および図6では、後述する指部21の第2指リンク部212の一部が透過された状態で記載されており、該第2指リンク部212の内部構造をも示されている。   5 to 11 are diagrams for explaining the configuration of the finger portion 21 of the hand mechanism 2 and its driving mechanism. FIG. 5 is a side view of the finger portion 21. In FIG. 5, the base portion 20 is shown in a transparent state, and a partial internal structure of the finger portion 21 located inside the base portion 20 is also shown. FIG. 6 is a view of the distal end side of the finger portion 21 as viewed from the direction of arrow A in FIG. 5 and 6, a part of a second finger link part 212 of the finger part 21 to be described later is shown in a transparent state, and the internal structure of the second finger link part 212 is also shown. Yes.

図3および図5に示すとおり、各指部21は、第1指リンク部211、第2指リンク部212、および基端部213を有している。そして、指部21の基端部213がベース部20に接続されている。ここで、基端部213は、図4において矢印で示すように、ベース部20に対して指部21の長手方向(図4において紙面に垂直な方向)の軸回りに回転可能に接続されている。また、指部21において、基端部213に第2指リンク部212の一端が接続されている。そして、この第2指リンク部212と基端部213との接続部に第2関節部23が形成されている。   As shown in FIGS. 3 and 5, each finger portion 21 has a first finger link portion 211, a second finger link portion 212, and a proximal end portion 213. The base end portion 213 of the finger portion 21 is connected to the base portion 20. Here, the base end portion 213 is connected to the base portion 20 so as to be rotatable about the longitudinal axis of the finger portion 21 (direction perpendicular to the paper surface in FIG. 4) with respect to the base portion 20, as indicated by an arrow in FIG. Yes. In the finger part 21, one end of the second finger link part 212 is connected to the base end part 213. A second joint portion 23 is formed at a connection portion between the second finger link portion 212 and the base end portion 213.

ここで、図7に基づいて基端部213の駆動機構および第2関節部23の駆動機構について説明する。図7は、ベース部20における指部21の接続部近傍部分の内部構造、および、指部21における基端部213および第2関節部23の内部構造を示す図である。この図7に示すように、ベース部20の内部には歯車65、歯車66、第2モータ52、および第3モータ53が設けられている。歯車65は、指部21全体を回転させるための歯車であり、基端部213の回転軸に接続されている。歯車66は第3モータ53の回転軸に接続されている。そして、歯車65と歯車66とが噛み合っている。このような構成により、第3モータ53が回転すると、その回転力が二つの歯車65、66を介して基端部213の回転軸に伝達される。その結果、基端部213が回転駆動され、それに伴って、図4において矢印で示す範囲で指部21全体が回転駆動される。   Here, based on FIG. 7, the drive mechanism of the base end part 213 and the drive mechanism of the 2nd joint part 23 are demonstrated. FIG. 7 is a view showing the internal structure of the base portion 20 in the vicinity of the connecting portion of the finger portion 21 and the internal structures of the base end portion 213 and the second joint portion 23 in the finger portion 21. As shown in FIG. 7, a gear 65, a gear 66, a second motor 52, and a third motor 53 are provided inside the base portion 20. The gear 65 is a gear for rotating the entire finger portion 21, and is connected to the rotation shaft of the base end portion 213. The gear 66 is connected to the rotation shaft of the third motor 53. The gear 65 and the gear 66 are engaged with each other. With such a configuration, when the third motor 53 rotates, the rotational force is transmitted to the rotation shaft of the base end portion 213 via the two gears 65 and 66. As a result, the base end portion 213 is rotationally driven, and accordingly, the entire finger portion 21 is rotationally driven within a range indicated by an arrow in FIG.

また、第2関節部23の内部には、ウォームホイール63と、該ウォームホイール63に噛み合ったウォーム64が設けられている。そして、第2関節部23における第2指リンク部212の回転軸にウォームホイール63が接続されている。また、ベース部20の内部に設けられた第2モータ52の回転軸にウォーム64が接続されている。このような構成により、第2モータ52が回転駆動すると、その回転力がウォーム64およびウォームホイール63によって第2指リンク部212の回転軸に伝達される。その結果、第2指リンク部212が、基端部213に対して相対的に回転駆動される。ここで、図8は、第2モータ52の駆動力により実現される、指部21における第2関節部23の可動範囲を示す図である。この図8に示すように、第2関節部23は屈曲および伸展可能に形成され
ている。なお、第2モータ52による駆動力と第3モータ53による駆動力とは、それぞれ独立してその作動対象に伝わるように構成されている。
A worm wheel 63 and a worm 64 meshing with the worm wheel 63 are provided inside the second joint portion 23. The worm wheel 63 is connected to the rotation shaft of the second finger link part 212 in the second joint part 23. A worm 64 is connected to the rotating shaft of the second motor 52 provided in the base portion 20. With such a configuration, when the second motor 52 is rotationally driven, the rotational force is transmitted to the rotation shaft of the second finger link portion 212 by the worm 64 and the worm wheel 63. As a result, the second finger link part 212 is rotationally driven relative to the base end part 213. Here, FIG. 8 is a diagram illustrating a movable range of the second joint portion 23 in the finger portion 21 realized by the driving force of the second motor 52. As shown in FIG. 8, the second joint portion 23 is formed to be able to bend and extend. The driving force by the second motor 52 and the driving force by the third motor 53 are configured to be transmitted independently to the operation target.

また、図5および図6に示すように、指部21においては、第2指リンク部212の他端に第1指リンク部211の一端が接続されている。そして、この第1指リンク部211と第2指リンク部212との接続部に第1関節部22が形成されている。ここで、図9に基づいて第1関節部22の駆動機構について説明する。図9は、指部21における第1関節部22および第2指リンク部212の内部構造を示す図である。第1関節部22の内部には、互いに噛み合った二つの傘歯車61、62が設けられている。そして、第1関節部22における第1指リンク部211の回転軸に一方の傘歯車61が接続されている。また、第2指リンク部212の内部に設けられた第1モータ51の回転軸に他方の傘歯車62が接続されている。このような構成により、第1モータ51が回転駆動すると、その回転力が二つの傘歯車61、62によって第1指リンク部211の回転軸に伝達される。その結果、第1指リンク部211が、第2指リンク部212に対して相対的に回転駆動される。ここで、図10は、第1モータ51の駆動力により実現される、指部21における第1関節部22の可動範囲を示す図である。この図10に示すように、第1関節部22は屈曲および伸展可能に形成されている。   As shown in FIGS. 5 and 6, in the finger portion 21, one end of the first finger link portion 211 is connected to the other end of the second finger link portion 212. A first joint portion 22 is formed at a connection portion between the first finger link portion 211 and the second finger link portion 212. Here, the drive mechanism of the 1st joint part 22 is demonstrated based on FIG. FIG. 9 is a diagram illustrating an internal structure of the first joint portion 22 and the second finger link portion 212 in the finger portion 21. Two bevel gears 61 and 62 meshing with each other are provided inside the first joint portion 22. One bevel gear 61 is connected to the rotation shaft of the first finger link portion 211 in the first joint portion 22. The other bevel gear 62 is connected to the rotation shaft of the first motor 51 provided inside the second finger link portion 212. With such a configuration, when the first motor 51 is rotationally driven, the rotational force is transmitted to the rotation shaft of the first finger link portion 211 by the two bevel gears 61 and 62. As a result, the first finger link portion 211 is rotationally driven relative to the second finger link portion 212. Here, FIG. 10 is a diagram illustrating a movable range of the first joint portion 22 in the finger portion 21 realized by the driving force of the first motor 51. As shown in FIG. 10, the first joint portion 22 is formed to be able to bend and extend.

また、図3、図5、図6、および図11に示すように、本実施例では、指部21の第1指リンク部211の先端側に感圧センサ70が設けられている。感圧センサ70は、第1指リンク部211の先端部に作用する外力(圧力)を検出するセンサである。また、図5に示すように、感圧センサ70は、第1指リンク部211における、第1関節部22の屈曲方向側の壁面215および伸展方向側の壁面216の両面に設けられている。   In addition, as shown in FIGS. 3, 5, 6, and 11, in this embodiment, a pressure-sensitive sensor 70 is provided on the distal end side of the first finger link portion 211 of the finger portion 21. The pressure-sensitive sensor 70 is a sensor that detects an external force (pressure) acting on the distal end portion of the first finger link portion 211. As shown in FIG. 5, the pressure-sensitive sensors 70 are provided on both surfaces of the wall surface 215 on the bending direction side and the wall surface 216 on the extension direction side of the first joint portion 22 in the first finger link portion 211.

(台座部)
次に、台座部4に内蔵された、アーム制御装置42、ハンド制御装置43、および画像情報処理装置44の構成について図12に基づいて説明する。アーム制御装置42はロボットアーム1のアーム機構3を制御するための制御装置である。ハンド制御装置43はロボットアーム1のハンド機構2を制御するための制御装置である。画像情報処理装置44は撮像装置8によって対象物10を含む画像が撮像されることで取得される画像情報を処理するための処理装置である。図12は、アーム制御装置42、ハンド制御装置43、および画像情報処理装置44に含まれる各機能部を示すブロック図である。
(Pedestal)
Next, configurations of the arm control device 42, the hand control device 43, and the image information processing device 44 built in the pedestal unit 4 will be described with reference to FIG. The arm control device 42 is a control device for controlling the arm mechanism 3 of the robot arm 1. The hand control device 43 is a control device for controlling the hand mechanism 2 of the robot arm 1. The image information processing device 44 is a processing device for processing image information acquired by capturing an image including the object 10 by the imaging device 8. FIG. 12 is a block diagram illustrating functional units included in the arm control device 42, the hand control device 43, and the image information processing device 44.

アーム制御装置42は、アーム機構3の各関節部に設けられたモータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、アーム制御装置42は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、アーム制御装置42は、機能部として、アーム制御部420およびモータ状態量取得部421を有している。これらの機能部は、アーム制御装置42に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。   The arm control device 42 includes a plurality of drivers that generate drive signals for driving the motors provided at the joints of the arm mechanism 3 so that the drive signals from the drivers are supplied to the corresponding motors. Configured. The arm control device 42 includes a computer having an arithmetic processing device and a memory. The arm control device 42 includes an arm control unit 420 and a motor state quantity acquisition unit 421 as functional units. These functional units are formed by executing a predetermined control program in a computer included in the arm control device 42.

アーム制御部420は、ハンド制御装置43が有する機能部である後述の対象物情報取得部430によって取得された対象物情報に基づいて各ドライバから駆動信号を供給することで、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータを制御する。そして、アーム制御部420は、各モータを制御することでアーム機構3を動かし、それによって、ハンド機構2の位置を所望の位置(ハンド機構2によって対象物10を把持することが可能な位置)に移動させる。また、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータには、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータのエンコーダによって検出さ
れた各モータの状態量が、アーム制御装置42のモータ状態量取得部421に入力される。そして、アーム制御部420は、モータ状態量取得部421に入力された各モータの状態量に基づいて、ハンド機構2が所望の位置に移動するように各モータをサーボ制御する。
The arm control unit 420 supplies each driver of the arm mechanism 3 by supplying a drive signal from each driver based on target information acquired by a target information acquisition unit 430 described later, which is a functional unit of the hand control device 43. The motors provided in the joint portions 30a, 30b, 30c, 30d, 30e, and 30f are controlled. Then, the arm control unit 420 controls the motors to move the arm mechanism 3, thereby changing the position of the hand mechanism 2 to a desired position (position where the hand mechanism 2 can grip the object 10). Move to. In addition, the motors provided in the joint portions 30a, 30b, 30c, 30d, 30e, and 30f of the arm mechanism 3 detect state quantities (such as the rotational position and rotational speed of the rotation shaft of the motor) related to the respective rotational states. An encoder (not shown) is provided. Then, the state quantity of each motor detected by the encoder of each motor is input to the motor state quantity acquisition unit 421 of the arm control device 42. Then, the arm control unit 420 servo-controls each motor so that the hand mechanism 2 moves to a desired position based on the state quantity of each motor input to the motor state quantity acquisition unit 421.

また、ハンド制御装置43は、ハンド機構2に設けられた各モータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、ハンド制御装置43は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、ハンド制御装置43は、機能部として、対象物情報取得部430、ハンド制御部431、モータ状態量取得部432、およびセンサ情報取得部433を有している。これらの機能部は、ハンド制御装置43に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。   The hand control device 43 includes a plurality of drivers that generate drive signals for driving the motors provided in the hand mechanism 2 so that the drive signals from the drivers are supplied to the corresponding motors. Composed. The hand control device 43 includes a computer having an arithmetic processing device and a memory. And the hand control apparatus 43 has the target object information acquisition part 430, the hand control part 431, the motor state quantity acquisition part 432, and the sensor information acquisition part 433 as a function part. These functional units are formed by executing a predetermined control program in a computer included in the hand control device 43.

対象物情報取得部430は、ハンド機構2よって把持すべき対象物に関する情報である対象物情報を画像情報処理装置44から取得する。また、ハンド制御部431は、対象物情報取得部430によって取得された対象物情報に基づいて各ドライバから駆動信号を供給することで、ハンド機構2の各指部21を駆動させる各第1モータ51、各第2モータ52、および各第3モータ53を制御する。これにより、ハンド機構2の複数の指部21によって対象物10が把持される。また、ハンド機構2の各第1モータ51、各第2モータ52、および各第3モータ53には、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータ51、52、53のエンコーダによって検出された各モータ51、52、53の状態量が、ハンド制御装置43のモータ状態量取得部432に入力される。そして、ハンド制御部431は、モータ状態量取得部432に入力された各モータ51、52、53の状態量に基づいて、複数の指部21によって対象物を把持するように、各指部21における各モータ51、52、53をサーボ制御する。   The object information acquisition unit 430 acquires object information that is information related to an object to be gripped by the hand mechanism 2 from the image information processing apparatus 44. In addition, the hand control unit 431 supplies the driving signal from each driver based on the object information acquired by the object information acquiring unit 430, thereby driving each finger unit 21 of the hand mechanism 2. 51, each 2nd motor 52, and each 3rd motor 53 are controlled. Thereby, the target object 10 is gripped by the plurality of finger portions 21 of the hand mechanism 2. In addition, the first motor 51, the second motor 52, and the third motor 53 of the hand mechanism 2 detect state quantities (such as the rotational position and rotational speed of the rotation shaft of the motor) related to the respective rotational states. An encoder (not shown) is provided. Then, the state quantities of the motors 51, 52, 53 detected by the encoders of the motors 51, 52, 53 are input to the motor state quantity acquisition unit 432 of the hand control device 43. The hand control unit 431 then moves each finger unit 21 so that the plurality of finger units 21 hold the object based on the state quantities of the motors 51, 52, and 53 input to the motor state quantity acquisition unit 432. Servo-controls the motors 51, 52, and 53 in FIG.

さらに、ハンド制御装置43はセンサ情報取得部(図示略)を有している。センサ情報取得部には、ハンド機構2の各指部21の第1指リンク部211に設けられた感圧センサ70の検出値が入力される。そして、ハンド制御部431は、各感圧センサ70によって、各指部21の対象物への接触が検知された場合に、その検知信号に基づいて各指部21における各モータ51、52、53を制御することもできる。   Furthermore, the hand control device 43 has a sensor information acquisition unit (not shown). A detection value of the pressure-sensitive sensor 70 provided in the first finger link unit 211 of each finger unit 21 of the hand mechanism 2 is input to the sensor information acquisition unit. And when the contact of each finger part 21 to the object is detected by each pressure-sensitive sensor 70, the hand control unit 431, based on the detection signal, each motor 51, 52, 53 in each finger part 21. Can also be controlled.

画像情報処理装置44は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、画像情報処理装置44は、機能部として、画像情報取得部440、対象物認識部441、判定部442、設定部443、および把持面決定部444を有している。これらの機能部は、画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。また、画像情報処理装置44による画像情報の処理結果が対象物情報としてハンド制御部431の対象物情報取得部430に入力される。なお、画像情報処理装置44における各機能部が果たす機能については後述する。   The image information processing device 44 includes a computer having an arithmetic processing device and a memory. The image information processing apparatus 44 includes an image information acquisition unit 440, an object recognition unit 441, a determination unit 442, a setting unit 443, and a gripping surface determination unit 444 as functional units. These functional units are formed by executing a predetermined control program in a computer included in the image information processing apparatus 44. Further, the processing result of the image information by the image information processing device 44 is input to the object information acquisition unit 430 of the hand control unit 431 as the object information. The functions performed by the respective function units in the image information processing apparatus 44 will be described later.

(画像情報処理)
ここで、画像情報処理装置44において行われる画像情報処理について図13〜図18に基づいて説明する。図13は対象物10の形状および後述する該対象物における判定ポイントの位置の一例を示す図である。図13に示すように、対象物10の形状は直方体である。そして、本実施例に係る把持システム100においては、上述したように、対象物10とその周囲を含んだ画像を該対象物の上方から撮像装置8によって撮像する。そのため、対象物10の上面S1が撮像装置8による撮像の対象となる。そして、対象物10において、上面S1とその各辺を挟んで該上面S1と隣り合う各平面、すなわち、対象物10の各側面を側面S2〜S5とする。
(Image information processing)
Here, the image information processing performed in the image information processing apparatus 44 will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of the shape of the object 10 and the position of a determination point on the object to be described later. As shown in FIG. 13, the shape of the target object 10 is a rectangular parallelepiped. And in the holding | grip system 100 which concerns on a present Example, as above-mentioned, the image containing the target object 10 and its periphery is imaged with the imaging device 8 from the upper direction of this target object. Therefore, the upper surface S <b> 1 of the object 10 is an object to be imaged by the imaging device 8. And in the target object 10, each plane which adjoins this upper surface S1 across the upper surface S1 and its each side, ie, each side surface of the target object 10, is made into the side surfaces S2-S5.

ハンド機構2によって対象物10を把持しようとした場合、該対象物10の側面S2〜S5のいずれかに指部21を接触させ、該指部21によって該対象物10を挟み込む必要がある。ただし、対象物10が、例えばその収容容器や他の対象物のような周辺物体と接触した状態で載置されている場合、該対象物10における該周辺物体と接触している側面にはハンド機構2の指部21を接触させることができないこととなる。したがって、ハンド機構2によって対象物10を把持する際には、載置されている該対象物10において、どの側面が指部21による接触が可能な側面(以下、「指接触可能面」と称する場合もある。)であるのかを把握し、その上で、把持のために該指部21を実際に接触させる側面(以下、「把持面」と称する場合もある。)を決定する必要がある。   When the object 10 is to be gripped by the hand mechanism 2, it is necessary to bring the finger part 21 into contact with any one of the side surfaces S <b> 2 to S <b> 5 of the object 10 and pinch the object 10 by the finger part 21. However, when the target object 10 is placed in contact with a peripheral object such as a container or other target object, a hand is not placed on the side surface of the target object 10 that is in contact with the peripheral object. The finger part 21 of the mechanism 2 cannot be brought into contact. Therefore, when the object 10 is gripped by the hand mechanism 2, which side surface of the placed object 10 can be contacted by the finger portion 21 (hereinafter referred to as “finger contactable surface”). It is necessary to determine the side surface (hereinafter also referred to as “gripping surface”) on which the finger portion 21 is actually brought into contact for grasping. .

そこで、本実施例では、画像情報処理装置44における画像情報処理によって、対象物10における指接触可能面を把握するとともに把持面を決定する。具体的には、本実施例では、対象物10において撮像装置8による撮像の対象となる上面S1を形成する各辺の中点および該上面の各頂点が判定ポイントとして予め設定されている。図13においては、対象物10の上面S1における各判定ポイントがP1〜P8で示されている。   Therefore, in this embodiment, the finger contactable surface of the object 10 is grasped and the grip surface is determined by image information processing in the image information processing device 44. Specifically, in this embodiment, the midpoint of each side forming the upper surface S1 to be imaged by the imaging device 8 in the object 10 and each vertex of the upper surface are preset as determination points. In FIG. 13, each determination point on the upper surface S <b> 1 of the object 10 is indicated by P <b> 1 to P <b> 8.

図13に示すように、対象物10が周辺物体と何ら接触していない状態で載置されている場合、撮像装置8によって撮像されることで取得された画像情報(以下、単に「画像情報」と称する場合もある。)において、対象物10の上面S1における各判定ポイントP1〜P8はいずれも周辺物体とは接触していない状態となる。換言すれば、画像情報において、対象物10の上面S1における各判定ポイントP1〜P8がいずれも周辺物体と接触していなければ、該対象物10の各側面S2〜S5は、いずれも周辺物体とは接触していないと判断できる。この場合、対象物10の側面S2〜S5の全てが指接触可能面として設定される。   As shown in FIG. 13, when the object 10 is placed in a state where it is not in contact with any surrounding objects, image information acquired by being imaged by the imaging device 8 (hereinafter simply “image information”). In other words, the determination points P1 to P8 on the upper surface S1 of the object 10 are not in contact with surrounding objects. In other words, in the image information, if each of the determination points P1 to P8 on the upper surface S1 of the target object 10 is not in contact with a peripheral object, each of the side surfaces S2 to S5 of the target object 10 is a peripheral object. Can be judged as not touching. In this case, all of the side surfaces S2 to S5 of the object 10 are set as finger-contactable surfaces.

また、図14〜図18は、対象物10が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物10の上面S1の各判定ポイントP1〜P8の状態の具体例を示す図である。なお、図13〜図18では、周辺物体と接触していない判定ポイントには丸印を付し、周辺物体と接触している判定ポイントにはバツ印を付している。   14 to 18 are specific examples of states of the determination points P1 to P8 on the upper surface S1 of the target object 10 in the image information when the target object 10 is placed in contact with a peripheral object. FIG. In FIG. 13 to FIG. 18, the determination points that are not in contact with the surrounding objects are marked with a circle, and the determination points that are in contact with the surrounding objects are marked with a cross.

図14では、対象物10の側面S5が壁(例えば、収容容器の内壁面)に接触した状態で該対象物10が載置されている。この場合、画像情報においては、対象物10の上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。そして、他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。   In FIG. 14, the object 10 is placed in a state where the side surface S <b> 5 of the object 10 is in contact with a wall (for example, the inner wall surface of the container). In this case, in the image information, the determination points P1, P8, and P7 set on the side sandwiched between the upper surface S1 and the side surface S5 of the object 10 are in contact with the wall. Then, the other determination points P2, P3, P4, P5, and P6 are not in contact with the surrounding objects.

また、図15では、対象物10aと対象物10bとが互いに接触した状態で並んで載置されている。この図15では、対象物10aの側面S5と対象物10bの側面S3とが接触している。この場合、画像情報において、対象物10aについては、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が対象物10bに接触した状態となる。そして、対象物10aにおける他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。一方で、対象物10bについては、その上面S1と側面S3とに挟まれた辺上に設定された判定ポイントP3、P4、P5が対象物10aに接触した状態となる。そして、対象物10bにおける他の判定ポイントP1、P2、P6、P7、P8は周辺物体とは接触していない状態となる。   Moreover, in FIG. 15, the target object 10a and the target object 10b are mounted side by side in the state which mutually contacted. In FIG. 15, the side surface S5 of the object 10a and the side surface S3 of the object 10b are in contact with each other. In this case, in the image information, the determination point P1, P8, P7 set on the side sandwiched between the upper surface S1 and the side surface S5 of the object 10a is in contact with the object 10b. Then, the other determination points P2, P3, P4, P5, and P6 on the object 10a are not in contact with surrounding objects. On the other hand, for the object 10b, the determination points P3, P4, and P5 set on the side sandwiched between the upper surface S1 and the side surface S3 are in contact with the object 10a. Then, the other determination points P1, P2, P6, P7, and P8 on the object 10b are not in contact with surrounding objects.

また、図16では、図15に示した対象物10aおよび対象物10bに加え、対象物10cが該対象物10aに接触した状態で並んで載置されている。この図16では、対象物10aの側面S3と対象物10cの側面S5とが接触している。この場合、画像情報にお
いて、対象物10aについては、判定ポイントP1、P8、P7が対象物10bに接触した状態となるとともに、その上面S1と側面S3とに挟まれた辺上に設定された判定ポイントP3、P4、P5も対象物10cに接触した状態となる。そして、対象物10aにおける他の判定ポイントP2、P6は周辺物体とは接触していない状態となる。また、対象物10cについては、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が対象物10aに接触した状態となる。そして、対象物10cにおける他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。
Further, in FIG. 16, in addition to the object 10a and the object 10b shown in FIG. 15, the object 10c is placed side by side in contact with the object 10a. In FIG. 16, the side surface S3 of the object 10a and the side surface S5 of the object 10c are in contact. In this case, in the image information, for the object 10a, the determination points P1, P8, P7 are in contact with the object 10b, and the determination is set on the side sandwiched between the upper surface S1 and the side surface S3. Points P3, P4, and P5 are also in contact with the object 10c. Then, the other determination points P2 and P6 in the object 10a are not in contact with the surrounding objects. Moreover, about the target object 10c, the determination points P1, P8, and P7 set on the side sandwiched between the upper surface S1 and the side surface S5 are in contact with the target object 10a. Then, the other determination points P2, P3, P4, P5, and P6 on the target object 10c are not in contact with the surrounding objects.

また、図17では、図16に示した対象物10a、対象物10b、および対象物10cに加え、対象物10dが該対象物10aに接触した状態で載置されている。この図17では、対象物10aの側面S4と対象物10dの側面S2とが接触している。この場合、画像情報において、対象物10aについては、判定ポイントP1、P8、P7が対象物10bに接触し、且つ、判定ポイントP3、P4、P5が対象物10cに接触した状態となるとともに、その上面S1と側面S4とに挟まれた辺上に設定された判定ポイントP5、P6、P7も対象物10dに接触した状態となる(判定ポイントP7は、対象物10bおよび対象物10dの両方に接触した状態となる。また、判定ポイントP5は、対象物10cおよび対象物10dの両方に接触した状態となる。)。そして、対象物10aにおける他の判定ポイントP2のみが周辺物体とは接触していない状態となる。また、対象物10dについては、その上面S1と側面S2とに挟まれた辺上に設定された判定ポイントP1、P2、P3が対象物10aに接触した状態となる。そして、対象物10dにおける他の判定ポイントP4、P5、P6、P7、P8は周辺物体とは接触していない状態となる。   Moreover, in FIG. 17, in addition to the target object 10a, the target object 10b, and the target object 10c shown in FIG. 16, the target object 10d is placed in contact with the target object 10a. In FIG. 17, the side surface S4 of the object 10a and the side surface S2 of the object 10d are in contact. In this case, in the image information, for the object 10a, the determination points P1, P8, and P7 are in contact with the object 10b, and the determination points P3, P4, and P5 are in contact with the object 10c. Determination points P5, P6, and P7 set on the side sandwiched between the upper surface S1 and the side surface S4 are also in contact with the object 10d (the determination point P7 is in contact with both the object 10b and the object 10d). In addition, the determination point P5 is in contact with both the object 10c and the object 10d.) And only the other determination point P2 in the target object 10a will be in the state which is not in contact with the surrounding object. In addition, for the object 10d, the determination points P1, P2, and P3 set on the side sandwiched between the upper surface S1 and the side surface S2 are in contact with the object 10a. Then, the other determination points P4, P5, P6, P7, and P8 on the object 10d are not in contact with the surrounding objects.

図18では、図17における対象物10bに代えて壁が対象物10aの側面S5に接触している。さらに、この壁に対象物10dの側面S5も接触している。この場合、画像情報において、対象物10aについては、判定ポイントP3、P4、P5が対象物10cに接触し、且つ、判定ポイントP5、P6、P7が対象物10dに接触した状態となるとともに、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。また、対象物10dについては、判定ポイントP1、P2、P3が対象物10aに接触した状態となるとともに、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。そして、対象物10dにおける他の判定ポイントP4、P5、P6は周辺物体とは接触していない状態となる。   In FIG. 18, the wall is in contact with the side surface S5 of the object 10a instead of the object 10b in FIG. Further, the side surface S5 of the object 10d is also in contact with this wall. In this case, in the image information, for the object 10a, the determination points P3, P4, and P5 are in contact with the object 10c, and the determination points P5, P6, and P7 are in contact with the object 10d. Determination points P1, P8, and P7 set on the side sandwiched between the upper surface S1 and the side surface S5 are in contact with the wall. Further, for the object 10d, the determination points P1, P2, and P3 are in contact with the object 10a, and the determination points P1, P8, which are set on the side sandwiched between the upper surface S1 and the side surface S5, P7 comes into contact with the wall. Then, the other determination points P4, P5, and P6 on the object 10d are not in contact with the surrounding objects.

以上説明したように、対象物10(10a、10b、10c、10d)におけるある側面(図14〜18において斜線部示す側面)が周辺物体に接触していた場合、画像情報において、該対象物10の上面と該側面とに挟まれた辺上の判定ポイントが該周辺物体に接触した状態となる。換言すれば、画像情報において周辺物体と接触している判定ポイントが並んでいる辺を挟んで上面S1と隣り合う側面は該周辺物体と接触していると判断できる。そして、対象物10において周辺物体と接触している側面は、ハンド機構2の指部21による接触が不可能な側面(以下、「指接触不可能面」と称する場合もある。)として設定することができる。また、画像情報において周辺物体と接触していない判定ポイントが位置する辺を挟んで上面S1と隣り合う側面は指接触可能面として設定することができる。   As described above, when a certain side surface (the side surface indicated by hatching in FIGS. 14 to 18) of the target object 10 (10a, 10b, 10c, 10d) is in contact with a peripheral object, the target object 10 is displayed in the image information. The determination point on the side sandwiched between the upper surface and the side surface of the lens is in contact with the peripheral object. In other words, it can be determined that the side surface adjacent to the top surface S1 is in contact with the peripheral object across the side where the determination points in contact with the peripheral object are arranged in the image information. Then, the side surface of the object 10 that is in contact with the surrounding object is set as a side surface that cannot be contacted by the finger portion 21 of the hand mechanism 2 (hereinafter also referred to as “finger contact impossible surface”). be able to. Further, the side surface adjacent to the upper surface S1 across the side where the determination point that is not in contact with the surrounding object in the image information is located can be set as a finger contactable surface.

そこで、本実施例に係る画像情報処理装置44では、画像情報において、対象物10の上面S1における各判定ポイントが周辺物体と接触しているか否かが判定部442によって判定される。そして、判定部442による判定結果に基づいて、対象物10の各側面が指接触可能面または指接触不可能面として設定される。   Therefore, in the image information processing apparatus 44 according to the present embodiment, the determination unit 442 determines whether or not each determination point on the upper surface S1 of the target object 10 is in contact with the surrounding object in the image information. And based on the determination result by the determination part 442, each side surface of the target object 10 is set as a finger contact possible surface or a finger contact impossible surface.

(画像情報処理のフロー)
次に、画像情報処理装置44において行われる画像情報処理のフローについて図19に示すフローチャートに基づいて説明する。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。本フローでは、先ずS101において、画像情報取得部440によって撮像装置8から画像情報が取得される。次に、S102において、対象物認識部441によって、画像情報取得部440が取得した画像情報から対象物10が認識される。ここで、画像情報処理装置44には、対象物10の形状および寸法がユーザによって予め入力されている。対象物認識部441は、この予め入力された情報に基づいて画像情報から対象物10を抽出することで、該対象物10を認識する。また、画像情報に複数の対象物10が含まれていれば、対象物認識部441は、該複数の対象物10を個々に認識する。
(Image information processing flow)
Next, the flow of image information processing performed in the image information processing apparatus 44 will be described based on the flowchart shown in FIG. This flow of image information processing is realized by executing a predetermined processing program in the image information processing apparatus 44. In this flow, first, in S101, image information is acquired from the imaging apparatus 8 by the image information acquisition unit 440. In step S <b> 102, the object recognition unit 441 recognizes the object 10 from the image information acquired by the image information acquisition unit 440. Here, in the image information processing apparatus 44, the shape and dimensions of the object 10 are input in advance by the user. The target object recognition unit 441 recognizes the target object 10 by extracting the target object 10 from the image information based on the previously input information. Further, if the plurality of objects 10 are included in the image information, the object recognition unit 441 recognizes the plurality of objects 10 individually.

次に、S103において、対象物認識部441によって認識された対象物10について、図13〜図18において例示したように、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。このとき、対象物認識部441によって複数の対象物10が認識されていれば、判定部442による当該判定が各対象物10に対して実行される。   Next, in S103, for the target object 10 recognized by the target object recognition unit 441, the determination points P1 to P8 on the upper surface S1 of the target object 10 are in contact with surrounding objects as illustrated in FIGS. Whether or not the determination is made is determined by the determination unit 442. At this time, if a plurality of objects 10 are recognized by the object recognition unit 441, the determination by the determination unit 442 is performed on each object 10.

次に、S104において、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。ここでも、対象物認識部441によって複数の対象物10が認識されていれば、設定部443による当該設定が各対象物10に対して実行される。これにより、図13〜図18の場合は、対象物10(10a、10b、10c、10d)において、斜線部で示す側面が指接触不可能面として設定され、それ以外の側面が指接触可能面として設定されることになる。   Next, in S104, based on the determination result by the determination unit 442, the setting unit 443 sets each side surface of the object 10 as a finger contactable surface or a finger contact impossible surface. Again, if a plurality of objects 10 are recognized by the object recognition unit 441, the setting by the setting unit 443 is executed for each object 10. Accordingly, in the case of FIGS. 13 to 18, in the target object 10 (10 a, 10 b, 10 c, 10 d), the side surface indicated by the hatched portion is set as the finger contact impossible surface, and the other side surfaces are the finger contact possible surfaces. Will be set as

次に、S105において、設定部443によって設定された指接触可能面および指接触不可能面の状況に基づいて、把持面決定部444によって対象物10における把持面が決定される。例えば、ハンド機構2の指部21によって対象物10を挟み込む場合、把持面は対象物10において互いに平行な二つの側面を把持面とするのが好ましい。そのため、例えば、図14のような場合は、対象物10における側面S2と側面S4とを把持面として決定してもよい。また、図15、16における対象物10a、10b、または10cを把持する際にも、それぞれにおける側面S2と側面S4とを把持面として決定してもよい。また、図17における対象物10a、10c、または、図18における対象物10cを把持する際にも、それぞれにおける側面S2と側面S4とを把持面として決定してもよい。また、図17における対象物10dを把持する際には、側面S3と側面S5とを把持面として決定してもよい。   Next, in S <b> 105, the gripping surface of the object 10 is determined by the gripping surface determination unit 444 based on the situation of the finger-contactable surface and the finger-contact impossible surface set by the setting unit 443. For example, when the object 10 is sandwiched between the finger parts 21 of the hand mechanism 2, it is preferable that the gripping surface be two gripping surfaces parallel to each other in the object 10. Therefore, for example, in the case of FIG. 14, the side surface S2 and the side surface S4 of the object 10 may be determined as the gripping surface. Further, when the objects 10a, 10b, or 10c in FIGS. 15 and 16 are gripped, the side surface S2 and the side surface S4 may be determined as the gripping surfaces. Also, when the objects 10a and 10c in FIG. 17 or the object 10c in FIG. 18 is gripped, the side surface S2 and the side surface S4 may be determined as the gripping surfaces. Further, when gripping the object 10d in FIG. 17, the side surface S3 and the side surface S5 may be determined as the gripping surface.

本フローによれば、撮像装置8によって対象物10を含む画像を撮像することで取得される画像情報に基づいて、対象物10において、どの側面が指接触可能平面であり、どの側面が指接触不可能面であるかを適切に把握することができる。また、その上で、対象物を把持する際の把持面を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる対象物10の把持面に関する情報が、該対象物10の形状および寸法に関する情報と共に、対象物情報として、ハンド制御装置43の対象物情報取得部430に入力される。そして、ハンド機構2によって対象物10を把持すべく、ハンド制御部431が対象物情報に基づいて該ハンド機構2を制御する。   According to this flow, based on image information acquired by imaging an image including the object 10 by the imaging device 8, which side of the object 10 is a finger-contactable plane and which side is finger-contacted. It is possible to appropriately grasp whether it is impossible. In addition, the gripping surface for gripping the object can be suitably determined. Then, the information on the gripping surface of the target object 10 obtained as a result of the image information processing by the image information processing apparatus 44 is used as the target object information together with the information on the shape and dimensions of the target object 10. The information is input to the information acquisition unit 430. Then, the hand control unit 431 controls the hand mechanism 2 based on the object information in order to hold the object 10 by the hand mechanism 2.

なお、本実施例では、対象物10の上面S1における判定ポイントの設定位置を、図13に示すように、該上面S1を形成する各辺の中点および該上面S1の各頂点とした。ただし、対象物10の上面S1における判定ポイントの設定位置は、必ずしもこのような位
置には限られず、該上面S1を形成する各辺上の所定の位置であればよい。
In the present embodiment, the determination point setting position on the upper surface S1 of the object 10 is set to the midpoint of each side forming the upper surface S1 and each vertex of the upper surface S1, as shown in FIG. However, the setting position of the determination point on the upper surface S1 of the target object 10 is not necessarily limited to such a position, and may be a predetermined position on each side forming the upper surface S1.

<実施例2>
本実施例に係る把持システムにおいては、ロボットアーム1の台座部4に内蔵された画像情報処理装置44の構成が実施例1と異なっている。図20は本実施例に係る画像情報処理装置44に含まれる各機能部を示すブロック図である。図20に示すように、本実施例では、画像情報処理装置44が、図12に示す把持面決定部444に代えて把持対象決定部445を備えている。なお、他の機能部と同様、把持対象決定部445も画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
<Example 2>
In the gripping system according to the present embodiment, the configuration of the image information processing apparatus 44 built in the pedestal portion 4 of the robot arm 1 is different from that of the first embodiment. FIG. 20 is a block diagram illustrating each functional unit included in the image information processing apparatus 44 according to the present embodiment. As shown in FIG. 20, in this embodiment, the image information processing apparatus 44 includes a gripping target determining unit 445 instead of the gripping surface determining unit 444 shown in FIG. As with other functional units, the gripping target determining unit 445 is formed by executing a predetermined control program in a computer included in the image information processing apparatus 44.

本実施例に係る画像情報処理装置44においても、対象物認識部441によって認識された対象物10について、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。さらに、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。また、このときに、対象物認識部441によって複数の対象物10が認識されていれば、判定部442による各判定ポイントP1〜P8が周辺物体と接触しているか否かの判定、および、設定部443による指接触可能面および指接触不可能面の設定が各対象物10に対して実行される。そして、本実施例では、さらに、対象物認識部441によって認識された複数の対象物10のうち、どの対象物10をハンド機構2による今回の把持の対象とするのかが、各対象物10における指接触可能面および指接触不可能面の状況に基づいて把持対象決定部445によって決定される。   Also in the image information processing apparatus 44 according to the present embodiment, with respect to the target object 10 recognized by the target object recognition unit 441, whether or not the determination points P1 to P8 on the upper surface S1 of the target object 10 are in contact with surrounding objects. The determination unit 442 determines whether or not. Furthermore, based on the determination result by the determination unit 442, the setting unit 443 sets each side surface of the object 10 as a finger-contactable surface or a finger-contactless surface. At this time, if a plurality of objects 10 are recognized by the object recognition unit 441, the determination unit 442 determines whether or not each of the determination points P1 to P8 is in contact with a surrounding object, and is set. The setting of the finger contact possible surface and the finger contact impossible surface by the unit 443 is executed for each object 10. In the present embodiment, among the plurality of objects 10 recognized by the object recognition unit 441, which object 10 is the object of the current gripping by the hand mechanism 2 is determined in each object 10. It is determined by the gripping target determination unit 445 based on the situation of the finger contactable surface and the finger contact impossible surface.

上述したように、ハンド機構2によって対象物10を把持しようとした場合、該ハンド機構2の指部21によって該対象物10を挟み込む必要がある。この場合、対象物10における互いに対抗する二つの側面のそれぞれに指部21を接触させた上で、該指部21によって該対象物10を挟み込むのが好ましい。そこで、本実施例では、複数の対象物10からハンド機構2による把持の対象を決定する場合に、互いに対抗する一対の指接触可能面が存在する対象物10を把持の対象として選択する。   As described above, when the object 10 is to be gripped by the hand mechanism 2, it is necessary to sandwich the object 10 by the finger portion 21 of the hand mechanism 2. In this case, it is preferable that the object 10 is sandwiched between the finger parts 21 after the finger parts 21 are brought into contact with the two side surfaces of the object 10 facing each other. Therefore, in this embodiment, when the object to be grasped by the hand mechanism 2 is determined from the plurality of objects 10, the object 10 having a pair of finger-contactable surfaces that oppose each other is selected as the object to be grasped.

例えば、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合、対象物10bおよび対象物10cでは、側面S2および側面S4が互いに対抗する一対の指接触可能面となっている。また、対象物10dでは、側面S3および側面S5が互いに対抗する一対の指接触可能面となっている。ただし、対象物10aには、互いに対抗する一対の指接触可能面が存在していない。そこで、このような状況では、把持対象決定部445が、対象物10b、対象物10c、または対象物10dを、ハンド機構2による把持の対象に決定する。また、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合、互いに対抗する一対の指接触可能面が存在するのは対象物10cのみである(対象物10cでは、側面S2および側面S4が互いに対抗する一対の指接触可能面となっている。)。そこで、このような状況では、把持対象決定部445が、対象物10cをハンド機構2による把持の対象に決定する。   For example, when the target object 10a, the target object 10b, the target object 10c, and the target object 10d are placed in the state shown in FIG. 17, in the target object 10b and the target object 10c, the side surface S2 and the side surface S4 are mutually connected. It becomes a pair of finger contactable surface which opposes. In the object 10d, the side surface S3 and the side surface S5 are a pair of finger-contactable surfaces that oppose each other. However, the object 10a does not have a pair of finger-contactable surfaces that oppose each other. Therefore, in such a situation, the gripping target determination unit 445 determines the target object 10b, the target object 10c, or the target object 10d as a target to be gripped by the hand mechanism 2. In addition, when the target object 10a, the target object 10c, and the target object 10d are placed in the state shown in FIG. 18, only the target object 10c has a pair of finger-contactable surfaces that oppose each other. (In the object 10c, the side surface S2 and the side surface S4 are a pair of finger-contactable surfaces that oppose each other.) Therefore, in such a situation, the gripping target determination unit 445 determines the target object 10c as a target to be gripped by the hand mechanism 2.

図21は、本実施例に係る、画像情報処理装置44において行われる画像情報処理のフローを示すフローチャートである。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。なお、本フローにおけるS101〜S104は、図19に示すフローと同様のステップである。そのため、これらのステップでの処理についての説明は省略する。   FIG. 21 is a flowchart illustrating a flow of image information processing performed in the image information processing apparatus 44 according to the present embodiment. This flow of image information processing is realized by executing a predetermined processing program in the image information processing apparatus 44. Note that S101 to S104 in this flow are the same steps as the flow shown in FIG. Therefore, the description about the process in these steps is omitted.

本フローでは、S104の次にS205の処理が実行される。S205では、設定部4
43によって設定された各対象物10での指接触可能面および指接触不可能面の状況に基づいて、把持対象決定部445によってハンド機構2による今回の把持の対象となる対象物10が決定される。
In this flow, the process of S205 is executed after S104. In S205, the setting unit 4
Based on the situation of the finger contactable surface and the finger non-contactable surface of each object 10 set by 43, the object 10 to be grasped this time by the hand mechanism 2 is determined by the grasping object determination unit 445. The

本フローによれば、撮像装置8によって複数の対象物10を含む画像を撮像することで取得される画像情報に基づいて、ハンド機構2による把持の対象となる対象物10を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる今回の把持の対象となる対象物10に関する情報が、該対象物10の形状および寸法に関する情報と共に、対象物情報として、ハンド制御装置43の対象物情報取得部430に入力される。そして、ハンド機構2によって今回の把持の対象となる対象物10を把持すべく、ハンド制御部431が対象物情報に基づいて該ハンド機構2を制御する。   According to this flow, the object 10 to be gripped by the hand mechanism 2 is suitably determined based on image information acquired by capturing an image including a plurality of objects 10 by the imaging device 8. Can do. Then, the information about the target object 10 to be gripped this time obtained as a result of the image information processing by the image information processing apparatus 44 is used as the target object information together with the information about the shape and dimensions of the target object 10. It is input to 43 object information acquisition unit 430. Then, the hand control unit 431 controls the hand mechanism 2 based on the target object information so as to hold the target object 10 to be gripped this time by the hand mechanism 2.

<実施例3>
本実施例に係る把持システムにおいては、ロボットアーム1の台座部4に内蔵された画像情報処理装置44の構成が実施例1と異なっている。図22は本実施例に係る画像情報処理装置44に含まれる各機能部を示すブロック図である。図22に示すように、本実施例では、画像情報処理装置44が、図12に示す把持面決定部444に代えて把持形態決定部446を備えている。なお、他の機能部と同様、把持形態決定部446も画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
<Example 3>
In the gripping system according to the present embodiment, the configuration of the image information processing apparatus 44 built in the pedestal portion 4 of the robot arm 1 is different from that of the first embodiment. FIG. 22 is a block diagram illustrating each functional unit included in the image information processing apparatus 44 according to the present embodiment. As shown in FIG. 22, in this embodiment, the image information processing apparatus 44 includes a gripping form determination unit 446 instead of the gripping surface determination unit 444 shown in FIG. As with other functional units, the gripping form determining unit 446 is formed by executing a predetermined control program in a computer included in the image information processing apparatus 44.

ここで、本実施例に係る、対象物10をハンド機構2によって把持する際の把持形態の具体例である直接把持および傾倒把持について図23〜図26説明する。なお、ここでは、ハンド機構2の各指部21を、それぞれ、第1指部21A、第2指部21B、第3指部21C、第4指部21Dと称する。図23は、直接把持によって対象物10を把持したときのハンド機構2および該対象物10の状態を示す図である。図23に示すように、載置された対象物10が何ら周辺物体と接触していない場合であれば、該対象物10を、そのままの状態でハンド機構2の指部21によって挟み込んで把持することができる。このように、対象物10を載置された状態のままでハンド機構2によって把持する把持形態を直接把持と称する。このような直接把持による対象物10の把持は、該対象物10において、互いに対抗する一対の指接触可能面が少なくとも一組存在しているような状況であれば実施することが可能となる。   Here, direct gripping and tilting gripping, which are specific examples of gripping forms when the object 10 is gripped by the hand mechanism 2, according to the present embodiment, will be described with reference to FIGS. Here, each finger part 21 of the hand mechanism 2 is referred to as a first finger part 21A, a second finger part 21B, a third finger part 21C, and a fourth finger part 21D, respectively. FIG. 23 is a diagram illustrating the state of the hand mechanism 2 and the target object 10 when the target object 10 is gripped by direct gripping. As shown in FIG. 23, if the placed object 10 is not in contact with any surrounding objects, the object 10 is sandwiched and held by the finger part 21 of the hand mechanism 2 as it is. be able to. In this way, a gripping form in which the object 10 is held by the hand mechanism 2 while being placed is referred to as direct gripping. Such gripping of the object 10 by direct gripping can be performed in the situation where there is at least one pair of finger-contactable surfaces facing each other on the object 10.

また、図24〜図26は、傾倒把持によって対象物10を把持したときのハンド機構2および該対象物10の状態を示す図である。なお、図24および図25は、ハンド機構2の第1指部21Aによって対象物10を傾倒させる際の動作を示す図である。また、図26は、ハンド機構2の第2指部21B、第3指部21C、および第4指部21Dによって対象物10を把持した状態を示す図である。この図24〜図26に示すように、対象物10を傾倒させてからハンド機構2によって把持する把持形態を傾倒把持と称する。   24 to 26 are diagrams showing the state of the hand mechanism 2 and the object 10 when the object 10 is gripped by tilting gripping. 24 and 25 are diagrams illustrating an operation when the object 10 is tilted by the first finger portion 21A of the hand mechanism 2. FIG. FIG. 26 is a diagram illustrating a state where the object 10 is gripped by the second finger part 21B, the third finger part 21C, and the fourth finger part 21D of the hand mechanism 2. As shown in FIGS. 24 to 26, a gripping form in which the object 10 is tilted and then gripped by the hand mechanism 2 is referred to as tilt gripping.

より詳細には、図24では、対象物10が隣接する他の対象物10と接触した状態で並んで載置されている。このような場合でも、対象物10の上面S1にはハンド機構2の指部21を接触させることができる。そこで、先ず、図24に示すように、第1指部21Aの第1指リンク部211Aを対象物10の上面S1に接触させる。なお、このときに、第1指部21Aを対象物10の上面S1に接触させた状態では、ハンド機構2における他の指部21B、21C、21Dは、対象物10には接触していない。そして、次に、図25に示すように、第1指部21Aによって、その第1指リンク部211Aを対象物10の上面S1に接触させた状態で、該対象物10を手前に傾ける。このように、第1指部21Aによって対象物10の姿勢を変更することで、該対象物10と、隣接する対象物10´との間隔を大きくすることができる。これにより、対象物10において、隣接する対象物1
0´と接触しており、載置された状態のままでは指接触不可能面であった側面にも、ハンド機構2の指部21を接触させることが可能な状況となる。そして、次に、図26に示すように、第1指部21Aによって対象物10を傾倒させた状態で、第2指部21B、第3指部21C、および第4指部21Dによって該対象物10を挟み込んで把持する。このような傾倒把持による対象物10の把持は、該対象物10において、互いに対抗する二つの指接触可能面が存在していなくても、指接触可能面が少なくとも一つ存在しているような状況であれば、該指接触可能面側に該対象物10を傾倒させることで実施することが可能となる。
In more detail, in FIG. 24, the target object 10 is mounted side by side in the state which contacted the other target object 10 which adjoins. Even in such a case, the finger part 21 of the hand mechanism 2 can be brought into contact with the upper surface S1 of the object 10. Therefore, first, as shown in FIG. 24, the first finger link portion 211A of the first finger portion 21A is brought into contact with the upper surface S1 of the object 10. At this time, in a state where the first finger portion 21A is in contact with the upper surface S1 of the object 10, the other finger portions 21B, 21C, and 21D in the hand mechanism 2 are not in contact with the object 10. Then, as shown in FIG. 25, the object 10 is tilted forward by the first finger part 21A in a state where the first finger link part 211A is in contact with the upper surface S1 of the object 10. Thus, by changing the posture of the object 10 by the first finger portion 21A, the interval between the object 10 and the adjacent object 10 ′ can be increased. Thereby, in the target object 10, the adjacent target object 1
It is in a state in which the finger part 21 of the hand mechanism 2 can be brought into contact with the side surface that is in contact with 0 ′ and cannot be touched with the finger when it is placed. Then, as shown in FIG. 26, the object is moved by the second finger part 21B, the third finger part 21C, and the fourth finger part 21D in a state where the object 10 is tilted by the first finger part 21A. 10 is sandwiched and held. The gripping of the target object 10 by such tilted gripping is such that at least one finger-contactable surface exists in the target object 10 even if there are no two finger-contactable surfaces facing each other. If it is a situation, it can be carried out by tilting the object 10 toward the finger-contactable surface side.

このように、本実施例に係るロボットアーム1は、直接把持のみならず、傾倒把持によって対象物10を把持することが可能となっている。そして、対象物10が、直接把持では把持することができない状況下にあってとしても、傾倒把持によって把持することが可能な場合があり得る。そこで、対象物10をハンド機構2によって把持する際の把持形態を、対象物10における指接触可能面および指接触不可能面の状況に基づいて決定する。   As described above, the robot arm 1 according to the present embodiment can grip the object 10 not only by direct gripping but also by tilting gripping. Even when the object 10 cannot be gripped by direct gripping, it may be possible to grip by tilting gripping. Therefore, the gripping mode when the object 10 is gripped by the hand mechanism 2 is determined based on the situation of the finger contactable surface and the finger contact impossible surface of the object 10.

ここで、本実施例に係る画像情報処理装置44においても、対象物認識部441によって認識された対象物10について、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。さらに、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。そして、本実施例では、さらに、対象物10をハンド機構2によって把持する際の把持形態が、対象物10における指接触可能面および指接触不可能面の状況に基づいて把持形態決定部446によって決定される。   Here, also in the image information processing apparatus 44 according to the present embodiment, for the target object 10 recognized by the target object recognition unit 441, the determination points P1 to P8 on the upper surface S1 of the target object 10 come into contact with surrounding objects. It is determined by the determination unit 442 whether or not it is present. Furthermore, based on the determination result by the determination unit 442, the setting unit 443 sets each side surface of the object 10 as a finger-contactable surface or a finger-contactless surface. In the present embodiment, the grip form when gripping the object 10 by the hand mechanism 2 is further determined by the grip form determining unit 446 based on the situation of the finger contactable surface and the finger contact impossible surface of the object 10. It is determined.

例えば、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在している対象物10b、対象物10c、または対象物10dを把持対象とした場合、把持形態決定部446が、把持形態を直接把持に決定する。一方で、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在していない対象物10aを把持対象とした場合、把持形態決定部446が、把持形態を傾倒把持に決定する。そして、この場合は、対象物10aを、指接触可能面となっている側面S2側に傾倒させることで、傾倒把持が実施される。   For example, when the object 10a, the object 10b, the object 10c, and the object 10d are placed in the state shown in FIG. 17, there is a pair of finger-contactable surfaces that oppose each other. When the object 10b, the object 10c, or the object 10d is the object to be grasped, the grasping form determining unit 446 determines the grasping form to be directly grasped. On the other hand, when the target object 10a, the target object 10b, the target object 10c, and the target object 10d are placed in the state shown in FIG. 17, there is no pair of finger-contactable surfaces that oppose each other. When the object 10a is set as a gripping object, the gripping form determination unit 446 determines the gripping form as tilted gripping. In this case, tilting gripping is performed by tilting the object 10a toward the side surface S2 that is a finger-contactable surface.

また、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在している対象物10cを把持対象とした場合、把持形態決定部446が、把持形態を直接把持に決定する。一方で、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在していない対象物10aまたは対象物10dを把持対象とした場合、把持形態決定部446が、把持形態を傾倒把持に決定する。そして、このときに、対象物10aを把持対象とした場合は、該対象物10aを、指接触可能面となっている側面S2側に傾倒させることで、傾倒把持が実施される。また、対象物10dを把持対象とした場合は、該対象物10dを、指接触可能面となっている側面S3または側面S4側に傾倒させることで、傾倒把持が実施される。   In addition, when the object 10a, the object 10c, and the object 10d are placed in the state shown in FIG. 18, the object 10c having a pair of finger-contactable surfaces that oppose each other is grasped. In the case of a target, the gripping form determination unit 446 determines that the gripping form is direct gripping. On the other hand, when the target object 10a, the target object 10c, and the target object 10d are placed in the state shown in FIG. 18, the target object 10a that does not have a pair of finger-contactable surfaces that oppose each other or When the object 10d is set as a gripping target, the gripping form determination unit 446 determines the gripping form as tilted gripping. At this time, when the target object 10a is set as a gripping target, the target object 10a is tilted and gripped by tilting the target object 10a toward the side surface S2 that is a finger-contactable surface. In addition, when the object 10d is set as a gripping object, the object 10d is tilted and gripped by tilting the object 10d toward the side surface S3 or the side surface S4 that is a finger-contactable surface.

図27は、本実施例に係る、画像情報処理装置44において行われる画像情報処理のフローを示すフローチャートである。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。なお、本フローにおけるS101〜S104は、図19に示すフローと同様のステップである。そのため、これらのステップでの処理についての説明は省略する。   FIG. 27 is a flowchart illustrating a flow of image information processing performed in the image information processing apparatus 44 according to the present embodiment. This flow of image information processing is realized by executing a predetermined processing program in the image information processing apparatus 44. Note that S101 to S104 in this flow are the same steps as the flow shown in FIG. Therefore, the description about the process in these steps is omitted.

本フローでは、S104の次にS305の処理が実行される。S305では、設定部443によって設定された対象物10での指接触可能面および指接触不可能面の状況に基づいて、把持形態決定部446によって今回の把持形態が決定される。詳細には、対象物10において、互いに対向する一対の指接触可能面が存在していれば、把持形態決定部446が把持形態を直接把持に決定する。また、対象物10において、互いに対向する一対の指接触可能面が存在しておらず、且つ、少なくとも一つの指接触可能面が存在していれば、把持形態決定部446が把持形態を傾倒把持に決定する。   In this flow, the process of S305 is executed after S104. In S <b> 305, the current gripping form is determined by the gripping form determination unit 446 based on the situation of the finger-contactable surface and the finger-impossible surface on the object 10 set by the setting unit 443. Specifically, if there is a pair of finger-contactable surfaces facing each other on the object 10, the gripping form determining unit 446 determines the gripping form to be directly gripped. In addition, in the object 10, if there is no pair of finger-contactable surfaces facing each other and at least one finger-contactable surface is present, the gripping form determination unit 446 tilts and grips the gripping form. To decide.

本フローによれば、撮像装置8によって対象物10を含む画像を撮像することで取得される画像情報に基づいて、ハンド機構2によって該対象物10を把持する際の把持形態を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる今回の把持形態に関する情報がハンド制御装置43のハンド制御部431に入力される。そして、ハンド機構2によって対象物10を把持すべく、ハンド制御部431が、入力された把持形態に関する情報に基づいてハンド機構2を制御する。   According to this flow, based on image information acquired by capturing an image including the target object 10 by the imaging device 8, a gripping mode for gripping the target object 10 by the hand mechanism 2 is suitably determined. be able to. Then, information regarding the current gripping form obtained as a result of image information processing by the image information processing device 44 is input to the hand control unit 431 of the hand control device 43. And in order to hold | grip the target object 10 by the hand mechanism 2, the hand control part 431 controls the hand mechanism 2 based on the information regarding the input grip form.

なお、上記実施例1、実施例2、および実施例3では、対象物10の形状を直方体とした場合を例に挙げて、画像情報処理装置44における画像処理について説明した。しかしながら、対象物の形状は必ずしも直方体に限られるものではない。つまり、対象物が多面体であれば、上述したような手法により、該対象物の上方から撮像された画像情報に基づいて、該対象物における上面と隣り合う各平面を指接触可能面または指接触不可能面として設定することができる。   In the first embodiment, the second embodiment, and the third embodiment, the image processing in the image information processing apparatus 44 has been described by taking the case where the shape of the object 10 is a rectangular parallelepiped as an example. However, the shape of the object is not necessarily limited to a rectangular parallelepiped. In other words, if the object is a polyhedron, the surface adjacent to the upper surface of the object can be touched with the finger or the finger contact based on the image information captured from above the object by the method described above. Can be set as impossible surface.

また、対象物に対する撮像装置8による撮像方向は必ずしも該対象物の上方に限られるわけではない。例えば、対象物に対して、その側方からハンド機構2を近づけて該対象物を把持する場合は、その側方から撮像装置8によって該対象物を撮像してもよい。この場合、対象物における撮像装置8による撮像の対象となる平面は該対象物の側方に位置する平面となる。   Further, the imaging direction of the object by the imaging device 8 is not necessarily limited above the object. For example, when the hand mechanism 2 is approached from the side of the object and the object is gripped, the object may be imaged by the imaging device 8 from the side. In this case, the plane that is the target of imaging by the imaging device 8 in the target object is a plane that is located on the side of the target object.

1・・・ロボットアーム、2・・・ハンド機構、8・・・撮像装置、20・・・ベース部、21・・・指部、22・・・第1関節部、23・・・第2関節部、211・・・第1指リンク部、212・・・第2指リンク部、213・・・基端部、3・・・アーム機構、30a・・・第1関節部、30b・・・第2関節部、30c・・・第3関節部、30d・・・第4関節部、30e・・・第5関節部、30f・・・第6関節部、31・・・第1アームリンク部、32・・・第2アームリンク部、33・・・第3アームリンク部、34・・・第4アームリンク部、35・・・第5アームリンク部、36・・・接続部材、4・・・台座部、42・・・アーム制御装置、420・・・アーム制御部、421・・・モータ状態量取得部、43・・・ハンド制御装置、430・・・対象物情報取得部、431・・・ハンド制御部、432・・・モータ状態量取得部、44・・・画像情報処理装置、440・・・画像情報取得部、441・・・対象物認識部、442・・・判定部、443・・・設定部、444・・・把持面決定部、445・・・把持対象決定部、446・・・把持形態決定部、51・・・第1モータ、52・・・第2モータ、53・・・第3モータ、61、62・・・傘歯車、63・・・ウォームホイール、64・・・ウォーム、65、66・・・歯車、70・・・感圧センサ、100・・・把持システム DESCRIPTION OF SYMBOLS 1 ... Robot arm, 2 ... Hand mechanism, 8 ... Imaging device, 20 ... Base part, 21 ... Finger part, 22 ... 1st joint part, 23 ... 2nd Joint part 211 ... 1st finger link part 212 ... 2nd finger link part 213 ... Base end part 3 ... Arm mechanism 30a ... 1st joint part 30b ... -2nd joint part, 30c ... 3rd joint part, 30d ... 4th joint part, 30e ... 5th joint part, 30f ... 6th joint part, 31 ... 1st arm link 32, second arm link portion, 33, third arm link portion, 34, fourth arm link portion, 35, fifth arm link portion, 36, connection member, 4 ... Pedestal part, 42 ... Arm control device, 420 ... Arm control part, 421 ... Motor state quantity acquisition part, 43 ... Han Control device, 430 ... object information acquisition unit, 431 ... hand control unit, 432 ... motor state quantity acquisition unit, 44 ... image information processing device, 440 ... image information acquisition unit, 441 ... object recognition unit, 442 ... determination unit, 443 ... setting unit, 444 ... gripping surface determination unit, 445 ... gripping object determination unit, 446 ... gripping form determination unit, 51 ... 1st motor, 52 ... 2nd motor, 53 ... 3rd motor, 61, 62 ... Bevel gear, 63 ... Worm wheel, 64 ... Worm, 65, 66 ...・ Gear, 70 ... pressure sensor, 100 ... grip system

Claims (10)

複数の指部を有するハンド機構によって対象物を把持する把持システムであって、少なくとも一つの該対象物を含んだ画像を撮像する撮像装置を有する把持システムに適用され、該撮像装置によって取得される画像情報を処理する画像情報処理装置において、
前記対象物が多面体であって、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されており、
前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定部と、
前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定部と、を備える画像情報処理装置。
A gripping system for gripping an object by a hand mechanism having a plurality of fingers, applied to a gripping system having an imaging device that captures an image including at least one of the objects, and acquired by the imaging device In an image information processing apparatus that processes image information,
The object is a polyhedron, and a predetermined position on each side forming the predetermined plane is preset as a determination point in a predetermined plane to be imaged by the imaging device on the object. ,
A determination unit that determines whether or not the determination point is in contact with a surrounding object for each determination point of the predetermined plane of the object based on image information acquired by the imaging device;
A finger that can be contacted by a finger portion of the hand mechanism on another plane adjacent to the predetermined plane across a side where the determination point is determined to be not in contact with the surrounding object by the determination unit. Other hand planes that are set as contactable surfaces and are adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit are located on the hand mechanism. An image information processing apparatus comprising: a setting unit configured to set as a finger contact impossible surface that cannot be contacted by the finger unit.
前記対象物における前記所定の平面を形成する各辺の中点および該所定の平面の各頂点が前記判定ポイントとして予め設定されている請求項1に記載の画像情報処理装置。   The image information processing apparatus according to claim 1, wherein a midpoint of each side forming the predetermined plane in the object and each vertex of the predetermined plane are set in advance as the determination points. 前記ハンド機構によって前記対象物を把持する際の該対象物における把持面を、前記設定部によって設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持面決定部をさらに備えた請求項1または2に記載の画像情報処理装置。   A gripping surface determination unit that determines a gripping surface of the target object when gripping the target object by the hand mechanism based on the state of the finger-contactable surface and the finger-contactless surface set by the setting unit The image information processing apparatus according to claim 1, further comprising: 前記撮像装置によって複数の対象物が撮像された場合、前記判定部による各判定ポイントが前記周辺物体と接触しているか否かの判定と、前記設定部による前記指接触可能面および前記指接触不可能面の設定とが、各対象物について実行され、
前記複数の対象物のうち前記ハンド機構による把持の対象となる対象物を、各対象物における、前記設定部によって設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持対象決定部をさらに備えた請求項1または2に記載の画像情報処理装置。
When a plurality of objects are imaged by the imaging device, the determination unit determines whether each determination point is in contact with the surrounding object, and the setting unit allows the finger contactable surface and the finger contact failure. Possible surface settings are performed for each object,
Of the plurality of objects, an object to be grasped by the hand mechanism is determined based on the state of the finger-contactable surface and the finger-contactless surface set by the setting unit in each object The image information processing apparatus according to claim 1, further comprising a gripping target determining unit that performs the processing.
前記ハンド機構によって前記対象物を把持する際の把持形態を、前記設定部によって設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持形態決定部をさらに備えた請求項1または2に記載の画像情報処理装置。   The apparatus further comprises a gripping form determining unit that determines a gripping form when the object is gripped by the hand mechanism based on the state of the finger contactable surface and the finger noncontactable surface set by the setting unit. The image information processing apparatus according to claim 1. 前記ハンド機構と、
前記撮像装置と、
請求項3から5のいずれかに記載の画像情報処理装置と、
前記画像情報処理装置による画像情報処理の結果に基づいて前記ハンド機構を制御するハンド制御装置と、を備える把持システム。
The hand mechanism;
The imaging device;
An image information processing apparatus according to any one of claims 3 to 5,
And a hand control device that controls the hand mechanism based on a result of image information processing by the image information processing device.
複数の指部を有するハンド機構によって対象物を把持する把持システムにおいて、少なくとも一つの該対象物を含んだ画像を撮像する撮像装置によって取得された画像情報を処理する画像情報処理方法であって、
前記対象物が多面体であり、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されており、
前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の
平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定ステップと、
前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定ステップと、を含む画像情報処理方法。
In a gripping system for gripping an object by a hand mechanism having a plurality of fingers, an image information processing method for processing image information acquired by an imaging device that captures an image including at least one object,
The object is a polyhedron, and a predetermined position on each side forming the predetermined plane is preset as a determination point in a predetermined plane to be imaged by the imaging device in the object,
A determination step of determining whether or not the determination point is in contact with a surrounding object for each determination point of the predetermined plane of the object based on image information acquired by the imaging device;
A finger that can be contacted by a finger portion of the hand mechanism on another plane adjacent to the predetermined plane across a side where the determination point is determined to be not in contact with the surrounding object by the determination unit. Other hand planes that are set as contactable surfaces and are adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit are located on the hand mechanism. A setting step of setting as a finger non-contactable surface that cannot be touched by the finger.
前記ハンド機構によって前記対象物を把持する際の該対象物における把持面を、前記設定ステップで設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持面決定ステップをさらに含む請求項7に記載の画像情報処理方法。   A gripping surface determination step for determining a gripping surface of the target object when the target object is gripped by the hand mechanism based on the state of the finger contactable surface and the finger noncontactable surface set in the setting step. The image information processing method according to claim 7, further comprising: 前記撮像装置によって複数の対象物が撮像された場合、前記判定ステップにおいて、各対象物について、各判定ポイントが前記周辺物体と接触しているか否かの判定が実行され、且つ、前記設定ステップにおいて、各対象物について、前記指接触可能面および前記指接触不可能面の設定が実行され、
前記複数の対象物のうち前記ハンド機構による把持の対象となる対象物を、各対象物における、前記設定ステップで設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持対象決定ステップをさらに含む請求項7に記載の画像情報処理方法。
When a plurality of objects are imaged by the imaging device, in the determination step, it is determined whether or not each determination point is in contact with the surrounding object for each object, and in the setting step The setting of the finger contactable surface and the finger contact impossible surface is performed for each object,
Of the plurality of objects, an object to be grasped by the hand mechanism is determined based on the state of the finger contactable surface and the finger non-contactable surface set in the setting step in each object. The image information processing method according to claim 7, further comprising a gripping target determination step.
前記ハンド機構によって前記対象物を把持する際の把持形態を、前記設定ステップで設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持形態決定ステップをさらに含む請求項7に記載の画像情報処理方法。
A gripping mode determining step of determining a gripping mode when the object is gripped by the hand mechanism based on the state of the finger contactable surface and the finger non-contactable surface set in the setting step. Item 8. The image information processing method according to Item 7.
JP2017167491A 2017-08-31 2017-08-31 Image information processing apparatus, gripping system, and image information processing method Pending JP2019042853A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017167491A JP2019042853A (en) 2017-08-31 2017-08-31 Image information processing apparatus, gripping system, and image information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167491A JP2019042853A (en) 2017-08-31 2017-08-31 Image information processing apparatus, gripping system, and image information processing method

Publications (1)

Publication Number Publication Date
JP2019042853A true JP2019042853A (en) 2019-03-22

Family

ID=65815221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167491A Pending JP2019042853A (en) 2017-08-31 2017-08-31 Image information processing apparatus, gripping system, and image information processing method

Country Status (1)

Country Link
JP (1) JP2019042853A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021029064A1 (en) * 2019-08-15 2021-02-18
CN114503045A (en) * 2019-10-03 2022-05-13 Thk株式会社 Image processing apparatus and moving object control system
CN116197887A (en) * 2021-11-28 2023-06-02 梅卡曼德(北京)机器人科技有限公司 Image data processing method, device, electronic equipment and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021029064A1 (en) * 2019-08-15 2021-02-18
WO2021029064A1 (en) * 2019-08-15 2021-02-18 オムロン株式会社 Information processing device and information processing method
JP7310895B2 (en) 2019-08-15 2023-07-19 オムロン株式会社 Information processing device and information processing method
US12097615B2 (en) 2019-08-15 2024-09-24 Omron Corporation Information processing device and information processing method
CN114503045A (en) * 2019-10-03 2022-05-13 Thk株式会社 Image processing apparatus and moving object control system
CN114503045B (en) * 2019-10-03 2023-12-15 Thk株式会社 Image processing apparatus and moving object control system
CN116197887A (en) * 2021-11-28 2023-06-02 梅卡曼德(北京)机器人科技有限公司 Image data processing method, device, electronic equipment and storage medium
CN116197887B (en) * 2021-11-28 2024-01-30 梅卡曼德(北京)机器人科技有限公司 Image data processing method, device, electronic equipment and storage medium for generating capture auxiliary images

Similar Documents

Publication Publication Date Title
JP6450960B2 (en) Robot, robot system and teaching method
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
US11389951B2 (en) Hand mechanism, gripping system, and non-transitory storage medium
CN104608113B (en) Robot, robot system and robot controller
CN106493711B (en) Controls, Robots, and Robotic Systems
WO2017033351A1 (en) Remote control robot system
JPWO2018212203A1 (en) Gripping system
JP6897396B2 (en) Control devices, robot systems and control methods
US11607803B2 (en) Image information processing device, gripping system, and image information processing method
JP7395990B2 (en) Teaching device, control method and teaching program
WO2017154254A1 (en) Gripping robot, and robot hand control method
JP2019042853A (en) Image information processing apparatus, gripping system, and image information processing method
CN110914025B (en) control system
CN115916096A (en) Medical Operating Devices
JPWO2018212190A1 (en) Gripping system
CN111356562A (en) Gripping system and gripping method
JP2004284001A (en) Robot hand
WO2018212194A1 (en) Gripping system
JP7069512B2 (en) Gripping system and its control method
WO2018212189A1 (en) Gripping system
JPWO2019102913A1 (en) Gripping system
WO2018212205A1 (en) Hand mechanism, gripping system, and gripping program