JP2019042853A - Image information processing apparatus, gripping system, and image information processing method - Google Patents
Image information processing apparatus, gripping system, and image information processing method Download PDFInfo
- Publication number
- JP2019042853A JP2019042853A JP2017167491A JP2017167491A JP2019042853A JP 2019042853 A JP2019042853 A JP 2019042853A JP 2017167491 A JP2017167491 A JP 2017167491A JP 2017167491 A JP2017167491 A JP 2017167491A JP 2019042853 A JP2019042853 A JP 2019042853A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- image information
- gripping
- contact
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 78
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 10
- 238000004441 surface measurement Methods 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 abstract description 19
- 238000010586 diagram Methods 0.000 description 21
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の指部を有するハンド機構によって対象物を把持する把持システム、および、該把持システムにおいて該対象物を含む画像情報を処理するための画像情報処理装置、画像情報処理方法に関する。 The present invention relates to a gripping system for gripping an object by a hand mechanism having a plurality of finger parts, and an image information processing apparatus and an image information processing method for processing image information including the object in the gripping system.
従来、複数の指部を有するハンド機構によって対象物を把持する把持システムが開発されている。また、把持システムとして、対象物を含む画像を撮像する撮像装置を備えたものが知られている。このような撮像装置を備えた把持システムでは、該撮像装置によって取得された画像情報に基づいて対象物を認識する。さらに、認識された対象物を把持すべく、画像情報に基づいてハンド機構を制御する。 Conventionally, a gripping system for gripping an object by a hand mechanism having a plurality of fingers has been developed. As a gripping system, one having an imaging device that captures an image including an object is known. In a gripping system including such an imaging device, an object is recognized based on image information acquired by the imaging device. Further, the hand mechanism is controlled based on the image information in order to hold the recognized object.
例えば、特許文献1には、複数の箱状ワークを上方から撮影して全体画像を取得する単眼カメラを備えたピッキングシステム(把持システム)が開示されている。この特許文献1に記載のピッキングシステムは、単眼カメラに加えて、複数の箱状ワーク全体の三次元形状を計測する距離センサを備えている。そして、単眼カメラが取得した全体画像から箱状ワークのエッジ部分を検出し、検出されたエッジ部分を境界として、該エッジ部分に対応する、距離センサによる計測点の点群を抽出する。さらに、抽出された点群に基づいて、距離センサによって計測された三次元形状から各箱状ワークの位置と姿勢とを認識する。その上で、ピッキングの対象となる箱状ワークの位置と姿勢を出力する。
For example,
ハンド機構によって対象物を把持しようとした場合、該対象物の表面における、該ハンド機構の指部によって該対象物を挟み込むことが可能な位置に、該ハンド機構の指部を接触させる必要がある。しかしながら、対象物が多面体である場合、該対象物の載置状況によっては、ハンド機構の指部を接触させることが困難な平面が生じる場合がある。つまり、対象物が、その周辺に存在する周辺物体(例えば、他の対象物、または、対象物を収容する収容容器)に接触した状態で置載されている場合、そのままの状態では、該対象物における該周辺物体に接触している平面にはハンド機構の指部を接触させることができない。したがって、ハンド機構によって対象物を把持する場合、該対象物におけるどの平面に該ハンド機構の指部を接触されることができるのかを把握する必要がある。 When an object is to be gripped by the hand mechanism, it is necessary to bring the finger part of the hand mechanism into contact with a position on the surface of the object where the object can be sandwiched by the finger part of the hand mechanism. . However, when the target object is a polyhedron, depending on the mounting state of the target object, there may be a plane on which it is difficult to contact the finger part of the hand mechanism. That is, when an object is placed in contact with a peripheral object (for example, another object or a container that contains the object) that exists in the vicinity of the object, The finger part of the hand mechanism cannot be brought into contact with the plane of the object that is in contact with the surrounding object. Therefore, when the object is gripped by the hand mechanism, it is necessary to grasp which plane of the object can be touched by the finger portion of the hand mechanism.
本発明は、上記問題に鑑みてなされたものであって、多面体である対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することが可能な技術を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a technique capable of grasping which plane is a plane that can be touched by a finger portion of a hand mechanism in an object that is a polyhedron. The purpose is to do.
本発明に係る画像情報処理装置は、複数の指部を有するハンド機構によって対象物を把持する把持システムであって、少なくとも一つの該対象物を含んだ画像を撮像する撮像装置を有する把持システムに適用され、該撮像装置によって取得される画像情報を処理する画像情報処理装置において、前記対象物が多面体であって、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の
位置が判定ポイントとして予め設定されており、前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定部と、前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定部と、を備える。
An image information processing apparatus according to the present invention is a gripping system that grips an object by a hand mechanism having a plurality of fingers, and includes an imaging device that captures an image including at least one object. In an image information processing apparatus that is applied and processes image information acquired by the imaging device, the target is a polyhedron, and the predetermined target plane is a target of imaging by the imaging device on the target. A predetermined position on each side forming the plane of the object is preset as a determination point, and the determination is made for each determination point of the predetermined plane of the object based on the image information acquired by the imaging device. A determination unit that determines whether or not the point is in contact with a peripheral object; and the determination unit determines that the point is not in contact with the peripheral object. In addition, another plane adjacent to the predetermined plane across the side where the determination point is located is set as a finger contactable surface that can be contacted by the finger portion of the hand mechanism, and the determination unit sets the periphery. A finger contact impossible surface that cannot be contacted by the finger portion of the hand mechanism on another plane adjacent to the predetermined plane across the side where the determination point determined to be in contact with an object is located And a setting unit for setting as
本発明によれば、多面体である対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することができる。 ADVANTAGE OF THE INVENTION According to this invention, in the target object which is a polyhedron, it can grasp | ascertain which plane is a plane which can contact the finger | toe part of a hand mechanism.
以下、本発明の具体的な実施例について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。 Specific embodiments of the present invention will be described below with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.
本発明に係る把持システムは、対象物を含んだ画像を撮像する撮像装置を有している。そして、本発明に係る画像情報処理装置は、対象物におけるどの平面がハンド機構の指部の接触が可能な平面であるのかを把握すべく、撮像装置によって取得される画像情報を処理する。 The gripping system according to the present invention includes an imaging device that captures an image including an object. Then, the image information processing apparatus according to the present invention processes the image information acquired by the imaging apparatus in order to grasp which plane in the object is a plane that can be touched by the finger part of the hand mechanism.
より詳細には、本発明においては、多面体である対象物が撮像装置によって撮像される際には、該対象物における所定の平面(すなわち、撮像装置と向き合った状態となる平面)が撮像の対象となる。そして、この対象物の所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されている。これによれば、撮像装置によって取得される画像情報には、対象物の所定の平面における各判定ポイントの状態が含まれることになる。そこで、本発明に係る画像情報処理装置においては、撮像装置によって取得された画像情報に基づいて、対象物における所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定部によって判定する。 More specifically, in the present invention, when an object that is a polyhedron is imaged by the imaging device, a predetermined plane (that is, a plane facing the imaging device) of the object is an object to be imaged. It becomes. And in the predetermined plane of this object, the predetermined position on each side which forms the predetermined plane is preset as a determination point. According to this, the image information acquired by the imaging device includes the state of each determination point on a predetermined plane of the object. Therefore, in the image information processing apparatus according to the present invention, for each determination point on a predetermined plane of the target object, whether or not the determination point is in contact with a surrounding object based on the image information acquired by the imaging apparatus. Determined by the determination unit.
ここで、画像情報において、対象物における所定の平面のある判定ポイントが周辺物体と接触していた場合、該判定ポイントが位置する辺を挟んで該所定の平面と隣り合う他の平面(すなわち、該判定ポイントが位置する辺で該所定の平面と接している他の平面)は周辺物体と接触した状態にあると考えられる。一方で、画像情報において、対象物における所定の平面のある判定ポイントが周辺物体と接触していなかった場合、該判定ポイントが位置する辺を挟んで該所定の平面と隣り合う他の平面は周辺物体とは接触していない状態にあると考えられる。そして、対象物において周辺物体と接触している平面には、そのままの状態ではハンド機構の指部を接触させることができない。一方で、対象物において周辺物体と接触していない平面にはハンド機構の指部を接触させることができる。 Here, in the image information, when a certain determination point of a predetermined plane in the target object is in contact with a peripheral object, another plane adjacent to the predetermined plane across the side where the determination point is located (that is, The other plane in contact with the predetermined plane at the side where the determination point is located is considered to be in contact with the peripheral object. On the other hand, in the image information, when a determination point having a predetermined plane in the target object is not in contact with a surrounding object, the other plane adjacent to the predetermined plane is around the side where the determination point is located. It is considered that the object is not in contact. And the finger part of the hand mechanism cannot be brought into contact with the plane in contact with the peripheral object in the object as it is. On the other hand, the finger part of the hand mechanism can be brought into contact with a plane that is not in contact with the surrounding object in the object.
そこで、本発明に係る画像情報処理装置においては、判定部によって周辺物体と接触していないと判定された判定ポイントが位置する辺を挟んで所定の平面と隣り合う他の平面
を、設定部によって、ハンド機構の指部による接触が可能な指接触可能面として設定する。一方で、判定部によって周辺物体と接触していると判定された判定ポイントが位置する辺を挟んで所定の平面と隣り合う他の平面を、設定部によって、ハンド機構の指部による接触が不可能な指接触不可能面として設定する。これによれば、載置されている対象物において、どの平面がハンド機構の指部の接触が可能な平面であるのかを把握することができる。
Therefore, in the image information processing apparatus according to the present invention, the setting unit sets another plane adjacent to the predetermined plane across the side where the determination point determined to be not in contact with the surrounding object by the determination unit is located. Then, it is set as a finger contactable surface that can be contacted by the finger part of the hand mechanism. On the other hand, another plane adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit is not contacted by the finger of the hand mechanism by the setting unit. Set as possible finger contact impossible surface. According to this, it is possible to grasp which plane is a plane in which the finger part of the hand mechanism can be contacted in the placed object.
<実施例1>
以下、本発明の具体的な実施例について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。
<Example 1>
Specific embodiments of the present invention will be described below with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.
ここでは、本発明を、ロボットアームを備えた把持システムに適用した場合について説明する。図1は、本実施例に係る把持システムの概略構成を示す図である。把持システム100は、ロボットアーム1と撮像装置8とを含んでいる。撮像装置8は、例えばカメラであって、対象物10の上方に設置されている。そして、撮像装置8は、対象物10の上方から、該対象物10およびその周囲を含んだ画像を撮像する。また、ロボットアーム1は、対象物10を把持するためのハンド機構2、アーム機構3、および台座部4を備えている。ここで、ロボットアーム1における、アーム機構3、ハンド機構2、および台座部4の詳細な構成について説明する。
Here, the case where the present invention is applied to a gripping system including a robot arm will be described. FIG. 1 is a diagram illustrating a schematic configuration of a gripping system according to the present embodiment. The
(アーム機構)
図2は、ロボットアーム1の概略構成を示す図である。アーム機構3の一端にはハンド機構2が取り付けられている。また、アーム機構3の他端は台座部4に取り付けられている。アーム機構3は、第1アームリンク部31、第2アームリンク部32、第3アームリンク部33、第4アームリンク部34、第5アームリンク部35、および接続部材36を備えている。そして、ハンド機構2のベース部20が、アーム機構3の第1アームリンク部31の一端側に形成された第1関節部30aに接続されている。第1関節部30aには、第1アームリンク部31に対してハンド機構2を該第1アームリンク部31の軸周りに回転させるためのモータ(図示略)が設けられている。第1アームリンク部31の他端側は、第2関節部30bで第2アームリンク部32の一端側に接続されている。第1アームリンク部31と第2アームリンク部32とはその中心軸が垂直に交わるように接続されている。そして、第2関節部30bには、第2アームリンク部32に対して、第1アームリンク部31を、その他端側を中心に該第2アームリンク部32の軸周りに回転させるためのモータ(図示略)が設けられている。また、第2アームリンク部32の他端側は、第3関節部30cで第3アームリンク部33の一端側に接続されている。第3関節部30cには、第3アームリンク部33に対して第2アームリンク部32を相対的に回転させるためのモータ(図示略)が設けられている。
(Arm mechanism)
FIG. 2 is a diagram showing a schematic configuration of the
同じように、第3アームリンク部33の他端側は、第4関節部30dで第4アームリンク部34の一端側に接続されている。また、第4アームリンク部34の他端側は、第5関節部30eで第5アームリンク部35に接続されている。そして、第4関節部30dには、第4アームリンク部34に対して第3アームリンク部33を相対的に回転させるためのモータ(図示略)が設けられている。また、第5関節部30eには、第5アームリンク部35に対して第4アームリンク部34を相対的に回転させるためのモータ(図示略)が設けられている。さらに、第5アームリンク部35は、台座部4から垂直に配置された接続部材36に第6関節部30fで接続されている。第5アームリンク部35と接続部材36とは、それぞれの中心軸が同軸となるように接続されている。そして、第6関節部30fには、第5アームリンク部35を、該第5アームリンク部35および接続部材36の軸回りに回転させるためのモータ(図示略)が設けられている。アーム機構3をこのような構
成とすることで、例えば、該アーム機構3を6自由度の自由度を有する機構とすることができる。
Similarly, the other end side of the third
(ハンド機構)
次に、ハンド機構2の構成について図3から図11に基づいて説明する。図3はハンド機構2の斜視図である。図4はハンド機構2の上面図である。なお、図4において、矢印は、各指部21の回転可動範囲を示している。ハンド機構2は、アーム機構3に接続されるベース部20と、該ベース部20に設けられた4本の指部21とを備えている。また、図3および図4に示すように、ハンド機構2においては、ベース部20に4本の指部21が、ハンド機構2の長手方向(図4において紙面に垂直な方向)の軸を中心とした円周上に、等角度間隔(すなわち90deg間隔)に配置されている。また、4本の指部21は全て同一の構造を有し且つ同一の長さである。但し、各指部21の動作は、それぞれ独立して制御される。
(Hand mechanism)
Next, the configuration of the
図5から図11は、ハンド機構2の指部21の構成およびその駆動機構について説明するための図である。図5は指部21の側面図である。なお、図5では、ベース部20が透過された状態で記載されており、ベース部20の内部に位置する指部21の一部の内部構造をも示している。また、図6は、指部21の先端部側を図5の矢印Aの方向から見た図である。なお、図5および図6では、後述する指部21の第2指リンク部212の一部が透過された状態で記載されており、該第2指リンク部212の内部構造をも示されている。
5 to 11 are diagrams for explaining the configuration of the
図3および図5に示すとおり、各指部21は、第1指リンク部211、第2指リンク部212、および基端部213を有している。そして、指部21の基端部213がベース部20に接続されている。ここで、基端部213は、図4において矢印で示すように、ベース部20に対して指部21の長手方向(図4において紙面に垂直な方向)の軸回りに回転可能に接続されている。また、指部21において、基端部213に第2指リンク部212の一端が接続されている。そして、この第2指リンク部212と基端部213との接続部に第2関節部23が形成されている。
As shown in FIGS. 3 and 5, each
ここで、図7に基づいて基端部213の駆動機構および第2関節部23の駆動機構について説明する。図7は、ベース部20における指部21の接続部近傍部分の内部構造、および、指部21における基端部213および第2関節部23の内部構造を示す図である。この図7に示すように、ベース部20の内部には歯車65、歯車66、第2モータ52、および第3モータ53が設けられている。歯車65は、指部21全体を回転させるための歯車であり、基端部213の回転軸に接続されている。歯車66は第3モータ53の回転軸に接続されている。そして、歯車65と歯車66とが噛み合っている。このような構成により、第3モータ53が回転すると、その回転力が二つの歯車65、66を介して基端部213の回転軸に伝達される。その結果、基端部213が回転駆動され、それに伴って、図4において矢印で示す範囲で指部21全体が回転駆動される。
Here, based on FIG. 7, the drive mechanism of the
また、第2関節部23の内部には、ウォームホイール63と、該ウォームホイール63に噛み合ったウォーム64が設けられている。そして、第2関節部23における第2指リンク部212の回転軸にウォームホイール63が接続されている。また、ベース部20の内部に設けられた第2モータ52の回転軸にウォーム64が接続されている。このような構成により、第2モータ52が回転駆動すると、その回転力がウォーム64およびウォームホイール63によって第2指リンク部212の回転軸に伝達される。その結果、第2指リンク部212が、基端部213に対して相対的に回転駆動される。ここで、図8は、第2モータ52の駆動力により実現される、指部21における第2関節部23の可動範囲を示す図である。この図8に示すように、第2関節部23は屈曲および伸展可能に形成され
ている。なお、第2モータ52による駆動力と第3モータ53による駆動力とは、それぞれ独立してその作動対象に伝わるように構成されている。
A
また、図5および図6に示すように、指部21においては、第2指リンク部212の他端に第1指リンク部211の一端が接続されている。そして、この第1指リンク部211と第2指リンク部212との接続部に第1関節部22が形成されている。ここで、図9に基づいて第1関節部22の駆動機構について説明する。図9は、指部21における第1関節部22および第2指リンク部212の内部構造を示す図である。第1関節部22の内部には、互いに噛み合った二つの傘歯車61、62が設けられている。そして、第1関節部22における第1指リンク部211の回転軸に一方の傘歯車61が接続されている。また、第2指リンク部212の内部に設けられた第1モータ51の回転軸に他方の傘歯車62が接続されている。このような構成により、第1モータ51が回転駆動すると、その回転力が二つの傘歯車61、62によって第1指リンク部211の回転軸に伝達される。その結果、第1指リンク部211が、第2指リンク部212に対して相対的に回転駆動される。ここで、図10は、第1モータ51の駆動力により実現される、指部21における第1関節部22の可動範囲を示す図である。この図10に示すように、第1関節部22は屈曲および伸展可能に形成されている。
As shown in FIGS. 5 and 6, in the
また、図3、図5、図6、および図11に示すように、本実施例では、指部21の第1指リンク部211の先端側に感圧センサ70が設けられている。感圧センサ70は、第1指リンク部211の先端部に作用する外力(圧力)を検出するセンサである。また、図5に示すように、感圧センサ70は、第1指リンク部211における、第1関節部22の屈曲方向側の壁面215および伸展方向側の壁面216の両面に設けられている。
In addition, as shown in FIGS. 3, 5, 6, and 11, in this embodiment, a pressure-
(台座部)
次に、台座部4に内蔵された、アーム制御装置42、ハンド制御装置43、および画像情報処理装置44の構成について図12に基づいて説明する。アーム制御装置42はロボットアーム1のアーム機構3を制御するための制御装置である。ハンド制御装置43はロボットアーム1のハンド機構2を制御するための制御装置である。画像情報処理装置44は撮像装置8によって対象物10を含む画像が撮像されることで取得される画像情報を処理するための処理装置である。図12は、アーム制御装置42、ハンド制御装置43、および画像情報処理装置44に含まれる各機能部を示すブロック図である。
(Pedestal)
Next, configurations of the
アーム制御装置42は、アーム機構3の各関節部に設けられたモータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、アーム制御装置42は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、アーム制御装置42は、機能部として、アーム制御部420およびモータ状態量取得部421を有している。これらの機能部は、アーム制御装置42に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
The
アーム制御部420は、ハンド制御装置43が有する機能部である後述の対象物情報取得部430によって取得された対象物情報に基づいて各ドライバから駆動信号を供給することで、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータを制御する。そして、アーム制御部420は、各モータを制御することでアーム機構3を動かし、それによって、ハンド機構2の位置を所望の位置(ハンド機構2によって対象物10を把持することが可能な位置)に移動させる。また、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータには、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータのエンコーダによって検出さ
れた各モータの状態量が、アーム制御装置42のモータ状態量取得部421に入力される。そして、アーム制御部420は、モータ状態量取得部421に入力された各モータの状態量に基づいて、ハンド機構2が所望の位置に移動するように各モータをサーボ制御する。
The
また、ハンド制御装置43は、ハンド機構2に設けられた各モータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、ハンド制御装置43は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、ハンド制御装置43は、機能部として、対象物情報取得部430、ハンド制御部431、モータ状態量取得部432、およびセンサ情報取得部433を有している。これらの機能部は、ハンド制御装置43に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
The
対象物情報取得部430は、ハンド機構2よって把持すべき対象物に関する情報である対象物情報を画像情報処理装置44から取得する。また、ハンド制御部431は、対象物情報取得部430によって取得された対象物情報に基づいて各ドライバから駆動信号を供給することで、ハンド機構2の各指部21を駆動させる各第1モータ51、各第2モータ52、および各第3モータ53を制御する。これにより、ハンド機構2の複数の指部21によって対象物10が把持される。また、ハンド機構2の各第1モータ51、各第2モータ52、および各第3モータ53には、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータ51、52、53のエンコーダによって検出された各モータ51、52、53の状態量が、ハンド制御装置43のモータ状態量取得部432に入力される。そして、ハンド制御部431は、モータ状態量取得部432に入力された各モータ51、52、53の状態量に基づいて、複数の指部21によって対象物を把持するように、各指部21における各モータ51、52、53をサーボ制御する。
The object
さらに、ハンド制御装置43はセンサ情報取得部(図示略)を有している。センサ情報取得部には、ハンド機構2の各指部21の第1指リンク部211に設けられた感圧センサ70の検出値が入力される。そして、ハンド制御部431は、各感圧センサ70によって、各指部21の対象物への接触が検知された場合に、その検知信号に基づいて各指部21における各モータ51、52、53を制御することもできる。
Furthermore, the
画像情報処理装置44は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、画像情報処理装置44は、機能部として、画像情報取得部440、対象物認識部441、判定部442、設定部443、および把持面決定部444を有している。これらの機能部は、画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。また、画像情報処理装置44による画像情報の処理結果が対象物情報としてハンド制御部431の対象物情報取得部430に入力される。なお、画像情報処理装置44における各機能部が果たす機能については後述する。
The image
(画像情報処理)
ここで、画像情報処理装置44において行われる画像情報処理について図13〜図18に基づいて説明する。図13は対象物10の形状および後述する該対象物における判定ポイントの位置の一例を示す図である。図13に示すように、対象物10の形状は直方体である。そして、本実施例に係る把持システム100においては、上述したように、対象物10とその周囲を含んだ画像を該対象物の上方から撮像装置8によって撮像する。そのため、対象物10の上面S1が撮像装置8による撮像の対象となる。そして、対象物10において、上面S1とその各辺を挟んで該上面S1と隣り合う各平面、すなわち、対象物10の各側面を側面S2〜S5とする。
(Image information processing)
Here, the image information processing performed in the image
ハンド機構2によって対象物10を把持しようとした場合、該対象物10の側面S2〜S5のいずれかに指部21を接触させ、該指部21によって該対象物10を挟み込む必要がある。ただし、対象物10が、例えばその収容容器や他の対象物のような周辺物体と接触した状態で載置されている場合、該対象物10における該周辺物体と接触している側面にはハンド機構2の指部21を接触させることができないこととなる。したがって、ハンド機構2によって対象物10を把持する際には、載置されている該対象物10において、どの側面が指部21による接触が可能な側面(以下、「指接触可能面」と称する場合もある。)であるのかを把握し、その上で、把持のために該指部21を実際に接触させる側面(以下、「把持面」と称する場合もある。)を決定する必要がある。
When the
そこで、本実施例では、画像情報処理装置44における画像情報処理によって、対象物10における指接触可能面を把握するとともに把持面を決定する。具体的には、本実施例では、対象物10において撮像装置8による撮像の対象となる上面S1を形成する各辺の中点および該上面の各頂点が判定ポイントとして予め設定されている。図13においては、対象物10の上面S1における各判定ポイントがP1〜P8で示されている。
Therefore, in this embodiment, the finger contactable surface of the
図13に示すように、対象物10が周辺物体と何ら接触していない状態で載置されている場合、撮像装置8によって撮像されることで取得された画像情報(以下、単に「画像情報」と称する場合もある。)において、対象物10の上面S1における各判定ポイントP1〜P8はいずれも周辺物体とは接触していない状態となる。換言すれば、画像情報において、対象物10の上面S1における各判定ポイントP1〜P8がいずれも周辺物体と接触していなければ、該対象物10の各側面S2〜S5は、いずれも周辺物体とは接触していないと判断できる。この場合、対象物10の側面S2〜S5の全てが指接触可能面として設定される。
As shown in FIG. 13, when the
また、図14〜図18は、対象物10が周辺物体と接触した状態で載置されている場合の、画像情報における該対象物10の上面S1の各判定ポイントP1〜P8の状態の具体例を示す図である。なお、図13〜図18では、周辺物体と接触していない判定ポイントには丸印を付し、周辺物体と接触している判定ポイントにはバツ印を付している。
14 to 18 are specific examples of states of the determination points P1 to P8 on the upper surface S1 of the
図14では、対象物10の側面S5が壁(例えば、収容容器の内壁面)に接触した状態で該対象物10が載置されている。この場合、画像情報においては、対象物10の上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。そして、他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。
In FIG. 14, the
また、図15では、対象物10aと対象物10bとが互いに接触した状態で並んで載置されている。この図15では、対象物10aの側面S5と対象物10bの側面S3とが接触している。この場合、画像情報において、対象物10aについては、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が対象物10bに接触した状態となる。そして、対象物10aにおける他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。一方で、対象物10bについては、その上面S1と側面S3とに挟まれた辺上に設定された判定ポイントP3、P4、P5が対象物10aに接触した状態となる。そして、対象物10bにおける他の判定ポイントP1、P2、P6、P7、P8は周辺物体とは接触していない状態となる。
Moreover, in FIG. 15, the
また、図16では、図15に示した対象物10aおよび対象物10bに加え、対象物10cが該対象物10aに接触した状態で並んで載置されている。この図16では、対象物10aの側面S3と対象物10cの側面S5とが接触している。この場合、画像情報にお
いて、対象物10aについては、判定ポイントP1、P8、P7が対象物10bに接触した状態となるとともに、その上面S1と側面S3とに挟まれた辺上に設定された判定ポイントP3、P4、P5も対象物10cに接触した状態となる。そして、対象物10aにおける他の判定ポイントP2、P6は周辺物体とは接触していない状態となる。また、対象物10cについては、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が対象物10aに接触した状態となる。そして、対象物10cにおける他の判定ポイントP2、P3、P4、P5、P6は周辺物体とは接触していない状態となる。
Further, in FIG. 16, in addition to the
また、図17では、図16に示した対象物10a、対象物10b、および対象物10cに加え、対象物10dが該対象物10aに接触した状態で載置されている。この図17では、対象物10aの側面S4と対象物10dの側面S2とが接触している。この場合、画像情報において、対象物10aについては、判定ポイントP1、P8、P7が対象物10bに接触し、且つ、判定ポイントP3、P4、P5が対象物10cに接触した状態となるとともに、その上面S1と側面S4とに挟まれた辺上に設定された判定ポイントP5、P6、P7も対象物10dに接触した状態となる(判定ポイントP7は、対象物10bおよび対象物10dの両方に接触した状態となる。また、判定ポイントP5は、対象物10cおよび対象物10dの両方に接触した状態となる。)。そして、対象物10aにおける他の判定ポイントP2のみが周辺物体とは接触していない状態となる。また、対象物10dについては、その上面S1と側面S2とに挟まれた辺上に設定された判定ポイントP1、P2、P3が対象物10aに接触した状態となる。そして、対象物10dにおける他の判定ポイントP4、P5、P6、P7、P8は周辺物体とは接触していない状態となる。
Moreover, in FIG. 17, in addition to the
図18では、図17における対象物10bに代えて壁が対象物10aの側面S5に接触している。さらに、この壁に対象物10dの側面S5も接触している。この場合、画像情報において、対象物10aについては、判定ポイントP3、P4、P5が対象物10cに接触し、且つ、判定ポイントP5、P6、P7が対象物10dに接触した状態となるとともに、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。また、対象物10dについては、判定ポイントP1、P2、P3が対象物10aに接触した状態となるとともに、その上面S1と側面S5とに挟まれた辺上に設定された判定ポイントP1、P8、P7が壁に接触した状態となる。そして、対象物10dにおける他の判定ポイントP4、P5、P6は周辺物体とは接触していない状態となる。
In FIG. 18, the wall is in contact with the side surface S5 of the
以上説明したように、対象物10(10a、10b、10c、10d)におけるある側面(図14〜18において斜線部示す側面)が周辺物体に接触していた場合、画像情報において、該対象物10の上面と該側面とに挟まれた辺上の判定ポイントが該周辺物体に接触した状態となる。換言すれば、画像情報において周辺物体と接触している判定ポイントが並んでいる辺を挟んで上面S1と隣り合う側面は該周辺物体と接触していると判断できる。そして、対象物10において周辺物体と接触している側面は、ハンド機構2の指部21による接触が不可能な側面(以下、「指接触不可能面」と称する場合もある。)として設定することができる。また、画像情報において周辺物体と接触していない判定ポイントが位置する辺を挟んで上面S1と隣り合う側面は指接触可能面として設定することができる。
As described above, when a certain side surface (the side surface indicated by hatching in FIGS. 14 to 18) of the target object 10 (10a, 10b, 10c, 10d) is in contact with a peripheral object, the
そこで、本実施例に係る画像情報処理装置44では、画像情報において、対象物10の上面S1における各判定ポイントが周辺物体と接触しているか否かが判定部442によって判定される。そして、判定部442による判定結果に基づいて、対象物10の各側面が指接触可能面または指接触不可能面として設定される。
Therefore, in the image
(画像情報処理のフロー)
次に、画像情報処理装置44において行われる画像情報処理のフローについて図19に示すフローチャートに基づいて説明する。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。本フローでは、先ずS101において、画像情報取得部440によって撮像装置8から画像情報が取得される。次に、S102において、対象物認識部441によって、画像情報取得部440が取得した画像情報から対象物10が認識される。ここで、画像情報処理装置44には、対象物10の形状および寸法がユーザによって予め入力されている。対象物認識部441は、この予め入力された情報に基づいて画像情報から対象物10を抽出することで、該対象物10を認識する。また、画像情報に複数の対象物10が含まれていれば、対象物認識部441は、該複数の対象物10を個々に認識する。
(Image information processing flow)
Next, the flow of image information processing performed in the image
次に、S103において、対象物認識部441によって認識された対象物10について、図13〜図18において例示したように、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。このとき、対象物認識部441によって複数の対象物10が認識されていれば、判定部442による当該判定が各対象物10に対して実行される。
Next, in S103, for the
次に、S104において、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。ここでも、対象物認識部441によって複数の対象物10が認識されていれば、設定部443による当該設定が各対象物10に対して実行される。これにより、図13〜図18の場合は、対象物10(10a、10b、10c、10d)において、斜線部で示す側面が指接触不可能面として設定され、それ以外の側面が指接触可能面として設定されることになる。
Next, in S104, based on the determination result by the
次に、S105において、設定部443によって設定された指接触可能面および指接触不可能面の状況に基づいて、把持面決定部444によって対象物10における把持面が決定される。例えば、ハンド機構2の指部21によって対象物10を挟み込む場合、把持面は対象物10において互いに平行な二つの側面を把持面とするのが好ましい。そのため、例えば、図14のような場合は、対象物10における側面S2と側面S4とを把持面として決定してもよい。また、図15、16における対象物10a、10b、または10cを把持する際にも、それぞれにおける側面S2と側面S4とを把持面として決定してもよい。また、図17における対象物10a、10c、または、図18における対象物10cを把持する際にも、それぞれにおける側面S2と側面S4とを把持面として決定してもよい。また、図17における対象物10dを把持する際には、側面S3と側面S5とを把持面として決定してもよい。
Next, in S <b> 105, the gripping surface of the
本フローによれば、撮像装置8によって対象物10を含む画像を撮像することで取得される画像情報に基づいて、対象物10において、どの側面が指接触可能平面であり、どの側面が指接触不可能面であるかを適切に把握することができる。また、その上で、対象物を把持する際の把持面を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる対象物10の把持面に関する情報が、該対象物10の形状および寸法に関する情報と共に、対象物情報として、ハンド制御装置43の対象物情報取得部430に入力される。そして、ハンド機構2によって対象物10を把持すべく、ハンド制御部431が対象物情報に基づいて該ハンド機構2を制御する。
According to this flow, based on image information acquired by imaging an image including the
なお、本実施例では、対象物10の上面S1における判定ポイントの設定位置を、図13に示すように、該上面S1を形成する各辺の中点および該上面S1の各頂点とした。ただし、対象物10の上面S1における判定ポイントの設定位置は、必ずしもこのような位
置には限られず、該上面S1を形成する各辺上の所定の位置であればよい。
In the present embodiment, the determination point setting position on the upper surface S1 of the
<実施例2>
本実施例に係る把持システムにおいては、ロボットアーム1の台座部4に内蔵された画像情報処理装置44の構成が実施例1と異なっている。図20は本実施例に係る画像情報処理装置44に含まれる各機能部を示すブロック図である。図20に示すように、本実施例では、画像情報処理装置44が、図12に示す把持面決定部444に代えて把持対象決定部445を備えている。なお、他の機能部と同様、把持対象決定部445も画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
<Example 2>
In the gripping system according to the present embodiment, the configuration of the image
本実施例に係る画像情報処理装置44においても、対象物認識部441によって認識された対象物10について、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。さらに、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。また、このときに、対象物認識部441によって複数の対象物10が認識されていれば、判定部442による各判定ポイントP1〜P8が周辺物体と接触しているか否かの判定、および、設定部443による指接触可能面および指接触不可能面の設定が各対象物10に対して実行される。そして、本実施例では、さらに、対象物認識部441によって認識された複数の対象物10のうち、どの対象物10をハンド機構2による今回の把持の対象とするのかが、各対象物10における指接触可能面および指接触不可能面の状況に基づいて把持対象決定部445によって決定される。
Also in the image
上述したように、ハンド機構2によって対象物10を把持しようとした場合、該ハンド機構2の指部21によって該対象物10を挟み込む必要がある。この場合、対象物10における互いに対抗する二つの側面のそれぞれに指部21を接触させた上で、該指部21によって該対象物10を挟み込むのが好ましい。そこで、本実施例では、複数の対象物10からハンド機構2による把持の対象を決定する場合に、互いに対抗する一対の指接触可能面が存在する対象物10を把持の対象として選択する。
As described above, when the
例えば、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合、対象物10bおよび対象物10cでは、側面S2および側面S4が互いに対抗する一対の指接触可能面となっている。また、対象物10dでは、側面S3および側面S5が互いに対抗する一対の指接触可能面となっている。ただし、対象物10aには、互いに対抗する一対の指接触可能面が存在していない。そこで、このような状況では、把持対象決定部445が、対象物10b、対象物10c、または対象物10dを、ハンド機構2による把持の対象に決定する。また、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合、互いに対抗する一対の指接触可能面が存在するのは対象物10cのみである(対象物10cでは、側面S2および側面S4が互いに対抗する一対の指接触可能面となっている。)。そこで、このような状況では、把持対象決定部445が、対象物10cをハンド機構2による把持の対象に決定する。
For example, when the
図21は、本実施例に係る、画像情報処理装置44において行われる画像情報処理のフローを示すフローチャートである。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。なお、本フローにおけるS101〜S104は、図19に示すフローと同様のステップである。そのため、これらのステップでの処理についての説明は省略する。
FIG. 21 is a flowchart illustrating a flow of image information processing performed in the image
本フローでは、S104の次にS205の処理が実行される。S205では、設定部4
43によって設定された各対象物10での指接触可能面および指接触不可能面の状況に基づいて、把持対象決定部445によってハンド機構2による今回の把持の対象となる対象物10が決定される。
In this flow, the process of S205 is executed after S104. In S205, the
Based on the situation of the finger contactable surface and the finger non-contactable surface of each
本フローによれば、撮像装置8によって複数の対象物10を含む画像を撮像することで取得される画像情報に基づいて、ハンド機構2による把持の対象となる対象物10を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる今回の把持の対象となる対象物10に関する情報が、該対象物10の形状および寸法に関する情報と共に、対象物情報として、ハンド制御装置43の対象物情報取得部430に入力される。そして、ハンド機構2によって今回の把持の対象となる対象物10を把持すべく、ハンド制御部431が対象物情報に基づいて該ハンド機構2を制御する。
According to this flow, the
<実施例3>
本実施例に係る把持システムにおいては、ロボットアーム1の台座部4に内蔵された画像情報処理装置44の構成が実施例1と異なっている。図22は本実施例に係る画像情報処理装置44に含まれる各機能部を示すブロック図である。図22に示すように、本実施例では、画像情報処理装置44が、図12に示す把持面決定部444に代えて把持形態決定部446を備えている。なお、他の機能部と同様、把持形態決定部446も画像情報処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
<Example 3>
In the gripping system according to the present embodiment, the configuration of the image
ここで、本実施例に係る、対象物10をハンド機構2によって把持する際の把持形態の具体例である直接把持および傾倒把持について図23〜図26説明する。なお、ここでは、ハンド機構2の各指部21を、それぞれ、第1指部21A、第2指部21B、第3指部21C、第4指部21Dと称する。図23は、直接把持によって対象物10を把持したときのハンド機構2および該対象物10の状態を示す図である。図23に示すように、載置された対象物10が何ら周辺物体と接触していない場合であれば、該対象物10を、そのままの状態でハンド機構2の指部21によって挟み込んで把持することができる。このように、対象物10を載置された状態のままでハンド機構2によって把持する把持形態を直接把持と称する。このような直接把持による対象物10の把持は、該対象物10において、互いに対抗する一対の指接触可能面が少なくとも一組存在しているような状況であれば実施することが可能となる。
Here, direct gripping and tilting gripping, which are specific examples of gripping forms when the
また、図24〜図26は、傾倒把持によって対象物10を把持したときのハンド機構2および該対象物10の状態を示す図である。なお、図24および図25は、ハンド機構2の第1指部21Aによって対象物10を傾倒させる際の動作を示す図である。また、図26は、ハンド機構2の第2指部21B、第3指部21C、および第4指部21Dによって対象物10を把持した状態を示す図である。この図24〜図26に示すように、対象物10を傾倒させてからハンド機構2によって把持する把持形態を傾倒把持と称する。
24 to 26 are diagrams showing the state of the
より詳細には、図24では、対象物10が隣接する他の対象物10と接触した状態で並んで載置されている。このような場合でも、対象物10の上面S1にはハンド機構2の指部21を接触させることができる。そこで、先ず、図24に示すように、第1指部21Aの第1指リンク部211Aを対象物10の上面S1に接触させる。なお、このときに、第1指部21Aを対象物10の上面S1に接触させた状態では、ハンド機構2における他の指部21B、21C、21Dは、対象物10には接触していない。そして、次に、図25に示すように、第1指部21Aによって、その第1指リンク部211Aを対象物10の上面S1に接触させた状態で、該対象物10を手前に傾ける。このように、第1指部21Aによって対象物10の姿勢を変更することで、該対象物10と、隣接する対象物10´との間隔を大きくすることができる。これにより、対象物10において、隣接する対象物1
0´と接触しており、載置された状態のままでは指接触不可能面であった側面にも、ハンド機構2の指部21を接触させることが可能な状況となる。そして、次に、図26に示すように、第1指部21Aによって対象物10を傾倒させた状態で、第2指部21B、第3指部21C、および第4指部21Dによって該対象物10を挟み込んで把持する。このような傾倒把持による対象物10の把持は、該対象物10において、互いに対抗する二つの指接触可能面が存在していなくても、指接触可能面が少なくとも一つ存在しているような状況であれば、該指接触可能面側に該対象物10を傾倒させることで実施することが可能となる。
In more detail, in FIG. 24, the
It is in a state in which the
このように、本実施例に係るロボットアーム1は、直接把持のみならず、傾倒把持によって対象物10を把持することが可能となっている。そして、対象物10が、直接把持では把持することができない状況下にあってとしても、傾倒把持によって把持することが可能な場合があり得る。そこで、対象物10をハンド機構2によって把持する際の把持形態を、対象物10における指接触可能面および指接触不可能面の状況に基づいて決定する。
As described above, the
ここで、本実施例に係る画像情報処理装置44においても、対象物認識部441によって認識された対象物10について、該対象物10の上面S1における各判定ポイントP1〜P8が周辺物体と接触しているか否かが判定部442によって判定される。さらに、判定部442による判定結果に基づいて、設定部443によって、対象物10の各側面が指接触可能面または指接触不可能面として設定される。そして、本実施例では、さらに、対象物10をハンド機構2によって把持する際の把持形態が、対象物10における指接触可能面および指接触不可能面の状況に基づいて把持形態決定部446によって決定される。
Here, also in the image
例えば、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在している対象物10b、対象物10c、または対象物10dを把持対象とした場合、把持形態決定部446が、把持形態を直接把持に決定する。一方で、図17に示すような状態で対象物10a、対象物10b、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在していない対象物10aを把持対象とした場合、把持形態決定部446が、把持形態を傾倒把持に決定する。そして、この場合は、対象物10aを、指接触可能面となっている側面S2側に傾倒させることで、傾倒把持が実施される。
For example, when the
また、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在している対象物10cを把持対象とした場合、把持形態決定部446が、把持形態を直接把持に決定する。一方で、図18に示すような状態で対象物10a、対象物10c、および対象物10dが載置されていた場合において、互いに対抗する一対の指接触可能面が存在していない対象物10aまたは対象物10dを把持対象とした場合、把持形態決定部446が、把持形態を傾倒把持に決定する。そして、このときに、対象物10aを把持対象とした場合は、該対象物10aを、指接触可能面となっている側面S2側に傾倒させることで、傾倒把持が実施される。また、対象物10dを把持対象とした場合は、該対象物10dを、指接触可能面となっている側面S3または側面S4側に傾倒させることで、傾倒把持が実施される。
In addition, when the
図27は、本実施例に係る、画像情報処理装置44において行われる画像情報処理のフローを示すフローチャートである。この画像情報処理のフローは、画像情報処理装置44において所定の処理プログラムが実行されることで実現される。なお、本フローにおけるS101〜S104は、図19に示すフローと同様のステップである。そのため、これらのステップでの処理についての説明は省略する。
FIG. 27 is a flowchart illustrating a flow of image information processing performed in the image
本フローでは、S104の次にS305の処理が実行される。S305では、設定部443によって設定された対象物10での指接触可能面および指接触不可能面の状況に基づいて、把持形態決定部446によって今回の把持形態が決定される。詳細には、対象物10において、互いに対向する一対の指接触可能面が存在していれば、把持形態決定部446が把持形態を直接把持に決定する。また、対象物10において、互いに対向する一対の指接触可能面が存在しておらず、且つ、少なくとも一つの指接触可能面が存在していれば、把持形態決定部446が把持形態を傾倒把持に決定する。
In this flow, the process of S305 is executed after S104. In S <b> 305, the current gripping form is determined by the gripping
本フローによれば、撮像装置8によって対象物10を含む画像を撮像することで取得される画像情報に基づいて、ハンド機構2によって該対象物10を把持する際の把持形態を好適に決定することができる。そして、画像情報処理装置44による画像情報処理の結果として得られる今回の把持形態に関する情報がハンド制御装置43のハンド制御部431に入力される。そして、ハンド機構2によって対象物10を把持すべく、ハンド制御部431が、入力された把持形態に関する情報に基づいてハンド機構2を制御する。
According to this flow, based on image information acquired by capturing an image including the
なお、上記実施例1、実施例2、および実施例3では、対象物10の形状を直方体とした場合を例に挙げて、画像情報処理装置44における画像処理について説明した。しかしながら、対象物の形状は必ずしも直方体に限られるものではない。つまり、対象物が多面体であれば、上述したような手法により、該対象物の上方から撮像された画像情報に基づいて、該対象物における上面と隣り合う各平面を指接触可能面または指接触不可能面として設定することができる。
In the first embodiment, the second embodiment, and the third embodiment, the image processing in the image
また、対象物に対する撮像装置8による撮像方向は必ずしも該対象物の上方に限られるわけではない。例えば、対象物に対して、その側方からハンド機構2を近づけて該対象物を把持する場合は、その側方から撮像装置8によって該対象物を撮像してもよい。この場合、対象物における撮像装置8による撮像の対象となる平面は該対象物の側方に位置する平面となる。
Further, the imaging direction of the object by the imaging device 8 is not necessarily limited above the object. For example, when the
1・・・ロボットアーム、2・・・ハンド機構、8・・・撮像装置、20・・・ベース部、21・・・指部、22・・・第1関節部、23・・・第2関節部、211・・・第1指リンク部、212・・・第2指リンク部、213・・・基端部、3・・・アーム機構、30a・・・第1関節部、30b・・・第2関節部、30c・・・第3関節部、30d・・・第4関節部、30e・・・第5関節部、30f・・・第6関節部、31・・・第1アームリンク部、32・・・第2アームリンク部、33・・・第3アームリンク部、34・・・第4アームリンク部、35・・・第5アームリンク部、36・・・接続部材、4・・・台座部、42・・・アーム制御装置、420・・・アーム制御部、421・・・モータ状態量取得部、43・・・ハンド制御装置、430・・・対象物情報取得部、431・・・ハンド制御部、432・・・モータ状態量取得部、44・・・画像情報処理装置、440・・・画像情報取得部、441・・・対象物認識部、442・・・判定部、443・・・設定部、444・・・把持面決定部、445・・・把持対象決定部、446・・・把持形態決定部、51・・・第1モータ、52・・・第2モータ、53・・・第3モータ、61、62・・・傘歯車、63・・・ウォームホイール、64・・・ウォーム、65、66・・・歯車、70・・・感圧センサ、100・・・把持システム
DESCRIPTION OF
Claims (10)
前記対象物が多面体であって、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されており、
前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定部と、
前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定部と、を備える画像情報処理装置。 A gripping system for gripping an object by a hand mechanism having a plurality of fingers, applied to a gripping system having an imaging device that captures an image including at least one of the objects, and acquired by the imaging device In an image information processing apparatus that processes image information,
The object is a polyhedron, and a predetermined position on each side forming the predetermined plane is preset as a determination point in a predetermined plane to be imaged by the imaging device on the object. ,
A determination unit that determines whether or not the determination point is in contact with a surrounding object for each determination point of the predetermined plane of the object based on image information acquired by the imaging device;
A finger that can be contacted by a finger portion of the hand mechanism on another plane adjacent to the predetermined plane across a side where the determination point is determined to be not in contact with the surrounding object by the determination unit. Other hand planes that are set as contactable surfaces and are adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit are located on the hand mechanism. An image information processing apparatus comprising: a setting unit configured to set as a finger contact impossible surface that cannot be contacted by the finger unit.
前記複数の対象物のうち前記ハンド機構による把持の対象となる対象物を、各対象物における、前記設定部によって設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持対象決定部をさらに備えた請求項1または2に記載の画像情報処理装置。 When a plurality of objects are imaged by the imaging device, the determination unit determines whether each determination point is in contact with the surrounding object, and the setting unit allows the finger contactable surface and the finger contact failure. Possible surface settings are performed for each object,
Of the plurality of objects, an object to be grasped by the hand mechanism is determined based on the state of the finger-contactable surface and the finger-contactless surface set by the setting unit in each object The image information processing apparatus according to claim 1, further comprising a gripping target determining unit that performs the processing.
前記撮像装置と、
請求項3から5のいずれかに記載の画像情報処理装置と、
前記画像情報処理装置による画像情報処理の結果に基づいて前記ハンド機構を制御するハンド制御装置と、を備える把持システム。 The hand mechanism;
The imaging device;
An image information processing apparatus according to any one of claims 3 to 5,
And a hand control device that controls the hand mechanism based on a result of image information processing by the image information processing device.
前記対象物が多面体であり、該対象物における前記撮像装置による撮像の対象となる所定の平面において、該所定の平面を形成する各辺上の所定の位置が判定ポイントとして予め設定されており、
前記撮像装置によって取得された画像情報に基づいて、前記対象物における前記所定の
平面の各判定ポイントについて該判定ポイントが周辺物体と接触しているか否かを判定する判定ステップと、
前記判定部によって前記周辺物体と接触していないと判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の指部による接触が可能な指接触可能面として設定し、且つ、前記判定部によって前記周辺物体と接触していると判定された前記判定ポイントが位置する辺を挟んで前記所定の平面と隣り合う他の平面を、前記ハンド機構の前記指部による接触が不可能な指接触不可能面として設定する設定ステップと、を含む画像情報処理方法。 In a gripping system for gripping an object by a hand mechanism having a plurality of fingers, an image information processing method for processing image information acquired by an imaging device that captures an image including at least one object,
The object is a polyhedron, and a predetermined position on each side forming the predetermined plane is preset as a determination point in a predetermined plane to be imaged by the imaging device in the object,
A determination step of determining whether or not the determination point is in contact with a surrounding object for each determination point of the predetermined plane of the object based on image information acquired by the imaging device;
A finger that can be contacted by a finger portion of the hand mechanism on another plane adjacent to the predetermined plane across a side where the determination point is determined to be not in contact with the surrounding object by the determination unit. Other hand planes that are set as contactable surfaces and are adjacent to the predetermined plane across the side where the determination point determined to be in contact with the surrounding object by the determination unit are located on the hand mechanism. A setting step of setting as a finger non-contactable surface that cannot be touched by the finger.
前記複数の対象物のうち前記ハンド機構による把持の対象となる対象物を、各対象物における、前記設定ステップで設定された前記指接触可能面および前記指接触不可能面の状況に基づいて決定する把持対象決定ステップをさらに含む請求項7に記載の画像情報処理方法。 When a plurality of objects are imaged by the imaging device, in the determination step, it is determined whether or not each determination point is in contact with the surrounding object for each object, and in the setting step The setting of the finger contactable surface and the finger contact impossible surface is performed for each object,
Of the plurality of objects, an object to be grasped by the hand mechanism is determined based on the state of the finger contactable surface and the finger non-contactable surface set in the setting step in each object. The image information processing method according to claim 7, further comprising a gripping target determination step.
A gripping mode determining step of determining a gripping mode when the object is gripped by the hand mechanism based on the state of the finger contactable surface and the finger non-contactable surface set in the setting step. Item 8. The image information processing method according to Item 7.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017167491A JP2019042853A (en) | 2017-08-31 | 2017-08-31 | Image information processing apparatus, gripping system, and image information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017167491A JP2019042853A (en) | 2017-08-31 | 2017-08-31 | Image information processing apparatus, gripping system, and image information processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019042853A true JP2019042853A (en) | 2019-03-22 |
Family
ID=65815221
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017167491A Pending JP2019042853A (en) | 2017-08-31 | 2017-08-31 | Image information processing apparatus, gripping system, and image information processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019042853A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021029064A1 (en) * | 2019-08-15 | 2021-02-18 | ||
| CN114503045A (en) * | 2019-10-03 | 2022-05-13 | Thk株式会社 | Image processing apparatus and moving object control system |
| CN116197887A (en) * | 2021-11-28 | 2023-06-02 | 梅卡曼德(北京)机器人科技有限公司 | Image data processing method, device, electronic equipment and storage medium |
-
2017
- 2017-08-31 JP JP2017167491A patent/JP2019042853A/en active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021029064A1 (en) * | 2019-08-15 | 2021-02-18 | ||
| WO2021029064A1 (en) * | 2019-08-15 | 2021-02-18 | オムロン株式会社 | Information processing device and information processing method |
| JP7310895B2 (en) | 2019-08-15 | 2023-07-19 | オムロン株式会社 | Information processing device and information processing method |
| US12097615B2 (en) | 2019-08-15 | 2024-09-24 | Omron Corporation | Information processing device and information processing method |
| CN114503045A (en) * | 2019-10-03 | 2022-05-13 | Thk株式会社 | Image processing apparatus and moving object control system |
| CN114503045B (en) * | 2019-10-03 | 2023-12-15 | Thk株式会社 | Image processing apparatus and moving object control system |
| CN116197887A (en) * | 2021-11-28 | 2023-06-02 | 梅卡曼德(北京)机器人科技有限公司 | Image data processing method, device, electronic equipment and storage medium |
| CN116197887B (en) * | 2021-11-28 | 2024-01-30 | 梅卡曼德(北京)机器人科技有限公司 | Image data processing method, device, electronic equipment and storage medium for generating capture auxiliary images |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6450960B2 (en) | Robot, robot system and teaching method | |
| US8498745B2 (en) | Robot apparatus and gripping method for use in robot apparatus | |
| US11389951B2 (en) | Hand mechanism, gripping system, and non-transitory storage medium | |
| CN104608113B (en) | Robot, robot system and robot controller | |
| CN106493711B (en) | Controls, Robots, and Robotic Systems | |
| WO2017033351A1 (en) | Remote control robot system | |
| JPWO2018212203A1 (en) | Gripping system | |
| JP6897396B2 (en) | Control devices, robot systems and control methods | |
| US11607803B2 (en) | Image information processing device, gripping system, and image information processing method | |
| JP7395990B2 (en) | Teaching device, control method and teaching program | |
| WO2017154254A1 (en) | Gripping robot, and robot hand control method | |
| JP2019042853A (en) | Image information processing apparatus, gripping system, and image information processing method | |
| CN110914025B (en) | control system | |
| CN115916096A (en) | Medical Operating Devices | |
| JPWO2018212190A1 (en) | Gripping system | |
| CN111356562A (en) | Gripping system and gripping method | |
| JP2004284001A (en) | Robot hand | |
| WO2018212194A1 (en) | Gripping system | |
| JP7069512B2 (en) | Gripping system and its control method | |
| WO2018212189A1 (en) | Gripping system | |
| JPWO2019102913A1 (en) | Gripping system | |
| WO2018212205A1 (en) | Hand mechanism, gripping system, and gripping program |