[go: up one dir, main page]

JP2019089157A - 把持方法、把持システム及びプログラム - Google Patents

把持方法、把持システム及びプログラム Download PDF

Info

Publication number
JP2019089157A
JP2019089157A JP2017218956A JP2017218956A JP2019089157A JP 2019089157 A JP2019089157 A JP 2019089157A JP 2017218956 A JP2017218956 A JP 2017218956A JP 2017218956 A JP2017218956 A JP 2017218956A JP 2019089157 A JP2019089157 A JP 2019089157A
Authority
JP
Japan
Prior art keywords
area
distance
fingers
distance information
unmeasured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017218956A
Other languages
English (en)
Other versions
JP6902208B2 (ja
Inventor
有貴 仁科
Yuki Nishina
有貴 仁科
嘉典 小西
Yoshinori Konishi
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017218956A priority Critical patent/JP6902208B2/ja
Priority to CN201811049588.4A priority patent/CN109773776B/zh
Priority to US16/130,304 priority patent/US10888995B2/en
Priority to EP18194893.6A priority patent/EP3482885B1/en
Publication of JP2019089157A publication Critical patent/JP2019089157A/ja
Application granted granted Critical
Publication of JP6902208B2 publication Critical patent/JP6902208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】三次元計測情報を取得できない領域が存在しても、対象物を把持することができる把持方法を提供すること
【解決手段】複数の指を備える多指ハンドHを用いて対象物Wを把持する把持方法である。
三次元計測センサ16を用いて対象物Wを含む領域を計測し、三次元情報を取得する距離情報取得ステップと、領域内に三次元情報を取得できない領域が存在する場合は、両者を区分し、指の開閉方向軸上において未計測領域UAを挟んで隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完する。そして、対象物Wを把持するための指の間隔を決定し、これに基づき多指ハンドを制御する。
【選択図】図1

Description

本発明は、把持方法、把持システム及びプログラムに関する。
多指ハンドを用いて、ワークを把持するための方法として、特許文献1には、ワークを三次元計測して得られたワーク計測データ及びワークを把持するためのハンド形状データに基づいて、把持位置姿勢を導き出すワーク取り出し方法が開示されている。
この特許文献1には、ワークの三次元計測データを取得するものとして、例えば、二眼あるいは多眼のステレオカメラ、レーザやプロジェクタなどの投光部とカメラとを備えたアクティブなステレオ計測方式などが記載されている。
特許第5558585号公報
上記のようなステレオ計測方式において、オクルージョンが発生することでワーク三次元計測データを取得できない領域が存在することが一般的に知られている。またオクル-ジョンによるもの以外に、計測対象物であるワークの表面状態によって三次元計測データを取得できない領域が存在することも知られている。このような場合、ワークの計測データ及びワークを把持するためのハンド形状データに基づいて把持位置姿勢を導き出そうとしても、計測データを取得できない領域周辺のワークについては、把持位置姿勢を導き出すことはできず、ワークを把持することができなかった。
そこで本発明は、対象物を含む領域内において、三次元計測情報を取得できない領域が存在しても、対象物を把持することができる把持方法、把持システム及びプログラムを提供することを目的とする。
本開示の一側面に係る把持方法は、複数の指を備える多指ハンドを用いて対象物を把持する。
そして、三次元計測センサを用いて対象物を含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、所定の領域内に、三次元情報を取得できない領域が存在する場合は、三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの未計測領域を、指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完する補完ステップと、距離情報取得ステップで取得された距離情報及び補完ステップで補完された距離情報に基づいて、複数の指の間隔を決定する間隔決定ステップと、決定された指の間隔で、対象物を把持するように多指ハンドを制御するステップとを含む。
この方法によれば、三次元情報を取得できない未計測領域が存在する場合は、距離が近いことを示す距離情報で補完するから、そのような領域が存在しても、対象物を含む領域内のすべての位置ごとに距離情報を確定して把持位置姿勢を導き出すことで、対象物を把持することができる。
また、間隔決定ステップは、距離情報取得ステップで取得された距離情報及び補完ステップで補完された距離情報に基づいて、対象物と干渉しない指の間隔を、複数の指の間隔として決定することができる。
この方法によれば、対象物を含む領域内において、三次元計測情報を取得できない領域が存在しても、対象物を傷つけないように指の間隔を決定することができる。
また、少なくとも1つの未計測領域を、この未計測領域に隣接する2つの位置に対応する距離情報のうち、距離が遠いことを示す距離情報で補完する第2の補完ステップと、距離情報取得ステップで取得された距離情報及び第2の補完ステップで補完された距離情報に基づいて、対象物を複数の指が把持する際の複数の指の位置を決定する把持位置決定ステップと、更に含むことができる。
この方法によれば、対象物を把持する際の指の位置を決定するためには、距離が遠いことを示す距離情報で補完する第2の補完ステップで補完した距離情報を用いるから、対象物のエッジを抽出することにより、適切に把持位置を決定することができる。
また、把持位置決定ステップは、対象物の形状を示すデータと、複数の指の形状を示すデータと、対象物の把持可能な位置を示すデータと、を用いて、対象物を複数の指が把持する際の複数の指の位置を決定することができる。
この方法によれば、対象物の形状を示すデータと、複数の指の形状を示すデータと、対象物の把持可能な位置を示すデータと、を用いるから、より正確に把持の際の指の位置を決定することができる。
また、補完ステップは、把持位置決定ステップで決定される指の位置を包含する指の稼働領域が、1つの未計測領域と、この未計測領域で区分される2つの計測領域を含む場合は、稼働領域内の一方の計測領域が未計測領域と隣接する第1の位置における距離情報と、稼働領域内の他方の計測領域が未計測領域と隣接する第2の位置における距離情報のうち、距離が近いことを示す距離情報でその未計測領域を補完することができる。
この方法によれば、指の位置を包含する指の稼働領域が、1つの未計測領域と、この未計測領域で区分される2つの計測領域を含む場合に、距離が近いことを示す距離情報を用いて未計測領域を補完するから、未計測領域に対象物が存在しても、対象物を傷つけないように把持することができる。
また、間隔決定ステップで決定された複数の指の間隔を維持して対象物に向かって多指ハンドを進行させる多指ハンド移動ステップと、複数の指の間隔を異ならせて、把持位置決定ステップで決定された複数の指の位置に複数の指を移動させて、対象物を把持する把持ステップと、を更に含むことができる。
この方法によれば、決定された複数の指の間隔を維持して対象物に向かって多指ハンドを進行させる多指ハンド移動ステップを含むので、多指ハンドの進行時に対象物を傷つけることがない。
なお、指の間隔を維持して対象物に向かって多指ハンドを進行させる、とは、少なくとも対象物の近傍で、指の間隔を維持して対象物に向かって多指ハンドを進行させる場合を含む。
また、把持ステップは、複数の指の間隔を狭めるように、複数の指を移動させることができる。
この方法によれば、複数の指の間隔を狭めることで、対象物の外縁を把持することができる。
また、把持ステップにおいて、複数の指のいずれか一つは、計測領域から未計測領域に移動した後に対象物に接触することができる。
この方法によれば、複数の指のいずれか一つは、計測領域から未計測領域に移動するので、未計測領域に対象物が存在しても、対象物を傷つけないで把持することができる。
また、間隔決定ステップは、距離情報取得ステップで取得された距離情報及び補完ステップで補完された距離情報に基づいて、複数の指の間隔が第1の間隔の場合に、対象物と複数の指が干渉するか判断するステップと、このステップで干渉すると判断された場合は、複数の指の間隔が、対象物と複数の指が干渉しない第2の間隔を探索するステップと、を含むことができる。
この方法によれば、複数の指の間隔が第1の間隔の場合に、対象物と複数の指が干渉すると判断された場合は、複数の指の間隔が、対象物と複数の指が干渉しない第2の間隔を探索するので、適切な指の間隔を決定することができる。
また、本開示の他の側面に係る把持システムは、対象物を把持するための複数の指を備える多指ハンドと、この多指ハンドが接続されるロボットアームと、対象物を含む所定の領域について距離情報を含む三次元情報を取得するための三次元計測センサと、所定の領域内に、三次元情報を取得できない領域が存在する場合は、三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの未計測領域を、指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完し、前記三次元計測センサで取得された距離情報及び前記補完された距離情報に基づいて、複数の指の間隔を決定し、決定された指の間隔で、対象物を把持するように多指ハンドを制御するコントローラと、を備える。
この把持システムによれば、三次元情報を取得できない未計測領域が存在する場合は、隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完するから、そのような領域が存在しても、対象物を含む領域内のすべての位置ごとに距離情報を確定して把持位置姿勢を導き出すことで、対象物を把持することができる。
また、本開示の他の側面に係るプログラムは、複数の指を備える多指ハンドを用いて対象物を把持するためのものである。そして、コンピュータに、三次元計測センサを用いて対象物を含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、所定の領域内に、三次元情報を取得できない領域が存在する場合は、三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの未計測領域を、指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完する補完ステップと、距離情報取得ステップで取得された距離情報及び補完ステップで補完された距離情報に基づいて、複数の指の間隔を決定する間隔決定ステップと、決定された指の間隔で、対象物を把持するように多指ハンドを制御するステップと、を実行させる。
このプログラムによれば、三次元情報を取得できない未計測領域が存在する場合は、隣接する2つの位置に対応する距離情報のうち、距離が近いことを示す距離情報で補完するから、そのような領域が存在しても、対象物を含む領域内のすべての位置ごとに距離情報を確定して把持位置姿勢を導き出すことで、
対象物を把持させることができる。
本発明によれば、対象物を含む領域内において、三次元計測情報を取得できない領域が存在しても、対象物を把持することができる把持方法、把持システム及びプログラムを提供することができる。
本実施形態に係る把持システム10 本実施形態に係る把持システム10の機能ブロック図 本実施形態に係る把持方法のフローチャート バラ積みされた複数のワークWを撮像して得られた距離画像データの一例 所定断面における距離データのプロファイル 多指ハンドHの開き幅を更新するサブステップのフローチャート 多指ハンドHの各指L及びRの移動方向と、ワークWの位置関係を示した図 8か所の未計測領域UA1〜UA8を含む距離画像データDD 第3実施形態に係る把持方法のフローチャート ステップS92及びS94による補完方法の比較図
[第1実施形態]
まず、図1を用いて、本発明が適用される実施形態の一例について説明する。
図1は、本実施形態に係る把持システム10(「把持システム」の一例)のハードウェア構成図である。本発明が適用される場面の一例として、多指ハンドHが接続されるロボットアームを含むロボットRを用いてワークW(「対象物」の一例)を把持する際の把持方法について説明する。
まず、三次元計測センサ16(「三次元計測センサ」の一例)を用いてワークWを含む領域を計測し、領域内の位置ごとに距離データ(「距離情報」の一例)を含む三次元情報を取得する。
このとき、様々な理由により、距離データを取得できない未計測領域UA(「未計測領域」の一例)が発生する場合がある。たとえば、ワークWのエッジ付近は、一般的に距離データを取得しにくい領域である。
未計測領域UAが発生した場合は、隣接する三次元情報を取得できた領域(「計測領域」の一例)の距離データを用いて、未計測領域UAの距離データを補完する。その際に、隣接する2つの位置に対応する距離データのうち、近い距離の距離データで補完する。
たとえば、机上に置かれたワークWのエッジ付近に未計測領域UAがある場合は、ワークWの方が机よりも距離が近いため、未計測領域UAを、ワークWの距離データで補完することに相当する。このため、未計測領域UAは、あたかもワークWが存在する領域のように取り扱われる。
その後、補完後の三次元情報を用いて、多指ハンドHの指の間隔を決定する。補完後の三次元情報を用いることにより、たとえ未計測領域UAにワークWが存在していたとしても、ワークWを傷つけることなく把持することができる。
なお、多指ハンドHの指の数は、複数であれば何本でもよい。例えば、三本以上であってもよい。
また、指の間隔を決定する、とは、指の間隔を示す情報を、直接的、または、間接的に決定することを含む。たとえば、多指ハンドHの指の間隔が、ある情報に応じて変動するときに、その情報を決定することを含む。
また、多指ハンドHは、指の間隔が狭くなるように各指を移動させてワークWを把持する、いわゆる外径把持のタイプでも、指の間隔が広くなるように各指を移動させてワークWを把持する、いわゆる内径把持のタイプでも、本実施形態の把持方法を適用することができる。
また、必ずしも未計測領域UAの全域を補完する必要はない。ワークWを把持する際の多指ハンドHの各指の稼働方向についてのみ補完してもよい。たとえば、多指ハンドHの各指が一次元的に移動してワークWと接触する場合は、各指の稼働領域、すなわち、各指の移動方向を通過する各断面の未計測領域UAのみについて、距離データを補完してもよい。
また、全ての未計測領域UAを補完する必要はない。ワークWを把持するために必要な未計測領域UA(たとえば、ワークWのエッジ付近の未計測領域UA)のみを補完して、一部の未計測領域UA(たとえば、面積が小さいために無視できる未計測領域UAや、ワークWから遠く離れた位置にある未計測領域UA)は補完しないようにしてもよい。
[第2実施形態]
以下、図面を参照して本発明の第2実施形態について説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略又は簡略化する。
図1は、本実施形態に係る把持システム10のハードウェア構成図である。また、図2は、この把持システム10の機能ブロック図である。
この把持システム10は、ロボットRを備えている。このロボットRは、多軸多関節型のロボットアームであり、床面に固定されたベースと、可動軸として機能する複数のジョイントと、ジョイントの可動軸に従って回転駆動する複数のリンクと、各リンクを回転駆動するためのサーボモータを備えている。また、先端のリンクには、2本の指を備える多指ハンドH(「多指ハンド」の一例である)が連結されている。多指ハンドHの各指は、それぞれ一次元に移動可能な構成となっており、ロボット制御部12から受け取った命令に基づいて、2本の指の間隔を変更することができる。
ロボット制御部12は、情報処理装置14から受け取る把持位置姿勢を指定する情報に基づいて、ロボットR及び多指ハンドHを制御するための制御命令を生成し、ロボットR及び多指ハンドHに対して出力する。
三次元計測センサ16(「三次元計測センサ」の一例)は、把持対象物であるワークW(「対象物」の一例)を含む領域を撮像し、画素(または、ピクセル、という)ごとに、三次元計測センサ16とその領域に存在する物体との距離データを出力する。ここで、三次元計測センサ16から各画素に対応して出力される距離データ(「距離情報」の一例)の集合(距離情報が得られなかった画素の情報を含む)を、距離画像データDD(「三次元情報」の一例)と呼ぶ。
三次元計測センサ16は、所定領域内の複数の位置について、基準となる位置からの距離を示す情報を取得できるものであれば、如何なる方式のものであってもよい。たとえば、レーザを照射しその反射光の受信時間または位相等に基づいて距離を取得するTOF(Time Of Flight)方式、所定のパターンを有するレーザ光線を照射し、反射光のパターンに基づいて距離を測定するパターン照射方式、赤外線レーザを照射しその反射光に基づいて距離を測定するレーザレンジファインダを用いるもの、二眼または多眼のカメラを用いて距離を計測するステレオカメラを用いるものを、三次元計測センサ16として用いることができる。
また、三次元計測センサ16は、ワークWの上方に固定されてもよいし、ロボットRの先端のリンク等に固定されていてもよい。
情報処理装置14は、たとえば、汎用のパーソナルコンピュータをハードウェアとして用いることができる。この情報処理装置14は、本実施の形態に示される種々の演算処理を実施するための図示しないプロセッサ、一時記憶装置及びインタフェースを備える情報処理部18(「コントローラ」の一例)と、多指ハンドHのハンド形状データHD、ワークWのワーク形状データWD、本実施形態に示す各処理を実現するためのコンピュータ読み取り可能なプログラム等を記憶するための記憶媒体20から構成される。
情報処理部18のプロセッサは、記憶媒体20に記憶されているプログラム(本開示の各フローチャート等で示される演算処理を規定するプログラムを含む)を読み出し、又は、インタフェースを用いて外部からプログラムを取得し、実行する。一時記憶装置は、SRAM(Static Random Access Memory)等から構成されており、プログラムの一部や、演算データ等を一時的に記憶する。
記憶媒体20は、コンピュータを用いて読み取り可能な状態で、プログラム等の情報を、電気的、磁気的、光学的、機械的、化学的又はそれらの組み合わせによって記憶する媒体であり、例えば、CD、DVD、磁気ディスク、MO、半導体メモリ(NORフラッシュメモリ、NANDフラッシュメモリ、MRAM等)を含む。
図2の機能ブロック図に示されるとおり、情報処理部18は、把持位置姿勢認識部22と、距離画像補完部24と、ハンド開き幅更新部26と、最適把持位置姿勢算出部28を備える。
把持位置姿勢認識部22は、距離画像データDD、記憶媒体20から読み出されたハンド形状データHD及びワーク形状データWDに基づいて、多指ハンドHの各指がワークWに接触して把持するときの把持位置姿勢を認識する。
距離画像補完部24は、未計測領域UAの距離情報を補完して、補完された距離画像データDDを生成する
ハンド開き幅更新部26は、距離画像補完部24において補完された距離画像データDDに基づいて多指ハンドHの開き幅の設定値を更新する。
最適把持位置姿勢算出部28は、把持位置姿勢認識部22で設定された把持位置姿勢及びハンド開き幅更新部26で設定された多指ハンドHの開き幅を最適な把持位置姿勢として算出する。
なお、情報処理部18の一時記憶装置(不図示)は、三次元計測センサ16及び記憶媒体20から受信した各種データや、各ブロック22〜28において演算処理されるデータ等を、一時的に記憶するために用いられる。
次いで、図3を用いて、本実施形態に係る把持方法について説明する。図3は、本実施形態に係る把持方法のフローチャートである。
なお、本実施形態において、把持の対象物であるワークWは、三次元形状が定まっている部品や、基本的な三次元形状は共通するが個体差を有する物体(たとえば、同種の魚や果物、食物等)である。これらワークWの三次元のワーク形状データWDは、予め、記憶媒体20に記憶されている。
また、把持システム10は、不特定にバラ積みされた複数のワークWから1つのワークWを選択して把持する。ただし、これに限られるものではなく、たとえば、ベルトコンベヤで搬送されている複数のワークWを、把持システム10が順番に把持するように構成してもよい。
まず、三次元計測センサ16は、少なくとも一つのワークWを含む領域を撮像して、距離画像データDDを取得する(ステップS31)。この距離画像データDDは、距離が近いほど高輝度な二次元画像として、図示しない表示装置に表示させることができる。
ここで、一部の画素について距離データを取得できない場合がある。例えば、ステレオカメラの死角に起因するオクル−ジョンや、物体表面の法線がセンサの撮像面の法線と垂直に近い角度を有するため有意な反射光が得られない場合は、距離データを取得することができない。更に、低反射物体や、逆に鏡面反射物体を撮像する場合も、距離データを取得できない。距離画像データDDは、このような理由で距離データを取得することができない画素の情報も含んでいる。
図4は、バラ積みされた複数のワークW(果物のオレンジ)を撮像して得られた距離画像データを、距離が近いほど輝度を高くする二次元画像として表示させた例である。この例の場合、複数のワークWの右側のエッジ付近は、オクル−ジョン等のため、距離データを取得することができない未計測領域UAを含んでいる。
次いで把持位置姿勢認識部22は、未計測領域UAの距離データを補完する(ステップS32)。このステップは、ワークWの位置姿勢算出(ステップS33)の際に、距離画像データDDと、ワーク形状データWDのパターンマッチング等を実行するために、未計測領域UAの距離データを補完するステップであり、既知の様々な補完方法を用いることができる。また、このステップの未計測領域UAの補完方法は、後のステップS35における未計測領域UAの補完方法と異なっていてもよい。
次いで、把持位置姿勢認識部22は、記憶媒体20からワーク形状データWDを読み出し、ステップS32において、未計測領域UAの距離データが補完されている距離画像データDDと、ワーク形状データWDに基づいて、距離画像データDD中に存在する複数のワークWを抽出し、そのワークWの位置及び姿勢を算出する(ステップS33)。例えば、既知の三次元形状特徴に基づく手法や、二次元投影に基づく手法を用いてこのステップを実行することができる。
そして、多指ハンドHによるワークWの把持位置姿勢が以下のとおり算出される(ステップS34)。まず、把持位置姿勢認識部22は、把持位置データベースDBから、ワークWを把持可能な位置を特定した把持位置情報を取得する。把持位置情報は、ティーチングペンダントや把持シミュレータなどを用いて、既知のワークWを把持することができる位置を特定する情報である。把持位置情報は、1つのワークWに対して、複数個所の把持可能な位置を含んでもよい。また、把持可能な位置ごとに関連付けられたスコア情報を含んでもよい。把持位置情報は、二つの指を備える多指ハンドHの場合は、二つの把持可能な位置のペアから構成される情報である。
また、把持位置姿勢認識部22は、記憶媒体20からハンド形状データHDを読み出す。そして、ステップS33で抽出されたワークWの位置姿勢情報と、把持位置データベースDBから読み出された把持位置情報ならびにハンド形状データHDに基づいて、多指ハンドHの各指がワークWに接触して把持するときの把持位置姿勢を算出する。ここで、多指ハンドHと、ワークWの周囲の物体やワークWを格納するコンテナが干渉しないかも判定され、干渉するものは把持位置姿勢から除外される。このようにして算出された把持位置姿勢は、ロボットRの先端部に相当する多指ハンドHの位置ならびに姿勢を特定する六次元の情報及び多指ハンドHの指の開き幅を規定する一次元の情報から構成される七次元の情報である。複数の把持位置姿勢を把持位置姿勢の候補として算出することも可能である。
次いで、距離画像補完部24は、次のステップS36において実行される干渉判定のために、未計測領域UAを距離データで補完する(ステップS35)。
具体的には、ステップS34において把持位置姿勢認識部22が算出した把持位置姿勢における多指ハンドHの各指の稼働領域を含む断面上における距離データに基づいて、未計測領域UAと計測領域の境界の2つの距離データのうち、距離が近い方の距離データでその断面における未計測領域UAの距離情報を補完する。
図5(a)は、このような断面の距離データのプロファイルを示している。横軸は、多指ハンドHの一つの指の稼働方向における画素を単位とする位置を示しており、多指ハンドHの指の稼働領域内に未計測領域UAが含まれる。このため、稼働領域内に未計測領域UAで区分される二つの計測領域が含まれる。
縦軸は、距離データを示している。図において未計測領域UAの左側の計測領域は、距離が近い(距離データの値が小さい)。一方で、未計測領域UAの右側の計測領域は、距離が遠い(距離データの値が大きい)。これは、距離が近い領域にワークWが存在することを示している。
図5(b)は、ステップS35に基づく補完後のプロファイルを示している。左側の計測領域が未計測領域UAと隣接する位置(「第1の位置」の一例)における距離データと、右側の計測領域が未計測領域UAと隣接する位置(「第2の位置」の一例)における距離データのうち、距離が近い方(距離データの値が小さい方)の距離データで、断面上の未計測領域UAが補完されたことが示されている。ワークWは、周辺よりも突出している場合が多いため、ワークWの方が、周辺よりも距離が近い(距離データが小さい)。従って、このように補完することにより、未計測領域UAを、あたかもワークWが存在する領域のように取り扱う距離画像データDDを生成することが可能になる。
なお、多指ハンドHの各指が、複数の画素分の幅を有する場合は、各画素を通過する複数の断面のプロファイルについて、同様に未計測領域UAの距離データを補完する。たとえば、多指ハンドHの各指が、5画素分の幅を有する場合は、5つの断面について未計測領域UAの距離データを補完する。
図5(c)は、比較例として、未計測領域UAと計測領域の境界の2つの距離データのうち遠い方(距離データの値が大きい方)の距離データで未計測領域UAを補完した場合のプロファイルを示している。
次いで、ハンド開き幅更新部26は、未計測領域UAの距離データが補完された距離画像データDDに基づいて、多指ハンドHの開き幅(「複数の指の間隔」の一例)を更新する(ステップS36)。
図6は、ハンド開き幅更新部26が、多指ハンドHの開き幅を更新するステップS36のサブステップのフローチャートである。
まず、ステップS34で設定された多指ハンドHの現時点の開き幅(「第1の間隔」の一例)が、多指ハンドHが取りうる開き幅の最大値以下であるか否か判断される(サブステップS61)。多指ハンドHの開き幅が、多指ハンドHが取りうる開き幅の最大値以下の場合(YES)は、サブステップS62に進む。
そして、現時点の開き幅の多指ハンドHと、ステップS35において補完された距離画像データDDが干渉するか否か判断される(サブステップS62)。具体的には、以下の手順が実行される。
まず、多指ハンドHの各指が、距離画像データDDを構成する画像座標で定義される領域中に占める指領域が算出される。
ここで、三次元位置座標(X、Y、Z)で特定される点を、距離画像データDDを構成する画像座標で規定される平面に投影したときの画像座標(x、y)は、以下の透視投影の式で求められる。

ここで、fは、三次元計測センサ16の焦点距離である。また、Cx、Cyは、三次元計測センサ16の中心の画像座標である。
従って、多指ハンドHの各指の頂点の三次元位置座標を、ステップS34で算出された多指ハンドHの把持位置姿勢に基づいて算出し、各頂点について、上記式をあてはめて、画像座標上の位置を算出することにより、各頂点の画像座標上の位置で囲まれる領域を、多指ハンドHの各指が占める指領域として算出することができる。
そして、算出された多指ハンドHの指領域と、補完された距離画像データDDを用いて、多指ハンドHが干渉するか否か判断される(サブステップS62)。たとえば、距離画像データDDの中で、多指ハンドHと干渉する可能性がある領域(たとえば、距離データが所定値以下の領域)と、多指ハンドHの指領域が重複するか否かを判断することによって、多指ハンドHの干渉有無が判断される。
干渉しない(NO)と判断された場合は、そのときの多指ハンドHの開き幅を最適値(「第2の間隔」の一例)として登録し(サブステップS64)、サブルーチンは終了する。
干渉する(YES)と判断された場合は、サブステップS63において、多指ハンドHの開き幅の設定値を所定量(たとえば5画素分)増加した後に、再びサブステップS61を実行する。
サブステップS61において、現時点における多指ハンドHの開き幅の設定値が、多指ハンドHが取りうる開き幅の最大値以下の場合(YES)は、サブステップS62以下が繰り返し実行される。
一方で、現時点における多指ハンドHの開き幅の設定値が、多指ハンドHが取りうる開き幅の最大値を超える場合(NO)は、最適な開き幅は存在しないと登録され(サブステップS65)、サブルーチンは終了する。
その後、ステップS34において設定された多指ハンドHの位置ならびに姿勢と、サブステップS64において登録された多指ハンドHの開き幅が、ワークWを把持するための最適な把持位置姿勢として選択される(ステップS37)。ここで、ステップS34において設定された多指ハンドHの位置ならびに姿勢が複数候補ある場合は、その中から最良な把持位置姿勢を選択する。たとえば、三次元計測センサ16からの距離(近いほど好ましい)、多指ハンドHの傾き(傾かないほど好ましい)、多指ハンドHが占める領域における未計測領域UAの面積(小さいほど好ましい)などを指標として、複数の把持位置姿勢間で優先順位付けを行い、その中から最良なものを選択する。
次いで、情報処理部18から、ロボット制御部12に対して、最適な把持位置姿勢情報が出力される(ステップS38)。
ロボット制御部12は、入力された最適な把持位置姿勢を、ロボットR及び多指ハンドHが取るように制御命令を出力する。
この制御命令に従って、ロボットR及び多指ハンドHは、ステップS37において最適な把持位置姿勢として選択された多指ハンドHの開き幅でワークWに近接し、最適な把持位置姿勢をとる。そして、ロボット制御部12から出力される制御命令に基づいて、多指ハンドHの指の間隔を狭め、ワークWを把持する。
このような本実施形態に係る把持方法の効果について図面を用いて説明する。
図7は、多指ハンドHの各指L及びRの稼働領域を含む断面における各指L及びRの移動方向と、ワークWの実際の断面(破線)と、未計測領域UAを補完した断面(実線)を示している。図7(a)は、比較例の場合の把持方法を示し、図7(b)は、本実施形態に係る把持方法を示している。
比較例の場合は、未計測領域UAを補完した結果、実際のワークWよりもワークWの幅が狭くなるように補完された。このため、多指ハンドHがワークWに向かって進行する際に、指LがワークWに衝突する。このため、ワークWが傷つき、作業工程がストップする等の甚大な被害をもたらす。
本実施形態の場合は、ワークWを、多指ハンドHを用いて把持するための把持位置姿勢を決定した後、多指ハンドHの開閉方向の軸に沿った未計測領域UAの全範囲を、隣接する距離データのうち、距離が近い方(小さい方)の距離データで補完し、その補完した距離画像データDDに基づいても、ワークW等と干渉しないように、多指ハンドHの開き幅を設定した。そして、少なくともワークWの近傍では、その開き幅以上の開き幅を維持してワークWに進行し、その後、ハンドHの指の間隔を狭めることで、ワークWを傷つけることなく把持することが可能になった。
なお、以上は外径把持の場合について述べたが、内径把持の場合は、サブステップS61において多指ハンドHの開き幅が最小値以上か否か判断するように変更し、また、サブステップS63において多指ハンドHの開き幅を減少するように変更すればよい。
また、サブステップS62において、多指ハンドHと補完した距離画像データDDは干渉しない(NO)と判断された後に、更に詳細に最適な開き幅を探索するようにしてもよい。たとえば、サブステップS63で規定された開き幅の増加量よりも小さい量だけ多指ハンドHを減少させながら、サブステップS62を実行することで、補完した距離画像データDDと干渉しない最小の開き幅を探索することができる。
また、初めから、サブステップS63の開き幅の増加量を設定しうる最小値にして、補完した距離画像データDDと干渉しない最小の開き幅を探索するようにしてもよい。
また、本実施形態の場合は、二本指の多指ハンドHであったため、多指ハンドHの開き幅という一次元の情報を更新して、最適な指の間隔を設定したが、これに限られるものではなく、指ごとに独立に位置を設定できるような多指ハンドHに本実施形態に係る把持方法を適用してもよい。その場合は、開き幅を更新する替りに、指ごとに補完された距離画像データDDと干渉しない位置を決定するようにしてもよい。たとえば、三本指の場合は、各指の稼働領域を含む各断面と、その断面における補完された距離画像データDDを比較して、ワークWと干渉しない各指の位置をそれぞれ設定するようにしてもよい。
また、最適値として登録された多指ハンドHの開き幅は、少なくともワークWの近傍で、外径把持の場合はその開き幅以上、内径把持の場合はその開き幅以下を維持するように多指ハンドHを移動させてもよい。
なお、ワークWが載置された状況によっては、ワークWのエッジ以外の領域にも未計測領域が発生する場合もある。以下では、そのような場合に本実施形態に係る把持方法を適用した例について説明する。
図8(a)は、距離画像データDD中に、8か所の未計測領域UA1〜UA8が存在する場合を示している。また、線分Vは、多指ハンドHの指の可動領域を含む線分を示している。
図8(b)は、多指ハンドHの指の稼働領域を含む断面における距離データのプロファイルを示している。縦軸は距離データを示しており、図面の下ほど距離データの値が大きい、すなわち、距離が遠い。また、未計測領域UA1〜UA8は、距離データが不明である。
図8(c)は、ステップS35における補完後のプロファイルと、多指ハンドHの左指L及び右指Rが干渉する開き幅の場合を示している。このプロファイルに示されるように、各未計測領域UA1〜UA8は、計測領域との境界における2つの距離データのうち近い方(小さい方)の距離データを用いて補完されている。一方で、ステップS34において算出された把持位置姿勢より、多指ハンドHの左指L及び右指Rの位置がわかっているから、サブステップS62において、その開き幅で干渉するか否かを判断することができる。ここで、未計測領域UA1〜UA3及びUA6〜UA8は、両端の距離データの差がほとんどなく、かつ、距離が遠い(距離データが大きい)領域である。このため、把持の際に、多指ハンドHと干渉することがない未計測領域である。一方でUA4及びUA5は、隣接する距離データの少なくとも一方の値が小さいから、距離が近く干渉する可能性がある未計測領域であるから、これと干渉しないように多指ハンドHの開き幅を大きくする必要があるといえる。
図8(d)は、補完された距離画像データDDと多指ハンドHが干渉しなくなるまで多指ハンドHの開き幅を大きくした様子を示している。
このように、本実施形態の把持方法に示される補完方法を用いて指が稼働する領域に含まれる未計測領域UAについて一律に、すなわち、ワークWのエッジにある未計測領域UAか否かを判断することなく、距離データを補完しても、ワークWを傷つけない好適な開き幅を決定することが可能になる。一方で、所定の(たとえば距離が近い)未計測領域UAについてのみ、補完するようにしてもよい。
また、開き幅の設定にあたっては、ワークWの周辺の状況を考慮することもできる。たとえば、図8において、未計測領域UA7の少なくとも一方の距離が近い(距離データが小さい)場合は、多指ハンドHがこれと干渉しないように開き幅を設定することもできる。
また、サブステップS62における多指ハンドHと補完した距離画像データDDの干渉判定は、別の方法を用いて実行してもよい。たとえば、多指ハンドHの各指の稼働方向における距離データのプロファイルに基づいて(未計測領域UAを含む)ワークWの幅を算出し、そのときの多指ハンドHの開き幅と比較してもよい。
また、ステップS35における距離画像データDDの補完は、必ずしも多指ハンドHの稼働方向における距離データを用いなくてもよい。たとえば、周辺の複数の位置に対応する複数の距離データのうち、近い位置の距離データで補完するようにしてもよい。
[第3実施形態]
以下、第3実施形態について説明する。なお、他の実施形態と共通または類似する部分については説明を簡略化し、異なる部分を中心に説明する。
第2実施形態では、ワークWの形状は既知であったため、把持位置姿勢の設定等にあたり、ワーク形状データWDを利用することができた。一方で、本実施形態では、ワークWの形状が未知の場合の把持方法を説明する。ただし、形状が既知のワークWに本実施形態の把持方法を適用することも可能である。
図9は、本実施形態に係る把持方法のフローチャートである。
まず、三次元計測センサ16を用いて、距離画像データDDを取得する(ステップS91)。
次いで、把持位置姿勢を算出するために、得られた距離画像データDD内の未計測領域UAの距離データを補完する(ステップS92)。具体的には、多指ハンドHの指の稼働領域を含む断面上における距離データに基づいて、未計測領域UAと計測領域の境界の2つの距離データのうち、遠い方(距離データの値が大きい方)を用いて未計測領域UAを補完する。たとえば、図5(a)のような断面のプロファイルに対しては、図5(c)のように距離データが補完される。
続いて、多指ハンドHの把持位置姿勢を算出する(ステップS93)。把持位置姿勢認識部22は、ステップS92において、未計測領域UAの距離データが補完された距離画像データDDに基づいて、ワークWのエッジ形状を取得する。また、記憶媒体20から、ハンド形状データHDを読み出して、多指ハンドHがワークWを把持するための把持位置姿勢を算出する。ここで、算出された把持位置姿勢は、ロボットRの先端部に相当する多指ハンドHの位置ならびに姿勢を特定する六次元の情報及び多指ハンドHの指の開き幅を規定する一次元の情報から構成される七次元の情報である。複数の把持位置姿勢を算出することもできる。
その後のステップS94〜S97は、図3のステップS35〜S38(ならびに図6に示されるサブステップ)と同様なので説明を省略する。これらステップを経て、ワークWを把持するための最適な把持位置姿勢を決定することができる。
このような把持方法においては、ステップS92において、まずは、未計測領域UAを含む距離画像データDDに基づいて、未計測領域UAの距離が遠くなるように(距離データが大きくなるように)距離データを補完して(図5(c))、把持可能な一又は複数の把持位置姿勢を算出し(ステップS93)、次いで、同じ未計測領域UAを含む距離画像データDDに基づいて、三次元計測センサ16と未計測領域UAの距離が近くなるように(距離データが小さくなるように)距離データを補完して(ステップS94、図5(b))、多指ハンドHの開き幅を決定する(ステップS95)。
以下、図面を用いて、目的に応じて異なる補完方法により補完された距離画像データDDを用いることの効果について説明する。
図10は、図4における領域ARについて本実施形態に示される補完方法を適用した際に抽出できるエッジEを示している。図10(a)は、ステップS92の補完により抽出することができるエッジEであり、図10(b)は、ステップS94の補完により抽出することができるエッジEである。三次元計測センサ16とワークWの距離は、三次元計測センサ16とワークWが載置されている面との距離よりも小さくなることが一般的である。したがって未計測領域UAは、ワークWの表面(距離が近い、または、距離データが小さい領域)と、ワークWが載置されている面(距離が遠い、または、距離データが大きい領域)との間隙に形成されやすい。そして、ワークWの表面のうち、三次元計測センサ16とワークWとの距離が一定となる曲線は、一般的には、滑らかになるから、ワークWの計測領域と未計測領域UAの境界は、滑らかになりやすい。
そこで、図10(a)に示されるように、ワークWの計測領域と未計測領域UAの境界がエッジEとして認識されるように補完して、多指ハンドHによる把持可能な位置を抽出する際に用いることができる。
一方で、干渉可能性を判断する際には、干渉のリスクを回避するために、ワークWに隣接する未計測領域UAには、ワークWと同様に距離が近い(データが小さい)領域として取り扱って、多指ハンドHの開き幅を設定することが好ましい。このため、図10(b)に示されるように、未計測領域UAとワークWが隣接していない計測領域との境界がエッジEとして認識されるように補完をして、干渉を回避するような多指ハンドHの開き幅を選択することが可能になる。
以上述べたように、ワークWを把持するための多指ハンドHの把持位置姿勢を設定するにあたり、まず、ワークWと未計測領域UAの境界がエッジとして認識されるように距離画像データDDを補完した。このため、未計測領域についてワークWからワークWが載置される面にかけて、距離データが連続的に変化するように補完する場合と比較して、距離データが大きく変化するエッジEを検出しやすい。そのため、ワークWの形状を認識し、多指ハンドHにより把持可能な一又は複数の箇所を特定することができる。ただし、本実施形態はこれに限られるものではなく、その他の方法によりワークWの把持可能な一又は複数の箇所を特定してもよい。
一方で、ワークWと多指ハンドHの各指の開き幅を決定する際には、ワークWと同じ距離データを未計測領域UAで補完することによって、ワークWと多指ハンドHの各指の干渉リスクを抑制することができる。
このように、距離画像データDDに未計測領域UAが存在する場合に、二種類の補完に基づく距離画像データDD(ワークWを含むワークWと同等の距離データを備える領域が広くなるような補完に基づく距離画像データDDと、ワークWを含むワークWと同等の距離データを備える領域が狭くなるような補完に基づく距離画像データDD)を作成し、目的に応じて使い分けたので、より好適なワークWの把持方法を実現することができる。
なお、本明細書において、「部」や「手段」、「手順」とは、単に物理的構成を意味するものではなく、その「部」等が行う処理をソフトウェアによって実現する場合も含む。また、1つの「部」等や、装置が行う処理が2つ以上の物理的構成や装置により実行されても、2つ以上の「部」等や、装置が行う処理が1つの物理的手段や装置により実行されてもよい。また、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施形態のみに限定する趣旨ではない。
また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。たとえば、当業者の通常の創作能力の範囲内で、ある実施形態における一部の構成要素を、他の実施形態に組み合わせることもできる。さらに、当業者の通常の創作能力の範囲内で、各フローチャートに示される各ステップの順番を変更することも可能である。たとえば、ステップS92とステップS94を同時に実行してもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
複数の指を備える多指ハンドHを用いて対象物Wを把持する把持方法であって、
三次元計測センサ16を用いて前記対象物Wを含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、
前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記三次元情報に基づいて、計測領域と未計測領域UAに区分し、少なくとも1つの前記未計測領域UAを、前記指の開閉方向の軸上においてこの未計測領域UAを挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完する補完ステップと、
前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記複数の指の間隔を決定する間隔決定ステップと、
決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するステップと、
を含む把持方法。
(付記2)
対象物Wを把持するための複数の指を備える多指ハンドHと、
この多指ハンドHが接続されるロボットアームと、
前記対象物を含む所定の領域について距離情報を含む三次元情報を取得するための三次元計測センサ16と、
前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記距離を示す情報に基づいて、計測領域と未計測領域UAに区分し、少なくとも1つの前記未計測領域UAを、前記指の開閉方向の軸上においてこの未計測領域UAを挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完し、
前記三次元計測センサ16で取得された距離情報及び前記補完された距離情報に基づいて、前記複数の指の間隔を決定し、
決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するコントローラ18と、
を備える把持システム10。
(付記3)
複数の指を備える多指ハンドHを用いて対象物Wを把持するためのプログラムであって、
三次元計測センサ16を用いて前記対象物Wを含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、
前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記三次元情報に基づいて、計測領域と未計測領域UAに区分し、少なくとも1つの前記未計測領域UAを、前記指の開閉方向の軸上においてこの未計測領域UAを挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完する補完ステップと、
前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記複数の指の間隔を決定する間隔決定ステップと、
決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するステップと、
をコンピュータに実行させるためのプログラム。
10…把持システム、12…ロボット制御部、14…情報処理装置、16…三次元計測センサ、18…情報処理部、20…記憶媒体、22…把持位置姿勢認識部、24…距離画像補完部、26…幅更新部、28…最適把持位置姿勢算出部、DB…把持位置データベース、DD…距離画像データ、E…エッジ、H…多指ハンド、HD…ハンド形状データ、R…ロボット、UA…未計測領域、W…ワーク、WD…ワーク形状データ

Claims (11)

  1. 複数の指を備える多指ハンドを用いて対象物を把持する把持方法であって、
    三次元計測センサを用いて前記対象物を含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、
    前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの前記未計測領域を、前記指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完する補完ステップと、
    前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記複数の指の間隔を決定する間隔決定ステップと、
    決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するステップと、
    を含む把持方法。
  2. 前記間隔決定ステップは、
    前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記対象物と干渉しない指の間隔を、前記複数の指の間隔として決定する請求項1に記載の把持方法。
  3. 少なくとも1つの前記未計測領域を、この未計測領域に隣接する2つの位置に対応する前記距離情報のうち、距離が遠いことを示す前記距離情報で補完する第2の補完ステップと、
    前記距離情報取得ステップで取得された距離情報及び前記第2の補完ステップで補完された距離情報に基づいて、前記対象物を前記複数の指が把持する際の前記複数の指の位置を決定する把持位置決定ステップと、
    を更に含む請求項1又は2に記載の把持方法。
  4. 前記把持位置決定ステップは、
    前記対象物の形状を示すデータと、前記複数の指の形状を示すデータと、前記対象物の把持可能な位置を示すデータと、を用いて、前記対象物を前記複数の指が把持する際の前記複数の指の位置を決定する請求項3に記載の把持方法。
  5. 前記補完ステップは、
    前記把持位置決定ステップで決定される前記指の位置を包含する前記指の稼働領域が、1つの前記未計測領域と、この未計測領域で区分される2つの前記計測領域を含む場合は、
    前記稼働領域内の一方の前記計測領域が前記未計測領域と隣接する第1の位置における前記距離情報と、
    前記稼働領域内の他方の前記計測領域が前記未計測領域と隣接する第2の位置における前記距離情報のうち、
    距離が近いことを示す前記距離情報でその未計測領域を補完する
    請求項3又は4に記載の把持方法。
  6. 前記間隔決定ステップで決定された前記複数の指の間隔を維持して前記対象物に向かって前記多指ハンドを進行させる多指ハンド移動ステップと、
    前記複数の指の間隔を異ならせて、前記把持位置決定ステップで決定された前記複数の指の位置に前記複数の指を移動させて、前記対象物を把持する把持ステップと、
    を更に含む請求項3から5のいずれか一項に記載の把持方法。
  7. 前記把持ステップは、前記複数の指の間隔を狭めるように、前記複数の指を移動させる請求項6に記載の把持方法。
  8. 前記把持ステップにおいて、前記複数の指のいずれか一つは、前記計測領域から前記未計測領域に移動した後に前記対象物に接触する請求項6又は7に記載の把持方法。
  9. 前記間隔決定ステップは、
    前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記複数の指の間隔が第1の間隔の場合に、前記対象物と前記複数の指が干渉するか判断するステップと、
    このステップで干渉すると判断された場合は、前記複数の指の間隔が、前記対象物と前記複数の指が干渉しない第2の間隔を探索するステップと、
    を含む請求項1から8のいずれか一項に記載の把持方法。
  10. 対象物を把持するための複数の指を備える多指ハンドと、
    この多指ハンドが接続されるロボットアームと、
    前記対象物を含む所定の領域について距離情報を含む三次元情報を取得するための三次元計測センサと、
    前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの前記未計測領域を、前記指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完し、
    前記三次元計測センサで取得された距離情報及び前記補完された距離情報に基づいて、前記複数の指の間隔を決定し、
    決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するコントローラと、
    を備える把持システム。
  11. 複数の指を備える多指ハンドを用いて対象物を把持するためのプログラムであって、
    三次元計測センサを用いて前記対象物を含む所定の領域について距離情報を含む三次元情報を取得する距離情報取得ステップと、
    前記所定の領域内に、前記三次元情報を取得できない領域が存在する場合は、前記三次元情報に基づいて、計測領域と未計測領域に区分し、少なくとも1つの前記未計測領域を、前記指の開閉方向の軸上においてこの未計測領域を挟んで隣接する2つの位置に対応する前記距離情報のうち、距離が近いことを示す前記距離情報で補完する補完ステップと、
    前記距離情報取得ステップで取得された距離情報及び前記補完ステップで補完された距離情報に基づいて、前記複数の指の間隔を決定する間隔決定ステップと、
    決定された前記指の間隔で、前記対象物を把持するように前記多指ハンドを制御するステップと、
    をコンピュータに実行させるためのプログラム。
JP2017218956A 2017-11-14 2017-11-14 把持方法、把持システム及びプログラム Active JP6902208B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017218956A JP6902208B2 (ja) 2017-11-14 2017-11-14 把持方法、把持システム及びプログラム
CN201811049588.4A CN109773776B (zh) 2017-11-14 2018-09-10 把持方法、把持系统以及存储介质
US16/130,304 US10888995B2 (en) 2017-11-14 2018-09-13 Gripping method, gripping system, and program
EP18194893.6A EP3482885B1 (en) 2017-11-14 2018-09-17 Gripping method, gripping system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017218956A JP6902208B2 (ja) 2017-11-14 2017-11-14 把持方法、把持システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019089157A true JP2019089157A (ja) 2019-06-13
JP6902208B2 JP6902208B2 (ja) 2021-07-14

Family

ID=63637780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017218956A Active JP6902208B2 (ja) 2017-11-14 2017-11-14 把持方法、把持システム及びプログラム

Country Status (4)

Country Link
US (1) US10888995B2 (ja)
EP (1) EP3482885B1 (ja)
JP (1) JP6902208B2 (ja)
CN (1) CN109773776B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021029064A1 (ja) * 2019-08-15 2021-02-18
KR20210084818A (ko) * 2019-12-30 2021-07-08 한국산업기술대학교산학협력단 비전 센서를 이용한 기하학 특징 기반 파지점 도출 방법
JPWO2023013743A1 (ja) * 2021-08-04 2023-02-09
US11745337B2 (en) 2019-08-29 2023-09-05 Kabushiki Kaisha Toshiba Handling device, control device, and computer program product
US11865720B2 (en) 2020-03-18 2024-01-09 Kabushiki Kaisha Toshiba Handling device and control device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6687657B2 (ja) * 2018-03-20 2020-04-28 ファナック株式会社 センサ及びロボットを用いた物品取り出し装置、及び物品取り出し方法
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
WO2021097489A1 (en) * 2019-11-12 2021-05-20 Bright Machines, Inc. A configurable object application handler for automated assembly
WO2021124445A1 (ja) 2019-12-17 2021-06-24 三菱電機株式会社 情報処理装置、ワーク認識装置およびワーク取り出し装置
US12097627B2 (en) * 2020-01-23 2024-09-24 Omron Corporation Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
KR102918708B1 (ko) * 2020-07-21 2026-01-28 삼성전자주식회사 로봇 및 그 제어 방법
EP4349544A4 (en) * 2021-05-28 2025-05-21 Kyocera Corporation STOP POSITION DETERMINING DEVICE AND STOP POSITION DETERMINING METHOD
DE102022112879B3 (de) 2022-05-23 2023-08-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Posenschätzung eines von einem Roboter-Greifer gegriffenen Objekts
CN120572542B (zh) * 2025-08-04 2025-10-21 浙江强脑科技有限公司 一种控制机器人执行连续动作的方法、装置、机器人及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2004230513A (ja) * 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2010091429A (ja) * 2008-10-08 2010-04-22 Honda Motor Co Ltd ワーク形状推定装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2016059983A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 バラ積みされた物品を取出す物品取出装置
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930007775B1 (ko) * 1990-12-28 1993-08-19 삼성전자 주식회사 로보트의 직선보간(補間)방법
TWI253848B (en) * 2004-04-09 2006-04-21 Mstar Semiconductor Inc Pixel interpolation method and related pixel interpolation device
JP4317518B2 (ja) * 2004-12-14 2009-08-19 本田技研工業株式会社 物品運搬システム
JP4908020B2 (ja) * 2006-03-02 2012-04-04 本田技研工業株式会社 ハンド制御システム
US7313464B1 (en) 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
US8504198B2 (en) * 2009-05-14 2013-08-06 Honda Motor Co., Ltd. Robot hand and control system, control method and control program for the same
JP5335551B2 (ja) * 2009-05-14 2013-11-06 本田技研工業株式会社 ロボットハンドならびにその制御システム、制御方法および制御プログラム
US8543240B2 (en) * 2009-11-13 2013-09-24 Intuitive Surgical Operations, Inc. Master finger tracking device and method of use in a minimally invasive surgical system
US8935003B2 (en) * 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
JP5895337B2 (ja) * 2010-09-15 2016-03-30 セイコーエプソン株式会社 ロボット
WO2012056520A1 (ja) 2010-10-26 2012-05-03 財団法人機械振興協会 工具衝突防止システム及び工具衝突防止方法
KR101308373B1 (ko) * 2010-11-17 2013-09-16 삼성전자주식회사 로봇 제어방법
WO2012066819A1 (ja) 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP5588392B2 (ja) * 2011-04-27 2014-09-10 株式会社日立製作所 マニプレータ装置
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
JP5480340B2 (ja) * 2012-07-26 2014-04-23 ファナック株式会社 ローラ装置を用いた取出しロボットシステム
EP2919948B1 (en) * 2012-11-14 2017-08-16 European Space Agency (ESA) Hand controller device
CN103822594A (zh) * 2014-02-28 2014-05-28 华南理工大学 一种基于激光传感器和机器人的工件扫描成像方法
CN106426173B (zh) * 2016-11-04 2019-08-20 华南理工大学 针对解决形变问题的机器人磨削系统及其轨迹规划方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2004230513A (ja) * 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2010091429A (ja) * 2008-10-08 2010-04-22 Honda Motor Co Ltd ワーク形状推定装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2016059983A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 バラ積みされた物品を取出す物品取出装置
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021029064A1 (ja) * 2019-08-15 2021-02-18
WO2021029064A1 (ja) * 2019-08-15 2021-02-18 オムロン株式会社 情報処理装置及び情報処理方法
JP7310895B2 (ja) 2019-08-15 2023-07-19 オムロン株式会社 情報処理装置及び情報処理方法
US12097615B2 (en) 2019-08-15 2024-09-24 Omron Corporation Information processing device and information processing method
US11745337B2 (en) 2019-08-29 2023-09-05 Kabushiki Kaisha Toshiba Handling device, control device, and computer program product
KR20210084818A (ko) * 2019-12-30 2021-07-08 한국산업기술대학교산학협력단 비전 센서를 이용한 기하학 특징 기반 파지점 도출 방법
KR102288278B1 (ko) 2019-12-30 2021-08-09 한국산업기술대학교산학협력단 비전 센서를 이용한 기하학 특징 기반 파지점 도출 방법
US11865720B2 (en) 2020-03-18 2024-01-09 Kabushiki Kaisha Toshiba Handling device and control device
JPWO2023013743A1 (ja) * 2021-08-04 2023-02-09
WO2023013743A1 (ja) * 2021-08-04 2023-02-09 京セラ株式会社 保持パラメータ推定装置及び保持パラメータ推定方法
JP7785779B2 (ja) 2021-08-04 2025-12-15 京セラ株式会社 保持パラメータ推定装置及び保持パラメータ推定方法

Also Published As

Publication number Publication date
EP3482885A1 (en) 2019-05-15
JP6902208B2 (ja) 2021-07-14
CN109773776A (zh) 2019-05-21
US20190143507A1 (en) 2019-05-16
CN109773776B (zh) 2022-02-18
US10888995B2 (en) 2021-01-12
EP3482885B1 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6902208B2 (ja) 把持方法、把持システム及びプログラム
US12090660B2 (en) Calculation device, calculation method, and storage medium
US11794343B2 (en) System and method for height-map-based grasp execution
US11400598B2 (en) Information processing apparatus, method, and robot system
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
KR101453234B1 (ko) 워크 취출 장치
JP7433609B2 (ja) 物体識別のための方法および計算システム
CN105091885B (zh) 机器人及自身位置推定方法
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
RU2745380C1 (ru) Способ и система захвата объектов с помощью роботизированного устройства
JP6880457B2 (ja) 把持方法、把持システム及びプログラム
US12097615B2 (en) Information processing device and information processing method
JP2017217726A (ja) ロボット
EP1870210A1 (en) Evaluating visual proto-objects for robot interaction
WO2023158825A1 (en) Object grasping
CN119550352A (zh) 一种基于动态视觉伺服的机械臂抓取方法及系统
JP7556983B2 (ja) 機械学習装置、及び機械学習方法
JP2023168240A (ja) 情報処理方法、画像処理方法、ロボットの制御方法、物品の製造方法、情報処理装置、画像処理装置、ロボットシステム、プログラム、及び記録媒体
CN113313803B (zh) 垛型分析方法、装置、计算设备及计算机存储介质
CN118119486A (zh) 学习数据的生成装置和学习数据的生成方法、以及使用学习数据的机器学习装置和机器学习方法
JP2024147313A (ja) 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体
CN119867590A (zh) 物体抓取方法、装置及自移动清洁设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210602

R150 Certificate of patent or registration of utility model

Ref document number: 6902208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250