[go: up one dir, main page]

JP2009115783A - シーン内の物体の3d姿勢を求める方法及びシステム - Google Patents

シーン内の物体の3d姿勢を求める方法及びシステム Download PDF

Info

Publication number
JP2009115783A
JP2009115783A JP2008229740A JP2008229740A JP2009115783A JP 2009115783 A JP2009115783 A JP 2009115783A JP 2008229740 A JP2008229740 A JP 2008229740A JP 2008229740 A JP2008229740 A JP 2008229740A JP 2009115783 A JP2009115783 A JP 2009115783A
Authority
JP
Japan
Prior art keywords
scene
objects
pose
node
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008229740A
Other languages
English (en)
Other versions
JP5258465B2 (ja
Inventor
Amit K Agrawal
アミット・ケイ・アグラワル
Ramesh Raskar
ラメッシュ・ラスカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2009115783A publication Critical patent/JP2009115783A/ja
Application granted granted Critical
Publication of JP5258465B2 publication Critical patent/JP5258465B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22DCASTING OF METALS; CASTING OF OTHER SUBSTANCES BY THE SAME PROCESSES OR DEVICES
    • B22D46/00Controlling, supervising, not restricted to casting covered by a single main group, e.g. for safety reasons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22DCASTING OF METALS; CASTING OF OTHER SUBSTANCES BY THE SAME PROCESSES OR DEVICES
    • B22D11/00Continuous casting of metals, i.e. casting in indefinite lengths
    • B22D11/12Accessories for subsequent treating or working cast stock in situ
    • B22D11/126Accessories for subsequent treating or working cast stock in situ for cutting
    • B22D11/1265Accessories for subsequent treating or working cast stock in situ for cutting having auxiliary devices for deburring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】本発明はシーン内の物体の3D姿勢を求める方法及びシステムを提供する。
【解決手段】深度エッジが、複数の物体を含むシーン内で照明が変化している間に、当該シーンから取得された1セットの画像から求められる。輪郭を形成するために深度エッジは連結される。輪郭に従って、画像は複数の領域に分割される。それらの領域を使用して遮蔽グラフが構築される。遮蔽グラフは、シーン内の遮蔽されていない物体の遮蔽されていない領域を表すソースノードを含む。遮蔽されていない物体に関連付けられる輪郭は、物体の1セットのシルエットと比較され、当該1セットのシルエットにおいて各シルエットは既知の姿勢を有する。最良に一致するシルエットの既知の姿勢が、遮蔽されていない物体の姿勢として選択される。
【選択図】図1

Description

本発明は、包括的には、3次元の物体の検出及び認識に関し、より詳細には、物体の姿勢を求めることに関する。本方法の具体的な出力、すなわち物体の姿勢によって、特に製造現場におけるビンピッキング機械のための多数の有用な用途が可能になる。
産業用ロボットは通常、高度に正確且つ精密に同じ作業を繰り返し行うように設計される。製造及び組立てのような幾つかの産業用途では、ロボットは、ビンから部品を「ピッキング」する(部品取得する)と共に、後の処理のためにその部品を正しい位置及び向き(姿勢)に配置するために使用される。
ロボットは、ピッキングされる部品の姿勢が変わらないということに依存している。あらゆるずれは結果的にロボット又は部品の損傷をもたらし、それによってコストが増大する。通常、カスタム設計された機械システム及び電気機械システムは、特定の姿勢にある部品をロボットに供給するために使用される。幾つかの場合では、部品は手動で予め位置決めされており、それによって、ロボットが容易に部品を拾い上げることができる。
より最近では、コンピュータビジョン技法が、部品の位置特定及びピッキングのプロセスを自動化するために使用されている。ほとんどの従来型の自動化技法は、単一の遮蔽していない部品、又は他から離れている部品、例えばコンベヤベルト上で余裕をもって散乱されている部品しかピッキングすることができない。
幾つかのビジョン支援型システムは積み重ねられた部品をピッキングすることができるが、これは、洗練された機械システム又は手動による介入を使用する場合のみである。ビジョン支援型システムのほとんどは、信頼性、正確さ及び頑健性に欠け、高価なビジョンセンサ及びハードウェアを使用する。従来のビジョン支援型システムは、部品が、ランダムに、無計画に重なり合って積み重ねられるか又はビン内に置かれる場合、3D部品を取得することができない。
3Dの姿勢推定及び部品取得の問題は既知である。手動による部品取得は、人間が組み立てのために取得及び設置することを伴う。これは、人間が重い部品と共に作業する場合に危険である。加えて、一定レベルのスキルセットが人間の作業員には必要とされる。人間の作業員に取って代わることによってコストを低減することが望ましい。
自動部品取得システムは通常、ピッキングされる部品用に特別に設計された捕捉器具を備え付けられているロボットアームのような電気機械装置を使用する。しかし、ロボットは、ピッキングされる部品の姿勢を知る必要がある。精密固定(precision fixturing)のような方法は、特定の姿勢にある部品をロボットアームに提供するために使用することができる。これらのシステムは、コストがかかり、相互運用性に欠く、すなわちこれらのシステムは、所与の部品用に特定的に設計する必要があり、ランダムに積み重ねられる部品のビンを扱うことができない。
物体の姿勢を求めるためにコンピュータビジョンシステムを使用することができる。これらのシステムは通常、1つ又は複数のカメラを使用する。カメラによって取得される画像は、物体を位置特定すると共に後の作業のためにロボットアームにフィードバックを提供するために、分析することができる。ほとんどのビジョンシステムは2Dであり、検査のような2Dの作業、及び単一部品の取得のためにしか使用することができない。これらのシステムは、部品の面内の向き及び位置のみを求めることができるが、いかなる面外の回転も、また部品に対する距離も求めることができない。通常、これらの2Dシステムは、部品が重ならないこと及び平らな表面上に置かれることを必要とする。したがって、これらのシステムは、ランダムに置かれて積み重なった物体に対しては動作することができない。
幾つかのシステムは、物体に対する距離を画像内の物体のサイズに基づかせることによって2Dビジョンシステムを拡張する。しかし、これらの2.5Dシステムは、面外の回転を推定することができず、距離推定に関しては多くの場合に信頼できない。
3Dビジョンシステムは通常、シーンの3D形状を推定するセンサを使用する。ステレオシステムは、物体に対する距離を推定するために2つのカメラを使用する。まず、対応する特徴が立体画像内で位置特定される。カメラ間の幾何学的関係を使用して、特徴の深度(距離)を識別することができる。しかし、対応する特徴を位置特定すること自体は、特に、多くの場合に高度に反射性であると共に外見上均一である機械部品に関しては困難な問題である。ステレオシステムは、画像が特徴に関してノイズを有する場合、深度を誤って推定する可能性がある。ステレオシステムに関する別の問題は、深度が、物体全体にわたってではなく、特徴に関してのみ再生されるということである。この低減した正確さは、正確なビンピッキングには不十分である。
レーザ三角測量は、物体の表面上にパターンを生成するために構造化された光を使用し、全体の画像がカメラによって取得される。レーザ三角測量は、物体表面の3D形状を再生することができる。この技術は、例えば柔軟で且つ寸法が安定していない部品の溶接、封止、接着剤の堆積、研削、ウォータージェット切削及びデバリングのためのエッジ追跡を伴う用途に使用されている。
レーザ三角測量は、画像レジストレーション、並びに影及び遮蔽を計上することを必要とする。これらのシステムは、全体的でランダムなビンピッキングの用途に関しては依然として完全ではない。加えて、レーザは多くの場合、人間の作業員の非常に近くに配置された場合、安全上の問題をもたらす。
本発明の実施の形態は、シーン内の物体を検出及び認識するシステム及び方法を提供する。さらに、実施の形態は、各物体の3D姿勢を求める。本明細書では、この姿勢は、物体の3次元の位置及び向きとして定義される。
実際の用途の一例では、物体はビン内で重なり合って積み重ねられる。カメラに最も近い物体は、積み重なりの最上部にあり、他の物体を乱すことなくビンからピッキングすることができる。
画像は、シーンが光源によって照明されている間に、カメラによって当該シーンから取得される。光源は影を投じる。影は、シーン内の物体の深度エッジ及び影エッジを得るために使用される。深度エッジは、深度エッジと影エッジとの間の物理的且つ幾何学的な制約を使用して連結され、結果として閉じた輪郭がもたらされる。輪郭は、画像シーンを複数の領域に分割するために使用される。
「遮蔽グラフ」が構築される。このグラフは、分割された領域毎に1つのノードを有する。2つのノードは、一方のノードに関連付けられる領域が、他方のノードに関連付けられる領域に対して影を投じる(遮蔽する)場合、エッジによって接続される。遮蔽グラフはシーン内の遮蔽されていない物体を識別する。遮蔽されていない物体は、完全なつながった輪郭を有する、積み重なりの最上部の物体に対応する。
物体シルエットのデータベース(メモリ)が、物体の3Dコンピュータ支援設計(CAD)モデルを使用して生成される。シルエットは、複数の異なるビューに関して存在する。データベースは、異なるビューの物体の部分シルエットも含む。シルエットはまた、深度エッジとして表現される。
遮蔽グラフは、潜在的な候補の遮蔽されていない物体を見つけるために検討される。最上部レベルの(遮蔽されていない)物体の輪郭は、当該遮蔽されていない物体の3Dの位置及び向き(3D姿勢)を推定するために、データベースのシルエットと照合される。
推定された3D姿勢は、出荷(handling)又は組み立てのための部品取得を含む幾つかのロボット作業のために、ロボットアームと共に使用することができる。本システムによって、制約のない3Dビンピッキングが可能になる。
本発明の実施の形態によるシステム及び方法は、ビン内の遮蔽されていない部品の姿勢を求める。システムは、費用のかからない発光ダイオード(LED)を備え付けられている単一のカメラを使用する。姿勢は、製造用途においてビンから部品をピッキングするためにロボットアームに送られる。本方法の実行は比較的簡単且つ高速なため、本方法は、リアルタイムの用途に使用することができる。
本発明は、ステレオカメラ、レーザ光又は構造光のような3D取得装置を使用することなく、3Dの物体認識及び姿勢推定を実行する。シーンの深度マップの再構成には、特に鏡面性及び非ランバート面を有する光る産業用部品の場合、時間及び費用がかかる。本発明のシステムは3D深度を推定しない。代わりに、深度エッジが投じられる影から得られる。深度エッジは、強度エッジ、角及び接合点のような一般的に使用される特徴とは対照的に、シーンを分割すると共に姿勢を推定するための特徴として使用することができる。
深度エッジの使用によって、本システムは、光るか又は反射する、ざらつきのある物体と、ざらつきのない物体との両方に対して作動することができる。強度エッジに基づく特徴を使用するシステムは、光る金属の産業用部品及びざらつきのない物体を扱うのが困難である。
本発明は、シーン内の欠損している深度エッジを完全にするために新規のエッジ連結プロセスを提供する。従来のエッジ連結プロセスは、発見的方法を使用して強度エッジを完全にすることによって強度画像から閉じた輪郭を得ようと試みる。本発明では、いかなる発見的方法も使用することなく、深度エッジの連結のための実際の物理的且つ幾何学的な制約が使用される。
本発明では、新規の、シーンの遮蔽グラフも提供される。遮蔽グラフは、深度エッジによって囲まれている領域から構築される。遮蔽グラフ内の全てのノードは、深度エッジによって囲まれている2D領域に対応する。領域Aが領域Bに対して影を投じる場合、ノードAとノードBとの間に有向アークが存在する。遮蔽グラフのソースノードは、シーン内の遮蔽されていない物体に対応する。
このグラフは、物体とそれらのシルエットとを照合するために実行する必要がある照合の数を低減する。
システム構造
図1は、本発明の実施の形態に従って物体を位置特定及びピッキングするシステム及び方法を示す。本発明の一実施の形態では、物体は、外見及び形状において類似している。別の実施の形態では、物体は異なる。
ビン101は、ロボット103によってピッキングされる物体102を含む。ビンは、複数の光源104によって照明される。光源は、ビン内に様々な影を投じる。カメラ105は、照明が変化している間に、ビン内の物体の1セットの(複数の)画像111を取得する(110)。例えば図2に示されているように、影201及び202は、光源104の位置に応じて物体102のいずれかの側とすることができる。
画像111内の影201及び202に起因する深度エッジ121及び影エッジ122が求められる(120)。深度エッジ121は、つながった輪郭131を形成する(130)ために連結される。輪郭は、画像を複数の領域141に分割する(140)ために使用される。その後、領域141は遮蔽グラフ151を構築する(150)ために使用される。
グラフは、予め記憶されているデータベース(メモリ)162内でシルエット161を探す(160)ために使用される。シルエットは、深度エッジの形態でもある。各シルエットは、関連付けられている姿勢106を有する。グラフに従って、遮蔽されていない物体の輪郭131に最良に一致する、データベース内のシルエット161の姿勢106が選択され(170)、これはビン内の物体の姿勢である。ロボット103は、後の処理用にビンから物体をピッキングするためにこの姿勢を使用する。
方法の動作
画像取得
1セットの(複数の)画像111は、1つ又は複数のカメラ105によって取得される(110)。カメラは、ビデオカメラ又は静止画像カメラとすることができる。カメラは、ロボットアーム107上に配置することができるか、又はロボット及びビンの近くの作業空間内に固定することができる。画像は光源104を用いて取得される。光源は、カメラの近く又は作業空間内に配置される発光ダイオード(LED)又は他のタイプの発光装置とすることができる。カメラに対する光源の構成は、較正を目的として確定される。本実施の形態では、マルチフラッシュカメラが使用される。本明細書に参照により援用される、Raskarに対して発行された米国特許第7,218,792号を参照されたい。
シーンが環境光のみによって照明される場合、環境画像も取得される。環境画像は、環境光の影響を消去するために、セット内の各画像から差し引かれる。
深度エッジ及び影エッジを求める
画像が取得された後に、ビン内の物体の深度エッジ121及び影エッジ122が求められる。深度エッジは、物体を切り離す境界と背景との間の不連続部として定義される。影エッジは、物体によって投じられる影と背景との間の不連続部として定義される。
通常、産業用物体は、雑音を有すると共に不要な深度エッジをもたらす非ランバート反射率及び鏡面性を有する。非ランバート面は、輝度が視角と共に変化するため、扱うのが困難である。本方法は、穴を有する物体を扱うこともできる。自己付影と同様に、本方法は、鏡面性に起因する不要な深度エッジが存在する場合、これらの不要な深度エッジを除去することによって鏡面ハイライトの効果を無視することができる。
この説明を簡単にするために、セットは、光源をカメラの上、下、及び左右に配置することによって取得される4つの異なる照明画像I、I、I、Iを含む。画素毎に勾配のメジアンを求めること、及び勾配から再構成することによって画像のセットから固有画像Imedianを求める。Raskarを参照されたい。
その後、各画像Iは、I=min(I,Imedian)によって置き換えられる。すなわち、画像I内の画素毎に、強度値が、強度値又はメジアン値Imedianの最小値に置き換えられる。次に、比画像I=I/Imedianが得られる。この動作の効果は、画像内の鏡面性を最小化する。
比画像内でエッジが検出される。エッジは、その画像のための照明の方向に応じて深度エッジ又は影エッジに対応する。
輪郭形成
深度エッジ121は不完全である可能性がある、すなわち深度エッジ及び影エッジの一定の部分が、ソフトシャドウ又は影の欠如に起因して欠損している可能性がある。ゲシュタルトの法則を使用する、エッジを連結するための発見的方法が既知である。しかし、本発明においては、発見的方法の代わりに、エッジ連結に対する物理的且つ幾何学的な制約を使用する。これらの制約は、深度エッジと影エッジとの間にある。投じられる影は半影領域を有し、上記で定義されたような深度エッジは、半影の一方の側における不連続部に対応し、一方、影エッジは、半影の他方の側における不連続部に対応する。したがって、2つの制約が定義される:
1)深度エッジ毎に、平行な影エッジが存在し、
2)深度エッジ及び影エッジは、同じ画素において共存することはできない。
これらの2つの制約によって、閉じた輪郭を形成するために欠損している深度エッジを完全にすることができる。これは、深度エッジに線分を合わせると共に各線分を拡張することによって達成される。上記の制約に従う全ての拡張線分は、輪郭131として保たれる。
分割
深度エッジ121から形成される輪郭131は、画像を複数の領域141に分割する。以下に記載されるように、過度な分割は融合によって補正される。
遮蔽グラフ構築
図3に示されているように、遮蔽グラフは、ノード301、303及び有向アーク302から成る2D有向グラフとして定義される。グラフにおいて、ノードは領域を表し、第1のノードによって表される領域が第2の領域に影を投じる場合、有向アークは第1のノードから第2のノードに延びる。1つの画像のために1セットのグラフが存在することができる。例えば、物体の2つの別個の積み重なりがある場合、2つの遮蔽グラフが構築され、グラフは積み重なり毎に1つである。
遮蔽グラフは以下のように構築される。A及びBは、1対の領域を表しているものとする。この一対の領域は、グラフ内にノードとして挿入される。その後、領域Aが領域Bに対して影を投じるか否か、及びその逆が行われるか否かを判断する。真である場合、有向アークは、投じられる影の方向にノードAとBとを接続する。偽の場合、領域は融合することができ、ノードが結合される。
遮蔽されていない物体の位置特定
遮蔽グラフは、ビン内の遮蔽されていない物体を識別する。ソースノード303は、有向アークが到来しないノードである。ソースノードは遮蔽されていない物体の領域を表さなければならない。
姿勢推定
姿勢推定は2段階のプロセスであり、第1の段階は粗く、第2の段階は細やかである。姿勢推定は、データベース内に予め記憶されているシルエットの深度エッジを使用する。
事前処理
異なるビューにおける物体のシルエットがデータベース内に予め記憶される。ビュー毎に、物体の部分シルエットもデータベース内に記憶される。ビューは対応する姿勢をもたらす。部分シルエットは、自己付影及び自己遮蔽の存在下において物体を照合するのに役立つ。物体のCADモデルが、製造及び組み立ての用途において容易に利用可能であることが仮定される。
粗い姿勢推定
最良に一致する姿勢を得るために、グラフに従って遮蔽されていない物体に関連付けられる輪郭が、データベース内に記憶されているシルエットと照合される。照合は、面照合(chamfer matching)又は画像モーメントの照合のような任意の既知の技法を使用することができる。データベース内に記憶されるシルエットの数は有限であるため、粗い姿勢推定しか得ることができない。
細やかな姿勢推定
3D CADモデル全体を使用して3D姿勢が洗練される。姿勢洗練は、3D CADモデルのシルエットを所定の領域と照合することによって回転及び並進を最適化する従来の技法を使用して行われる。この最適化は、粗い姿勢推定から開始し、正確な姿勢に収束する。
物体のピッキング
姿勢は、ビンから一番上にある物体をピッキングするためにロボットによって使用することができる。特定の画像が複数の遮蔽されていない物体を示す場合、これらの物体は連続してピッキングすることができる。
複数の物体タイプ
上記の方法は、データベースが異なる物体の対応するシルエットを記憶する場合、同様の物体に関して記載される。
複数の画像取得
上記の方法は、固定されている視点における単一のカメラに関して記載される。しかし、システムは、複数のカメラ視点と共に作動することもできる。そして追加の画像を、分割及び姿勢推定の結果を検証するために使用することができる。代替的に、複数の画像からの情報は、姿勢推定の正確さを向上させるために組み合わせることができる。
本発明を好ましい実施の形態の例として説明したが、本発明の精神及び範囲内で、様々な他の適合及び変更を行うことができることを理解されたい。したがって、本発明の真の精神及び範囲内に入るような全ての変形及び変更を包含することが添付の特許請求の範囲の目的である。
本発明の実施の形態による、物体の位置特定及びピッキングを行うシステム及び方法のブロック図である。 本発明の実施の形態による、物体と、当該物体によって投じられる影との概略図である。 本発明の実施の形態による遮蔽グラフである。

Claims (20)

  1. 複数の物体を含むシーン内で照明が変化している間に、前記シーンから取得された1セットの画像から深度エッジを求めるステップと、
    輪郭を形成するよう、前記深度エッジを連結するステップと、
    前記輪郭に従って、前記画像を複数の領域に分割するステップと、
    前記複数の領域を使用して、前記シーン内の遮蔽されていない物体の遮蔽されていない領域を表すソースノードを含む遮蔽グラフを構築するステップと、
    前記遮蔽されていない領域に関連付けられる前記輪郭と、前記複数の物体の、各々が既知の姿勢を有する、1セットのシルエットとを比較するステップと、
    最良に一致するシルエットの前記既知の姿勢を、前記遮蔽されていない物体の姿勢として選択するステップと
    を含む、シーン内の物体の3D姿勢を求める方法。
  2. 前記姿勢に従って、前記シーンから前記遮蔽されていない物体をピッキングするステップをさらに含む
    請求項1記載の方法。
  3. 前記ピッキングするステップは、ロボットアームによって実行される
    請求項2記載の方法。
  4. 前記複数の物体は、外見及び形状が類似している
    請求項1記載の方法。
  5. 前記複数の物体は、非ランバート面を有する
    請求項1記載の方法。
  6. 照明の変化は、カメラの上、下、及び左右の光源からのものである
    請求項1記載の方法。
  7. 前記カメラは、ビデオカメラである
    請求項6記載の方法。
  8. カメラは、前記ロボットアーム上に配置される
    請求項3記載の方法。
  9. 前記深度エッジを、前記物体を切り離す境界と、前記シーン内の背景との間の不連続部として定義するステップと、
    影エッジを、前記物体によって投じられる影と、前記背景との間の不連続部として定義するステップとをさらに含む
    請求項1記載の方法。
  10. 前記複数の物体は、鏡面性を含む
    請求項1記載の方法。
  11. 前記1セットの画像はIであり、
    前記1セットの画像内の各画素における勾配のメジアンから、画像I毎に固有画像Imedianを求めるステップと、
    各画像IをI=min(I,Imedian)によって置き換えるステップと、
    比画像I/Imedianを得るステップと、
    前記鏡面性を最小化するよう、前記比画像から前記深度エッジを求めるステップとをさらに含む
    請求項10記載の方法。
  12. 前記連結するステップは、深度エッジ毎に平行な影エッジが存在するという制約と、前記深度エッジ及び前記影エッジは前記1セットの画像内の同じ画素において共存することができないという制約とを有する
    請求項9記載の方法。
  13. 第1のノードによって表される第1の領域が、第2のノードによって表される第2の領域に影を投じる場合、有向アークが前記第1のノードから前記第2のノードに延び、前記ソースノードは、到来するアークエッジを有しない
    請求項1記載の方法。
  14. 前記第1のノード及び前記第2のノードの間にアークが存在しない場合に、前記第1のノード及び前記第2のノードを融合するステップをさらに含む
    請求項13記載の方法。
  15. 前記シルエット及び前記既知の姿勢は、メモリ又はデータベース内に予め記憶されている
    請求項1記載の方法。
  16. 前記シルエット及び前記既知の姿勢は、前記複数の物体の異なるビューのコンピュータ支援設計モデルから得られる
    請求項1記載の方法。
  17. 前記シルエットは、部分シルエットを含む
    請求項1記載の方法。
  18. 前記1セットの画像は、複数のカメラによって取得される
    請求項1記載の方法。
  19. 複数の物体を含むシーン内で照明が変化している間に、前記シーンから1セットの画像を取得するように構成されるカメラと、
    前記1セットの画像から深度エッジを求める手段と、
    輪郭を形成するよう、前記深度エッジを連結する手段と、
    前記輪郭に従って、前記画像を複数の領域に分割する手段と、
    前記複数の領域を使用して、前記シーン内の遮蔽されていない物体の遮蔽されていない領域を表すソースノードを含む遮蔽グラフを構築する手段と、
    前記複数の物体の、各々が既知の姿勢を有する、1セットのシルエットを記憶するデータベースと、
    前記遮蔽グラフのサブグラフに対応する前記深度エッジと、前記1セットのシルエットとを比較する手段と、
    最良に一致するシルエットの前記既知の姿勢を、前記遮蔽されていない物体の姿勢として選択する手段と
    を備える、シーン内の物体の3D姿勢を求めるシステム。
  20. 前記姿勢に従って、前記シーンから前記遮蔽されていない物体をピッキングする手段をさらに備える
    請求項19記載のシステム。
JP2008229740A 2007-11-07 2008-09-08 シーン内の物体の3d姿勢を求める方法及びシステム Expired - Fee Related JP5258465B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/936,416 US7983487B2 (en) 2007-11-07 2007-11-07 Method and system for locating and picking objects using active illumination
US11/936,416 2007-11-07

Publications (2)

Publication Number Publication Date
JP2009115783A true JP2009115783A (ja) 2009-05-28
JP5258465B2 JP5258465B2 (ja) 2013-08-07

Family

ID=40342772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008229740A Expired - Fee Related JP5258465B2 (ja) 2007-11-07 2008-09-08 シーン内の物体の3d姿勢を求める方法及びシステム

Country Status (4)

Country Link
US (1) US7983487B2 (ja)
EP (1) EP2058761B1 (ja)
JP (1) JP5258465B2 (ja)
CN (1) CN101430192B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2267658A2 (en) 2009-06-19 2010-12-29 Kabushiki Kaisha Yaskawa Denki Shape detection system
JP2011129094A (ja) * 2009-11-24 2011-06-30 Mitsubishi Electric Research Laboratories Inc シーンにおける物体の姿勢を求めるためのシステム及び方法
JP2016148558A (ja) * 2015-02-10 2016-08-18 キヤノン株式会社 情報処理装置、情報処理方法
US9576363B2 (en) 2014-03-12 2017-02-21 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method
JP2020142323A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2023505611A (ja) * 2020-02-10 2023-02-09 コグネックス・コーポレイション 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法
WO2025079141A1 (ja) * 2023-10-10 2025-04-17 ファナック株式会社 画像処理装置

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP2011507584A (ja) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 身体及び体輪郭の3次元再構成
US8411080B1 (en) 2008-06-26 2013-04-02 Disney Enterprises, Inc. Apparatus and method for editing three dimensional objects
US8244507B2 (en) * 2008-11-05 2012-08-14 The Boeing Company Method and apparatus for deriving associations between parts and fasteners
US8126688B2 (en) * 2008-11-05 2012-02-28 The Boeing Company Method and apparatus for identifying gaps between parts
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
IT1394181B1 (it) * 2009-05-07 2012-06-01 Marchesini Group Spa Metodo di segmentazione basato sulle caratteristiche per segmentare una pluralita' di articoli duplicati disposti alla rinfusa e gruppo che attua tale metodo per alimentare una macchina confezionatrice
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US9563815B2 (en) * 2009-09-15 2017-02-07 Tandent Vision Science, Inc. Method and system for processing an image received from a remote source
JP5500926B2 (ja) * 2009-09-29 2014-05-21 キヤノン株式会社 物体把持制御方法及び装置
ES2400059T3 (es) * 2010-02-10 2013-04-05 Gega Gmbh Sistema de remoción de rebabas para la remoción mecánica de rebabas de corte en una pieza de trabajo de fundición contínua
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
FR2957905B1 (fr) * 2010-03-29 2012-04-06 Otor Sa Procede et dispositif de transfert de decoupes pour boites d'emballage
CN101833759B (zh) * 2010-04-01 2012-05-30 复旦大学 一种基于连续视频的机器人场景深度判别方法
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
CN102044089A (zh) * 2010-09-20 2011-05-04 董福田 一种三维模型的自适应化简、渐进传输和快速绘制的方法
JP5772446B2 (ja) * 2010-09-29 2015-09-02 株式会社ニコン 画像処理装置及び画像処理プログラム
DE102010050745A1 (de) * 2010-11-08 2012-05-10 Li-Tec Battery Gmbh Verfahren zur Ablage von blattförmigen Objekten und Anordnungen zur Durchführung dieses Verfahrens
US8165403B1 (en) * 2010-11-19 2012-04-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of specular objects
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US8537195B2 (en) * 2011-02-09 2013-09-17 Polycom, Inc. Automatic video layouts for multi-stream multi-site telepresence conferencing system
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US9002098B1 (en) * 2012-01-25 2015-04-07 Hrl Laboratories, Llc Robotic visual perception system
CN102663368B (zh) * 2012-04-16 2014-09-17 南京大学 基于格式塔视觉原理的运动目标区域整合优化方法
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
CN102819866B (zh) * 2012-08-22 2015-09-09 西安工业大学 一种非朗伯表面快速三维重构方法
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US10572774B2 (en) 2012-12-06 2020-02-25 Toyota Motor Engineering & Manufacturing North America. Inc. Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
US9251582B2 (en) * 2012-12-31 2016-02-02 General Electric Company Methods and systems for enhanced automated visual inspection of a physical asset
JP5845212B2 (ja) 2013-06-28 2016-01-20 ファナック株式会社 視覚センサ及び力センサを備えたバリ取り装置
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
US9432636B2 (en) * 2013-11-26 2016-08-30 Microsoft Technology Licensing, Llc Large-scale surface reconstruction that is robust against tracking and mapping errors
TW201528775A (zh) 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
CN103753585A (zh) * 2014-01-10 2014-04-30 南通大学 一种基于视觉图像分析的机械手及抓紧力智能调节方法
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
JP6331517B2 (ja) 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP2962969B1 (de) 2014-07-01 2017-10-25 Wincor Nixdorf International GmbH Vorrichtung zum Vereinzeln von Blattgut
DE102015100983A1 (de) 2015-01-23 2016-07-28 Sick Ag Verfahren zur Lokalisierung von Greifpunkten von Objekten
NL2014637B1 (nl) * 2015-04-14 2016-12-16 Rijk Zwaan Zaadteelt En Zaadhandel Bv Systeem en werkwijze voor het zaaien van zaden.
US10268188B2 (en) 2015-12-02 2019-04-23 Qualcomm Incorporated Active camera movement determination for object position and extent in three-dimensional space
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
JP6836042B2 (ja) * 2016-02-29 2021-02-24 パックサイズ,リミティド ライアビリティ カンパニー 三次元走査支援システム及び方法
US10252417B2 (en) * 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN108489418B (zh) * 2018-03-01 2020-02-14 北京农业智能装备技术研究中心 一种秧苗叶片立体形态测量方法及装置
CN110163046B (zh) * 2018-06-19 2023-09-19 腾讯科技(深圳)有限公司 人体姿态识别方法、装置、服务器及存储介质
CN109410304B (zh) * 2018-09-18 2023-06-16 珠海金山数字网络科技有限公司 一种投影确定方法、装置及设备
CN109215121A (zh) * 2018-10-23 2019-01-15 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109472235B (zh) * 2018-11-01 2021-07-27 深圳蓝胖子机器智能有限公司 姿态确定方法、装置和计算机可读存储介质
CN109718945A (zh) * 2018-12-29 2019-05-07 中国神华能源股份有限公司 重介质选煤厂智能加介系统和方法
CN115397628A (zh) * 2020-04-14 2022-11-25 实时机器人有限公司 包括传感器布局的机器人操作环境配置
CN111546344A (zh) * 2020-05-18 2020-08-18 北京邮电大学 一种用于对准的机械臂控制方法
CN114092632B (zh) 2020-08-06 2025-07-11 财团法人工业技术研究院 标注方法、应用其的装置、系统、方法及计算机程序产品
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
DE102022124273A1 (de) * 2022-09-21 2024-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung einer Brillenpose einer Datenbrille mithilfe eines Outside-In Tracking
CN116229474A (zh) * 2022-12-07 2023-06-06 石化盈科信息技术有限责任公司 表盘识别方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189691A (ja) * 1989-01-18 1990-07-25 Nippondenso Co Ltd 物体認識装置
JPH05280949A (ja) * 1992-04-03 1993-10-29 Nittetsu Mining Co Ltd 物品個々の輪郭が明確な画像を得る方法および装置
JP2001317916A (ja) * 2000-05-10 2001-11-16 Fuji Mach Mfg Co Ltd エッジ検出方法および装置
JP2006224291A (ja) * 2005-01-19 2006-08-31 Yaskawa Electric Corp ロボットシステム
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5297061A (en) * 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
KR19980702922A (ko) * 1995-03-22 1998-09-05 마누엘쿠베로 깊이 모델링 및 이동 물체의 깊이 정보 제공방법 및 장치
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
JP2000194859A (ja) 1998-12-25 2000-07-14 Canon Inc 被写体形状抽出方法、被写体形状抽出装置及び記録媒体
US6978167B2 (en) * 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US7218792B2 (en) * 2003-03-19 2007-05-15 Mitsubishi Electric Research Laboratories, Inc. Stylized imaging using variable controlled illumination
US7142726B2 (en) * 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
JP2005100466A (ja) 2004-12-17 2005-04-14 Toshiba Corp パターン認識装置
US7760956B2 (en) * 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US7720282B2 (en) * 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
JP2007098567A (ja) 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189691A (ja) * 1989-01-18 1990-07-25 Nippondenso Co Ltd 物体認識装置
JPH05280949A (ja) * 1992-04-03 1993-10-29 Nittetsu Mining Co Ltd 物品個々の輪郭が明確な画像を得る方法および装置
JP2001317916A (ja) * 2000-05-10 2001-11-16 Fuji Mach Mfg Co Ltd エッジ検出方法および装置
JP2006224291A (ja) * 2005-01-19 2006-08-31 Yaskawa Electric Corp ロボットシステム
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2267658A2 (en) 2009-06-19 2010-12-29 Kabushiki Kaisha Yaskawa Denki Shape detection system
CN101927494A (zh) * 2009-06-19 2010-12-29 株式会社安川电机 形状检测系统
US8660697B2 (en) 2009-06-19 2014-02-25 Kabushiki Kaisha Yaskawa Denki Shape detection system
JP2011129094A (ja) * 2009-11-24 2011-06-30 Mitsubishi Electric Research Laboratories Inc シーンにおける物体の姿勢を求めるためのシステム及び方法
US9576363B2 (en) 2014-03-12 2017-02-21 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method
JP2016148558A (ja) * 2015-02-10 2016-08-18 キヤノン株式会社 情報処理装置、情報処理方法
JP2020142323A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2023505611A (ja) * 2020-02-10 2023-02-09 コグネックス・コーポレイション 複合三次元ブロブツール及び複合三次元ブロブツールを動作させるための方法
US11966996B2 (en) 2020-02-10 2024-04-23 Cognex Corporation Composite three-dimensional blob tool and method for operating the same
WO2025079141A1 (ja) * 2023-10-10 2025-04-17 ファナック株式会社 画像処理装置

Also Published As

Publication number Publication date
CN101430192B (zh) 2010-12-15
US7983487B2 (en) 2011-07-19
JP5258465B2 (ja) 2013-08-07
EP2058761A2 (en) 2009-05-13
EP2058761B1 (en) 2011-12-28
EP2058761A3 (en) 2010-11-17
CN101430192A (zh) 2009-05-13
US20090116728A1 (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP5258465B2 (ja) シーン内の物体の3d姿勢を求める方法及びシステム
US8472698B2 (en) System and method for determining poses of objects
JP5570126B2 (ja) 物体の姿勢を求める方法及び装置
US9089966B2 (en) Workpiece pick-up apparatus
US7966094B2 (en) Workpiece picking apparatus
JP6871712B2 (ja) ロボットを案内するための特徴位置の特定
Holz et al. Active recognition and manipulation for mobile robot bin picking
Tran et al. An intelligent path planning of welding robot based on multisensor interaction
EP3229208B1 (en) Camera pose estimation
TWI675000B (zh) 物件運送方法及系統
Hao et al. A novel multi-seam extraction method for structured workpieces with medium-thick plates based on DLP vision
Oh et al. Development of structured light based bin picking system using primitive models
Udaya et al. Stereo vision-based 3D pose estimation of product labels for bin picking
JP2021071420A (ja) 情報処理装置、情報処理方法、プログラム、システム、物品の製造方法、計測装置及び計測方法
Zaki et al. Digital model reconstruction through 3D stereo depth camera: a faster method exploiting robot poses
Schleth et al. Workpiece localization methods for robotic welding-a review
WO2022099597A1 (zh) 一种基于虚拟轮廓特征点的机械零件6d位姿测量方法
Zhang et al. On-machine 3D vision system for machining setup modeling
FR2987685A1 (fr) Procede de commande d'un robot pour le deplacement d'au moins un objet dispose sur un support dans un espace 3d
CN114332430A (zh) 用于防止过检测的碰撞检测方法、装置、设备和介质
TWI783779B (zh) 訓練資料產生裝置、應用其之訓練資料產生方法及機械手臂系統
TW202221558A (zh) 立體視覺取物方法
Nasr et al. Resolving Empty Patches in Vision-based Scene Reconstructions
KR20250003671A (ko) 제어 장치, 제어 시스템, 로봇 시스템, 제어 방법 및 컴퓨터 프로그램
CN117011372A (zh) 一种基于双参考平面的单目结构光立体匹配方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5258465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees