[go: up one dir, main page]

JP2011112402A - 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ - Google Patents

3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ Download PDF

Info

Publication number
JP2011112402A
JP2011112402A JP2009266778A JP2009266778A JP2011112402A JP 2011112402 A JP2011112402 A JP 2011112402A JP 2009266778 A JP2009266778 A JP 2009266778A JP 2009266778 A JP2009266778 A JP 2009266778A JP 2011112402 A JP2011112402 A JP 2011112402A
Authority
JP
Japan
Prior art keywords
dimensional
image
effective area
range
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009266778A
Other languages
English (en)
Other versions
JP5257335B2 (ja
Inventor
Shiro Fujieda
紫朗 藤枝
Atsushi Taneno
篤 種野
Reiji Takahashi
玲治 高橋
Masanao Yoshino
政直 吉野
Kenichi Ukai
賢一 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009266778A priority Critical patent/JP5257335B2/ja
Priority to US12/915,667 priority patent/US8964001B2/en
Publication of JP2011112402A publication Critical patent/JP2011112402A/ja
Application granted granted Critical
Publication of JP5257335B2 publication Critical patent/JP5257335B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37017Calibration of vision system, set correct attidude of sensor to workpiece
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】設定された有効領域の立体形状を周囲との関係とともに簡単に表示できるようにして、3次元視覚センサの利便性を高める。
【解決手段】ステレオカメラのうちの1つをワークWの支持面を正面視する状態に設定して、このカメラにより生成された画像を表示し、計測処理を有効にする領域を矩形枠により範囲指定する。また高さ計測範囲の上限値および下限値を指定する操作を受け付ける。各指定が確定されると、矩形枠Rが設定された画像の各構成画素にz座標として0を設定し、矩形枠に対応する座標に、高さ計測範囲の上限値に基づくz座標と下限値に基づくz座標とを設定する。そして、これらの設定により生成された3次元情報を、ユーザにより設定された視線方向から透視変換し、生成された投影画像をモニタに表示する。
【選択図】図5

Description

本発明は、ステレオカメラにより計測対象物(以下、「ワーク」という場合もある。)およびその支持面を撮像し、生成されたステレオ画像を用いて、計測対象物の3次元計測を行う3次元センサにおいて、計測処理を有効とする領域の設定状態を表示する技術に関する。
3次元視覚センサは、ステレオ計測により対象物の3次元情報を復元する機能や、復元された3次元情報をあらかじめ登録された3次元モデルと照合して対象物の位置や姿勢を認識する機能を具備するもので、ピッキングロボットの把持対象の部品を認識したり、部品または完成した製品の形状を検査する目的などに利用される。
出願人は、目的に応じて計測条件を容易に変更することができ、設定された内容や処理結果をわかりやすい画面により確認できるようにした汎用の3次元視覚センサを開発している。この確認用の表示に関する先行技術文献として、たとえば特許文献1,2がある。
特許文献1には、ステレオカメラのキャリブレーションを実行した後に、ユーザに計測したい高さ範囲を指定させ、指定された高さ範囲にあり、全てのカメラの視野に含まれる点が投影される範囲をカメラ毎に求め、これらの範囲を表す画像を表示することが記載されている。この表示によれば、ユーザは、自分が指定した高さ範囲を計測できる状態にステレオカメラが設定されているかどうかを、容易に確認することが可能になる。
特許文献2には、ワークの支持面を正面視するように設定されたカメラを含む複数のカメラを用いて、処理対象部位のz座標を計測した後に、正面視画像中の処理対象部位に対応する画素に計測されたz座標を設定し、その他の画素にz座標として0を設定し、これらの設定により生じた3次元の画素分布を透視変換して、生成された投影画像を表示することが、記載されている。この表示によれば、計測が可能な範囲の一部分が処理対象部位に設定される場合でも、その計測結果を処理対象部位の周囲の画像と関係づけて表示することができるので、ユーザは、計測結果を容易に把握することができる。
特開2006−349586号公報 特開2009−53147号公報
3次元視覚センサが導入される現場では、ステレオ計測が可能な範囲の中から、さらに計測結果を有効にする領域を設定する場合がある。たとえば、ピッキングロボットの制御に3次元視覚センサを利用する場合には、ロボットのアームを延ばすのが困難な場所や、アームを延ばすと破損が生じるおそれのある場所が除外されるように有効領域を設定する。また、検査の目的で3次元視覚センサを利用する場合であれば、検査対象部位が位置する可能性のない場所が計測対象から除外されるように有効領域を設定する。このように有効領域が設定された場合には、有効領域外の部位に対する認識結果は出力されない状態となる。
有効領域を設定するには、一般に、計測が可能な領域を撮像して、生成された画像を表示し、その表示画面上で有効領域とすべき範囲を指定する操作を受け付ける。この指定により、対象物の支持面上での有効領域の範囲が定められると、キャリブレーションにより求められた計測用のパラメータに基づいて有効領域の3次元情報が導出され、3次元視覚センサのメモリに登録される。
さらに、高さ方向の計測範囲の指定を受け付けることによって、有効領域の高さ方向の範囲が定められる場合もある。
しかしながら、カメラの撮像面に投影される画像の大きさは、撮像対象物がカメラの視点から遠ざかるほど小さくなるので、設定された有効領域がどの程度の広がりを持つかや、その広がり範囲が適切であるかを、ユーザが把握するのは困難である。計測対象の空間とともに有効領域を立体的に表示することができれば、この問題は解決すると思われるが、そのような表示をするには、計測対象の空間に含まれる全ての構成物の3次元情報を計測しなければならず、実質的に不可能である。
本発明は上記の問題に着目し、設定された有効領域の立体形状を周囲との関係とともに簡単に表示できるようにして、利便性を高めることを課題とする。
本発明による方法は、3次元視覚センサにおいて、計測処理を有効とする領域の設定状態を表示するもので、以下の第1〜第4のステップを実行することを特徴とする。
第1ステップでは、ステレオカメラのうちの1台を、計測対象物の支持面を正面視するように位置および姿勢を設定して、この正面視カメラにより生成された2次元画像をモニタに表示し、表示された画像上で計測処理の有効領域の支持面における範囲を指定する操作を受け付けると共に、計測対象とする高さ範囲を示す数値の入力を受け付ける。
第2ステップでは、正面視カメラにより生成された2次元画像を構成する各画素に、それぞれz座標として、第1ステップで受け付けた高さ範囲内の一数値に対応する一定の座標を設定すると共に、範囲指定操作により指定された有効領域を示す複数の座標にそれぞれ上記の高さ範囲の上限値に基づくz座標および下限値に基づくz座標を設定することにより3次元情報を生成する。
第3ステップでは、上記の3次元情報に対する視線の方向を指定する操作を受け付けて、この操作により指定された方向から3次元情報を透視変換することにより投影画像を生成し、第4ステップでは、この投影画像をモニタに表示する。
上記方法の第2ステップでは、たとえば、正面視カメラにより生成された2次元画像の各構成画素に、計測対象物の支持面の高さを表すz座標を設定することができる。また有効領域を示す座標には、z座標として、ユーザが入力した高さ範囲の上限値および下限値をカメラ座標系の倍率により除算した値を設定することができる。これらの設定により、正面視カメラのカメラ座標系に、元の画像に対応する平面を表す3次元情報と、有効領域の面積および高さを示す3次元情報とが、当初の画像における位置関係を維持した状態で配置されることになる。
上記の処理により生成された3次元情報を正面視カメラとは異なる視線方向から透視変換すると、元の2次元画像に対応する3次元情報が示す平面の上に有効領域が立体的に現れた投影画像が生成される。よって、2次元画像に対して指定された範囲を維持しながら、実際の有効領域の立体形状を、有効領域が設定された範囲や周囲との関係とともに表示することができる。よって、ユーザは、設定された有効領域の範囲を容易に把握することができる。
上記の方法の好ましい一実施態様では、第4ステップにおいて、投影画像を、有効領域の投影範囲が識別可能な状態の画像に編集して、編集後の画像をモニタに表示する。このようにすれば、ユーザは、有効領域の投影範囲をより容易に認識することが可能になる。
上記の方法が適用された3次元視覚センサは、計測対象物およびその支持面を含む空間をステレオカメラにより撮像し、生成されたステレオ画像を用いて計測対象物の3次元計測を行うもので、ステレオカメラのうちの1台を基準カメラとして、この基準カメラにより生成された2次元画像をモニタに表示して、表示された画像上で計測処理の有効領域の前記支持面における範囲を指定する操作を受け付けると共に、計測対象とする高さ範囲を示す数値の入力を受け付ける範囲指定受付手段;基準カメラにより生成された2次元画像を構成する各画素に、それぞれz座標として、範囲指定受付手段が受け付けた高さ範囲内の一数値に対応する一定の座標を設定すると共に、範囲指定操作により指定された有効領域を示す複数の座標にそれぞれ高さ範囲の上限値に基づくz座標および下限値に基づくz座標を設定することにより3次元情報を生成する3次元情報生成手段;この3次元情報に対する視線の方向を指定する操作を受け付けて、この操作により指定された方向から3次元情報を透視変換することにより投影画像を生成する透視変換手段;生成された投影画像をモニタに表示する投影画像表示手段;の各手段を具備する。
上記の3次元視覚センサによれば、計測対象物の支持面を正面視する方向に基準カメラの光軸を調整することにより、設定された有効領域の立体形状を、その設定範囲や周囲との関係とともに表した投影画像を生成して、表示することが可能になる。
つぎに、カメラにより生成された画像上で範囲指定を行う方法により有効領域を設定し、その後に、実際の計測対象物を撮像した画像により有効領域と計測対象物との関係を見ると、高さのある計測対象物の上部が底部よりも大きく写り込むために、有効領域との関係が不明確になる場合がある。たとえば、実際の対象物は有効領域に入っているのに、上部の画像が大きくなって有効領域からはみ出た状態になったり、実際の対象物は有効領域の外に位置するのに、上部の画像が大きいために、画像上では有効領域に含まれているように見える場合がある。このような画像を用いて有効領域を設定すると、適切な範囲に有効領域を設定するのが困難になる。また有効領域の設定後にも、認識結果の出力が画像の見え方に整合していない場合が生じて、ユーザが不審感を持つおそれがある。
本発明の好ましい態様による3次元視覚センサは、上記の問題に着目し、計測対象物の3次元モデルが登録される登録手段と、ステレオ画像から復元された3次元情報を上記の3次元モデルと照合することにより、計測対象物の位置および姿勢を認識する認識手段と、認識手段により認識された位置および姿勢に設定された3次元モデルを基準カメラの座標系に透視変換するモデル投影手段とを、さらに具備する。また、3次元情報生成手段は、モデル投影手段により生成された3次元モデルの投影画像の各点にそれぞれ3次元モデル中の対応点に設定されている高さに基づくz座標を設定し、設定後の各点を透視変換処理の3次元情報に包含する。また、投影画像表示手段は、透視変換手段により生成された投影画像を、画像中の3次元モデルを有効範囲とともに識別可能な状態に編集して、編集後の画像をモニタに表示する。
上記の態様によれば、計測対象物の位置および姿勢を表す状態に変換された3次元モデルを基準カメラの座標系に透視変換することにより、2次元画像中の計測対象物に適合する投影画像が生成される。さらに、この3次元モデルの投影画像の各点にそれぞれ元の3次元モデルに設定されている高さに基づくz座標を設定して透視変換処理を行うことにより、計測対象物の位置および姿勢を立体的に表現した投影画像が生成される。よって、ユーザは、投影画像中で識別表示された3次元モデルと有効領域との関係に基づき、計測対象物が有効領域の内側にあるか否かを容易に認識することができる。
本発明によれば、ユーザが画像上で指定した有効領域に、同じくユーザにより指定された高さ範囲を適用し、この高さ情報を持つ有効領域を、指定に用いられた画像との関係を維持しながら立体的に表した投影画像を表示するので、ユーザは有効領域の大きさや設定範囲を視覚により容易に確認することができる。よって、有効領域の適否の判断が容易になり、3次元視覚センサの利便性が高められる。
3次元視覚センサが導入されたピッキングシステムの構成を示す図である。 3次元視覚センサの電気構成を示すブロック図である。 有効領域を設定するための作業画面の構成例を示す図である。 有効領域の設定確認用の画面の構成例を示す図である。 有効領域の設定確認用の画面において、視線方向を変更する操作に応じて投影画像の表示が変化した例を示す図である。 有効領域の設定処理に関する手順を示すフローチャートである。 有効領域の設定確認のための投影画像として、3次元モデルの立体視画像を含む投影画像を表示した例を示す図である。 3次元モデルの変換処理に関する手順を示すフローチャートである。
図1は、3次元視覚センサが導入されたピッキングシステムの例を示す。
このピッキングシステムは、工場内で収容ボックス6に収容されたワークWを1つずつ取り出して所定の位置に搬送する作業を行うためのもので、ワークWを認識するための3次元視覚センサ100のほか、実際の作業を行う多関節ロボット4や、このロボット4の動作を制御するロボット制御装置3などが含まれる。
3次元視覚センサ100は、ステレオカメラ1と認識処理装置2とにより構成される。
ステレオカメラ1は、3台のカメラC0,C1,C2により構成される。これらのうち中央のカメラC0は、光軸を鉛直方向に向けた状態(すなわち正面視を行う状態)にして配備され、左右のカメラC1,C2は、光軸を斜めにして配備される。
認識処理装置2は、専用のプログラムが格納されたパーソナルコンピュータである。この認識処理装置2では、各カメラC0,C1,C2が生成した画像を取り込んで、ワークWの輪郭線を対象とする3次元計測を実行した後に、この計測により復元された3次元情報をあらかじめ登録された3次元モデルと照合することにより、ワークWの位置および姿勢を認識する。そして、認識したワークWの位置を表す3次元座標、および3次元モデルに対するワークWの回転角度(X,Y,Zの各軸毎に表される。)をロボット制御装置3に出力する。ロボット制御装置3は、この情報に基づき、ロボット4のアーム40の動作を制御して、ワークWを把持させる。
図2は、上記の3次元視覚センサ100の構成をブロック図により表したものである。
この図によれば、認識処理装置2には、各カメラC0,C1,C2に対応する画像入力部20,21,22、カメラ駆動部23、CPU24、メモリ25、入力部26、表示部27、通信インターフェース28などが含まれる。
カメラ駆動部23は、CPU24からの指令に応じて、各カメラC0,C1,C2を同時に駆動する。各カメラC0,C1,C2により生成された画像は、それぞれ画像入力部20,21,22を介してメモリ25に入力され、CPU24により上記した認識処理が実行される。
表示部27は、図1に示すモニタ装置である。また入力部26には、図1中のキーボード26Aおよびマウス26Bが含まれる。これらは、キャリブレーション処理や後記する有効領域の設定処理の際に、設定のための情報を入力したり、作業を支援するための情報を表示する目的に使用される。
通信インターフェース28は、ロボット制御装置3との通信に用いられる。
メモリ25は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、各種条件の教示、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータ、3次元モデルおよび教示データも、メモリ25内の専用のエリアに登録される。
この実施例では、あらかじめ、所定のキャリブレーションパターンが描かれたキャリブレーションプレート(図示せず。)を用いて、ステレオ計測のための3次元座標系(以下「計測座標系」という。)を設定する。CPU24は、メモリ25内のプログラムに基づき、各カメラC0,C1,C2毎に、そのカメラ座標系の座標と計測座標系の座標との関係を表すパラメータ(具体的には、後記する(2)式の透視変換行列の各要素P00,P01,・・・P23)を算出し、これらをメモリ25に登録する。
また、CPU24は、CADデータを用いてワークWの3次元モデルを作成し、これをメモリ25に登録する。この実施例の3次元モデルは、ワークWの輪郭を表す複数の点を、ワークW内の一点を原点とする3次元座標系の座標により表したものである。上記のキャリブレーション処理と3次元モデルの登録処理を実行することによって、ワークWに対する3次元計測および認識処理が可能な状態になる。
また、この実施例では、3次元計測の計測対象とする範囲を、ユーザに指定させ、この指定により特定された3次元空間を有効領域として設定するようにしている。この設定がされた後も、ステレオ計測は計測が可能な範囲全体に対して実施され、3次元モデルを用いた照合処理も全ての計測結果を対象に行われるが、認識結果としてロボット制御装置3に出力される情報は、有効領域内に含まれるものに限定される。
図3は、上記の有効領域を設定するための作業画面の構成を示す。なお、この図3および以下の図4,5,7では、煩雑さを避けるために、ワークWや収容ボックス6の画像に図1と同様の符号を付けて示す。
この作業画面では、右側に画像表示領域200が設定される。この領域200には、カメラC0から入力された画像(以下、「正面視画像」という。)が表示されると共に、有効領域の範囲を表す矩形枠Rが所定の色彩(図では点線に置き換えて示す。)により画像に重ね表示されている。
画像表示領域200の左側には、上部位置に、計測対象とする高さ範囲(以下、「高さ計測範囲」という。)を示す数値を入力するための入力ボックス201,202が設けられ、その下方に、矩形枠Rの左上の頂点および右下の頂点のx,y座標を示す数値表示ボックス203〜206(ボックス203,205にx座標が表示され、ボックス204,206にy座標が表示される。)が設けられる。また、各頂点の座標表示の右側には、それぞれ4つの矢印ボタン(符号省略)を配置した操作部207a,207bが設けられ、その下方に、設定された値を確定するためのOKボタン208や、設定された値を破棄するためのキャンセルボタン209が設けられる。
上記の作業画面が立ち上げられた時点では、矩形枠Rの位置や大きさはデフォルトの値に設定され、各数値表示ボックス203〜206にもデフォルトの座標が表示される。各操作部207a,207bの矢印ボタンは、それぞれ対応する頂点を矢印の方向に移動させるためのもので、いずれかの矢印ボタンがクリックされると、そのボタンに対応するx座標またはy座標の表示が変更される。また、画像表示領域200でも、変更前の座標が設定されている2つの頂点が移動して、矩形枠Rの大きさが変化する。
このほか、画像表示領域200内でのドラッグ・ドロップ操作によって、矩形枠Rの位置や大きさを変更することも可能である。
この実施例のピッキングシステムでは、ロボット4に収容ボックス6からワークWを取り出す作業を行わせるが、収容ボックス6の端部に近い場所にあるワークWをロボット4に把持させようとすると、アーム40の先端部が収容ボックス4の端縁に当たって、先端部が破損するおそれがある。したがって、このような破損が生じるおそれのない範囲が有効領域となるように、矩形枠Rを定める必要がある。
図3に示す設定作業の例では、上記の事情を考慮して、3つのワークWのうちの1つを収容ボックス6の中央部に配置し、残りの2つを収容ボックス6の縁部に近い場所に配置した状態にして、カメラC0に撮像を行わせる。これにより、図3の画像表示領域200内に表示されているような正面視画像が生成される。ユーザは、この画像中の各ワークWの画像を参考にして、縁部付近のワークWが含まれない範囲に矩形枠Rの位置や大きさを調整する。
一方、高さ計測範囲に関しては、ユーザは、計測すべき高さの範囲を想定し、その範囲の下限値を入力ボックス201に、上限値を入力ボックス202に、それぞれ手入力する。
上記のようにして、有効領域の範囲を示す矩形枠Rが指定され、高さ計測範囲が上限値および下限値により指定された後に、ユーザがOKボタン208を操作すると、高さ計測範囲の上限値および下限値や矩形枠Rの各構成点の座標が確定される。これら確定された値や正面視画像を用いた処理により、表示される画面は図4に示すものに変化する。
この画面では、画像表示領域200内の画像の表示は、大きくは変化していないが、矩形枠Rの内部が所定の色彩で着色される(図では、着色部分を網点パターンにより示す。)。画像表示領域200の左側の構成は一新されて、後記する透視変換処理のためのパラメータを設定するための設定領域210が設けられる。さらに、この設定領域210の下方には、認識モードへの移行を指示するためのボタン213や、図3の設定画面に戻ることを指示するボタン214が設けられている。
設定領域210には、4種類の数値情報dx,dy,θ,φについて、それぞれ数値設定用のスライダ211と数値表示ボックス212とが設けられる。ユーザは、スライダ211の移動操作、または数値表示ボックス212に直接数値を入力することによって、各数値を設定する。
この画面の画像表示領域200に表示されている画像は、カメラC0のカメラ座標系を利用して生成された3次元情報を透視変換することにより生成された投影画像である。設定領域210内の各数値は、この透視変換処理の演算用のパラメータとして機能する。
方位角θは、カメラ座標系に対する視点の方位を、z軸まわりの回転角度により示す。
仰角φは、カメラ座標系のxy平面(カメラC0の撮像面に対応する。)に対して視線方向がなす角度に相当する。たとえば、撮像面を直交する方向が視線の方向に設定されている場合には仰角φが90°となり、撮像面に水平な方向が視線の方向に設定されている場合には、仰角φは0°となる。
視点の横方向の移動量dxは、表示画面の横方向における投影画像の配置位置を設定するためのものであり、縦方向の移動量dyは、表示画面の縦方向における投影画像の配置位置を設定するためのものである。
この実施例では、高さ計測範囲や有効領域の設定に応じて、まず方位角θを0°、仰角φを90°とした透視変換を実行することにより、xy平面に直交する方向から3次元情報を観察した状態を示す投影画像を生成して、表示する。図4に示すように、この投影画像は、有効領域の範囲指定に用いた正面視画像(図3の画面に表示された画像)と見かけ上は変わらないものとなる。
図4に示した画面の表示に対し、ユーザは、移動量dx,dy,方位角θ,仰角φの各パラメータを、それぞれに設定されているスライダ211を用いて自由に変更することができる。CPU24は、パラメータが変更される都度、その変更後のパラメータによる透視変換演算を実行し、その演算結果に基づき、画像表示領域200における投影画像の表示を変化させる。
図5は、方位角θおよび仰角φを変更して、xy平面に対して斜めになる方向が視線の方向に設定された場合の画面を示す。この画面では、変更後の方位角θおよび仰角φに基づく透視変換処理により、収容ボックス6やワークWを含む正面視画像が回転した状態の投影画像が表示される。また、矩形枠Rは、有効領域の立体形状を示す輪郭線R1に変化し、この輪郭線R1により示される有効領域全体が所定の色彩により着色表示される。
以下、上記の投影画像を表示するためにCPU24により実行される処理について、詳細に説明する。
この実施例では、図3に示した作業画面において、有効領域の範囲を示す矩形枠Rの設定および高さ計測範囲の指定を受け付けると、矩形枠Rを構成する各点に、それぞれ高さ計測範囲の上限値に基づくz座標と下限値に基づくz座標とを設定することにより、構成点毎に2つの3次元座標を設定する。一方、画像表示領域200に表示されている正面視画像(カメラC0により生成された画像)の各画素には、z座標として値0を設定する。
これらの設定により、カメラC0のカメラ座標系には、元の2次元画像の各画素と、有効領域の上面および底面の輪郭線の構成点とを分布させた3次元情報が生成される。この3次元情報が前出の透視変換演算の対象となる。
ここで、上記の3次元情報中の各座標を(xi,yi,zi)とし、カメラC0のカメラ座標系の原点に対応する表示画面上の座標を(x,y)とし、座標(xi,yi,zi)の透視変換先の座標を(xi´,yi´)とすると、透視変換の演算式は、下記(1)式のようになる。
正面視画像の各構成画素には、それぞれ元の画像におけるx座標およびy座標がxi,yiとして設定され、ziとして値0が設定される。なお、この実施例では、ワークWを支持する面のz座標を0としている。
有効領域を表す矩形枠Rの各構成点に対しても、正面視画像に対する矩形枠Rの設定が確定されたときの各構成点のx座標およびy座標がxi,yiに設定される。一方、ziについては、高さ計測範囲の上限値Z1および下限値Z2を、それぞれカメラ座標系の倍率K(一画素あたりの実寸法。単位はmm)で除算した値Z1/K,Z2/Kが設定される。
この実施例では、キャリブレーション処理により設定された計測座標系とカメラC0のカメラ座標系との関係に基づき、この3次元座標系のX軸方向に対応する方向における1画素あたりの寸法Kxと、Y軸方向に対応する方向における1画素あたりの寸法Kyとを求め、KxとKyとの平均値をKとする。この倍率Kによりmm単位の高さZ1,Z2を除算することにより、x座標やy座標とほぼ同じ尺度でz座標を表現することができる。
上記の透視変換によれば、正面視画像を構成する画素については、元の画素配列を維持した平面を表す3次元情報が生成されて、透視変換されるので、図5に示すように、投影画像中の正面視画像に対応する部分で高さの違いが表されることはなく、正面視画像が回転した状態が表現されるのみとなる。一方、矩形枠Rが示す有効領域については、上記のとおり、Z1/KおよびZ2/Kをそれぞれziとしてあてはめて透視変換処理を行うことにより、有効領域の上面および底面の輪郭線が、それぞれの高さに応じた位置に投影される。
この実施例では、上記の透視変換処理により生成された投影画像を、有効領域の投影範囲が明示されるように編集して表示する。たとえば、有効領域の上面および底面の輪郭線の投影画像に膨張処理を施すと共に、各面の対向関係にある頂点を結んで高さ方向の輪郭線を設定し、各輪郭線に視認しやすい表示色を設定する。また、これらの輪郭線により囲まれる範囲を着色する。
ただし、有効領域の投影範囲の表示態様はこれに限らず、たとえば、領域内に着色を施さずに有効領域の輪郭線のみを表示してもよい。または、有効領域の上面および底面のみを対象に輪郭線の表示を行うことにより、透視変換処理の結果を忠実に表現するようにしてもよい。
このような編集によって、図5に示すように、有効領域の立体形状が明示される。また、この有効領域の底面は、当初の画像に対して設定された矩形枠Rに対応する位置に配置されているので、元の画像部分に対する相対関係が維持されている。したがって、有効領域について、2次元画像により模式されたワークWの支持面(収容ボックス6の内底面)における設定範囲と、立体形状とを表現することができる。よって、ユーザは、自分の指定により設定された有効領域が広がる範囲や有効領域が設定されている範囲を容易に判別することができる。
図6は、有効領域の設定に関する一連の手順を示す。以下、このフローチャートを参照して、CPU24により実行される処理の流れを整理する。
まずCPU24は、表示部27に、カメラC0により生成された正面視画像を含む作業画面を立ち上げて(ST1)、高さ計測範囲を示す数値の入力や、矩形枠Rを指定する操作を受け付ける。これらの入力や指定が行われてOKボタン208が操作されると(ST2が「YES」)、CPU24は、高さ計測範囲の上限値をZ1に、下限値をZ2にそれぞれ設定し(ST3)、矩形枠Rの各構成点にそれぞれZ1/KおよびZ2/Kをz座標として設定する(ST4)。ST3,4の処理により、矩形枠Rから有効領域の上面および底面の輪郭線を表す3次元情報が生成される。
つぎに、CPU24は、正面視画像を構成する各画素にz座標として0を設定する(ST5)。これにより、2次元の正面視画像は、平面を表す3次元情報に変換される。
なお、この実施例で正面視画像の各構成画素に設定するz座標を0としているのは、ワークWの支持面の高さを0としているためである。正面視画像の構成画素に対しても、支持面の高さが0でない場合などに、高さ計測範囲内の任意の高さを設定することができるが、その場合には、設定する高さを倍率Kで除算した値をz座標とする。
上記のように、ST3〜5の各ステップを実行することによって、カメラC0のカメラ座標系に基づく3次元情報が生成される。CPUは、θ=0,φ=90,dx=dy=0として、演算式(1)を実行することにより、3次元情報を透視変換する(ST6)。そして、この透視変換により生成された投影画像を有効領域が識別可能に明示されるように編集し、編集後の投影画像を含む画面(図4に示した画面)により表示部27の表示を切り替える(ST7)。
この後に、設定領域210での演算用パラメータを変更する操作が行われると(ST8が「YES」)、CPU24は変更後のパラメータによる透視変換演算を実行し(ST9)、その処理により生成された投影画像を用いて画像表示領域200内の画像表示を変更する(ST10)。
ユーザがこの画像表示により有効領域の設定が適切であると判断して、設定終了ボタン213を操作すると(ST11が「YES」)、CPU24は、有効領域を示す3次元情報をステレオ計測用の座標系の座標による情報に変換して、変換後の3次元情報をメモリ25に登録し(ST12)、処理を終了する。
一方、ユーザが有効領域の設定が適切でないと判断して、設定画面に戻るボタン214を操作した場合(ST13が「YES」)には、CPU24は、3次元情報を消去し(ST14)、有効領域の設定用の作業画面(図3)に表示を戻す(ST1)。この後は、矩形枠Rや高さ計測範囲の再指定が確定するまで待機し、再指定の確定に応じてST3以下の手順を再実行する。
上記のとおり、ユーザがワークWの画像を含む正面視画像を参照して指定した範囲に、同じくユーザにより指定された高さ計測範囲を適用することにより、3次元の有効領域が設定される。また最終的に有効領域を確定する前に、当該有効領域とワークWとの関係を示す画像を表示して、ユーザに確認させることにより、有効領域を適切に設定することが可能になる。
なお、上記の実施例では、高さ計測範囲の下限値を0としたが、これに限らず、下限値にマイナスの数値を設定することも可能である。たとえば、凹部を有するワークを検査する場合には、凹部の深さに応じたマイナスの高さを下限値に設定することができる。
つぎに、図7は、有効領域の設定確認用の画面の別の例を示す。
この実施例でも、先の実施例と同様に、正面視画像が表示された作業画面で矩形枠Rの指定や高さ計測範囲の入力を受け付けた後に、これらの指定を反映した3次元情報を生成して透視変換処理を実行し、生成された投影画像を表示する。
図7によれば、この実施例では、有効領域の設定後に、これらのワークWを対象にしたステレオ計測や、3次元モデルを用いた認識処理を実行し、各ワークWに対し、それぞれそのワークWに対する認識結果を表す3次元モデルの投影画像Mを対応づける。各3次元モデルの投影画像(以下、「モデル投影像M」という。)は、有効領域と同様に、設定された視点や視線方向から見た立体形状を表す状態になっているので、ワークWと有効領域との関係を把握するのがより簡単になる。
この実施例では、正面視画像や矩形枠Rに対し、先の実施例と同様の方法でz座標を設定して、透視変換用の3次元情報を生成する。また、登録された3次元モデルを認識された各ワークWに位置や姿勢を合わせた状態に座標変換したものを、カメラC0のカメラ座標系のサイズに変換して、変換後の3次元情報を透視変換用の3次元情報に含める。この3次元情報を透視変換して、有効領域の投影範囲やモデル投影像Mを編集して画像表示領域200に表示することにより、図7に示すような表示が実現する。
図8は、メモリ25に登録されている3次元モデルから上記の透視変換用の3次元情報を生成する処理の手順を示す。以下、この図8の各ステップで実行される処理について、詳細に説明する。
<ステップA>
このステップAでは、メモリ25に登録されている3次元モデルの構成点を、ワークWにつき認識した位置および姿勢に基づいて座標変換する。具体的には、3次元モデルにつき基準位置として登録されている座標に対するワークWの位置ずれ量や、3次元モデルが示す基準の姿勢に対するワークWの回転角度を用いて、同次座標変換の変換行列の各要素T00,T01,T02,・・・T23を決定する。そして、この行列を用いた演算式(下記(a)式)により、3次元モデルに含まれている各点の座標(XMP,YMP,ZMP)を、認識したワークWに対応する座標(Xt,Yt,Zt)に変換する。以下、この変換後の座標(Xt,Yt,Zt)により表される3次元モデルを、「変換モデルMt」という。
<ステップB>
このステップBでは、上記の変換モデルMtに含まれる各点のZ座標Ztを対象として、設定領域210において設定されている仰角φを用いてZtを補正する。具体的には、仰角φをあてはめた下記の(b)式により、補正後のZ座標Zt´を算出する。
<ステップC>
このステップCでは、上記の(b)式によりZ座標を補正した後の変換モデルMtを、(c)式を用いてカメラC0のカメラ座標系のxy平面に透視変換する。以下、透視変換により生成された変換モデルMtの投影画像を、「一次投影像」という。
なお、この(c)式は、カメラC0のカメラ座標系のxy平面の座標(x,y)と計測座標系の3次元座標(X,Y,Z)との関係を表す演算式(下記(2)式)に基づき導出されたものである。ここでSはスケールファクタを表す。(2)式の透視変換行列の各要素P00,P01,・・・P23は、キャリブレーションによって既知となっている。
<ステップD>
ステップDでは、上記の一次投影像に含まれる各点に対し、それぞれ変換モデルMtの対応点の補正前のZ座標Ztに基づき、このZtを前出の倍率Kにより除算した値Zt/Kを、z座標として設定する。これにより、一次投影像は、カメラ座標系の3次元情報に変換される。この3次元情報を透視変換することにより、図7に示したモデル投影像Mを得ることができる。
ここで、ステップBおよびステップCを実行する趣旨について説明する。
まず、図8に示した処理は、登録されている3次元モデルを、ワークWの位置および姿勢を反映する状態に座標変換し、変換後の3次元モデル(変換モデルMt)を、画像中のワークWに合わせた状態で立体的に表示するための3次元情報を作成することを、目的とするものである。
つぎに、カメラC0に関しては、既に、キャリブレーション処理によって、前出の(2)式の透視変換行列が導出されている。この(2)式は、(2−1)式および(2−2)式のように、分解することができる。
よって、(2−2)式中のSを(2−2)式の右辺に置き換えることによって、3次元座標(X,Y,Z)とカメラC0のカメラ座標系のxy平面内の座標(x,y)との関係を、(3)式のように表すことができる。
この(3)式によれば、変換後モデルMtの各点の座標(Xt,Yt,Zt)を(X,Y,Z)にあてはめることにより、正面視画像中のワークWと同様の位置および姿勢を反映した一次投影像を生成することができる。しかし、(3)式は、3次元情報が示す立体形状をカメラC0により撮像したときにxy平面に投影される座標を求めるものであるから、同一形状、同一面積の平面であっても、それぞれの平面の高さ(Z座標)が異なると、xy平面に投影される画像の大きさは異なるものになる。つまり、平面がカメラから遠ざかるほど、言い換えればZ座標が小さくなるほど、xy平面に投影される画像は小さくなる。
したがって、変換後モデルMtの各点を上記(3)式によりカメラCのカメラ座標系のxy平面に透視変換すると、各投影点にはZ座標の違いによる歪みが生じるから、これらの投影点にz座標としてZt/Kを設定しても、変換後モデルMtが示す3次元形状を正しく復元することはできない。この設定による3次元情報をxy平面に直交する方向から離れた方向に視線を設定して透視変換を行うと、Z座標により歪んだ形状が投影されて、視線の方向から想定される形状を正しく表さない投影像が生成されてしまう。
ここで(b)(c)式に参照を戻して説明すると、(c)式は、変換モデルMtの座標(Xt,Yt,Zt)のZtを(b)式により補正したZt´に置き換えて、置き換え後の3次元情報を(3)式にあてはめることにより導出されたものである。
(b)式によれば、φが90°のときに、Zt´=Zt、すなわち補正量が0の状態となる。またφが0°のときには、Zt´=0、すなわちZtの値に関わらず、すべての点が高さ0の平面上の点に変換される状態となる。
また、90°より小さく0°より大きい数値範囲においては、φの値が0°に近づくにつれて、補正後のZt´の値が0に近づく。また、大きさの異なる2つのZ座標の補正後の座標間の距離も、φの値が0°に近づくにつれて短くなる。
よって、(b)式により補正されたZ座標Zt´を組み込んだ(c)式によれば、仰角φが0°に近づくにつれて、Z座標の違いによる投影位置の差が小さくなるように、変換後モデルMtの各点の投影位置を調整することができる。よって、xy平面に直交する方向から離れた方向が透視変換の視線方向として設定された場合でも、変換後モデルMtの投影像の歪みを小さくすることができるから、この投影像の各点にZt/Kをz座標として設定したものを、(1)式により透視変換することによって、視線の方向から見たモデルの形状を違和感なく表した投影画像を生成することが可能になる。
したがって、図7に示した確認画面において、設定領域210で方位角θや仰角φが変更される都度、その変更に応じて図8の変換処理を実行(ただし、ステップAは初回のみで良い。)することにより、設定された視線の方向に適した3次元情報を生成し、これを用いてワークWの位置および姿勢を精度良く示すモデル投影像Mを生成することができる。
図7に示した投影画像によれば、有効領域が立体的に表示されるとともに、モデル投影像Mによって、各ワークWの3次元情報が立体的に表示されるので、ワークWと有効領域との関係を明確に表すことができる。よって、ユーザは、各ワークWが有効領域に含まれているかどうかを容易に確認することが可能になり、有効領域の適否を確認する上での利便性を、さらに高めることができる。
なお、図7に示した投影画像の表示は、有効領域の設定作業時に限らず、有効領域が確定されて3次元認識処理が開始されたときにも実施することができる。このようにすれば、通常の2次元画像の表示では有効領域との関係を把握しにくいワークWについても、有効領域の内外いずれに位置するかを明確に示すことができる。よって、ユーザは適宜、投影画像を確認することにより、3次元視覚センサ100から出力される認識結果が正しいかどうかを判別することができる。
100 3次元視覚センサ
C0,C1,C2 カメラ
1 ステレオカメラ
2 認識処理装置
24 CPU
25 メモリ
200 画像表示領域
201,202 数値入力ボックス
207a,207b 操作部
R 矩形領域
R1 輪郭線
W ワーク

Claims (4)

  1. 計測対象物およびその支持面を含む空間をステレオカメラにより撮像し、生成されたステレオ画像を用いて前記計測対象物の3次元計測を行う3次元視覚センサにおいて、計測処理を有効とする領域を表示する方法であって、
    前記ステレオカメラのうちの1台を、計測対象物の支持面を正面視するように位置および姿勢を設定して、この正面視カメラにより生成された2次元画像をモニタに表示し、表示された画像上で前記計測処理の有効領域の前記支持面における範囲を指定する操作を受け付けると共に、計測対象とする高さ範囲を示す数値の入力を受け付ける第1ステップ、
    前記正面視カメラにより生成された2次元画像を構成する各画素に、それぞれz座標として、前記第1ステップで受け付けた高さ範囲内の一数値に対応する一定の座標を設定すると共に、前記範囲指定操作により指定された有効領域を示す複数の座標にそれぞれ前記高さ範囲の上限値に基づくz座標および下限値に基づくz座標を設定することにより3次元情報を生成する第2ステップ、
    前記3次元情報に対する視線の方向を指定する操作を受け付けて、この操作により指定された方向から前記3次元情報を透視変換することにより投影画像を生成する第3ステップ、
    前記投影画像を前記モニタに表示する第4ステップ、
    を実行することを特徴とする3次元視覚センサにおける計測有効領域の表示方法。
  2. 前記第4ステップにおいて、前記投影画像を、前記有効領域の投影範囲が識別可能な状態の画像に編集して、編集後の画像を前記モニタに表示する、請求項1に記載された計測有効領域の表示方法。
  3. 計測対象物およびその支持面を含む空間をステレオカメラにより撮像し、生成されたステレオ画像を用いて前記計測対象物の3次元計測を行う3次元視覚センサにおいて、
    前記ステレオカメラのうちの1台を基準カメラとして、この基準カメラにより生成された2次元画像をモニタに表示して、表示された画像上で前記計測処理の有効領域の前記支持面における範囲を指定する操作を受け付けると共に、計測対象とする高さ範囲を示す数値の入力を受け付ける範囲指定受付手段と、
    前記基準カメラにより生成された2次元画像を構成する各画素に、それぞれz座標として、前記範囲指定受付手段が受け付けた高さ範囲内の一数値に対応する一定の座標を設定すると共に、前記範囲指定操作により指定された有効領域を示す複数の座標にそれぞれ前記高さ範囲の上限値に基づくz座標および下限値に基づくz座標を設定することにより3次元情報を生成する3次元情報生成手段と、
    前記3次元情報に対する視線の方向を指定する操作を受け付けて、この操作により指定された方向から前記3次元情報を透視変換することにより投影画像を生成する透視変換手段と、
    前記投影画像を前記モニタに表示する投影画像表示手段とを、
    具備する3次元視覚センサ。
  4. 請求項3に記載された3次元視覚センサにおいて、
    前記計測対象物の3次元モデルが登録される登録手段と、前記ステレオ画像から復元された3次元情報を前記3次元モデルと照合することにより、前記計測対象物の位置および姿勢を認識する認識手段と、前記認識手段により認識された位置および姿勢に設定された3次元モデルを前記基準カメラの座標系に透視変換するモデル投影手段とを、さらに具備し、
    前記3次元情報生成手段は、前記モデル投影手段により生成された3次元モデルの投影画像の各点にそれぞれ3次元モデル中の対応点に設定されている高さに基づくz座標を設定し、設定後の各点を透視変換処理の対象の3次元情報に包含し、
    前記投影画像表示手段は、前記透視変換手段により生成された投影画像を、画像中の前記3次元モデルを前記有効領域とともに識別可能な状態に編集して、編集後の画像を前記モニタに表示する、3次元視覚センサ。
JP2009266778A 2009-11-24 2009-11-24 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ Expired - Fee Related JP5257335B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009266778A JP5257335B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
US12/915,667 US8964001B2 (en) 2009-11-24 2010-10-29 Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266778A JP5257335B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2011112402A true JP2011112402A (ja) 2011-06-09
JP5257335B2 JP5257335B2 (ja) 2013-08-07

Family

ID=44061798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266778A Expired - Fee Related JP5257335B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ

Country Status (2)

Country Link
US (1) US8964001B2 (ja)
JP (1) JP5257335B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194478A (ja) * 2014-03-20 2015-11-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2020008936A1 (ja) * 2018-07-06 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、システム、物品の製造方法
JPWO2021199730A1 (ja) * 2020-03-31 2021-10-07
WO2025004380A1 (ja) * 2023-06-30 2025-01-02 株式会社Rutilea プログラム、情報処理方法、情報処理装置

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR101276208B1 (ko) * 2011-05-30 2013-06-18 전자부품연구원 스테레오 카메라용 보정 시스템 및 스테레오 영상 보정 장치
WO2013184092A1 (en) 2012-06-04 2013-12-12 Hewlett-Packard Development Company, L.P. Adjusting digital images for parallax
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
US9332230B2 (en) * 2013-07-25 2016-05-03 Panasonic Intellectual Property Management Co., Ltd. Electronic component mounting apparatus and electronic component mounting method
US10447947B2 (en) * 2013-10-25 2019-10-15 The University Of Akron Multipurpose imaging and display system
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN109414119B (zh) 2016-05-09 2021-11-16 格拉班谷公司 用于在环境内计算机视觉驱动应用的系统和方法
US10659247B2 (en) 2016-07-09 2020-05-19 Grabango Co. Computer vision for ambient data acquisition
CA3052292A1 (en) 2017-02-10 2018-08-16 Grabango Co. A dynamic customer checkout experience within an automated shopping environment
EP3600795A1 (en) * 2017-03-30 2020-02-05 Soft Robotics, Inc. User-assisted robotic control systems
JP7165140B2 (ja) 2017-05-10 2022-11-02 グラバンゴ コーポレイション 効率的配置のための直列構成カメラアレイ
EP3635623A4 (en) 2017-06-21 2020-10-21 Grabango Co. LINKING OBSERVED HUMAN ACTIVITY ON A VIDEO TO A USER ACCOUNT
US20190079591A1 (en) * 2017-09-14 2019-03-14 Grabango Co. System and method for human gesture processing from video input
US10963704B2 (en) 2017-10-16 2021-03-30 Grabango Co. Multiple-factor verification for vision-based systems
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
US11481805B2 (en) 2018-01-03 2022-10-25 Grabango Co. Marketing and couponing in a retail environment using computer vision
WO2020092450A1 (en) 2018-10-29 2020-05-07 Grabango Co. Commerce automation for a fueling station
US11507933B2 (en) 2019-03-01 2022-11-22 Grabango Co. Cashier interface for linking customers to virtual data
US10618172B1 (en) 2019-05-31 2020-04-14 Mujin, Inc. Robotic system with error detection and dynamic packing mechanism
US10696494B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system for processing packages arriving out of sequence
US11077554B2 (en) 2019-05-31 2021-08-03 Mujin, Inc. Controller and control method for robotic system
US10696493B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system with packing mechanism
US10647528B1 (en) 2019-05-31 2020-05-12 Mujin, Inc. Robotic system for palletizing packages using real-time placement simulation
US10679379B1 (en) * 2019-05-31 2020-06-09 Mujin, Inc. Robotic system with dynamic packing mechanism
CN110615227B (zh) * 2019-09-10 2021-08-06 灵动科技(北京)有限公司 自动搬运系统
TWI738098B (zh) * 2019-10-28 2021-09-01 阿丹電子企業股份有限公司 光學式體積測定裝置
CN112102289A (zh) * 2020-09-15 2020-12-18 齐鲁工业大学 一种基于机器视觉的细胞样本离心处理系统及方法
CN112929651B (zh) * 2021-01-25 2025-01-24 北京信息科技大学 一种显示方法、装置、电子设备及存储介质
US12485544B2 (en) 2021-06-16 2025-12-02 Dexterity, Inc. Workflow for using learning based approach for placing boxes on pallets
JP7794855B2 (ja) 2021-06-16 2026-01-06 デクステリティ・インコーポレーテッド ロボットシステム、ロボットを制御するための方法およびロボットを制御するためのコンピュータプログラム製品
US12486125B2 (en) 2021-06-16 2025-12-02 Dexterity, Inc. Collision avoidance based on vision data, geometric data and physics engine evaluation
EP4356328A4 (en) 2021-06-16 2025-05-14 Dexterity, Inc. State estimation using geometric data and vision system for palletizing
US12258227B2 (en) * 2021-06-16 2025-03-25 Dexterity, Inc. Simulated box placement for algorithm evaluation and refinement
US12202145B2 (en) * 2021-07-23 2025-01-21 Mujin, Inc. Robotic system with object update mechanism and methods for operating the same
DE102021133709A1 (de) * 2021-12-17 2023-06-22 Rooom Ag Matte zur Durchführung eines Photogrammetrieverfahrens, Verwendung der Matte und zugehöriges Verfahren
CN115908432B (zh) * 2023-03-13 2023-06-02 单县龙宇生物科技有限公司 一种物料输出品质检测系统及预测方法
CN116797546B (zh) * 2023-05-17 2024-08-13 苏州市职业大学(苏州开放大学) 一种视觉检测搬运方法及控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850602A (ja) * 1994-08-04 1996-02-20 Nissan Motor Co Ltd 立体形状の自動生成方法および装置
JPH08185545A (ja) * 1994-12-28 1996-07-16 Nippon Steel Corp 画像生成方法及び装置
JPH10160464A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2002366976A (ja) * 2001-06-08 2002-12-20 Fujitsu Ltd オブジェクト表示プログラムおよびオブジェクト表示装置
WO2006135040A1 (ja) * 2005-06-17 2006-12-21 Omron Corporation 3次元計測を行う画像処理装置および画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7746377B2 (en) * 2003-11-28 2010-06-29 Topcon Corporation Three-dimensional image display apparatus and method
JP4774824B2 (ja) * 2005-06-17 2011-09-14 オムロン株式会社 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
US7570795B2 (en) * 2006-07-18 2009-08-04 Mitutoyo Corporation Multi-region autofocus tool and mode
JP4492654B2 (ja) 2007-08-29 2010-06-30 オムロン株式会社 3次元計測方法および3次元計測装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850602A (ja) * 1994-08-04 1996-02-20 Nissan Motor Co Ltd 立体形状の自動生成方法および装置
JPH08185545A (ja) * 1994-12-28 1996-07-16 Nippon Steel Corp 画像生成方法及び装置
JPH10160464A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2002366976A (ja) * 2001-06-08 2002-12-20 Fujitsu Ltd オブジェクト表示プログラムおよびオブジェクト表示装置
WO2006135040A1 (ja) * 2005-06-17 2006-12-21 Omron Corporation 3次元計測を行う画像処理装置および画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194478A (ja) * 2014-03-20 2015-11-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2020008936A1 (ja) * 2018-07-06 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、システム、物品の製造方法
JPWO2021199730A1 (ja) * 2020-03-31 2021-10-07
WO2021199730A1 (ja) * 2020-03-31 2021-10-07 パイオニア株式会社 情報処理装置、コンピュータプログラム、記録媒体、表示データ作成方法
WO2025004380A1 (ja) * 2023-06-30 2025-01-02 株式会社Rutilea プログラム、情報処理方法、情報処理装置

Also Published As

Publication number Publication date
JP5257335B2 (ja) 2013-08-07
US20110122231A1 (en) 2011-05-26
US8964001B2 (en) 2015-02-24

Similar Documents

Publication Publication Date Title
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5471355B2 (ja) 3次元視覚センサ
JP6080407B2 (ja) 3次元計測装置及びロボット装置
CA3016539C (en) Image processing method, display device, and inspection system
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
US9008371B2 (en) Method and system for ascertaining the position and orientation of a camera relative to a real object
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
US20100232647A1 (en) Three-dimensional recognition result displaying method and three-dimensional visual sensor
CN104070524B (zh) 机器人系统以及图像显示装置
JP2004062758A (ja) 情報処理装置および方法
JP7183372B1 (ja) マーカ検出装置及びロボット教示システム
JP5198078B2 (ja) 計測装置および計測方法
JP3559335B2 (ja) 三次元画像処理装置
KR20160070012A (ko) 3차원 스캔 기술을 사용한 사진 설계 도면 제공 방법 및 시스템
JP2022163836A (ja) ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム
JP5018282B2 (ja) 製品の3次元形状モデルデータ作成方法
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
JP7225109B2 (ja) 作業支援システムおよび作業支援方法
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2015178138A (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120319

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5257335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees