[go: up one dir, main page]

JP2004085467A - 3D measuring device - Google Patents

3D measuring device Download PDF

Info

Publication number
JP2004085467A
JP2004085467A JP2002249247A JP2002249247A JP2004085467A JP 2004085467 A JP2004085467 A JP 2004085467A JP 2002249247 A JP2002249247 A JP 2002249247A JP 2002249247 A JP2002249247 A JP 2002249247A JP 2004085467 A JP2004085467 A JP 2004085467A
Authority
JP
Japan
Prior art keywords
measurement
dimensional
moving
measurement target
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002249247A
Other languages
Japanese (ja)
Inventor
Koshi Kuno
久野 耕嗣
Satohiko Yoshikawa
吉川 聡彦
Ei Kosakai
小坂井 映
Toshikuni Kusano
草野 敏邦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2002249247A priority Critical patent/JP2004085467A/en
Publication of JP2004085467A publication Critical patent/JP2004085467A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】測定対象物の形状が測定に影響を及ぼさず、撮像手段を移動させることなく三次元計測が行える装置を提供する。
【解決手段】基台2に対して、X方向に移動自在な移動ステージ6を備えると共に、基台2に対して所定位置に設置され、測定対象物10を撮像する撮像装置5を備えた三次元計測装置1において、撮像装置5は、測定対象物10に対して被写界深度面11を傾斜させた状態で設置され、移動ステージ6をX方向に移動させることにより、測定対象物10の形状を三次元的に計測する構成とした。
【選択図】 図1
An object of the present invention is to provide an apparatus capable of performing three-dimensional measurement without the shape of a measurement target object affecting measurement and without moving an imaging unit.
A tertiary system including a movable stage (6) movable in the X direction with respect to a base (2) and an imaging device (5) installed at a predetermined position with respect to the base (2) and imaging an object to be measured (10). In the original measurement device 1, the imaging device 5 is installed with the depth-of-field surface 11 inclined with respect to the measurement target 10, and moves the moving stage 6 in the X direction, thereby moving the measurement target 10. It was configured to measure the shape three-dimensionally.
[Selection diagram] Fig. 1

Description

【0001】
【発明の属する技術分野】
本発明は、測定対象物を光学的にとらえ、測定対象物の断面形状や三次元形状を計測する三次元計測装置に関するものである。
【0002】
【従来の技術】
従来より、物体(測定対象物)の形状を非接触な方法にて測定する方法として、三角測量法が知られている。この三角測量法は、測定対象物を異なる方向から見て、測定対象物までの距離を求めるものである。この方法では、図10に示す様に、光を投光する投光手段(例えば、レーザ投光器)とその投光された光を受光する受光手段(例えば、CCDカメラ)とが視差を持つ様に配置され、三次元計測が行われる。この場合、投光手段と受光手段の設けられる位置関係や、測定対象物の形状によっては影(死角領域)が測定時に生じてしまい、測定対象物の形状を正確に測定できない事が起こり得る。
【0003】
そこで、測定対象物の測定時に影が影響を与えない別の方法として、一眼レフ等のカメラにおける焦点合わせに代表されるレンズ焦点法(合焦法とも言う)が知られている。この方法では、投光手段と受光手段とを同軸に配置し、ピントが合う位置になるまで測定対象物と投光手段(例えば、レンズ)との距離を可変して調整する。
【0004】
例えば、特開平9−145318号公報において、レンズの移動により被写界深度面を移動して焦点の合った位置を検出する方法や、特開平10−38559号公報において、撮像素子の移動により焦点面を移動し、焦点の合った位置を検出する方法が知られている。
【0005】
【発明が解決しようとする課題】
しかしながら、これらの方法では測定対象物の大きさが、測定対象物を撮像するカメラの撮像範囲よりも大きい場合、測定対象物に対して、撮像を行うカメラをも移動させる必要がある。この場合では、カメラ位置を測定対象物に対して移動し、カメラ焦点を移動させる。そして、カメラ焦点を変化させて、その時の画像を何枚か取り込み、最適な焦点位置から測定対象物の形状を計測する方法がとられる。つまり、この方法では、カメラ位置を測定対象物に対して上下方向に移動させ、測定対象物が載置される移動部材をともに移動させなければならならい。このため、移動部材のみならずカメラ位置をも動かさなければならず、三次元計測装置自体の構造が複雑になってしまう。
【0006】
よって、本発明は上記の問題点に鑑みてなされたものであり、測定対象物の形状が測定に影響を及ぼさず、構造が簡単で、撮像手段を移動させることなく、測定対象物の形状の計測が行える装置を提供することを技術的課題とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、基台と、該基台に対して、一方向に移動自在な移動手段と、前記基台に対して所定位置に設置され、前記移動部材に載置された測定対象物を撮像する撮像手段と、前記移動手段を移動させる制御手段とを備えた三次元計測装置において、前記撮像手段は、前記測定対象物に対して被写界深度面を傾斜させた状態で設けられ、前記制御手段により前記移動手段を移動させることにより、前記測定対象物を三次元的に計測する画像処理手段を備えたことである。
【0008】
上記した構成によれば、被写界深度面を傾斜させた状態で撮像手段が設けられ、測定対象物を斜め方法から撮像する。被写界深度面を傾斜させた状態で測定対象物を斜め方向から撮像した状態で、移動手段を一方向へと移動させることによって、被写界深度面を基準とした画像座標(カメラ座標)が求まり、このカメラ画像から実際の物体座標への変換を行って、測定対象物の形状を三次元的に計測を行うことが可能である。これは、撮像手段の撮像範囲より大きな測定対象物であっても、撮像手段を測定対象物に対して移動させなくても良い。この為、計測装置には撮像手段を測定対象物に対して移動させる構造は必要なく、従来よりも構造が簡単になる。ここでの三次元計測は、被写界深度面と測定対象物とが交わる断面形状を示し、測定対象物を移動させてこの操作を繰り返す事により、被写界深度面での断面形状や、測定対象物全体の三次元形状が測定可能となる。
【0009】
この場合、画像処理手段は、撮像手段により撮像された映像信号を微分し、微分された映像信号に基づき、測定対象物の断面座標を演算すれば、撮像手段により撮像された映像信号を微分することによって、測定対象物から得られる形状に応じて映像信号の明暗の変化がとらえられる。この微分された映像信号の明暗に基づき、測定対象物の被写界深度面での断面座標を計測することが可能となる。
【0010】
また、断面座標の演算は、微分された映像信号の加重平均により、細線化されると、加重平均によって微分された映像信号のノイズが除去され、これを元にして細線化を行うことが可能となる。
【0011】
更に、画像処理手段は、断面座標を三次元変換して記憶し、制御手段により移動手段を移動させることにより、三次元での断面座標を記憶すれば、被写界深度面に対する測定対象物の三次元での高さ方向がわかるので、測定対象物の形状を三次元で計測することが可能となる。
【0012】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0013】
図1に、測定対象物10の形状を三次元的に計測する三次元計測装置(本装置と称す)1の構成を示す。本装置1は、図1に示す如く、XY平面上に置かれる金属製の基台2に対し、金属製の支柱3がZ方向に立設している。支柱3の上方には、Y方向に延在した金属製の支持部4が固定され、支持部4の先にはCCDカメラ,CMOSカメラ等の内部に撮像素子を有する撮像装置5が固定されている。この撮像装置5は、基台2に対して垂直なZ方向に対して所定角度だけ傾いた状態で、支持部4に固定される。
【0014】
一方、基台2には移動ステージ6が取り付けられており、移動ステージ6は基台2に対して、図示しない油圧装置またはモータの動力によって、X方向に移動する。移動ステージ6の上には、移動ベース板7がピンまたは締結部材等によって固定され、この移動ベース板7上に三次元で形状の測定が行われる測定対象物10が載置される。そして、移動ステージ6を画像処理装置9のステージ制御によってX方向に移動させることにより、移動ステージ上に載置される測定対象物10はX方向に移動する。撮像装置5は、測定対象物10がX方向に移動する際の像を斜め方向から、途中、光学レンズ(単にレンズと称す)8を介して、光を集光させて内部の素子(例えば、CCD素子等)に結像させることができる様になっている。この場合、撮像装置5は、特性上、測定対象物10に対しての距離に応じてピントが合う領域が予め決まっている。本実施形態では、撮像時にこの撮像装置内部に設けられる撮像素子のピントが合って測定対象物10を像として認識できる面領域を、被写界深度面11とする。図1に示す状態では、基台上の測定対象物10に対して、鉛直方向となるZ方向よりも、所定角度だけ傾いた状態で撮像装置5が取り付けられており、レンズ8を通した状態では、測定対象物10に対して被写界深度面11は傾いた状態となる。
【0015】
図2は、本装置1において測定対象物10の形状を計測する場合の映像信号の処理概要を示している。本装置1では撮像装置5で撮像された映像信号は、アナログ信号であるため、画像処理装置9の内部に設けられたA/D変換回路にてアナログ信号からデジタル信号に変換される。その後、デジタル化された映像信号は、画像処理装置内部で微分等の処理によって、二値化され細線化される画像処理が行われる。そして、測定対象物10の被写界深度面11での断面座標演算が行われ、ここで得られた被写界深度面11での微分値(データ)が三次元座標テーブルに記憶される。
【0016】
一方、上記した状態における断面座標が演算されると、移動ステージ6のステージ制御によって、移動ステージ6を移動させる。これにより、再度、移動ステージ6をX方向に移動させた状態で、被写界深度面11に対する断面座標を演算して、断面座標がいくつか記憶される。その結果、移動ステージ6が固定された状態では、被写界深度面11に対しての測定対称物10の形状は、二次元での被写界深度面11を三次元の測定対象物10が通過する際の一つの断面形状でしか表れず、測定対象物10の形状は一断面しか計測することができない。しかし、移動ステージ6をX方向に移動させて、X方向に被写界深度面11の断面座標を求めることにより、測定対称物10と被写界深度面11とのX方向における各位置での断面形状を多断面で計測し、その形状を記憶することができる。この本装置1では、移動ステージ6の一軸のみの移動で測定対象物10を撮像しても、撮像装置5の撮像範囲よりも大きい測定対象物10に対しても、測定対象物10の形状を測定することができる。
【0017】
次に、幾何学的な見地から、図3に示す説明図を参照して撮像装置5に結像される像について説明する。撮像装置5に撮像される像は、図2に示す如く、測定対象物10と被写界深度面11との交わった位置(交叉した位置)が撮像装置5の座標軸となるカメラ座標(I,J座標)に結像される。この結像によって得られた映像信号は、画像処理装置9でA/D変換して微分処理が施され、そして、微分処理された値(微分値)を二値化して、これを元にして細線化を行う画像処理が施され、測定対象物10の断面形状を計測する様にした。
【0018】
そこで、図4を参照して、撮像素子の座標系(カメラ座標系)に結像される像から、測定対象物10が載置される実際の物体座標系(ワールド座標系とも言う)への座標変換について説明する。
【0019】
撮像装置5の内部の撮像素子はシャインプルーフの法則より、基台2に対して垂直なZ軸に対してY軸の廻りにφだけ傾斜させると、被写界深度面11はZ軸に対しY軸の廻りに、θ=tan−1(di・tanφ/d0)だけ傾斜する。この場合、d0:物体座標の原点からレンズ8の中心(主点位置)までの距離、di:レンズ8の主点位置から撮像装置5とZ軸との交点までの距離として、以下に説明する。
【0020】
次に、図5に示すフローチャートを参照して、画像処理装置9の中で行われる測定対称物10の断面形状を測定する方法について説明する。尚、以下に示すフローチャートでは、プログラムのステップを、単に「S」と簡略化して説明する。
【0021】
移動ステージ6の上に載置された測定対象物10に対して、撮像装置5から撮像を行うと、撮像装置5はZ軸に対して所定角度だけ傾斜した状態で、支柱3に固定された支持部4に取り付けられている為、撮像装置5では測定対象物10からの像を撮像した場合には、ピントの合っている領域とピントの合っていない領域が混在する。S1ではこれらを測定対象物10の映像信号としてA/D変換を行って、デジタル化処理する。次のS2では、画像処理の過程の中で、測定対象物10からの像を内部のCCD素子等に撮像させる際、撮像装置5の走査を行うが、撮像素子への像のピントが合っているか(ピントの合い度合い)を判断するため、走査線毎に微分処理を行い、微分値で表わされる微分パラメータを求める。
【0022】
例えば、ある走査線(走査線番号:j)のi番目の明るさをI(i,j)として表わすと、微分パラメータf(i,j)は、次式で求められる。
【0023】
f(i,j)=|−I(i−1,j)+2*I(i,j)−I(i+1,j)|
そして更に、ピントが合う微分パラメータの値を評価関数として定義した場合、f(i,j)の評価関数値が、k(k:ピントが合っているかの閾値)よりも大きいという条件式を満足するもののみ、フィルタ処理(例えば、二値化、加重平均等)を行い、この条件式(f(i,j)>k)を満たすものを評価関数値として、S3にて細線化を行う様にしている。
【0024】
尚、本実施形態では、細線化データg(j)に対し、評価関数に基づき細線化データを、以下に示す式より算出して、被写界深度面上の断面座標(被写界深度面11と測定対称物10との交わった位置)を演算する様にした。
【0025】
g(j)=Σ(i*f(i,j))/Σf(i,j)
この場合、撮像された画像に対し、以下に示す別の方法によって、評価関数値を求めてることも可能である。例えば、カメラ座標系でのカメラ座標(i,j)に対し、明るさI(i,j)とすると、評価関数値f(i,j)は、プラシアンフィルタ、ソーベルフィルタ、ロバーツフィルタ等を用いることができる。プラシアンフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0026】
f(i,j)=|−I(i,j−1)−I(i−1,j)+4*I(i,j)−I(i+1,j)−I(i,j+1)|
また、ソーベルフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0027】
fx(i,j)=−I(i−1,j−1)+I(i+1,j−1)
−2*I(i−1,j)+2*I(i+1,j)
−I(i−1,j+1)+I(i+1,j+1)
fy(i,j)=−I(i−1,j−1)−2*I(i,j−1)−I(i+1,j−1)
+I(i−1,j+1)+2*I(i,j+1)+I(i+1,j+1)
f(i,j)=|fx(i,j)|+|fy(i,j)|
更に、ロバーツフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0028】
f(i,j)=|f(i+1,j+1)−f(i,j)|+|f(i+1,j)−f(i,j+1)|
撮像装置5により撮像されるカメラ座標系のデータを物体座標系へ変換する場合、次の様な算出方法が取られる。つまり、図3に示す様に、レンズ8の主点位置を点O、測定対象物10と被写界深度面11とのある交点を点Q、点QからZ軸に下ろした垂線とZ軸との交点を点P、物体座標の原点から点Qまでの距離をΔ、撮像素子3上に撮像される点Qの像を点Q’、点Q’からZ軸におろした垂線とZ軸との交点を点P’、撮像装置5とZ軸との交点から点Q’の距離をδと定義すると、ΔOPQ∝ΔOP’Q’の関係より、
Δsinθ/(d0−Δcosθ)=δsinφ/(di+δcosφ)
Δ(di・sinθ+sinθ・δcosφ+δsinφ・cosθ)=d0・δsinφ
となり、三角関数の加法定理を用いれば、次式が成立する。
【0029】
Δ(di・sinθ+δsin(θ+φ))=d0・δsinφ より、
Δ=δ・D1/(D2+δ)
(但し、D1=d0・sinφ/sin(θ+φ)、D2=di・sinθ/ sin(θ+φ))となる。よって、点Q(x,y,z)について、z=Δcosθ となる。ここで、移動ステージ6が測定開始点から−X方向にx0だけ移動していれば、x=Δsinθ+x0 と言う関係式より、xの座標が求められる。また、Y座標については、図4に示す様に、点QからXZ平面に下ろした垂線とXZ平面との交点を点Rとして、点QからXZ平面に下ろした垂線とXZ平面との交点を点Rとして、更に、点Qから点Rまでの距離をΛ、点Qから点R’までの距離λと定義すると、ΔOQR∝ΔOQR’の関係より、次式が成立する。
【0030】
Λ/(d0−Δcosθ)= λ/(di+δcos φ)
Λ=λ・(d0−Δcosθ) /(di+δcos φ)
従って、y=Λ=λ・(d0−Δcosθ) /(di+δcos φ)
この様に、点Qのカメラ座標をI(δ,λ)とすると、上記した演算式によって、点Qの三次元上での物体座標系での物体座標(x,y,z)が、S4にて求められる。この様にして求められた三次元座標を、S5にて三次元座標テーブルにデータ保存するため記憶する。撮像装置5に像を結像させる全ての走査線に対して、この様な処理を行い、S5にて断面座標を三次元座標テーブルに保存して記憶する。この場合、移動ステージ6の位置に対する1枚の画像データが、三次元座標テーブルに記憶される。そして、次のS6では、移動ステージ6をX方向に所定量だけ(数cmまたはリニアな状態で)移動させる。その後、再度、被写界深度面11と測定対象物10の位置関係から全走査線に対して断面座標を演算し、三次元座標テーブルに記憶する。
【0031】
そして、S7において、測定対象物10に対して測定が終了したかが判断される。この測定対象物10に対する測定終了とは、被写界深度面11に対して、移動ステージ6をX方向に順次移動させ、測定対称物10が被写界深度面11を通過してぶつからなくなる位置まで移動ステージ6を移動させることによって、測定が終了したかが判断される。ここで、測定対象物10の測定を完全に終了していない場合にはS1に戻って、S1からの上記した処理を繰り返すが、測定終了した場合には、測定対象物10の三次元測定を終了する。
【0032】
この様な過程を経てえられた画像データは、三次元座標テーブルの所定の記憶領域に記憶される。この場合、図6に示す如く、カメラ座標の各座標点には映像信号の微分された評価関数値f(i,j)が入って記憶されており、この値に基づき、被写界深度面上で評価関数値g(x,y,z)を三次元座標テーブルに記憶する構成となっている。この際、測定対象物10の像は撮像装置5のピントが合っている位置では、評価関数値f(i,j)は、大きな値(例えば、図6では7,8)となる。本実施形態では、撮像装置5を傾けた状態で、撮像装置5の位置を固定して、移動ステージ6をX方向に移動させることによって、二次元の被写界深度面11をX方向に移動させた状態と同じ状態を作り、これによって、被写界深度面11と測定対象物10との交わる測定対象物10の断面形状を物体座標で図2に示す如く細線化して表わすことができる。これによって、測定対象物10の断面形状を物体座標系において細線化して測定することができる。
【0033】
これは、二次元のカメラ座標で複数の評価関数値を三次元座標テーブルの所定領域に、順次、x方向に記憶してゆき、三次元上でのデータとしてg(x,y,z)の値を、図8の如く三次元的に評価関数値を記憶し、測定対象物10の形状を三次元的に測定することができる。
【0034】
尚、この場合、z方向における三次元上の点は、X,Y座標での評価関数g(x,y,z)の最大値、z,g(x,y,z)の加重平均、z,g(x,y,z)の二次曲線やガウス関数によっても求めることができる。
【0035】
この方法によれば、測定対象物10の測定において死角領域がなくなる。そして、形状測定時には撮像装置5が移動しない為に形状測定の信頼性が良くなる。また、測定対象物10の移動中にも計測が可能となるため、高速で測定対象物10の計測を行うことができる。
【0036】
次に、図5に示す画像処理装置9で行う画像処理の変形例について説明する。図5では、測定対象物10の被写界深度面を物体座標系で細線化して求める方法を示したが、図7に示す処理では、測定対象物10を物体座標系において三次元的に計測するものである。そこで、図7について説明する。
【0037】
図7における画像処理では、S11,S12の最初に行う処理は、図5に示すS1,S2と同じである。その後、S13では一定の閾値以上の撮像された映像信号の微分値(評価関数値)について、上記した図5に示すS4と同じ方法により物体座標系での断面座標を演算する。断面座標が演算されると、今度はS14において演算された断面座標を三次元座標テーブル(評価関数テーブル)に、図8の如くデータを保存する。
【0038】
この場合、移動ステージ6の位置に対する1枚の画像データが、三次元座標テーブルに記憶される。そして、次のS15では、移動ステージ6をX軸の方向に所定量だけ(数cm毎または連続的に)移動させる。その後、再度、被写界深度面11と測定対象物10の位置関係から全走査線に対して断面座標を演算し、三次元座標テーブルに記憶する。
【0039】
そして、S16において、測定対象物10に対して測定が終了したかが判断される。この測定対象物10に対する測定終了とは、被写界深度面11に対して、移動ステージ6をX方向に順次移動させ、測定対象物10が被写界深度面11を通過してぶつからなくなる位置まで移動ステージ6を移動させることによって、測定が終了したかが判断される。ここで、測定対象物10の測定を完全に終了していない場合にはS1に戻って、S1からの上記した処理を繰り返すが、測定終了した場合には、S17以降の処理に進む。
【0040】
S17では、図9に示す如く、同一XY座標に対する複数の評価関数値g(x,y,z)から一つのh(x,y,z)を算出し、S18において三次元的に三次元座標を記憶し保存する。その後、S19では全XY座標において高さの演算を終了したかが判断され、測定対象物10の高さがまだ完全に演算されていない場合にはS17に処理を戻って、S17からS19までの処理を繰り返すが、全XY座標について高さの演算を終了した場合には、測定対象物10の三次元測定を終了する。
【0041】
この様な過程を経てえられた画像データは、三次元座標テーブルの所定の記憶領域に記憶される。この場合、カメラ座標の各座標点には映像信号の微分された評価関数値f(i,j)から断面座標を演算して、被写界深度面上で評価関数値g(x,y,z)を三次元座標テーブルに記憶する。この際、測定対象物10の像は撮像装置5のピントが合っている位置では、評価関数値f(i,j)は、大きな値となる。本実施形態では、撮像装置5を傾けた状態で、撮像装置5の位置を固定して、移動ステージ6をX方向に移動させることによって、二次元の被写界深度面11をX方向に移動させた状態と同じ状態を作り、被写界深度面11と測定対象物10との交わる測定対象物10の断面形状を物体座標系で図9に示す如く三次元的に数値化して表わすことができ、これによって、測定対象物10の全体形状を物体座標系において数値化して測定することができる。
【0042】
上記した本装置1により、図7に示す処理で三次元計測を行えば、撮像装置5の位置を固定した状態で、移動ステージ6をX方向に移動させて三次元計測を行うことができる。この場合、計測対象物10の形状測定には死角領域が無くなる。また、この計測方法によれば、撮像装置5は移動しない為、撮像装置5が撮像時のブレを生じなくでき、計測における信頼性が向上する。また、測定対象物10が、例えば工場等のラインを流れている場合でも高速で三次元形状の測定が可能となる。
【0043】
【発明の効果】
本発明によれば、被写界深度面を傾斜させた状態で測定対象物を斜め方向から撮像し、移動手段を一方向へと移動させることによって、被写界深度面を基準として画像座標(カメラ座標)から実際の物体座標への変換が行え、測定対象物の三次元計測ができる。これは、撮像手段の撮像範囲より大きな測定対象物であっても、撮像手段を測定対象物に対して移動させなくても良いので、従来よりも三次元計測装置の構造を簡単にできる。
【0044】
この場合、画像処理手段は、撮像手段により撮像された映像信号を微分し、微分された映像信号に基づき、測定対象物の断面座標を演算すれば、撮像手段により撮像された映像信号を微分することによって、映像信号の明暗の変化が検出できる。そして、この微分された映像信号の明暗に基づき、測定対象物の被写界深度面における断面座標を求めることができる。
【0045】
また、断面座標の演算は、微分された映像信号の加重平均により、細線化されると、加重平均を行うことによって微分された映像信号のノイズが除去できるので、ノイズが除去された微分された映像信号を元にして細線化を行えば、形状測定における信頼性を向上させることができる。
【0046】
更に、画像処理手段は、断面座標を三次元変換して記憶し、制御手段により移動手段を移動させることにより、三次元での断面座標を順次記憶すれば、被写界深度面に対する測定対象物の高さ方向が三次元でわかるので、測定対象物の形状を三次元で計測することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態における三次元計測装置の構成図である。
【図2】図1に示す撮像素子にて撮像される測定対象物の像を示す説明図である。
【図3】図1に示す撮像素子と測定対象物との位置関係を幾何学的に示す説明図である。
【図4】図1に示す撮像素子と測定対象物との関係を幾何学的に示し、二次元座標から三次元座標に変換する際の説明図である。
【図5】図1に示す三次元計測装置の測定対象物の断面形状を求めるフローチャートである。
【図6】図1に示す撮像素子に撮像されるカメラ座標での評価関数の値を示した説明図である。
【図7】図1に示す三次元計測装置の測定対象物の三次元形状を求めるフローチャートである。
【図8】被写界深度面での評価関数の値を示した説明図である。
【図9】評価関数の値を三次元で示した説明図である。
【図10】従来の三次元計測装置の構成図である。
【符号の説明】
1 三次元計測装置
2 基台
3 支柱
5 撮像装置(撮像手段)
6 移動ステージ(移動手段)
9 画像処理装置(画像処理手段)
10 測定対象物
11 被写界深度面
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional measuring device that optically captures a measurement target and measures a cross-sectional shape or a three-dimensional shape of the measurement target.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a triangulation method is known as a method for measuring the shape of an object (measurement target) by a non-contact method. In the triangulation method, the distance to the measurement target is determined by viewing the measurement target from different directions. In this method, as shown in FIG. 10, a light projecting unit (for example, a laser projector) for projecting light and a light receiving unit (for example, a CCD camera) for receiving the projected light have a parallax. It is arranged and three-dimensional measurement is performed. In this case, depending on the positional relationship between the light projecting unit and the light receiving unit and the shape of the measurement target, a shadow (blind spot area) may be generated at the time of measurement, and the shape of the measurement target may not be accurately measured.
[0003]
Therefore, as another method in which the shadow does not affect the measurement of the measurement target, a lens focusing method (also referred to as a focusing method) represented by focusing in a camera such as a single-lens reflex camera is known. In this method, the light projecting means and the light receiving means are arranged coaxially, and the distance between the object to be measured and the light projecting means (for example, a lens) is adjusted variably until the focus is reached.
[0004]
For example, Japanese Patent Application Laid-Open No. Hei 9-145318 discloses a method of detecting a focused position by moving a depth of field by moving a lens, and Japanese Patent Application Laid-Open No. Hei 10-38559 discloses a method of detecting a focus by moving an image sensor. There is known a method of moving a plane and detecting a focused position.
[0005]
[Problems to be solved by the invention]
However, in these methods, when the size of the measurement target is larger than the imaging range of the camera that captures the measurement target, it is necessary to move the camera that captures the measurement target. In this case, the camera position is moved with respect to the measurement target, and the camera focus is moved. Then, a method is adopted in which the camera focus is changed, several images at that time are captured, and the shape of the measurement object is measured from the optimum focus position. In other words, in this method, the camera position must be moved up and down with respect to the measurement target, and the moving member on which the measurement target is placed must be moved together. For this reason, not only the moving member but also the camera position must be moved, which complicates the structure of the three-dimensional measuring apparatus itself.
[0006]
Therefore, the present invention has been made in view of the above problems, the shape of the measurement object does not affect the measurement, the structure is simple, without moving the imaging means, the shape of the measurement object A technical object is to provide a device that can perform measurement.
[0007]
[Means for Solving the Problems]
The technical means taken to solve the above-mentioned problem includes a base, a moving means capable of moving in one direction with respect to the base, and a moving means installed at a predetermined position with respect to the base. In a three-dimensional measuring apparatus including an imaging unit that images a measurement target placed on a member and a control unit that moves the movement unit, the imaging unit includes a depth of field with respect to the measurement target. An image processing unit is provided in a state where the surface is inclined, and the control unit moves the moving unit to three-dimensionally measure the object to be measured.
[0008]
According to the above-described configuration, the imaging unit is provided in a state where the depth of field is inclined, and the measurement target is imaged by the oblique method. By moving the moving means in one direction in a state where the object to be measured is imaged from an oblique direction while the depth of field is inclined, image coordinates (camera coordinates) based on the depth of field are used. Can be obtained, and the camera image can be converted into the actual object coordinates to measure the shape of the measurement target three-dimensionally. This means that the imaging means does not have to be moved with respect to the measurement target even if the measurement target is larger than the imaging range of the imaging means. For this reason, the measuring device does not need a structure for moving the imaging means with respect to the measurement target, and the structure is simpler than in the related art. The three-dimensional measurement here indicates a cross-sectional shape where the depth-of-field surface and the measurement object intersect, and by moving the measurement object and repeating this operation, the cross-sectional shape on the depth-of-field surface, The three-dimensional shape of the entire measurement object can be measured.
[0009]
In this case, the image processing unit differentiates the video signal captured by the imaging unit by differentiating the video signal captured by the imaging unit and calculating the cross-sectional coordinates of the measurement target based on the differentiated video signal. Thus, a change in the brightness of the video signal can be captured according to the shape obtained from the measurement object. Based on the brightness of the differentiated video signal, it is possible to measure the cross-sectional coordinates of the measurement object on the depth of field.
[0010]
In addition, when calculating the cross-sectional coordinates, when the line is thinned by the weighted average of the differentiated video signal, the noise of the video signal differentiated by the weighted average is removed, and thinning can be performed based on this. It becomes.
[0011]
Furthermore, the image processing means converts the cross-sectional coordinates into three-dimensional data and stores the three-dimensional cross-sectional coordinates by moving the moving means by the control means. Since the height direction in three dimensions is known, the shape of the measurement target can be measured in three dimensions.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 shows a configuration of a three-dimensional measuring device (referred to as the present device) 1 that three-dimensionally measures the shape of a measurement object 10. As shown in FIG. 1, the apparatus 1 includes a metal base 2 placed on an XY plane and a metal support 3 standing upright in the Z direction. A metal support 4 extending in the Y direction is fixed above the column 3, and an image pickup device 5 having an image pickup device inside a CCD camera, a CMOS camera, or the like is fixed above the support 4. I have. The imaging device 5 is fixed to the support unit 4 in a state where the imaging device 5 is inclined by a predetermined angle with respect to the Z direction perpendicular to the base 2.
[0014]
On the other hand, a moving stage 6 is attached to the base 2, and the moving stage 6 moves in the X direction with respect to the base 2 by the power of a hydraulic device or a motor (not shown). On the moving stage 6, a moving base plate 7 is fixed by pins or fastening members, and a measuring object 10 whose shape is to be measured three-dimensionally is mounted on the moving base plate 7. Then, by moving the moving stage 6 in the X direction by the stage control of the image processing device 9, the measuring object 10 placed on the moving stage moves in the X direction. The imaging device 5 condenses light via an optical lens (simply referred to as a lens) 8 on the way from an oblique direction to the image when the measurement object 10 moves in the X direction, and forms an internal element (for example, (A CCD element or the like). In this case, in the imaging device 5, the region in focus is determined in advance according to the distance to the measurement object 10 in terms of characteristics. In the present embodiment, a surface area in which the image pickup device provided inside the image pickup apparatus is in focus at the time of image pickup and the measurement target 10 can be recognized as an image is defined as a depth-of-field surface 11. In the state shown in FIG. 1, the imaging device 5 is attached to the measurement target 10 on the base in a state where the imaging device 5 is inclined by a predetermined angle from the vertical Z direction, and the lens 8 is passed through. Then, the depth-of-field plane 11 is inclined with respect to the measurement object 10.
[0015]
FIG. 2 shows an outline of processing of a video signal when the shape of the measurement object 10 is measured in the present apparatus 1. In the present apparatus 1, since the video signal imaged by the imaging device 5 is an analog signal, it is converted from an analog signal to a digital signal by an A / D conversion circuit provided inside the image processing device 9. After that, the digitized video signal is subjected to image processing for binarization and thinning by a process such as differentiation inside the image processing apparatus. Then, the sectional coordinates of the measurement object 10 on the depth-of-field plane 11 are calculated, and the differential value (data) obtained on the depth-of-field plane 11 is stored in a three-dimensional coordinate table.
[0016]
On the other hand, when the sectional coordinates in the above-described state are calculated, the moving stage 6 is moved by the stage control of the moving stage 6. Thus, while the moving stage 6 is moved in the X direction again, the section coordinates with respect to the depth of field 11 are calculated, and some section coordinates are stored. As a result, when the moving stage 6 is fixed, the shape of the measurement object 10 with respect to the depth of field 11 is such that the two-dimensional depth of field 11 is It appears only in one cross-sectional shape when passing, and the shape of the measuring object 10 can be measured only in one cross-section. However, by moving the moving stage 6 in the X direction and calculating the cross-sectional coordinates of the depth of field 11 in the X direction, the measurement object 10 and the depth of field 11 at each position in the X direction are determined. The cross-sectional shape can be measured in multiple cross-sections and the shape can be stored. In the present apparatus 1, even if the measurement target 10 is imaged by moving only one axis of the moving stage 6, the shape of the measurement target 10 can be changed even for the measurement target 10 that is larger than the imaging range of the imaging device 5. Can be measured.
[0017]
Next, an image formed on the imaging device 5 will be described from a geometrical viewpoint with reference to the explanatory diagram shown in FIG. As shown in FIG. 2, the image picked up by the imaging device 5 has camera coordinates (I, I) at which the position where the measurement object 10 intersects with the depth-of-field plane 11 (the intersection position) is the coordinate axis of the imaging device 5. (J coordinate). The video signal obtained by this image formation is subjected to A / D conversion and differential processing by the image processing device 9, and the differentiated value (differential value) is binarized based on this. Image processing for thinning is performed, and the cross-sectional shape of the measurement target 10 is measured.
[0018]
Therefore, referring to FIG. 4, the image formed on the coordinate system (camera coordinate system) of the image sensor is changed to the actual object coordinate system (world coordinate system) on which the measurement object 10 is placed. The coordinate conversion will be described.
[0019]
According to Scheimpflug's law, when the image pickup device inside the image pickup device 5 is tilted by φ around the Y axis with respect to the Z axis perpendicular to the base 2, the depth of field 11 with respect to the Z axis Around the Y axis, it is inclined by θ = tan −1 (di · tan φ / d0). In this case, d0 will be described below as the distance from the origin of the object coordinates to the center (principal point position) of the lens 8 and di: the distance from the principal point position of the lens 8 to the intersection of the imaging device 5 and the Z axis. .
[0020]
Next, a method of measuring the cross-sectional shape of the measurement object 10 performed in the image processing device 9 will be described with reference to a flowchart illustrated in FIG. In the following flowchart, the steps of the program will be described simply as “S”.
[0021]
When the imaging device 5 captures an image of the measurement object 10 placed on the moving stage 6, the imaging device 5 is fixed to the column 3 while being inclined at a predetermined angle with respect to the Z axis. Since the image pickup device 5 is attached to the support portion 4, when the image pickup device 5 picks up an image from the measurement object 10, a focused region and a non-focused region are mixed. In S1, these are subjected to A / D conversion as a video signal of the measurement object 10 and digitized. In the next step S2, in the course of the image processing, when the image from the measuring object 10 is picked up by the internal CCD element or the like, the image pickup device 5 scans, but the image is focused on the image pickup element. In order to judge whether the object is in focus (degree of focus), a differentiation process is performed for each scanning line, and a differentiation parameter represented by a differential value is obtained.
[0022]
For example, when the i-th brightness of a certain scanning line (scanning line number: j) is represented as I (i, j), the differential parameter f (i, j) is obtained by the following equation.
[0023]
f (i, j) = | -I (i-1, j) + 2 * I (i, j) -I (i + 1, j) |
Further, when the value of the in-focus differential parameter is defined as an evaluation function, the conditional expression that the evaluation function value of f (i, j) is larger than k (k: threshold value for in-focus) is satisfied. Filter processing (for example, binarization, weighted averaging, etc.) is performed for only those that satisfy the conditional expression (f (i, j)> k), and thinning is performed in S3 using the evaluation function values as evaluation function values. I have to.
[0024]
In this embodiment, the thinning data g (j) is calculated from the following equation based on the evaluation function, and the cross-sectional coordinates on the depth of field (depth of field) are calculated. 11 and the position at which the measurement object 10 intersects).
[0025]
g (j) = Σ (i * f (i, j)) / Σf (i, j)
In this case, an evaluation function value can be obtained for the captured image by another method described below. For example, assuming that the brightness is I (i, j) with respect to the camera coordinates (i, j) in the camera coordinate system, the evaluation function value f (i, j) is a Prussian filter, a Sobel filter, a Roberts filter, or the like. Can be used. In the case of the Prussian filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0026]
f (i, j) = | -I (i, j-1) -I (i-1, j) + 4 * I (i, j) -I (i + 1, j) -I (i, j + 1) |
In the case of a Sobel filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0027]
fx (i, j) =-I (i-1, j-1) + I (i + 1, j-1)
-2 * I (i-1, j) + 2 * I (i + 1, j)
−I (i−1, j + 1) + I (i + 1, j + 1)
fy (i, j) =-I (i-1, j-1) -2 * I (i, j-1) -I (i + 1, j-1)
+ I (i-1, j + 1) + 2 * I (i, j + 1) + I (i + 1, j + 1)
f (i, j) = | fx (i, j) | + | fy (i, j) |
Further, in the case of the Roberts filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0028]
f (i, j) = | f (i + 1, j + 1) -f (i, j) | + | f (i + 1, j) -f (i, j + 1) |
When converting the data of the camera coordinate system imaged by the imaging device 5 to the object coordinate system, the following calculation method is used. That is, as shown in FIG. 3, the principal point position of the lens 8 is a point O, an intersection point between the measurement object 10 and the depth of field 11 is a point Q, and a perpendicular line lowered from the point Q to the Z axis and the Z axis Is the point P, the distance from the origin of the object coordinates to the point Q is Δ, the image of the point Q picked up on the image sensor 3 is the point Q ′, the perpendicular drawn from the point Q ′ to the Z axis, and the Z axis. Is defined as a point P ′, and the distance of the point Q ′ from the intersection of the imaging device 5 and the Z axis is defined as δ, from the relationship ΔOPQ∝ΔOP′Q ′,
Δsinθ / (d0−Δcosθ) = δsinφ / (di + δcosφ)
Δ (di · sin θ + sin θ · δcosφ + δsinφ · cosθ) = d0 · δsinφ
By using the addition theorem of the trigonometric function, the following equation is established.
[0029]
Δ (di · sin θ + δ sin (θ + φ)) = d0 · δ sin φ
Δ = δ · D1 / (D2 + δ)
(However, D1 = d0 · sinφ / sin (θ + φ) and D2 = di · sinθ / sin (θ + φ)). Therefore, for the point Q (x, y, z), z = Δcosθ. Here, if the moving stage 6 is moved by x0 in the −X direction from the measurement start point, the coordinates of x can be obtained from the relational expression x = Δsinθ + x0. As for the Y coordinate, as shown in FIG. 4, the intersection between the perpendicular line drawn from the point Q to the XZ plane and the XZ plane is defined as the point R, and the intersection point between the perpendicular line drawn from the point Q to the XZ plane and the XZ plane is calculated. If the distance from the point Q to the point R is further defined as Λ and the distance λ from the point Q to the point R ′ is defined as the point R, the following equation is established from the relationship of ΔOQR∝ΔOQR ′.
[0030]
Λ / (d0−Δcosθ) = λ / (di + δcosφ)
Λ = λ · (d0−Δcosθ) / (di + δcosφ)
Therefore, y = Λ = λ · (d0−Δcos θ) / (di + δcos φ)
Assuming that the camera coordinate of the point Q is I (δ, λ), the object equation (x, y, z) of the point Q in the three-dimensional object coordinate system is represented by S4 Is required. The three-dimensional coordinates obtained in this manner are stored in the three-dimensional coordinate table for data storage in S5. Such processing is performed for all the scanning lines that form an image on the imaging device 5, and the cross-sectional coordinates are stored and stored in the three-dimensional coordinate table in S5. In this case, one image data corresponding to the position of the moving stage 6 is stored in the three-dimensional coordinate table. Then, in the next S6, the moving stage 6 is moved by a predetermined amount (in a few cm or linear state) in the X direction. After that, the section coordinates are calculated again for all the scanning lines from the positional relationship between the depth-of-field surface 11 and the measurement object 10 and stored in the three-dimensional coordinate table.
[0031]
Then, in S7, it is determined whether the measurement of the measurement object 10 has been completed. The end of the measurement on the measuring object 10 means a position where the moving stage 6 is sequentially moved in the X direction with respect to the depth of field 11, and the object to be measured 10 passes through the depth of field 11 and is no longer hit. By moving the moving stage 6 up to this point, it is determined whether the measurement has been completed. Here, when the measurement of the measurement object 10 is not completely completed, the process returns to S1, and the above-described processing from S1 is repeated. However, when the measurement is completed, the three-dimensional measurement of the measurement object 10 is performed. finish.
[0032]
Image data obtained through such a process is stored in a predetermined storage area of the three-dimensional coordinate table. In this case, as shown in FIG. 6, each coordinate point of the camera coordinates stores therein a differentiated evaluation function value f (i, j) of the video signal, and based on this value, the depth of field is determined. Above, the evaluation function value g (x, y, z) is stored in the three-dimensional coordinate table. At this time, the evaluation function value f (i, j) becomes a large value (for example, 7, 8 in FIG. 6) at the position where the image of the measurement target 10 is in focus of the imaging device 5. In the present embodiment, the two-dimensional depth-of-field plane 11 is moved in the X direction by moving the moving stage 6 in the X direction while fixing the position of the imaging device 5 while the imaging device 5 is tilted. The same state as the state made is created, whereby the cross-sectional shape of the measurement object 10 at which the depth-of-field plane 11 and the measurement object 10 intersect can be represented by thin lines in object coordinates as shown in FIG. Thus, the cross-sectional shape of the measurement object 10 can be measured by thinning in the object coordinate system.
[0033]
That is, a plurality of evaluation function values are sequentially stored in a predetermined area of a three-dimensional coordinate table in the x-direction in two-dimensional camera coordinates, and g (x, y, z) is stored as three-dimensional data. The evaluation function values are stored three-dimensionally as shown in FIG. 8, and the shape of the measuring object 10 can be measured three-dimensionally.
[0034]
In this case, the three-dimensional point in the z direction is the maximum value of the evaluation function g (x, y, z) at the X and Y coordinates, the weighted average of z, g (x, y, z), z , G (x, y, z) or a Gaussian function.
[0035]
According to this method, there is no blind spot area in the measurement of the measurement object 10. Then, since the imaging device 5 does not move during shape measurement, the reliability of shape measurement is improved. In addition, since measurement can be performed while the measurement target 10 is moving, the measurement of the measurement target 10 can be performed at high speed.
[0036]
Next, a modified example of the image processing performed by the image processing device 9 shown in FIG. 5 will be described. FIG. 5 shows a method of obtaining the depth-of-field surface of the measurement object 10 by thinning it in the object coordinate system. However, in the processing shown in FIG. 7, the measurement object 10 is measured three-dimensionally in the object coordinate system. Is what you do. Thus, FIG. 7 will be described.
[0037]
In the image processing in FIG. 7, the processing performed at the beginning of S11 and S12 is the same as S1 and S2 shown in FIG. Thereafter, in step S13, for the differential value (evaluation function value) of the imaged video signal having a fixed threshold value or more, the sectional coordinates in the object coordinate system are calculated by the same method as in step S4 shown in FIG. When the sectional coordinates have been calculated, the sectional coordinates calculated in S14 are stored in a three-dimensional coordinate table (evaluation function table) as shown in FIG.
[0038]
In this case, one image data corresponding to the position of the moving stage 6 is stored in the three-dimensional coordinate table. Then, in the next S15, the moving stage 6 is moved in the X-axis direction by a predetermined amount (every several cm or continuously). After that, the section coordinates are calculated again for all the scanning lines from the positional relationship between the depth-of-field surface 11 and the measurement object 10 and stored in the three-dimensional coordinate table.
[0039]
Then, in S16, it is determined whether the measurement of the measurement target object 10 has been completed. The end of the measurement on the measurement target 10 means that the moving stage 6 is sequentially moved in the X direction with respect to the depth of field 11, and the measurement target 10 passes through the depth of field 11 and is no longer hit. By moving the moving stage 6 up to this point, it is determined whether the measurement has been completed. Here, if the measurement of the measurement object 10 has not been completely completed, the process returns to S1, and the above-described process from S1 is repeated. However, if the measurement has been completed, the process proceeds to S17 and subsequent processes.
[0040]
In S17, as shown in FIG. 9, one h (x, y, z) is calculated from a plurality of evaluation function values g (x, y, z) for the same XY coordinates, and in S18, three-dimensional coordinates are calculated. To save. Thereafter, in S19, it is determined whether or not the height calculation has been completed for all the XY coordinates. If the height of the measuring object 10 has not been completely calculated yet, the process returns to S17, and the processing from S17 to S19 is performed. The process is repeated, but when the height calculation is completed for all the XY coordinates, the three-dimensional measurement of the measurement object 10 is completed.
[0041]
Image data obtained through such a process is stored in a predetermined storage area of the three-dimensional coordinate table. In this case, for each coordinate point of the camera coordinates, the sectional coordinates are calculated from the differentiated evaluation function value f (i, j) of the video signal, and the evaluation function value g (x, y, z) is stored in the three-dimensional coordinate table. At this time, the evaluation function value f (i, j) becomes a large value at the position where the image of the measurement object 10 is in focus at the imaging device 5. In the present embodiment, the two-dimensional depth-of-field plane 11 is moved in the X direction by moving the moving stage 6 in the X direction while fixing the position of the imaging device 5 while the imaging device 5 is tilted. It is possible to create the same state as the state that has been made, and to express the cross-sectional shape of the measurement object 10 where the depth-of-field plane 11 and the measurement object 10 intersect in a three-dimensional numerical form as shown in FIG. Thus, the entire shape of the measuring object 10 can be measured by digitizing it in the object coordinate system.
[0042]
If the three-dimensional measurement is performed by the above-described present apparatus 1 in the processing shown in FIG. 7, the three-dimensional measurement can be performed by moving the moving stage 6 in the X direction while the position of the imaging device 5 is fixed. In this case, there is no blind spot area in the shape measurement of the measurement target 10. Further, according to this measuring method, since the imaging device 5 does not move, the imaging device 5 can be prevented from being blurred at the time of imaging, and the reliability in measurement is improved. In addition, even when the measurement object 10 is flowing in a line such as a factory, for example, a three-dimensional shape can be measured at high speed.
[0043]
【The invention's effect】
According to the present invention, an image of an object to be measured is taken in an oblique direction while the depth of field is inclined, and the moving means is moved in one direction, so that the image coordinates ( Conversion from camera coordinates) to actual object coordinates can be performed, and three-dimensional measurement of the measurement object can be performed. In this case, even if the measurement target is larger than the imaging range of the imaging unit, the imaging unit does not have to be moved with respect to the measurement target, so that the structure of the three-dimensional measurement apparatus can be simplified as compared with the related art.
[0044]
In this case, the image processing unit differentiates the video signal captured by the imaging unit by differentiating the video signal captured by the imaging unit and calculating the cross-sectional coordinates of the measurement target based on the differentiated video signal. Thus, a change in the brightness of the video signal can be detected. Then, based on the brightness of the differentiated video signal, the cross-sectional coordinates of the measurement object on the depth of field can be obtained.
[0045]
In addition, the calculation of the cross-sectional coordinates is performed by performing weighted averaging of the differentiated video signal, and by performing weighted averaging, the noise of the differentiated video signal can be removed. If thinning is performed based on a video signal, reliability in shape measurement can be improved.
[0046]
Further, the image processing means three-dimensionally converts and stores the cross-sectional coordinates, and by moving the moving means by the control means, sequentially stores the three-dimensional cross-sectional coordinates. Since the height direction of the object to be measured can be determined in three dimensions, the shape of the object to be measured can be measured in three dimensions.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a three-dimensional measurement apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram illustrating an image of a measurement target imaged by an image sensor illustrated in FIG. 1;
FIG. 3 is an explanatory diagram geometrically showing a positional relationship between the image sensor shown in FIG. 1 and an object to be measured.
FIG. 4 is a diagram illustrating a relationship between the image sensor and the measurement target illustrated in FIG. 1 geometrically, and is an explanatory diagram when converting from two-dimensional coordinates to three-dimensional coordinates.
5 is a flowchart for obtaining a cross-sectional shape of a measurement object of the three-dimensional measuring apparatus shown in FIG.
FIG. 6 is an explanatory diagram showing values of an evaluation function at camera coordinates captured by the image sensor illustrated in FIG. 1;
7 is a flowchart for obtaining a three-dimensional shape of a measurement target of the three-dimensional measuring device shown in FIG.
FIG. 8 is an explanatory diagram showing values of an evaluation function on a depth of field.
FIG. 9 is an explanatory diagram showing values of an evaluation function in three dimensions.
FIG. 10 is a configuration diagram of a conventional three-dimensional measuring device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 3D measuring device 2 Base 3 Support 5 Imaging device (imaging means)
6. Moving stage (moving means)
9. Image processing device (image processing means)
10 Measurement object 11 Depth of field

Claims (4)

基台と、
該基台に対して、一方向に移動自在な移動手段と、
前記基台に対して所定位置に設置され、前記移動部材に載置された測定対象物を撮像する撮像手段と、
前記移動手段を移動させる制御手段とを備えた三次元計測装置において、
前記撮像手段は、前記測定対象物に対して被写界深度面を傾斜させた状態で設けられ、前記制御手段により前記移動手段を移動させることにより、前記測定対象物を三次元的に計測する画像処理手段を備えたことを特徴とする三次元計測装置。
A base,
A moving means movable in one direction with respect to the base;
An imaging unit that is installed at a predetermined position with respect to the base and captures an image of a measurement target placed on the moving member,
In a three-dimensional measurement device comprising: a control unit that moves the moving unit,
The imaging unit is provided in a state where a depth-of-field plane is inclined with respect to the measurement target, and moves the movement unit by the control unit to three-dimensionally measure the measurement target. A three-dimensional measuring device comprising image processing means.
前記画像処理手段は、前記撮像手段により撮像された映像信号を微分し、微分された映像信号に基づき、前記測定対象物の断面座標を演算することを特徴とする請求項1に記載の三次元計測装置。The three-dimensional image processing apparatus according to claim 1, wherein the image processing unit differentiates a video signal captured by the imaging unit, and calculates a cross-sectional coordinate of the measurement target based on the differentiated video signal. Measuring device. 前記断面座標の演算は、微分された映像信号の加重平均により、細線化されることを特徴とする請求項2に記載の三次元計測装置。The three-dimensional measurement apparatus according to claim 2, wherein the calculation of the cross-sectional coordinates is performed by thinning the weighted average of the differentiated video signal. 前記画像処理手段は、前記断面座標を三次元変換して記憶し、前記制御手段により前記移動手段を移動させることにより、三次元での前記断面座標を順次記憶することを特徴とする請求項1乃至請求項3のいずれかに記載の三次元計測装置。2. The image processing unit according to claim 1, wherein the cross-sectional coordinates are three-dimensionally converted and stored, and the control unit moves the moving unit to sequentially store the three-dimensional cross-sectional coordinates. The three-dimensional measuring device according to claim 3.
JP2002249247A 2002-08-28 2002-08-28 3D measuring device Pending JP2004085467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002249247A JP2004085467A (en) 2002-08-28 2002-08-28 3D measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002249247A JP2004085467A (en) 2002-08-28 2002-08-28 3D measuring device

Publications (1)

Publication Number Publication Date
JP2004085467A true JP2004085467A (en) 2004-03-18

Family

ID=32056416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002249247A Pending JP2004085467A (en) 2002-08-28 2002-08-28 3D measuring device

Country Status (1)

Country Link
JP (1) JP2004085467A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025830A (en) * 2005-07-13 2007-02-01 Hitachi Plant Technologies Ltd 3-D object recognition method and apparatus
JP2008185551A (en) * 2007-01-31 2008-08-14 V Technology Co Ltd Height measuring device
JP2008185381A (en) * 2007-01-29 2008-08-14 Nikon Corp Shape measuring device
US7715020B2 (en) 2006-06-15 2010-05-11 Konica Minolta Sensing, Inc. Three-dimensional shape measuring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132748A (en) * 1997-10-24 1999-05-21 Hitachi Ltd Multifocal simultaneous detection device, three-dimensional shape detection device, appearance inspection device, and method thereof
JPH11344321A (en) * 1998-06-01 1999-12-14 Akira Ishii Noncontact measuring method for three dimensional object shape and device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132748A (en) * 1997-10-24 1999-05-21 Hitachi Ltd Multifocal simultaneous detection device, three-dimensional shape detection device, appearance inspection device, and method thereof
JPH11344321A (en) * 1998-06-01 1999-12-14 Akira Ishii Noncontact measuring method for three dimensional object shape and device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025830A (en) * 2005-07-13 2007-02-01 Hitachi Plant Technologies Ltd 3-D object recognition method and apparatus
US7715020B2 (en) 2006-06-15 2010-05-11 Konica Minolta Sensing, Inc. Three-dimensional shape measuring system
JP2008185381A (en) * 2007-01-29 2008-08-14 Nikon Corp Shape measuring device
JP2008185551A (en) * 2007-01-31 2008-08-14 V Technology Co Ltd Height measuring device

Similar Documents

Publication Publication Date Title
US20240393110A1 (en) Dual-resolution 3d scanner and method of using
JP2696044B2 (en) Focus detection method, non-contact displacement measuring method and apparatus using the same
JP2008241643A (en) Three-dimensional shape measuring device
Itami et al. A simple calibration procedure for a 2D LiDAR with respect to a camera
JP7353757B2 (en) Methods for measuring artifacts
JP2009115541A (en) Distance measuring device and distance measuring method
JP2023176026A (en) Method for determining scan range
Lee et al. Machine vision system for curved surface inspection
JP2004085467A (en) 3D measuring device
JP6820516B2 (en) Surface shape measurement method
CN112805607A (en) Measurement device, measurement method, and microscope system
Dai et al. High-accuracy calibration for a multiview microscopic 3-D measurement system
JP3638569B2 (en) 3D measuring device
JP5050282B2 (en) Focus detection device, focus detection method, and focus detection program
JPH0875454A (en) Ranging device
TWI676781B (en) Three-dimensional scanning system
JP2021124429A (en) Scanning measurement method and scanning measuring device
CN112710662B (en) Generation method and device, generation system and storage medium
JP2015052490A (en) Shape measuring apparatus, structure manufacturing system, shape measuring method, structure manufacturing method, and shape measuring program
JP2809348B2 (en) 3D position measuring device
JPH10185514A (en) Coil position detection device
JP2001264017A (en) Three-dimensional image photographing apparatus
JPH11223516A (en) Three dimensional image pickup device
JP2003295066A (en) Microscope equipment
JP3389804B2 (en) Shape measuring device and coil position detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070807