JP2004085467A - 3D measuring device - Google Patents
3D measuring device Download PDFInfo
- Publication number
- JP2004085467A JP2004085467A JP2002249247A JP2002249247A JP2004085467A JP 2004085467 A JP2004085467 A JP 2004085467A JP 2002249247 A JP2002249247 A JP 2002249247A JP 2002249247 A JP2002249247 A JP 2002249247A JP 2004085467 A JP2004085467 A JP 2004085467A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- dimensional
- moving
- measurement target
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】測定対象物の形状が測定に影響を及ぼさず、撮像手段を移動させることなく三次元計測が行える装置を提供する。
【解決手段】基台2に対して、X方向に移動自在な移動ステージ6を備えると共に、基台2に対して所定位置に設置され、測定対象物10を撮像する撮像装置5を備えた三次元計測装置1において、撮像装置5は、測定対象物10に対して被写界深度面11を傾斜させた状態で設置され、移動ステージ6をX方向に移動させることにより、測定対象物10の形状を三次元的に計測する構成とした。
【選択図】 図1An object of the present invention is to provide an apparatus capable of performing three-dimensional measurement without the shape of a measurement target object affecting measurement and without moving an imaging unit.
A tertiary system including a movable stage (6) movable in the X direction with respect to a base (2) and an imaging device (5) installed at a predetermined position with respect to the base (2) and imaging an object to be measured (10). In the original measurement device 1, the imaging device 5 is installed with the depth-of-field surface 11 inclined with respect to the measurement target 10, and moves the moving stage 6 in the X direction, thereby moving the measurement target 10. It was configured to measure the shape three-dimensionally.
[Selection diagram] Fig. 1
Description
【0001】
【発明の属する技術分野】
本発明は、測定対象物を光学的にとらえ、測定対象物の断面形状や三次元形状を計測する三次元計測装置に関するものである。
【0002】
【従来の技術】
従来より、物体(測定対象物)の形状を非接触な方法にて測定する方法として、三角測量法が知られている。この三角測量法は、測定対象物を異なる方向から見て、測定対象物までの距離を求めるものである。この方法では、図10に示す様に、光を投光する投光手段(例えば、レーザ投光器)とその投光された光を受光する受光手段(例えば、CCDカメラ)とが視差を持つ様に配置され、三次元計測が行われる。この場合、投光手段と受光手段の設けられる位置関係や、測定対象物の形状によっては影(死角領域)が測定時に生じてしまい、測定対象物の形状を正確に測定できない事が起こり得る。
【0003】
そこで、測定対象物の測定時に影が影響を与えない別の方法として、一眼レフ等のカメラにおける焦点合わせに代表されるレンズ焦点法(合焦法とも言う)が知られている。この方法では、投光手段と受光手段とを同軸に配置し、ピントが合う位置になるまで測定対象物と投光手段(例えば、レンズ)との距離を可変して調整する。
【0004】
例えば、特開平9−145318号公報において、レンズの移動により被写界深度面を移動して焦点の合った位置を検出する方法や、特開平10−38559号公報において、撮像素子の移動により焦点面を移動し、焦点の合った位置を検出する方法が知られている。
【0005】
【発明が解決しようとする課題】
しかしながら、これらの方法では測定対象物の大きさが、測定対象物を撮像するカメラの撮像範囲よりも大きい場合、測定対象物に対して、撮像を行うカメラをも移動させる必要がある。この場合では、カメラ位置を測定対象物に対して移動し、カメラ焦点を移動させる。そして、カメラ焦点を変化させて、その時の画像を何枚か取り込み、最適な焦点位置から測定対象物の形状を計測する方法がとられる。つまり、この方法では、カメラ位置を測定対象物に対して上下方向に移動させ、測定対象物が載置される移動部材をともに移動させなければならならい。このため、移動部材のみならずカメラ位置をも動かさなければならず、三次元計測装置自体の構造が複雑になってしまう。
【0006】
よって、本発明は上記の問題点に鑑みてなされたものであり、測定対象物の形状が測定に影響を及ぼさず、構造が簡単で、撮像手段を移動させることなく、測定対象物の形状の計測が行える装置を提供することを技術的課題とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、基台と、該基台に対して、一方向に移動自在な移動手段と、前記基台に対して所定位置に設置され、前記移動部材に載置された測定対象物を撮像する撮像手段と、前記移動手段を移動させる制御手段とを備えた三次元計測装置において、前記撮像手段は、前記測定対象物に対して被写界深度面を傾斜させた状態で設けられ、前記制御手段により前記移動手段を移動させることにより、前記測定対象物を三次元的に計測する画像処理手段を備えたことである。
【0008】
上記した構成によれば、被写界深度面を傾斜させた状態で撮像手段が設けられ、測定対象物を斜め方法から撮像する。被写界深度面を傾斜させた状態で測定対象物を斜め方向から撮像した状態で、移動手段を一方向へと移動させることによって、被写界深度面を基準とした画像座標(カメラ座標)が求まり、このカメラ画像から実際の物体座標への変換を行って、測定対象物の形状を三次元的に計測を行うことが可能である。これは、撮像手段の撮像範囲より大きな測定対象物であっても、撮像手段を測定対象物に対して移動させなくても良い。この為、計測装置には撮像手段を測定対象物に対して移動させる構造は必要なく、従来よりも構造が簡単になる。ここでの三次元計測は、被写界深度面と測定対象物とが交わる断面形状を示し、測定対象物を移動させてこの操作を繰り返す事により、被写界深度面での断面形状や、測定対象物全体の三次元形状が測定可能となる。
【0009】
この場合、画像処理手段は、撮像手段により撮像された映像信号を微分し、微分された映像信号に基づき、測定対象物の断面座標を演算すれば、撮像手段により撮像された映像信号を微分することによって、測定対象物から得られる形状に応じて映像信号の明暗の変化がとらえられる。この微分された映像信号の明暗に基づき、測定対象物の被写界深度面での断面座標を計測することが可能となる。
【0010】
また、断面座標の演算は、微分された映像信号の加重平均により、細線化されると、加重平均によって微分された映像信号のノイズが除去され、これを元にして細線化を行うことが可能となる。
【0011】
更に、画像処理手段は、断面座標を三次元変換して記憶し、制御手段により移動手段を移動させることにより、三次元での断面座標を記憶すれば、被写界深度面に対する測定対象物の三次元での高さ方向がわかるので、測定対象物の形状を三次元で計測することが可能となる。
【0012】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0013】
図1に、測定対象物10の形状を三次元的に計測する三次元計測装置(本装置と称す)1の構成を示す。本装置1は、図1に示す如く、XY平面上に置かれる金属製の基台2に対し、金属製の支柱3がZ方向に立設している。支柱3の上方には、Y方向に延在した金属製の支持部4が固定され、支持部4の先にはCCDカメラ,CMOSカメラ等の内部に撮像素子を有する撮像装置5が固定されている。この撮像装置5は、基台2に対して垂直なZ方向に対して所定角度だけ傾いた状態で、支持部4に固定される。
【0014】
一方、基台2には移動ステージ6が取り付けられており、移動ステージ6は基台2に対して、図示しない油圧装置またはモータの動力によって、X方向に移動する。移動ステージ6の上には、移動ベース板7がピンまたは締結部材等によって固定され、この移動ベース板7上に三次元で形状の測定が行われる測定対象物10が載置される。そして、移動ステージ6を画像処理装置9のステージ制御によってX方向に移動させることにより、移動ステージ上に載置される測定対象物10はX方向に移動する。撮像装置5は、測定対象物10がX方向に移動する際の像を斜め方向から、途中、光学レンズ(単にレンズと称す)8を介して、光を集光させて内部の素子(例えば、CCD素子等)に結像させることができる様になっている。この場合、撮像装置5は、特性上、測定対象物10に対しての距離に応じてピントが合う領域が予め決まっている。本実施形態では、撮像時にこの撮像装置内部に設けられる撮像素子のピントが合って測定対象物10を像として認識できる面領域を、被写界深度面11とする。図1に示す状態では、基台上の測定対象物10に対して、鉛直方向となるZ方向よりも、所定角度だけ傾いた状態で撮像装置5が取り付けられており、レンズ8を通した状態では、測定対象物10に対して被写界深度面11は傾いた状態となる。
【0015】
図2は、本装置1において測定対象物10の形状を計測する場合の映像信号の処理概要を示している。本装置1では撮像装置5で撮像された映像信号は、アナログ信号であるため、画像処理装置9の内部に設けられたA/D変換回路にてアナログ信号からデジタル信号に変換される。その後、デジタル化された映像信号は、画像処理装置内部で微分等の処理によって、二値化され細線化される画像処理が行われる。そして、測定対象物10の被写界深度面11での断面座標演算が行われ、ここで得られた被写界深度面11での微分値(データ)が三次元座標テーブルに記憶される。
【0016】
一方、上記した状態における断面座標が演算されると、移動ステージ6のステージ制御によって、移動ステージ6を移動させる。これにより、再度、移動ステージ6をX方向に移動させた状態で、被写界深度面11に対する断面座標を演算して、断面座標がいくつか記憶される。その結果、移動ステージ6が固定された状態では、被写界深度面11に対しての測定対称物10の形状は、二次元での被写界深度面11を三次元の測定対象物10が通過する際の一つの断面形状でしか表れず、測定対象物10の形状は一断面しか計測することができない。しかし、移動ステージ6をX方向に移動させて、X方向に被写界深度面11の断面座標を求めることにより、測定対称物10と被写界深度面11とのX方向における各位置での断面形状を多断面で計測し、その形状を記憶することができる。この本装置1では、移動ステージ6の一軸のみの移動で測定対象物10を撮像しても、撮像装置5の撮像範囲よりも大きい測定対象物10に対しても、測定対象物10の形状を測定することができる。
【0017】
次に、幾何学的な見地から、図3に示す説明図を参照して撮像装置5に結像される像について説明する。撮像装置5に撮像される像は、図2に示す如く、測定対象物10と被写界深度面11との交わった位置(交叉した位置)が撮像装置5の座標軸となるカメラ座標(I,J座標)に結像される。この結像によって得られた映像信号は、画像処理装置9でA/D変換して微分処理が施され、そして、微分処理された値(微分値)を二値化して、これを元にして細線化を行う画像処理が施され、測定対象物10の断面形状を計測する様にした。
【0018】
そこで、図4を参照して、撮像素子の座標系(カメラ座標系)に結像される像から、測定対象物10が載置される実際の物体座標系(ワールド座標系とも言う)への座標変換について説明する。
【0019】
撮像装置5の内部の撮像素子はシャインプルーフの法則より、基台2に対して垂直なZ軸に対してY軸の廻りにφだけ傾斜させると、被写界深度面11はZ軸に対しY軸の廻りに、θ=tan−1(di・tanφ/d0)だけ傾斜する。この場合、d0:物体座標の原点からレンズ8の中心(主点位置)までの距離、di:レンズ8の主点位置から撮像装置5とZ軸との交点までの距離として、以下に説明する。
【0020】
次に、図5に示すフローチャートを参照して、画像処理装置9の中で行われる測定対称物10の断面形状を測定する方法について説明する。尚、以下に示すフローチャートでは、プログラムのステップを、単に「S」と簡略化して説明する。
【0021】
移動ステージ6の上に載置された測定対象物10に対して、撮像装置5から撮像を行うと、撮像装置5はZ軸に対して所定角度だけ傾斜した状態で、支柱3に固定された支持部4に取り付けられている為、撮像装置5では測定対象物10からの像を撮像した場合には、ピントの合っている領域とピントの合っていない領域が混在する。S1ではこれらを測定対象物10の映像信号としてA/D変換を行って、デジタル化処理する。次のS2では、画像処理の過程の中で、測定対象物10からの像を内部のCCD素子等に撮像させる際、撮像装置5の走査を行うが、撮像素子への像のピントが合っているか(ピントの合い度合い)を判断するため、走査線毎に微分処理を行い、微分値で表わされる微分パラメータを求める。
【0022】
例えば、ある走査線(走査線番号:j)のi番目の明るさをI(i,j)として表わすと、微分パラメータf(i,j)は、次式で求められる。
【0023】
f(i,j)=|−I(i−1,j)+2*I(i,j)−I(i+1,j)|
そして更に、ピントが合う微分パラメータの値を評価関数として定義した場合、f(i,j)の評価関数値が、k(k:ピントが合っているかの閾値)よりも大きいという条件式を満足するもののみ、フィルタ処理(例えば、二値化、加重平均等)を行い、この条件式(f(i,j)>k)を満たすものを評価関数値として、S3にて細線化を行う様にしている。
【0024】
尚、本実施形態では、細線化データg(j)に対し、評価関数に基づき細線化データを、以下に示す式より算出して、被写界深度面上の断面座標(被写界深度面11と測定対称物10との交わった位置)を演算する様にした。
【0025】
g(j)=Σ(i*f(i,j))/Σf(i,j)
この場合、撮像された画像に対し、以下に示す別の方法によって、評価関数値を求めてることも可能である。例えば、カメラ座標系でのカメラ座標(i,j)に対し、明るさI(i,j)とすると、評価関数値f(i,j)は、プラシアンフィルタ、ソーベルフィルタ、ロバーツフィルタ等を用いることができる。プラシアンフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0026】
f(i,j)=|−I(i,j−1)−I(i−1,j)+4*I(i,j)−I(i+1,j)−I(i,j+1)|
また、ソーベルフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0027】
fx(i,j)=−I(i−1,j−1)+I(i+1,j−1)
−2*I(i−1,j)+2*I(i+1,j)
−I(i−1,j+1)+I(i+1,j+1)
fy(i,j)=−I(i−1,j−1)−2*I(i,j−1)−I(i+1,j−1)
+I(i−1,j+1)+2*I(i,j+1)+I(i+1,j+1)
f(i,j)=|fx(i,j)|+|fy(i,j)|
更に、ロバーツフィルタの場合には、以下の式より評価関数値f(i,j)を求めることができる。
【0028】
f(i,j)=|f(i+1,j+1)−f(i,j)|+|f(i+1,j)−f(i,j+1)|
撮像装置5により撮像されるカメラ座標系のデータを物体座標系へ変換する場合、次の様な算出方法が取られる。つまり、図3に示す様に、レンズ8の主点位置を点O、測定対象物10と被写界深度面11とのある交点を点Q、点QからZ軸に下ろした垂線とZ軸との交点を点P、物体座標の原点から点Qまでの距離をΔ、撮像素子3上に撮像される点Qの像を点Q’、点Q’からZ軸におろした垂線とZ軸との交点を点P’、撮像装置5とZ軸との交点から点Q’の距離をδと定義すると、ΔOPQ∝ΔOP’Q’の関係より、
Δsinθ/(d0−Δcosθ)=δsinφ/(di+δcosφ)
Δ(di・sinθ+sinθ・δcosφ+δsinφ・cosθ)=d0・δsinφ
となり、三角関数の加法定理を用いれば、次式が成立する。
【0029】
Δ(di・sinθ+δsin(θ+φ))=d0・δsinφ より、
Δ=δ・D1/(D2+δ)
(但し、D1=d0・sinφ/sin(θ+φ)、D2=di・sinθ/ sin(θ+φ))となる。よって、点Q(x,y,z)について、z=Δcosθ となる。ここで、移動ステージ6が測定開始点から−X方向にx0だけ移動していれば、x=Δsinθ+x0 と言う関係式より、xの座標が求められる。また、Y座標については、図4に示す様に、点QからXZ平面に下ろした垂線とXZ平面との交点を点Rとして、点QからXZ平面に下ろした垂線とXZ平面との交点を点Rとして、更に、点Qから点Rまでの距離をΛ、点Qから点R’までの距離λと定義すると、ΔOQR∝ΔOQR’の関係より、次式が成立する。
【0030】
Λ/(d0−Δcosθ)= λ/(di+δcos φ)
Λ=λ・(d0−Δcosθ) /(di+δcos φ)
従って、y=Λ=λ・(d0−Δcosθ) /(di+δcos φ)
この様に、点Qのカメラ座標をI(δ,λ)とすると、上記した演算式によって、点Qの三次元上での物体座標系での物体座標(x,y,z)が、S4にて求められる。この様にして求められた三次元座標を、S5にて三次元座標テーブルにデータ保存するため記憶する。撮像装置5に像を結像させる全ての走査線に対して、この様な処理を行い、S5にて断面座標を三次元座標テーブルに保存して記憶する。この場合、移動ステージ6の位置に対する1枚の画像データが、三次元座標テーブルに記憶される。そして、次のS6では、移動ステージ6をX方向に所定量だけ(数cmまたはリニアな状態で)移動させる。その後、再度、被写界深度面11と測定対象物10の位置関係から全走査線に対して断面座標を演算し、三次元座標テーブルに記憶する。
【0031】
そして、S7において、測定対象物10に対して測定が終了したかが判断される。この測定対象物10に対する測定終了とは、被写界深度面11に対して、移動ステージ6をX方向に順次移動させ、測定対称物10が被写界深度面11を通過してぶつからなくなる位置まで移動ステージ6を移動させることによって、測定が終了したかが判断される。ここで、測定対象物10の測定を完全に終了していない場合にはS1に戻って、S1からの上記した処理を繰り返すが、測定終了した場合には、測定対象物10の三次元測定を終了する。
【0032】
この様な過程を経てえられた画像データは、三次元座標テーブルの所定の記憶領域に記憶される。この場合、図6に示す如く、カメラ座標の各座標点には映像信号の微分された評価関数値f(i,j)が入って記憶されており、この値に基づき、被写界深度面上で評価関数値g(x,y,z)を三次元座標テーブルに記憶する構成となっている。この際、測定対象物10の像は撮像装置5のピントが合っている位置では、評価関数値f(i,j)は、大きな値(例えば、図6では7,8)となる。本実施形態では、撮像装置5を傾けた状態で、撮像装置5の位置を固定して、移動ステージ6をX方向に移動させることによって、二次元の被写界深度面11をX方向に移動させた状態と同じ状態を作り、これによって、被写界深度面11と測定対象物10との交わる測定対象物10の断面形状を物体座標で図2に示す如く細線化して表わすことができる。これによって、測定対象物10の断面形状を物体座標系において細線化して測定することができる。
【0033】
これは、二次元のカメラ座標で複数の評価関数値を三次元座標テーブルの所定領域に、順次、x方向に記憶してゆき、三次元上でのデータとしてg(x,y,z)の値を、図8の如く三次元的に評価関数値を記憶し、測定対象物10の形状を三次元的に測定することができる。
【0034】
尚、この場合、z方向における三次元上の点は、X,Y座標での評価関数g(x,y,z)の最大値、z,g(x,y,z)の加重平均、z,g(x,y,z)の二次曲線やガウス関数によっても求めることができる。
【0035】
この方法によれば、測定対象物10の測定において死角領域がなくなる。そして、形状測定時には撮像装置5が移動しない為に形状測定の信頼性が良くなる。また、測定対象物10の移動中にも計測が可能となるため、高速で測定対象物10の計測を行うことができる。
【0036】
次に、図5に示す画像処理装置9で行う画像処理の変形例について説明する。図5では、測定対象物10の被写界深度面を物体座標系で細線化して求める方法を示したが、図7に示す処理では、測定対象物10を物体座標系において三次元的に計測するものである。そこで、図7について説明する。
【0037】
図7における画像処理では、S11,S12の最初に行う処理は、図5に示すS1,S2と同じである。その後、S13では一定の閾値以上の撮像された映像信号の微分値(評価関数値)について、上記した図5に示すS4と同じ方法により物体座標系での断面座標を演算する。断面座標が演算されると、今度はS14において演算された断面座標を三次元座標テーブル(評価関数テーブル)に、図8の如くデータを保存する。
【0038】
この場合、移動ステージ6の位置に対する1枚の画像データが、三次元座標テーブルに記憶される。そして、次のS15では、移動ステージ6をX軸の方向に所定量だけ(数cm毎または連続的に)移動させる。その後、再度、被写界深度面11と測定対象物10の位置関係から全走査線に対して断面座標を演算し、三次元座標テーブルに記憶する。
【0039】
そして、S16において、測定対象物10に対して測定が終了したかが判断される。この測定対象物10に対する測定終了とは、被写界深度面11に対して、移動ステージ6をX方向に順次移動させ、測定対象物10が被写界深度面11を通過してぶつからなくなる位置まで移動ステージ6を移動させることによって、測定が終了したかが判断される。ここで、測定対象物10の測定を完全に終了していない場合にはS1に戻って、S1からの上記した処理を繰り返すが、測定終了した場合には、S17以降の処理に進む。
【0040】
S17では、図9に示す如く、同一XY座標に対する複数の評価関数値g(x,y,z)から一つのh(x,y,z)を算出し、S18において三次元的に三次元座標を記憶し保存する。その後、S19では全XY座標において高さの演算を終了したかが判断され、測定対象物10の高さがまだ完全に演算されていない場合にはS17に処理を戻って、S17からS19までの処理を繰り返すが、全XY座標について高さの演算を終了した場合には、測定対象物10の三次元測定を終了する。
【0041】
この様な過程を経てえられた画像データは、三次元座標テーブルの所定の記憶領域に記憶される。この場合、カメラ座標の各座標点には映像信号の微分された評価関数値f(i,j)から断面座標を演算して、被写界深度面上で評価関数値g(x,y,z)を三次元座標テーブルに記憶する。この際、測定対象物10の像は撮像装置5のピントが合っている位置では、評価関数値f(i,j)は、大きな値となる。本実施形態では、撮像装置5を傾けた状態で、撮像装置5の位置を固定して、移動ステージ6をX方向に移動させることによって、二次元の被写界深度面11をX方向に移動させた状態と同じ状態を作り、被写界深度面11と測定対象物10との交わる測定対象物10の断面形状を物体座標系で図9に示す如く三次元的に数値化して表わすことができ、これによって、測定対象物10の全体形状を物体座標系において数値化して測定することができる。
【0042】
上記した本装置1により、図7に示す処理で三次元計測を行えば、撮像装置5の位置を固定した状態で、移動ステージ6をX方向に移動させて三次元計測を行うことができる。この場合、計測対象物10の形状測定には死角領域が無くなる。また、この計測方法によれば、撮像装置5は移動しない為、撮像装置5が撮像時のブレを生じなくでき、計測における信頼性が向上する。また、測定対象物10が、例えば工場等のラインを流れている場合でも高速で三次元形状の測定が可能となる。
【0043】
【発明の効果】
本発明によれば、被写界深度面を傾斜させた状態で測定対象物を斜め方向から撮像し、移動手段を一方向へと移動させることによって、被写界深度面を基準として画像座標(カメラ座標)から実際の物体座標への変換が行え、測定対象物の三次元計測ができる。これは、撮像手段の撮像範囲より大きな測定対象物であっても、撮像手段を測定対象物に対して移動させなくても良いので、従来よりも三次元計測装置の構造を簡単にできる。
【0044】
この場合、画像処理手段は、撮像手段により撮像された映像信号を微分し、微分された映像信号に基づき、測定対象物の断面座標を演算すれば、撮像手段により撮像された映像信号を微分することによって、映像信号の明暗の変化が検出できる。そして、この微分された映像信号の明暗に基づき、測定対象物の被写界深度面における断面座標を求めることができる。
【0045】
また、断面座標の演算は、微分された映像信号の加重平均により、細線化されると、加重平均を行うことによって微分された映像信号のノイズが除去できるので、ノイズが除去された微分された映像信号を元にして細線化を行えば、形状測定における信頼性を向上させることができる。
【0046】
更に、画像処理手段は、断面座標を三次元変換して記憶し、制御手段により移動手段を移動させることにより、三次元での断面座標を順次記憶すれば、被写界深度面に対する測定対象物の高さ方向が三次元でわかるので、測定対象物の形状を三次元で計測することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態における三次元計測装置の構成図である。
【図2】図1に示す撮像素子にて撮像される測定対象物の像を示す説明図である。
【図3】図1に示す撮像素子と測定対象物との位置関係を幾何学的に示す説明図である。
【図4】図1に示す撮像素子と測定対象物との関係を幾何学的に示し、二次元座標から三次元座標に変換する際の説明図である。
【図5】図1に示す三次元計測装置の測定対象物の断面形状を求めるフローチャートである。
【図6】図1に示す撮像素子に撮像されるカメラ座標での評価関数の値を示した説明図である。
【図7】図1に示す三次元計測装置の測定対象物の三次元形状を求めるフローチャートである。
【図8】被写界深度面での評価関数の値を示した説明図である。
【図9】評価関数の値を三次元で示した説明図である。
【図10】従来の三次元計測装置の構成図である。
【符号の説明】
1 三次元計測装置
2 基台
3 支柱
5 撮像装置(撮像手段)
6 移動ステージ(移動手段)
9 画像処理装置(画像処理手段)
10 測定対象物
11 被写界深度面[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional measuring device that optically captures a measurement target and measures a cross-sectional shape or a three-dimensional shape of the measurement target.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a triangulation method is known as a method for measuring the shape of an object (measurement target) by a non-contact method. In the triangulation method, the distance to the measurement target is determined by viewing the measurement target from different directions. In this method, as shown in FIG. 10, a light projecting unit (for example, a laser projector) for projecting light and a light receiving unit (for example, a CCD camera) for receiving the projected light have a parallax. It is arranged and three-dimensional measurement is performed. In this case, depending on the positional relationship between the light projecting unit and the light receiving unit and the shape of the measurement target, a shadow (blind spot area) may be generated at the time of measurement, and the shape of the measurement target may not be accurately measured.
[0003]
Therefore, as another method in which the shadow does not affect the measurement of the measurement target, a lens focusing method (also referred to as a focusing method) represented by focusing in a camera such as a single-lens reflex camera is known. In this method, the light projecting means and the light receiving means are arranged coaxially, and the distance between the object to be measured and the light projecting means (for example, a lens) is adjusted variably until the focus is reached.
[0004]
For example, Japanese Patent Application Laid-Open No. Hei 9-145318 discloses a method of detecting a focused position by moving a depth of field by moving a lens, and Japanese Patent Application Laid-Open No. Hei 10-38559 discloses a method of detecting a focus by moving an image sensor. There is known a method of moving a plane and detecting a focused position.
[0005]
[Problems to be solved by the invention]
However, in these methods, when the size of the measurement target is larger than the imaging range of the camera that captures the measurement target, it is necessary to move the camera that captures the measurement target. In this case, the camera position is moved with respect to the measurement target, and the camera focus is moved. Then, a method is adopted in which the camera focus is changed, several images at that time are captured, and the shape of the measurement object is measured from the optimum focus position. In other words, in this method, the camera position must be moved up and down with respect to the measurement target, and the moving member on which the measurement target is placed must be moved together. For this reason, not only the moving member but also the camera position must be moved, which complicates the structure of the three-dimensional measuring apparatus itself.
[0006]
Therefore, the present invention has been made in view of the above problems, the shape of the measurement object does not affect the measurement, the structure is simple, without moving the imaging means, the shape of the measurement object A technical object is to provide a device that can perform measurement.
[0007]
[Means for Solving the Problems]
The technical means taken to solve the above-mentioned problem includes a base, a moving means capable of moving in one direction with respect to the base, and a moving means installed at a predetermined position with respect to the base. In a three-dimensional measuring apparatus including an imaging unit that images a measurement target placed on a member and a control unit that moves the movement unit, the imaging unit includes a depth of field with respect to the measurement target. An image processing unit is provided in a state where the surface is inclined, and the control unit moves the moving unit to three-dimensionally measure the object to be measured.
[0008]
According to the above-described configuration, the imaging unit is provided in a state where the depth of field is inclined, and the measurement target is imaged by the oblique method. By moving the moving means in one direction in a state where the object to be measured is imaged from an oblique direction while the depth of field is inclined, image coordinates (camera coordinates) based on the depth of field are used. Can be obtained, and the camera image can be converted into the actual object coordinates to measure the shape of the measurement target three-dimensionally. This means that the imaging means does not have to be moved with respect to the measurement target even if the measurement target is larger than the imaging range of the imaging means. For this reason, the measuring device does not need a structure for moving the imaging means with respect to the measurement target, and the structure is simpler than in the related art. The three-dimensional measurement here indicates a cross-sectional shape where the depth-of-field surface and the measurement object intersect, and by moving the measurement object and repeating this operation, the cross-sectional shape on the depth-of-field surface, The three-dimensional shape of the entire measurement object can be measured.
[0009]
In this case, the image processing unit differentiates the video signal captured by the imaging unit by differentiating the video signal captured by the imaging unit and calculating the cross-sectional coordinates of the measurement target based on the differentiated video signal. Thus, a change in the brightness of the video signal can be captured according to the shape obtained from the measurement object. Based on the brightness of the differentiated video signal, it is possible to measure the cross-sectional coordinates of the measurement object on the depth of field.
[0010]
In addition, when calculating the cross-sectional coordinates, when the line is thinned by the weighted average of the differentiated video signal, the noise of the video signal differentiated by the weighted average is removed, and thinning can be performed based on this. It becomes.
[0011]
Furthermore, the image processing means converts the cross-sectional coordinates into three-dimensional data and stores the three-dimensional cross-sectional coordinates by moving the moving means by the control means. Since the height direction in three dimensions is known, the shape of the measurement target can be measured in three dimensions.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 shows a configuration of a three-dimensional measuring device (referred to as the present device) 1 that three-dimensionally measures the shape of a
[0014]
On the other hand, a moving
[0015]
FIG. 2 shows an outline of processing of a video signal when the shape of the
[0016]
On the other hand, when the sectional coordinates in the above-described state are calculated, the moving
[0017]
Next, an image formed on the
[0018]
Therefore, referring to FIG. 4, the image formed on the coordinate system (camera coordinate system) of the image sensor is changed to the actual object coordinate system (world coordinate system) on which the
[0019]
According to Scheimpflug's law, when the image pickup device inside the
[0020]
Next, a method of measuring the cross-sectional shape of the
[0021]
When the
[0022]
For example, when the i-th brightness of a certain scanning line (scanning line number: j) is represented as I (i, j), the differential parameter f (i, j) is obtained by the following equation.
[0023]
f (i, j) = | -I (i-1, j) + 2 * I (i, j) -I (i + 1, j) |
Further, when the value of the in-focus differential parameter is defined as an evaluation function, the conditional expression that the evaluation function value of f (i, j) is larger than k (k: threshold value for in-focus) is satisfied. Filter processing (for example, binarization, weighted averaging, etc.) is performed for only those that satisfy the conditional expression (f (i, j)> k), and thinning is performed in S3 using the evaluation function values as evaluation function values. I have to.
[0024]
In this embodiment, the thinning data g (j) is calculated from the following equation based on the evaluation function, and the cross-sectional coordinates on the depth of field (depth of field) are calculated. 11 and the position at which the
[0025]
g (j) = Σ (i * f (i, j)) / Σf (i, j)
In this case, an evaluation function value can be obtained for the captured image by another method described below. For example, assuming that the brightness is I (i, j) with respect to the camera coordinates (i, j) in the camera coordinate system, the evaluation function value f (i, j) is a Prussian filter, a Sobel filter, a Roberts filter, or the like. Can be used. In the case of the Prussian filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0026]
f (i, j) = | -I (i, j-1) -I (i-1, j) + 4 * I (i, j) -I (i + 1, j) -I (i, j + 1) |
In the case of a Sobel filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0027]
fx (i, j) =-I (i-1, j-1) + I (i + 1, j-1)
-2 * I (i-1, j) + 2 * I (i + 1, j)
−I (i−1, j + 1) + I (i + 1, j + 1)
fy (i, j) =-I (i-1, j-1) -2 * I (i, j-1) -I (i + 1, j-1)
+ I (i-1, j + 1) + 2 * I (i, j + 1) + I (i + 1, j + 1)
f (i, j) = | fx (i, j) | + | fy (i, j) |
Further, in the case of the Roberts filter, the evaluation function value f (i, j) can be obtained from the following equation.
[0028]
f (i, j) = | f (i + 1, j + 1) -f (i, j) | + | f (i + 1, j) -f (i, j + 1) |
When converting the data of the camera coordinate system imaged by the
Δsinθ / (d0−Δcosθ) = δsinφ / (di + δcosφ)
Δ (di · sin θ + sin θ · δcosφ + δsinφ · cosθ) = d0 · δsinφ
By using the addition theorem of the trigonometric function, the following equation is established.
[0029]
Δ (di · sin θ + δ sin (θ + φ)) = d0 · δ sin φ
Δ = δ · D1 / (D2 + δ)
(However, D1 = d0 · sinφ / sin (θ + φ) and D2 = di · sinθ / sin (θ + φ)). Therefore, for the point Q (x, y, z), z = Δcosθ. Here, if the moving
[0030]
Λ / (d0−Δcosθ) = λ / (di + δcosφ)
Λ = λ · (d0−Δcosθ) / (di + δcosφ)
Therefore, y = Λ = λ · (d0−Δcos θ) / (di + δcos φ)
Assuming that the camera coordinate of the point Q is I (δ, λ), the object equation (x, y, z) of the point Q in the three-dimensional object coordinate system is represented by S4 Is required. The three-dimensional coordinates obtained in this manner are stored in the three-dimensional coordinate table for data storage in S5. Such processing is performed for all the scanning lines that form an image on the
[0031]
Then, in S7, it is determined whether the measurement of the
[0032]
Image data obtained through such a process is stored in a predetermined storage area of the three-dimensional coordinate table. In this case, as shown in FIG. 6, each coordinate point of the camera coordinates stores therein a differentiated evaluation function value f (i, j) of the video signal, and based on this value, the depth of field is determined. Above, the evaluation function value g (x, y, z) is stored in the three-dimensional coordinate table. At this time, the evaluation function value f (i, j) becomes a large value (for example, 7, 8 in FIG. 6) at the position where the image of the
[0033]
That is, a plurality of evaluation function values are sequentially stored in a predetermined area of a three-dimensional coordinate table in the x-direction in two-dimensional camera coordinates, and g (x, y, z) is stored as three-dimensional data. The evaluation function values are stored three-dimensionally as shown in FIG. 8, and the shape of the measuring
[0034]
In this case, the three-dimensional point in the z direction is the maximum value of the evaluation function g (x, y, z) at the X and Y coordinates, the weighted average of z, g (x, y, z), z , G (x, y, z) or a Gaussian function.
[0035]
According to this method, there is no blind spot area in the measurement of the
[0036]
Next, a modified example of the image processing performed by the image processing device 9 shown in FIG. 5 will be described. FIG. 5 shows a method of obtaining the depth-of-field surface of the
[0037]
In the image processing in FIG. 7, the processing performed at the beginning of S11 and S12 is the same as S1 and S2 shown in FIG. Thereafter, in step S13, for the differential value (evaluation function value) of the imaged video signal having a fixed threshold value or more, the sectional coordinates in the object coordinate system are calculated by the same method as in step S4 shown in FIG. When the sectional coordinates have been calculated, the sectional coordinates calculated in S14 are stored in a three-dimensional coordinate table (evaluation function table) as shown in FIG.
[0038]
In this case, one image data corresponding to the position of the moving
[0039]
Then, in S16, it is determined whether the measurement of the
[0040]
In S17, as shown in FIG. 9, one h (x, y, z) is calculated from a plurality of evaluation function values g (x, y, z) for the same XY coordinates, and in S18, three-dimensional coordinates are calculated. To save. Thereafter, in S19, it is determined whether or not the height calculation has been completed for all the XY coordinates. If the height of the measuring
[0041]
Image data obtained through such a process is stored in a predetermined storage area of the three-dimensional coordinate table. In this case, for each coordinate point of the camera coordinates, the sectional coordinates are calculated from the differentiated evaluation function value f (i, j) of the video signal, and the evaluation function value g (x, y, z) is stored in the three-dimensional coordinate table. At this time, the evaluation function value f (i, j) becomes a large value at the position where the image of the
[0042]
If the three-dimensional measurement is performed by the above-described present apparatus 1 in the processing shown in FIG. 7, the three-dimensional measurement can be performed by moving the moving
[0043]
【The invention's effect】
According to the present invention, an image of an object to be measured is taken in an oblique direction while the depth of field is inclined, and the moving means is moved in one direction, so that the image coordinates ( Conversion from camera coordinates) to actual object coordinates can be performed, and three-dimensional measurement of the measurement object can be performed. In this case, even if the measurement target is larger than the imaging range of the imaging unit, the imaging unit does not have to be moved with respect to the measurement target, so that the structure of the three-dimensional measurement apparatus can be simplified as compared with the related art.
[0044]
In this case, the image processing unit differentiates the video signal captured by the imaging unit by differentiating the video signal captured by the imaging unit and calculating the cross-sectional coordinates of the measurement target based on the differentiated video signal. Thus, a change in the brightness of the video signal can be detected. Then, based on the brightness of the differentiated video signal, the cross-sectional coordinates of the measurement object on the depth of field can be obtained.
[0045]
In addition, the calculation of the cross-sectional coordinates is performed by performing weighted averaging of the differentiated video signal, and by performing weighted averaging, the noise of the differentiated video signal can be removed. If thinning is performed based on a video signal, reliability in shape measurement can be improved.
[0046]
Further, the image processing means three-dimensionally converts and stores the cross-sectional coordinates, and by moving the moving means by the control means, sequentially stores the three-dimensional cross-sectional coordinates. Since the height direction of the object to be measured can be determined in three dimensions, the shape of the object to be measured can be measured in three dimensions.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a three-dimensional measurement apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram illustrating an image of a measurement target imaged by an image sensor illustrated in FIG. 1;
FIG. 3 is an explanatory diagram geometrically showing a positional relationship between the image sensor shown in FIG. 1 and an object to be measured.
FIG. 4 is a diagram illustrating a relationship between the image sensor and the measurement target illustrated in FIG. 1 geometrically, and is an explanatory diagram when converting from two-dimensional coordinates to three-dimensional coordinates.
5 is a flowchart for obtaining a cross-sectional shape of a measurement object of the three-dimensional measuring apparatus shown in FIG.
FIG. 6 is an explanatory diagram showing values of an evaluation function at camera coordinates captured by the image sensor illustrated in FIG. 1;
7 is a flowchart for obtaining a three-dimensional shape of a measurement target of the three-dimensional measuring device shown in FIG.
FIG. 8 is an explanatory diagram showing values of an evaluation function on a depth of field.
FIG. 9 is an explanatory diagram showing values of an evaluation function in three dimensions.
FIG. 10 is a configuration diagram of a conventional three-dimensional measuring device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1
6. Moving stage (moving means)
9. Image processing device (image processing means)
10 Measurement object 11 Depth of field
Claims (4)
該基台に対して、一方向に移動自在な移動手段と、
前記基台に対して所定位置に設置され、前記移動部材に載置された測定対象物を撮像する撮像手段と、
前記移動手段を移動させる制御手段とを備えた三次元計測装置において、
前記撮像手段は、前記測定対象物に対して被写界深度面を傾斜させた状態で設けられ、前記制御手段により前記移動手段を移動させることにより、前記測定対象物を三次元的に計測する画像処理手段を備えたことを特徴とする三次元計測装置。A base,
A moving means movable in one direction with respect to the base;
An imaging unit that is installed at a predetermined position with respect to the base and captures an image of a measurement target placed on the moving member,
In a three-dimensional measurement device comprising: a control unit that moves the moving unit,
The imaging unit is provided in a state where a depth-of-field plane is inclined with respect to the measurement target, and moves the movement unit by the control unit to three-dimensionally measure the measurement target. A three-dimensional measuring device comprising image processing means.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002249247A JP2004085467A (en) | 2002-08-28 | 2002-08-28 | 3D measuring device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002249247A JP2004085467A (en) | 2002-08-28 | 2002-08-28 | 3D measuring device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004085467A true JP2004085467A (en) | 2004-03-18 |
Family
ID=32056416
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002249247A Pending JP2004085467A (en) | 2002-08-28 | 2002-08-28 | 3D measuring device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004085467A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007025830A (en) * | 2005-07-13 | 2007-02-01 | Hitachi Plant Technologies Ltd | 3-D object recognition method and apparatus |
| JP2008185551A (en) * | 2007-01-31 | 2008-08-14 | V Technology Co Ltd | Height measuring device |
| JP2008185381A (en) * | 2007-01-29 | 2008-08-14 | Nikon Corp | Shape measuring device |
| US7715020B2 (en) | 2006-06-15 | 2010-05-11 | Konica Minolta Sensing, Inc. | Three-dimensional shape measuring system |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11132748A (en) * | 1997-10-24 | 1999-05-21 | Hitachi Ltd | Multifocal simultaneous detection device, three-dimensional shape detection device, appearance inspection device, and method thereof |
| JPH11344321A (en) * | 1998-06-01 | 1999-12-14 | Akira Ishii | Noncontact measuring method for three dimensional object shape and device |
-
2002
- 2002-08-28 JP JP2002249247A patent/JP2004085467A/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11132748A (en) * | 1997-10-24 | 1999-05-21 | Hitachi Ltd | Multifocal simultaneous detection device, three-dimensional shape detection device, appearance inspection device, and method thereof |
| JPH11344321A (en) * | 1998-06-01 | 1999-12-14 | Akira Ishii | Noncontact measuring method for three dimensional object shape and device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007025830A (en) * | 2005-07-13 | 2007-02-01 | Hitachi Plant Technologies Ltd | 3-D object recognition method and apparatus |
| US7715020B2 (en) | 2006-06-15 | 2010-05-11 | Konica Minolta Sensing, Inc. | Three-dimensional shape measuring system |
| JP2008185381A (en) * | 2007-01-29 | 2008-08-14 | Nikon Corp | Shape measuring device |
| JP2008185551A (en) * | 2007-01-31 | 2008-08-14 | V Technology Co Ltd | Height measuring device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20240393110A1 (en) | Dual-resolution 3d scanner and method of using | |
| JP2696044B2 (en) | Focus detection method, non-contact displacement measuring method and apparatus using the same | |
| JP2008241643A (en) | Three-dimensional shape measuring device | |
| Itami et al. | A simple calibration procedure for a 2D LiDAR with respect to a camera | |
| JP7353757B2 (en) | Methods for measuring artifacts | |
| JP2009115541A (en) | Distance measuring device and distance measuring method | |
| JP2023176026A (en) | Method for determining scan range | |
| Lee et al. | Machine vision system for curved surface inspection | |
| JP2004085467A (en) | 3D measuring device | |
| JP6820516B2 (en) | Surface shape measurement method | |
| CN112805607A (en) | Measurement device, measurement method, and microscope system | |
| Dai et al. | High-accuracy calibration for a multiview microscopic 3-D measurement system | |
| JP3638569B2 (en) | 3D measuring device | |
| JP5050282B2 (en) | Focus detection device, focus detection method, and focus detection program | |
| JPH0875454A (en) | Ranging device | |
| TWI676781B (en) | Three-dimensional scanning system | |
| JP2021124429A (en) | Scanning measurement method and scanning measuring device | |
| CN112710662B (en) | Generation method and device, generation system and storage medium | |
| JP2015052490A (en) | Shape measuring apparatus, structure manufacturing system, shape measuring method, structure manufacturing method, and shape measuring program | |
| JP2809348B2 (en) | 3D position measuring device | |
| JPH10185514A (en) | Coil position detection device | |
| JP2001264017A (en) | Three-dimensional image photographing apparatus | |
| JPH11223516A (en) | Three dimensional image pickup device | |
| JP2003295066A (en) | Microscope equipment | |
| JP3389804B2 (en) | Shape measuring device and coil position detecting device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050722 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070307 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070313 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070807 |