[go: up one dir, main page]

JP2008292165A - 3D shape measuring device - Google Patents

3D shape measuring device Download PDF

Info

Publication number
JP2008292165A
JP2008292165A JP2007134981A JP2007134981A JP2008292165A JP 2008292165 A JP2008292165 A JP 2008292165A JP 2007134981 A JP2007134981 A JP 2007134981A JP 2007134981 A JP2007134981 A JP 2007134981A JP 2008292165 A JP2008292165 A JP 2008292165A
Authority
JP
Japan
Prior art keywords
test object
dimensional shape
optical system
optical axis
axis direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007134981A
Other languages
Japanese (ja)
Inventor
Hiroshi Aoki
洋 青木
Kinya Kato
欣也 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007134981A priority Critical patent/JP2008292165A/en
Publication of JP2008292165A publication Critical patent/JP2008292165A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】より高精度に三次元形状測定を行うことが可能な三次元形状測定装置を提供する。
【解決手段】本発明に係る三次元形状測定装置1は、被検物2の画像を複数の部分画像に分割して撮像取得する撮像光学系30と、撮像光学系30の光軸方向に所定の幅を有するシート光I1〜I3を光軸方向(光軸O)に対し略直角な方向から被検物2に照明する照明部20と、被検物2にシート光I1〜I3が照明された状態で撮像光学系30により撮像取得された複数の部分画像に基づいて、被検物2の三次元形状を算出する画像処理部41とを備えて構成される。
【選択図】図1
A three-dimensional shape measuring apparatus capable of measuring a three-dimensional shape with higher accuracy is provided.
A three-dimensional shape measuring apparatus 1 according to the present invention includes an imaging optical system 30 that acquires an image obtained by dividing an image of a test object 2 into a plurality of partial images, and a predetermined value in the optical axis direction of the imaging optical system 30. The illumination unit 20 illuminates the specimen 2 from a direction substantially perpendicular to the optical axis direction (optical axis O), and the specimen light 2 is illuminated with the sheet lights I1 to I3. The image processing unit 41 is configured to calculate a three-dimensional shape of the test object 2 based on a plurality of partial images imaged and acquired by the imaging optical system 30 in the above state.
[Selection] Figure 1

Description

本発明は、物体の三次元形状を測定するための形状測定装置に関する。   The present invention relates to a shape measuring apparatus for measuring a three-dimensional shape of an object.

工業製品等の物体の表面形状を非接触で測定する技術は従来から種々提案されており、その一つに光学式の三次元形状測定装置がある。光学式の三次元形状測定装置にも種々の方式、構成のものがあるが、その中で、物体に斜め方向からシート状の光を投影してスキャンさせ、物体に投影して得られるライン状の光の基準位置からのずれ量に基づいて、被検物の三次元形状を測定するものがある(例えば、特許文献1を参照)。
特許第1759477号公報
Various techniques for measuring the surface shape of an object such as an industrial product in a non-contact manner have been proposed, and one of them is an optical three-dimensional shape measuring apparatus. There are various types of optical three-dimensional shape measurement devices and configurations. Among them, a line shape is obtained by projecting and scanning a sheet of light from an oblique direction onto an object and scanning it. There is one that measures the three-dimensional shape of a test object based on the amount of deviation of the light from the reference position (for example, see Patent Document 1).
Japanese Patent No. 1759477

ところで、物体に投影して得られるライン状の光の位置は、CCD撮像素子で撮像された画像における輝度のピークの位置として、ピクセル毎に判断される。しかしながら、輝度のピークの位置は、ピクセル毎に規定される座標上に位置するとは限らず、ピクセル毎の座標から外れる(すなわち、サブピクセルの領域になる)場合があり、誤差の一因となっていた。   By the way, the position of the line-shaped light obtained by projecting on the object is determined for each pixel as the position of the luminance peak in the image captured by the CCD image sensor. However, the position of the luminance peak is not necessarily located on the coordinates defined for each pixel, and may be out of the coordinates for each pixel (that is, a subpixel region), which contributes to errors. It was.

本発明は、このような問題に鑑みてなされたものであり、より高精度に三次元形状測定を行うことが可能な三次元形状測定装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object thereof is to provide a three-dimensional shape measuring apparatus capable of performing three-dimensional shape measurement with higher accuracy.

このような目的達成のため、第1の発明に係る三次元形状測定装置は、被検物の画像を複数の部分画像に分割して撮像取得する撮像光学系と、前記撮像光学系の光軸方向に所定の幅を有する照明光を前記光軸方向と交差する方向から前記被検物に照明する照明部と、前記被検物に前記照明光が照明された状態で前記撮像光学系により撮像取得された前記複数の部分画像に基づいて、前記被検物の三次元形状を算出する画像処理部とを備えて構成される。   In order to achieve such an object, a three-dimensional shape measuring apparatus according to a first invention includes an imaging optical system that acquires an image obtained by dividing an image of a test object into a plurality of partial images, and an optical axis of the imaging optical system. An illumination unit that illuminates the test object from a direction intersecting the optical axis direction with illumination light having a predetermined width in the direction, and imaging by the imaging optical system in a state where the illumination light is illuminated on the test object An image processing unit that calculates a three-dimensional shape of the test object based on the plurality of acquired partial images.

また、上述の発明において、前記被検物を前記光軸方向へ移動可能に支持するステージ部を備え、前記ステージ部に支持された前記被検物が所定の移動ピッチで前記光軸方向へ移動する毎に、前記撮像光学系による前記撮像取得が行われ、前記画像処理部は、前記被検物が前記所定の移動ピッチで移動する毎に前記撮像光学系により撮像取得された前記複数の部分画像と、前記撮像取得が行われるときの前記被検物の位置情報とに基づいて、前記被検物の三次元形状を算出することが好ましい。   Further, in the above-described invention, a stage unit that supports the test object to be movable in the optical axis direction is provided, and the test object supported by the stage unit moves in the optical axis direction at a predetermined movement pitch. Each time the imaging optical system acquires the imaging, the image processing unit captures and acquires the plurality of portions acquired by the imaging optical system each time the test object moves at the predetermined movement pitch. It is preferable to calculate the three-dimensional shape of the test object based on the image and the position information of the test object when the imaging acquisition is performed.

また、上述の発明において、前記撮像光学系は、前記複数の部分画像をそれぞれ撮像取得する複数のCCD撮像素子を有して構成されることが好ましい。   In the above-described invention, it is preferable that the imaging optical system includes a plurality of CCD imaging elements that respectively capture and acquire the plurality of partial images.

また、上述の発明において、前記照明光が前記光軸方向と交差する面内で延びるシート光であり、前記照明部は、前記撮像光学系の焦点深度内において前記光軸方向に並ぶ複数の前記シート光を前記被検物に照明するように構成されることが好ましい。   Further, in the above-described invention, the illumination light is sheet light extending in a plane intersecting the optical axis direction, and the illumination unit includes a plurality of the optical elements arranged in the optical axis direction within a focal depth of the imaging optical system. It is preferable to be configured to illuminate the specimen with sheet light.

また、第2の発明に係る三次元形状測定装置は、被検物の画像を撮像取得する撮像光学系と、前記撮像光学系の光軸方向に所定の幅を有する照明光を前記光軸方向と交差する方向から前記被検物に照明する照明部と、前記被検物に前記照明光が照明された状態で前記撮像光学系により撮像取得された前記被検物の画像に基づいて、前記被検物の三次元形状を算出する画像処理部とを備え、前記照明部は、前記撮像光学系の焦点深度内において前記光軸方向に並ぶ複数の前記照明光を前記被検物に照明するように構成される。   The three-dimensional shape measuring apparatus according to the second invention includes an imaging optical system that captures and acquires an image of a test object, and illumination light having a predetermined width in the optical axis direction of the imaging optical system. An illumination unit that illuminates the object from a direction intersecting with the object, and based on an image of the object imaged and acquired by the imaging optical system in a state where the illumination light is illuminated on the object An image processing unit that calculates a three-dimensional shape of the test object, and the illumination unit illuminates the test object with a plurality of illumination lights arranged in the optical axis direction within a focal depth of the imaging optical system Configured as follows.

また、上述の発明において、前記照明光が前記光軸方向と交差する面内で延びるシート光であることが好ましい。   Moreover, in the above-mentioned invention, it is preferable that the illumination light is sheet light extending in a plane intersecting the optical axis direction.

また、上述の発明において、前記被検物を前記光軸方向へ移動可能に支持するステージ部を備え、前記ステージ部に支持された前記被検物が所定の移動ピッチで前記光軸方向へ移動する毎に、前記撮像光学系による前記撮像取得が行われ、前記画像処理部は、前記被検物が前記所定の移動ピッチで移動する毎に前記撮像光学系により撮像取得された前記被検物の画像と、前記撮像取得が行われるときの前記被検物の位置情報とに基づいて、前記被検物の三次元形状を算出することが好ましい。   Further, in the above-described invention, a stage unit that supports the test object to be movable in the optical axis direction is provided, and the test object supported by the stage unit moves in the optical axis direction at a predetermined movement pitch. Each time, the imaging acquisition by the imaging optical system is performed, and the image processing unit captures and acquires the object by the imaging optical system every time the object moves at the predetermined movement pitch. Preferably, the three-dimensional shape of the test object is calculated on the basis of the image and the position information of the test object when the imaging acquisition is performed.

さらに、上述の発明において、前記所定の移動ピッチは、前記複数の前記照明光におけるピッチ間隔の整数倍であることが好ましい。   Furthermore, in the above-described invention, it is preferable that the predetermined movement pitch is an integral multiple of a pitch interval in the plurality of illumination lights.

また、上述の発明において、前記撮像光学系は、前記被検物の画像を複数の部分画像に分割して撮像取得するように構成されており、前記画像処理部は、前記複数の部分画像に基づいて前記被検物の三次元形状を算出することが好ましい。   In the above-described invention, the imaging optical system is configured to capture and acquire the image of the test object by dividing it into a plurality of partial images, and the image processing unit applies the plurality of partial images to the plurality of partial images. It is preferable to calculate the three-dimensional shape of the test object based on the above.

本発明によれば、より高精度に三次元形状測定を行うことが可能になる。   According to the present invention, three-dimensional shape measurement can be performed with higher accuracy.

以下、本発明の好ましい実施形態について説明する。本発明に係る三次元形状測定装置の概略構成を図1に示しており、この三次元形状測定装置1は、被検物2を支持するステージ部10と、ステージ部10に支持された被検物2を左右から照明する2つの照明部20と、照明部20により照明された被検物2を撮像する撮像光学系30と、被検物2の三次元形状を算出する画像処理装置40とを主体に構成される。なお、2つの照明部20はそれぞれ、撮像光学系30の光軸Oを基準として左右対称に配置される。   Hereinafter, preferred embodiments of the present invention will be described. A schematic configuration of a three-dimensional shape measuring apparatus according to the present invention is shown in FIG. 1. This three-dimensional shape measuring apparatus 1 includes a stage unit 10 that supports a test object 2, and a test that is supported by the stage unit 10. Two illumination units 20 that illuminate the object 2 from the left and right, an imaging optical system 30 that images the test object 2 illuminated by the illumination unit 20, and an image processing device 40 that calculates the three-dimensional shape of the test object 2. It is composed mainly of. Note that the two illumination units 20 are arranged symmetrically with respect to the optical axis O of the imaging optical system 30.

ステージ部10は、試料台11と、Z駆動部12とを有して構成される。試料台11は、被検物2を支持固定するための台であり、測定中に振動等の外乱を極力受けないことが望ましい。Z駆動部12は、被検物2を支持する試料台11を鉛直方向に移動させる駆動軸を有して構成されており、これにより、被検物2が鉛直方向、すなわち撮像光学系30の光軸方向(光軸Oの向く方向)へ移動可能に支持されることになる。また、Z駆動部12は、被検物2全体に照明部20からの照明光を照明できるようなストロークを有している。   The stage unit 10 includes a sample stage 11 and a Z drive unit 12. The sample stage 11 is a stage for supporting and fixing the test object 2, and it is desirable that the sample stage 11 is not subject to disturbances such as vibrations as much as possible during measurement. The Z drive unit 12 includes a drive shaft that moves the sample table 11 that supports the test object 2 in the vertical direction, so that the test object 2 moves in the vertical direction, that is, the imaging optical system 30. It is supported so as to be movable in the optical axis direction (direction in which the optical axis O faces). Further, the Z drive unit 12 has a stroke that can illuminate the entire test object 2 with illumination light from the illumination unit 20.

なお、真直度は小さい方が望ましいが、xy座標キャリブレーションを考えると、ヒステリシスが少なく、また、位置再現性が優れていることが望ましい。また、試料台11(Z駆動部12)の鉛直方向の位置情報は、位置情報信号としてZ駆動部12から画像処理装置40へ連続的に送信されるようになっている。   It is desirable that the straightness is small, but considering the xy coordinate calibration, it is desirable that the hysteresis is small and the position reproducibility is excellent. Further, the vertical position information of the sample stage 11 (Z drive unit 12) is continuously transmitted from the Z drive unit 12 to the image processing apparatus 40 as a position information signal.

照明部20は、図3(a),(b)に示すように、3つの光源21〜23と、各光源21〜23からの光をそれぞれシート光I1〜I3にするシリンドリカルレンズ26とを主体に構成され、シート光I1〜I3を撮像光学系30の光軸方向に対し略直角な方向から被検物2に照明する。シート光I1〜I3は、図1および図2(a),(b)に示すように、撮像光学系30の光軸方向に対し略直角な面内で延びるとともに、撮像光学系30の光軸方向に所定の(被検物2に光等高線2a,2b,2cが現れるような十分に小さい)幅を有している。このようなシート光を用いることにより、一度に広い範囲で被検物2を照明することが可能になる。   As shown in FIGS. 3A and 3B, the illumination unit 20 mainly includes three light sources 21 to 23 and a cylindrical lens 26 that converts the light from the light sources 21 to 23 into sheet light I1 to I3, respectively. And illuminates the test object 2 from the direction substantially perpendicular to the optical axis direction of the imaging optical system 30. The sheet lights I1 to I3 extend in a plane substantially perpendicular to the optical axis direction of the imaging optical system 30 and the optical axis of the imaging optical system 30 as shown in FIGS. It has a predetermined width in the direction (sufficiently small so that the optical contour lines 2a, 2b, 2c appear on the test object 2). By using such sheet light, it is possible to illuminate the test object 2 in a wide range at a time.

各光源21〜23にはLEDやレーザー等が用いられ、各光源21〜23から指向性の高い光が発光される。撮像光学系30の光軸方向に対し略直角な方向に延びる照明部20の光軸上には、図3(a),(b)に示すように、被検物2と対向するシリンドリカルレンズ26と、第1ミラー24と、第2ミラー25とが配置される。   Each of the light sources 21 to 23 uses an LED, a laser, or the like, and light having high directivity is emitted from each of the light sources 21 to 23. On the optical axis of the illumination unit 20 extending in a direction substantially perpendicular to the optical axis direction of the imaging optical system 30, as shown in FIGS. And the 1st mirror 24 and the 2nd mirror 25 are arrange | positioned.

そして、第1光源21から発光された照明光は、第1ミラー24でシリンドリカルレンズ26に向けて反射し、シリンドリカルレンズ26を透過したのち第1のシート光I1となって照明部20から射出される。第2光源22から発光された照明光は、そのまま直進してシリンドリカルレンズ26に達し、シリンドリカルレンズ26を透過したのち第2のシート光I2となって照明部20から射出される。第3光源23から発光された照明光は、第2ミラー25でシリンドリカルレンズ26に向けて反射し、シリンドリカルレンズ26を透過したのち第3のシート光I3となって照明部20から射出される。   The illumination light emitted from the first light source 21 is reflected by the first mirror 24 toward the cylindrical lens 26, passes through the cylindrical lens 26, and then becomes the first sheet light I 1 and is emitted from the illumination unit 20. The The illumination light emitted from the second light source 22 goes straight as it is to reach the cylindrical lens 26, passes through the cylindrical lens 26, and then is emitted from the illumination unit 20 as the second sheet light I 2. The illumination light emitted from the third light source 23 is reflected by the second mirror 25 toward the cylindrical lens 26, passes through the cylindrical lens 26, and then becomes the third sheet light I 3 and is emitted from the illumination unit 20.

また、図3(b)に示すように、第1光源21、第2光源22、および第3光源23はそれぞれ、鉛直方向、すなわち撮像光学系30の光軸方向に互いに異なる高さで配置されており、図1および図2(a)に示すように、第1〜第3のシート光I1〜I3が撮像光学系30の光軸方向(鉛直方向)に並んで被検物2に照明される。なおこのとき、第1〜第3のシート光I1〜I3は、撮像光学系30の焦点深度内で並ぶようになっている。これにより、第1〜第3のシート光I1〜I3が被検物2に照明されて形成される光等高線2a〜2cは、全て撮像光学系30の合焦範囲内となるため、撮像される光等高線2a〜2cの高コントラスト化やキャリブレーションデータの低減等に繋がり、より高精度の三次元測定が期待できる。   As shown in FIG. 3B, the first light source 21, the second light source 22, and the third light source 23 are arranged at different heights in the vertical direction, that is, in the optical axis direction of the imaging optical system 30, respectively. As shown in FIGS. 1 and 2A, the first to third sheet lights I1 to I3 are illuminated on the test object 2 along the optical axis direction (vertical direction) of the imaging optical system 30. The At this time, the first to third sheet lights I <b> 1 to I <b> 3 are arranged within the focal depth of the imaging optical system 30. Accordingly, the light contour lines 2a to 2c formed by illuminating the test object 2 with the first to third sheet lights I1 to I3 are all within the in-focus range of the imaging optical system 30, and are thus imaged. This leads to higher contrast of the optical contour lines 2a to 2c, reduction of calibration data, and the like, and more accurate three-dimensional measurement can be expected.

撮像光学系30は、対物レンズ31および結像レンズ32と、4つのCCD撮像素子37a〜37dとを主体に構成され、4つのCCD撮像素子37a〜37dを用いて、図5に示すように、被検物2の画像43を第1〜第4の部分画像43a〜43dに分割して撮像取得する。鉛直方向に延びる撮像光学系30の光軸O上には、図1に示すように、対物レンズ31と、結像レンズ32と、第3ハーフミラー33と、第4ハーフミラー34と、第5ハーフミラー35と、ミラー36とがこの順に配置される。   The imaging optical system 30 is mainly composed of an objective lens 31 and an imaging lens 32, and four CCD imaging elements 37a to 37d, and using the four CCD imaging elements 37a to 37d, as shown in FIG. The image 43 of the test object 2 is imaged and acquired by dividing it into first to fourth partial images 43a to 43d. On the optical axis O of the imaging optical system 30 extending in the vertical direction, as shown in FIG. 1, the objective lens 31, the imaging lens 32, the third half mirror 33, the fourth half mirror 34, and the fifth The half mirror 35 and the mirror 36 are arranged in this order.

そして、第1〜第3のシート光I1〜I3が被検物2に照明されて形成される(反射光である)光等高線2a〜2cの像は、対物レンズ31および結像レンズ32によって、4つのCCD撮像素子37a〜37dの撮像面上に結像される。このとき、被検物2の側から対物レンズ31および結像レンズ32を透過した(光等高線2a〜2cの)光の一部は、第3ハーフミラー33で反射して第1CCD撮像素子37aに達し、残りは第3ハーフミラー33を透過する。   Then, the images of the light contour lines 2a to 2c formed by illuminating the test object 2 with the first to third sheet lights I1 to I3 (which are reflected lights) are obtained by the objective lens 31 and the imaging lens 32, respectively. An image is formed on the imaging surfaces of the four CCD imaging devices 37a to 37d. At this time, a part of the light (of the light contour lines 2a to 2c) that has passed through the objective lens 31 and the imaging lens 32 from the side of the test object 2 is reflected by the third half mirror 33 and is transmitted to the first CCD image sensor 37a. The remaining light passes through the third half mirror 33.

第3ハーフミラー33を透過した光の一部は、第4ハーフミラー34で反射して第2CCD撮像素子37bに達し、残りは第4ハーフミラー34を透過する。第3ハーフミラー33および第4ハーフミラー34を透過した光の一部は、第5ハーフミラー35で反射して第3CCD撮像素子37cに達し、残りは第5ハーフミラー35を透過する。そして、第3ハーフミラー33、第4ハーフミラー34、および第5ハーフミラー35を透過した光は、ミラー36で反射して第4CCD撮像素子37dに達する。   A part of the light transmitted through the third half mirror 33 is reflected by the fourth half mirror 34 and reaches the second CCD image pickup device 37 b, and the rest is transmitted through the fourth half mirror 34. A part of the light transmitted through the third half mirror 33 and the fourth half mirror 34 is reflected by the fifth half mirror 35 and reaches the third CCD image sensor 37 c, and the rest is transmitted through the fifth half mirror 35. The light transmitted through the third half mirror 33, the fourth half mirror 34, and the fifth half mirror 35 is reflected by the mirror 36 and reaches the fourth CCD image sensor 37d.

ここで、第1CCD撮像素子37aは、図5に示される被検物2の画像43のうち、左上の部分である第1の部分画像43aを撮像取得する。第2CCD撮像素子37bは、被検物2の画像43のうち、右上の部分である第2の部分画像43bを撮像取得する。第3CCD撮像素子37cは、被検物2の画像43のうち、右下の部分である第3の部分画像43cを撮像取得する。第4CCD撮像素子37dは、被検物2の画像43のうち、左下の部分である第4の部分画像43dを撮像取得する。   Here, the first CCD image sensor 37a captures and acquires the first partial image 43a that is the upper left portion of the image 43 of the test object 2 shown in FIG. The second CCD image sensor 37b captures and acquires the second partial image 43b that is the upper right portion of the image 43 of the test object 2. The third CCD imaging device 37c captures and acquires a third partial image 43c, which is the lower right portion, of the image 43 of the test object 2. The fourth CCD image sensor 37d captures and acquires a fourth partial image 43d that is a lower left portion of the image 43 of the test object 2.

なお、被検物2上の光等高線2a〜2cの位置と各CCD撮像素子37a〜37dの位置とは共役である。また、各CCD撮像素子37a〜37dの撮像面上に結像された光等高線2a〜2cの像は、各CCD撮像素子37a〜37dによって光電変換され、画像信号が画像処理装置40に送られるようになっている。また、光等高線2a〜2cは、そのまま被検物2の断面形状として処理されるため、レンズ系は極力ディストーションが小さい方が望ましい。設計で抑えきれないディストーションについては、システム構築後ソフトウェアにより補正することもできる。   The positions of the light contour lines 2a to 2c on the test object 2 and the positions of the CCD image pickup devices 37a to 37d are conjugate. Further, the images of the light contour lines 2a to 2c formed on the imaging surfaces of the CCD imaging elements 37a to 37d are photoelectrically converted by the CCD imaging elements 37a to 37d, and image signals are sent to the image processing device 40. It has become. Further, since the optical contour lines 2a to 2c are processed as they are as the cross-sectional shape of the test object 2, it is desirable that the lens system has as little distortion as possible. Distortion that cannot be suppressed by design can be corrected by software after system construction.

ところで、CCD撮像素子を用いて被検物を撮像し三次元形状を測定する方法では、光学系の倍率とCCDの画素(ピクセル)との関係により、要求精度を満足できない場合がある。信号のデジタル処理の過程において量子化誤差が生じてしまい、原理的に完全な情報の復元ができないからである。一般的には、1画素あたりの物体長の1/20程度が、測定精度の限界といわれている。   By the way, in the method of imaging a test object using a CCD image sensor and measuring the three-dimensional shape, the required accuracy may not be satisfied depending on the relationship between the magnification of the optical system and the CCD pixel. This is because a quantization error occurs in the process of digital processing of signals, and in principle, complete information cannot be restored. Generally, about 1/20 of the object length per pixel is said to be the limit of measurement accuracy.

そこで、被検物2の画像43を複数の部分画像43a〜43dに分割して撮像取得することにより、具体的には、被検物2の表面に現れた光等高線2a〜2cを複数のCCD撮像素子37a〜37dで撮像することにより、1つのCCD撮像素子で撮像できる範囲(視野)は狭くなるものの、1画素あたりの物体長が小さくなるため、信号処理時の量子化誤差を極力小さくすることができる。このように、信号処理時の量子化誤差を小さくすることで、より高精度に三次元形状測定を行うことが可能になる。特に、本実施形態のようにCCD撮像素子を用いて撮像する場合に、高い効果を得ることができる。   Therefore, by dividing and capturing the image 43 of the test object 2 into a plurality of partial images 43a to 43d, specifically, the light contour lines 2a to 2c appearing on the surface of the test object 2 are converted into a plurality of CCDs. Although the range (field of view) that can be picked up by one CCD image pickup device is narrowed by picking up images with the image pickup devices 37a to 37d, the object length per pixel is small, so that the quantization error during signal processing is minimized. be able to. Thus, by reducing the quantization error during signal processing, it becomes possible to perform three-dimensional shape measurement with higher accuracy. In particular, a high effect can be obtained when imaging is performed using a CCD imaging device as in the present embodiment.

例えば、100mm×100mmの視野を4つのCCD撮像素子37a〜37dで撮像する場合、1つのCCD撮像素子における視野(撮像範囲)は、50mm×50mmとなる。2000画素×2000画素のCCD撮像素子を使用する場合、1画素あたりの物体長は25μmとなる。そのため、一般的なピクセル内分割性能から、1μm程度の精度による測定は可能と考えられる。なお、4000画素×4000画素のCCD撮像素子を用いて、100mm×100mmの視野を一括で撮像することもできるが、画素数が非常に大きくなり高コストとなってしまう。   For example, when a 100 mm × 100 mm field of view is imaged by four CCD image sensors 37a to 37d, the field of view (imaging range) of one CCD image sensor is 50 mm × 50 mm. When a 2000 × 2000 pixel CCD image sensor is used, the object length per pixel is 25 μm. For this reason, it is considered that measurement with an accuracy of about 1 μm is possible from general intra-pixel division performance. Note that a field of view of 100 mm × 100 mm can be picked up at once using a 4000 × 4000 pixel CCD image pickup device, but the number of pixels becomes very large and the cost becomes high.

さて、画像処理装置40は、画像処理部41と、表示装置(モニタ等)および入力装置(キーボード等)からなるコンソール42とを有して構成される。画像処理部41には、各CCD撮像素子37a〜37dからの画像信号と、Z駆動部12からの位置情報信号とが入力される。そして、画像処理部41は、第1〜第4CCD撮像素子37a〜37dによりそれぞれ撮像取得された第1〜第4の部分画像43a〜43dと、当該撮像取得が行われるときの試料台11(すなわち、被検物2)の位置情報とに基づいて、被検物2の三次元形状を算出する。   The image processing device 40 includes an image processing unit 41 and a console 42 including a display device (such as a monitor) and an input device (such as a keyboard). The image processing unit 41 receives image signals from the CCD imaging elements 37 a to 37 d and a position information signal from the Z driving unit 12. Then, the image processing unit 41 includes the first to fourth partial images 43a to 43d captured and acquired by the first to fourth CCD imaging elements 37a to 37d, and the sample stage 11 (that is, when the imaging acquisition is performed). The three-dimensional shape of the test object 2 is calculated based on the position information of the test object 2).

コンソール42では、入力装置を用いて測定の指示が出されるとともに、表示装置を用いて画像処理部41での(三次元形状の)算出結果が表示される。また、コンソール42では、画像処理部41により構築された三次元データから、被検物2における任意の位置の寸法等を算出できるようになっている。   On the console 42, a measurement instruction is issued using an input device, and a calculation result (three-dimensional shape) in the image processing unit 41 is displayed using a display device. Further, the console 42 can calculate the dimensions and the like of an arbitrary position in the test object 2 from the three-dimensional data constructed by the image processing unit 41.

以上のように構成される三次元形状測定装置1を用いた三次元形状測定について、図4に示すフローチャートを参照しながら以下に説明する。この測定に際しては、まず、ステップS101において、被検物2をステージ部10の試料台11に載置する。   The three-dimensional shape measurement using the three-dimensional shape measuring apparatus 1 configured as described above will be described below with reference to the flowchart shown in FIG. In this measurement, first, the test object 2 is placed on the sample stage 11 of the stage unit 10 in step S101.

次に、ステップS102において、測定の仕様を決定する。決定する仕様として、主な項目は二つある。第一の項目は、試料台11の上下動のレンジ、すなわち被検物2の測定レンジであり、被検物2の大きさによって決まる。第二の項目は、試料台11の上下動のピッチ、すなわち被検物2の測定ピッチ(移動ピッチ)であり、必要な精度によって決まる。なお、被検物2の測定ピッチが小さいほど測定精度は向上するが、データ処理に時間がかかるので、状況に応じて作業者が決めることになる。   Next, in step S102, measurement specifications are determined. There are two main items to be determined. The first item is the range of vertical movement of the sample stage 11, that is, the measurement range of the test object 2, and is determined by the size of the test object 2. The second item is the vertical movement pitch of the sample stage 11, that is, the measurement pitch (movement pitch) of the test object 2, and is determined by the required accuracy. Note that the measurement accuracy is improved as the measurement pitch of the test object 2 is smaller. However, since the data processing takes time, the operator decides according to the situation.

なお、被検物2の測定ピッチ(移動ピッチ)は、撮像光学系30の光軸方向に並ぶ第1〜第3のシート光I1〜I3におけるピッチ間隔の整数倍であることが好ましい。このようにすれば、例えば、被検物2の測定ピッチを各シート光I1〜I3におけるピッチ間隔の1倍とした場合、被検物2に現れる光等高線の情報が同じ位置高さについて3回得られることになり、平均化等することにより、さらに高精度な三次元形状測定を行うことが可能になる。なお、被検物2の測定ピッチを各シート光I1〜I3におけるピッチ間隔の2倍とすれば、被検物2に現れる光等高線の情報が同じ位置高さについて2回得られることになる。また、上述に限らず、被検物2の測定ピッチを各シート光I1〜I3におけるピッチ間隔より小さくしても構わない。   The measurement pitch (movement pitch) of the test object 2 is preferably an integer multiple of the pitch interval in the first to third sheet lights I1 to I3 aligned in the optical axis direction of the imaging optical system 30. In this way, for example, when the measurement pitch of the test object 2 is set to one time the pitch interval in each of the sheet lights I1 to I3, the information on the light contour lines appearing on the test object 2 is three times for the same position height. As a result, it is possible to perform three-dimensional shape measurement with higher accuracy by averaging or the like. In addition, if the measurement pitch of the test object 2 is set to be twice the pitch interval in each of the sheet lights I1 to I3, information on the light contour lines appearing on the test object 2 can be obtained twice for the same position height. The measurement pitch of the test object 2 is not limited to the above, and may be smaller than the pitch interval in each of the sheet lights I1 to I3.

次に、ステップS103において、ステップS102で決定した測定仕様に従って測定を開始する。すなわち、被検物2における最初の高さ位置での測定を開始する。   Next, in step S103, measurement is started according to the measurement specifications determined in step S102. That is, the measurement at the first height position in the test object 2 is started.

続いて、ステップS104において、第1〜第3のシート光I1〜I3を被検物2に照明して得られる光等高線2a〜2cを第1〜第4CCD撮像素子37a〜37dで撮像し、各CCD撮像素子37a〜37dの画像信号を画像処理部41に送る。また同時に、当該撮像が行われるときの試料台11(すなわち、被検物2)の位置情報信号を画像処理部41に送る。   Subsequently, in step S104, the first to fourth CCD image pickup devices 37a to 37d are used to image light contour lines 2a to 2c obtained by illuminating the test object 2 with the first to third sheet lights I1 to I3. The image signals of the CCD image pickup devices 37 a to 37 d are sent to the image processing unit 41. At the same time, a position information signal of the sample stage 11 (that is, the test object 2) when the imaging is performed is sent to the image processing unit 41.

このとき、前述したように、第1CCD撮像素子37aは第1の部分画像43aを撮像取得し、第2CCD撮像素子37bは第2の部分画像43bを撮像取得し、第3CCD撮像素子37cは第3の部分画像43cを撮像取得し、第4CCD撮像素子37dは第4の部分画像43dを撮像取得する(図5を参照)。なお、本実施形態においては、第1〜第3のシート光I1〜I3が撮像光学系30の焦点深度内で並ぶため、図5に示すように、被検物2の画像43には、各シート光I1〜I3によってそれぞれ生じた3つの等高線2a,2b,2cが現れる。   At this time, as described above, the first CCD image sensor 37a captures and acquires the first partial image 43a, the second CCD image sensor 37b acquires and acquires the second partial image 43b, and the third CCD image sensor 37c acquires the third partial image 43a. The fourth CCD image sensor 37d captures and acquires the fourth partial image 43d (see FIG. 5). In the present embodiment, since the first to third sheet lights I1 to I3 are arranged within the depth of focus of the imaging optical system 30, as shown in FIG. Three contour lines 2a, 2b and 2c respectively generated by the sheet lights I1 to I3 appear.

次に、ステップS105において、ステップS102で設定した測定レンジにおける全ての測定が完了したか否かを判定する。判定がNoの場合、ステップS106に進み、Z駆動部12により試料台11(すなわち被検物2)を1ピッチだけ上下移動させ(撮像光学系30の光軸方向に移動させ)、再びステップS103からステップS105までの処理を行う。一方、判定がYesの場合、ステップS107に進む。   Next, in step S105, it is determined whether all the measurements in the measurement range set in step S102 have been completed. If the determination is No, the process proceeds to step S106, the sample table 11 (that is, the test object 2) is moved up and down by one pitch by the Z drive unit 12 (moved in the optical axis direction of the imaging optical system 30), and step S103 is performed again. To Step S105. On the other hand, if the determination is Yes, the process proceeds to step S107.

一連の測定が終了した後、ステップS107において、画像処理部41は、測定ピッチ毎に撮像取得された各部分画像43a〜43dから得られる等高線情報と、測定ピッチ毎に撮像取得が行われるときの被検物2の位置情報とに基づいて、被検物2の三次元形状を算出しコンピュータ上に構築していく。具体的には、三次元形状を構成する(x,y,z)の点座標群が算出される。   After the series of measurements is completed, in step S107, the image processing unit 41 performs contour line information obtained from each of the partial images 43a to 43d captured and acquired for each measurement pitch, and when imaging acquisition is performed for each measurement pitch. Based on the position information of the test object 2, the three-dimensional shape of the test object 2 is calculated and constructed on a computer. Specifically, a point coordinate group of (x, y, z) constituting a three-dimensional shape is calculated.

次のステップS108において、ステップS107で算出した点座標群をもとに、コンソール42の表示装置に被検物2の三次元形状を表示する。   In the next step S108, the three-dimensional shape of the test object 2 is displayed on the display device of the console 42 based on the point coordinate group calculated in step S107.

そして、次のステップS109では、コンソール42を用いて、画像処理部41により構築された三次元データから被検物2における任意の位置の寸法を算出し、処理を終了する。また、ステップS109において、被検物2の寸法と設計CADデータとの比較を行うようにしてもよい。   In the next step S109, the console 42 is used to calculate the size of an arbitrary position in the test object 2 from the three-dimensional data constructed by the image processing unit 41, and the process is terminated. In step S109, the dimension of the test object 2 may be compared with the design CAD data.

図6には、高さ位置の異なる被検物2の複数の画像44〜46が示されている。上部にシート光を照明した被検物2の画像44は、第1〜第4の部分画像44a〜44dを合成して得られ、被検物2の上部における輪郭(もしくは、外形状の断面)を表す等高線2dが現れている。各部分画像44a〜44d同士は、一部が重なっており、画像の接ぎにより被検物2全体の視野を確保している。画像接ぎ誤差は測定誤差となるが、視野が狭くなることによる量子化誤差が小さくなる分、総合的に測定精度が向上すると考えられる。   FIG. 6 shows a plurality of images 44 to 46 of the test object 2 having different height positions. The image 44 of the test object 2 whose upper part is illuminated with the sheet light is obtained by synthesizing the first to fourth partial images 44a to 44d, and the contour at the upper part of the test object 2 (or a cross section of the outer shape). A contour line 2d representing is shown. The partial images 44a to 44d partially overlap each other, and the visual field of the entire test object 2 is ensured by connecting the images. Although the image contact error becomes a measurement error, it is considered that the measurement accuracy is improved as much as the quantization error due to the narrow field of view is reduced.

同様に、中腹部にシート光を照明した被検物2の画像45は、第1〜第4の部分画像45a〜45dを合成して得られ、被検物2の中腹部における輪郭(もしくは、外形状の断面)を表す等高線2eが現れている。また同様に、下部にシート光を照明した被検物2の画像46は、第1〜第4の部分画像46a〜46dを合成して得られ、被検物2の下部における輪郭(もしくは、外形状の断面)を表す等高線2fが現れている。   Similarly, the image 45 of the test object 2 with the sheet light illuminating the middle abdomen is obtained by combining the first to fourth partial images 45a to 45d, and the contour (or the middle part of the test object 2) (or A contour line 2e representing the outer cross section) appears. Similarly, the image 46 of the test object 2 whose lower part is illuminated with the sheet light is obtained by synthesizing the first to fourth partial images 46a to 46d, and the contour (or the outside) of the lower part of the test object 2 is obtained. A contour line 2f representing the cross section of the shape appears.

このように、高さ位置の異なる複数の画像44〜46から得られる等高線2d,2e,2fの情報に基づいて、図6の右側に示すように、被検物2の三次元形状を算出しコンピュータ上に構築していくことになる。これにより、被検物2の輪郭に沿った精度の高い三次元形状の算出が可能になる。なお、等高線の間隔等、測定されるデータは離散的なデータであるが、測定形状に合わせて適当な補間方法で繋いでも構わない。   Thus, based on the information on the contour lines 2d, 2e, 2f obtained from the plurality of images 44 to 46 having different height positions, the three-dimensional shape of the test object 2 is calculated as shown on the right side of FIG. It will be built on a computer. Thereby, it is possible to calculate a highly accurate three-dimensional shape along the contour of the test object 2. The data to be measured, such as the interval between contour lines, is discrete data, but may be connected by an appropriate interpolation method according to the measurement shape.

なお、上述の実施形態において、複数のCCD撮像素子37a〜37dを用いて、複数の部分画像を撮像取得しているが、これに限られるものではなく、ラインセンサを撮像光学系の光軸を中心に回転させて走査することにより、複数の部分画像を撮像取得するようにしてもよい。また、複数のCCD撮像素子37a〜37dを用いる代わりに、1つのCCD撮像素子に入る画像を例えば第1〜第4の部分画像44a〜44dのように切り替えてもよい。なお、CCD撮像素子以外にも、CMOSセンサー等の増幅形固体撮像素子を用いることもできる。   In the above-described embodiment, a plurality of partial images are captured and acquired using the plurality of CCD imaging elements 37a to 37d. However, the present invention is not limited to this, and the optical axis of the imaging optical system is not limited to this. A plurality of partial images may be picked up and acquired by scanning while rotating around the center. Further, instead of using the plurality of CCD image pickup devices 37a to 37d, images entering one CCD image pickup device may be switched, for example, as first to fourth partial images 44a to 44d. In addition to the CCD image sensor, an amplification type solid-state image sensor such as a CMOS sensor can also be used.

また、上述の実施形態において、2つの照明部20が撮像光学系30の光軸Oを基準として左右対称に配置されているが、これに限られるものではなく、撮像光学系の光軸を基準として前後左右に配置するようにしてもよい。   Further, in the above-described embodiment, the two illumination units 20 are arranged symmetrically with respect to the optical axis O of the imaging optical system 30, but the present invention is not limited to this, and the optical axis of the imaging optical system is used as a reference. It may be arranged on the front, rear, left and right.

三次元形状測定装置の概略構成図である。It is a schematic block diagram of a three-dimensional shape measuring apparatus. (a)はシリンドリカルレンズを示す斜視図であり、(b)はシリンドリカルレンズを透過する光の光路図である。(A) is a perspective view which shows a cylindrical lens, (b) is an optical path figure of the light which permeate | transmits a cylindrical lens. (a)は照明部の概略構成を示す平面図であり、(b)は照明部の概略構成を示す側面図である。(A) is a top view which shows schematic structure of an illumination part, (b) is a side view which shows schematic structure of an illumination part. 三次元形状測定を示すフローチャートである。It is a flowchart which shows a three-dimensional shape measurement. 被検物の画像および部分画像を示す模式図である。It is a schematic diagram which shows the image and partial image of a to-be-tested object. 被検物の三次元形状を構築した例を示す模式図である。It is a schematic diagram which shows the example which constructed | assembled the three-dimensional shape of the to-be-tested object.

符号の説明Explanation of symbols

1 三次元形状測定装置 2 被検物
10 ステージ部 20 照明部
30 撮像光学系
37a 第1CCD撮像素子 37b 第2CCD撮像素子
37c 第3CCD撮像素子 37d 第4CCD撮像素子
40 画像処理装置 41 画像処理部
43 画像
43a 第1の部分画像 43b 第2の部分画像
43c 第3の部分画像 43d 第4の部分画像
I1 第1のシート光 I2 第2のシート光
I3 第3のシート光
O 光軸
DESCRIPTION OF SYMBOLS 1 3D shape measuring apparatus 2 Test object 10 Stage part 20 Illumination part 30 Image pick-up optical system 37a 1st CCD image pick-up element 37b 2nd CCD image pick-up element 37c 3rd CCD image pick-up element 37d 4th CCD image pick-up element 40 Image processing apparatus 41 Image processing part 43 Image 43a first partial image 43b second partial image 43c third partial image 43d fourth partial image I1 first sheet light I2 second sheet light I3 third sheet light O optical axis

Claims (9)

被検物の画像を複数の部分画像に分割して撮像取得する撮像光学系と、
前記撮像光学系の光軸方向に所定の幅を有する照明光を前記光軸方向と交差する方向から前記被検物に照明する照明部と、
前記被検物に前記照明光が照明された状態で前記撮像光学系により撮像取得された前記複数の部分画像に基づいて、前記被検物の三次元形状を算出する画像処理部とを備えて構成されることを特徴とする三次元形状測定装置。
An imaging optical system for acquiring an image obtained by dividing an image of a test object into a plurality of partial images;
An illumination unit that illuminates the test object from a direction that intersects the optical axis direction with illumination light having a predetermined width in the optical axis direction of the imaging optical system;
An image processing unit that calculates a three-dimensional shape of the test object based on the plurality of partial images captured and acquired by the imaging optical system in a state where the illumination light is illuminated on the test object. A three-dimensional shape measuring apparatus characterized by comprising.
前記被検物を前記光軸方向へ移動可能に支持するステージ部を備え、
前記ステージ部に支持された前記被検物が所定の移動ピッチで前記光軸方向へ移動する毎に、前記撮像光学系による前記撮像取得が行われ、
前記画像処理部は、前記被検物が前記所定の移動ピッチで移動する毎に前記撮像光学系により撮像取得された前記複数の部分画像と、前記撮像取得が行われるときの前記被検物の位置情報とに基づいて、前記被検物の三次元形状を算出することを特徴とする請求項1に記載の三次元形状測定装置。
A stage unit that supports the test object to be movable in the optical axis direction;
Each time the test object supported by the stage unit moves in the optical axis direction at a predetermined movement pitch, the imaging acquisition by the imaging optical system is performed,
The image processing unit includes the plurality of partial images captured and acquired by the imaging optical system each time the test object moves at the predetermined movement pitch, and the test object when the imaging acquisition is performed. The three-dimensional shape measuring apparatus according to claim 1, wherein the three-dimensional shape of the test object is calculated based on position information.
前記撮像光学系は、前記複数の部分画像をそれぞれ撮像取得する複数のCCD撮像素子を有して構成されることを特徴とする請求項1もしくは請求項2に記載の三次元形状測定装置。   3. The three-dimensional shape measuring apparatus according to claim 1, wherein the imaging optical system includes a plurality of CCD imaging elements that respectively capture and acquire the plurality of partial images. 前記照明光が前記光軸方向と交差する面内で延びるシート光であり、
前記照明部は、前記撮像光学系の焦点深度内において前記光軸方向に並ぶ複数の前記シート光を前記被検物に照明するように構成されることを特徴とする請求項1から請求項3のうちいずれか一項に記載の三次元形状測定装置。
The illumination light is sheet light extending in a plane intersecting the optical axis direction,
The said illumination part is comprised so that the said to-be-tested object may be illuminated with the several said sheet light arranged in the said optical axis direction within the depth of focus of the said imaging optical system. The three-dimensional shape measuring apparatus according to any one of the above.
被検物の画像を撮像取得する撮像光学系と、
前記撮像光学系の光軸方向に所定の幅を有する照明光を前記光軸方向と交差する方向から前記被検物に照明する照明部と、
前記被検物に前記照明光が照明された状態で前記撮像光学系により撮像取得された前記被検物の画像に基づいて、前記被検物の三次元形状を算出する画像処理部とを備え、
前記照明部は、前記撮像光学系の焦点深度内において前記光軸方向に並ぶ複数の前記照明光を前記被検物に照明するように構成されることを特徴とする三次元形状測定装置。
An imaging optical system that captures and acquires an image of a test object;
An illumination unit that illuminates the test object from a direction that intersects the optical axis direction with illumination light having a predetermined width in the optical axis direction of the imaging optical system;
An image processing unit that calculates a three-dimensional shape of the test object based on an image of the test object captured and acquired by the imaging optical system in a state where the illumination light is illuminated on the test object. ,
The three-dimensional shape measuring apparatus, wherein the illuminating unit is configured to illuminate the test object with a plurality of illumination lights arranged in the optical axis direction within a depth of focus of the imaging optical system.
前記照明光が前記光軸方向と交差する面内で延びるシート光であることを特徴とする請求項5に記載の三次元形状測定装置。   The three-dimensional shape measuring apparatus according to claim 5, wherein the illumination light is sheet light extending in a plane intersecting the optical axis direction. 前記被検物を前記光軸方向へ移動可能に支持するステージ部を備え、
前記ステージ部に支持された前記被検物が所定の移動ピッチで前記光軸方向へ移動する毎に、前記撮像光学系による前記撮像取得が行われ、
前記画像処理部は、前記被検物が前記所定の移動ピッチで移動する毎に前記撮像光学系により撮像取得された前記被検物の画像と、前記撮像取得が行われるときの前記被検物の位置情報とに基づいて、前記被検物の三次元形状を算出することを特徴とする請求項5もしくは請求項6に記載の三次元形状測定装置。
A stage unit that supports the test object to be movable in the optical axis direction;
Each time the test object supported by the stage unit moves in the optical axis direction at a predetermined movement pitch, the imaging acquisition by the imaging optical system is performed,
The image processing unit includes an image of the test object acquired and acquired by the imaging optical system every time the test object moves at the predetermined movement pitch, and the test object when the imaging acquisition is performed. The three-dimensional shape measuring apparatus according to claim 5, wherein the three-dimensional shape of the test object is calculated based on the position information.
前記所定の移動ピッチは、前記複数の前記照明光におけるピッチ間隔の整数倍であることを特徴とする請求項7に記載の三次元形状測定装置。   The three-dimensional shape measuring apparatus according to claim 7, wherein the predetermined movement pitch is an integral multiple of a pitch interval in the plurality of illumination lights. 前記撮像光学系は、前記被検物の画像を複数の部分画像に分割して撮像取得するように構成されており、
前記画像処理部は、前記複数の部分画像に基づいて前記被検物の三次元形状を算出することを特徴とする請求項5から請求項8のうちいずれか一項に記載の三次元形状測定装置。
The imaging optical system is configured to capture and acquire an image of the test object by dividing it into a plurality of partial images,
The three-dimensional shape measurement according to any one of claims 5 to 8, wherein the image processing unit calculates a three-dimensional shape of the test object based on the plurality of partial images. apparatus.
JP2007134981A 2007-05-22 2007-05-22 3D shape measuring device Pending JP2008292165A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007134981A JP2008292165A (en) 2007-05-22 2007-05-22 3D shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007134981A JP2008292165A (en) 2007-05-22 2007-05-22 3D shape measuring device

Publications (1)

Publication Number Publication Date
JP2008292165A true JP2008292165A (en) 2008-12-04

Family

ID=40167055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007134981A Pending JP2008292165A (en) 2007-05-22 2007-05-22 3D shape measuring device

Country Status (1)

Country Link
JP (1) JP2008292165A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995228A (en) * 2009-08-18 2011-03-30 株式会社拓普康 Measuring apparatus
CN101995217A (en) * 2009-08-18 2011-03-30 株式会社拓普康 Measuring apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995228A (en) * 2009-08-18 2011-03-30 株式会社拓普康 Measuring apparatus
CN101995217A (en) * 2009-08-18 2011-03-30 株式会社拓普康 Measuring apparatus
KR101223849B1 (en) 2009-08-18 2013-01-17 니혼덴산리드가부시키가이샤 Measuring device
TWI427265B (en) * 2009-08-18 2014-02-21 Nidec Read Corp Measuring apparatus

Similar Documents

Publication Publication Date Title
JP5041303B2 (en) Shape measuring apparatus and shape measuring method
US10302423B2 (en) Three-dimensional shape measurement apparatus
KR101659302B1 (en) Three-dimensional shape measurement apparatus
CN107367243B (en) Non-contact three-dimensional shape measuring machine and method
KR101921762B1 (en) Height measuring method and height measuring device
US20250012563A1 (en) Surface shape measurement device and surface shape measurement method
JP6590429B1 (en) Confocal microscope and imaging method thereof
JP2014228527A (en) Image measurement device
JP2008292165A (en) 3D shape measuring device
JP2011145160A (en) Device and method for multi-focus inspection
JP2014013308A (en) Image acquisition device and image acquisition method
JP7516728B2 (en) Scanning measurement method and scanning measurement device
JP2008256483A (en) Shape measuring device
JP5604967B2 (en) Defect detection method and defect detection apparatus
JP6618819B2 (en) 3D shape measuring device
JP2013130686A (en) Imaging apparatus
JPH10311705A (en) Image input device
JP4624708B2 (en) Multi-directional observation device
JP4402849B2 (en) Surface shape measuring method and surface shape measuring apparatus
JP3552381B2 (en) Image measuring machine
JP2012132833A (en) Device and method for measuring image surface
JP5356187B2 (en) Method and apparatus for measuring lens ball height
JP2008256484A (en) Shape measuring device
JP2008145121A (en) 3D shape measuring device
JP2008128770A (en) Lens performance inspection device and lens performance inspection method