[go: up one dir, main page]

JP2009036589A - Target for calibration and device, method and program for supporting calibration - Google Patents

Target for calibration and device, method and program for supporting calibration Download PDF

Info

Publication number
JP2009036589A
JP2009036589A JP2007199927A JP2007199927A JP2009036589A JP 2009036589 A JP2009036589 A JP 2009036589A JP 2007199927 A JP2007199927 A JP 2007199927A JP 2007199927 A JP2007199927 A JP 2007199927A JP 2009036589 A JP2009036589 A JP 2009036589A
Authority
JP
Japan
Prior art keywords
calibration
imaging
unit
target
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007199927A
Other languages
Japanese (ja)
Inventor
Masanao Yoshino
政直 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2007199927A priority Critical patent/JP2009036589A/en
Publication of JP2009036589A publication Critical patent/JP2009036589A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate calibration of positional relation between a datum plane and an imaging unit. <P>SOLUTION: This invention relates to a target 20 for calibration provided for calibrating the direction of the optical axis of the imaging unit 15, which takes an image of an object placed on the datum plane. The target 20 for calibration has an underside that serves as a surface of contact with the data plane and two inclined plane, having a line of intersection parallel to the underside. Patterns for calibration which bring about the same pattern onto the underside by orthogonal projection are formed, respectively on the two inclined planes. As to a photographed image of the target 20 photographed by the imaging unit 15, an image analysis/processing unit 16 recognizes the two patterns for calibration, formed respectively on the two inclined planes, calculates the dimensions of the two recognized patterns for calibration and prepares the information for calibration, based on the calculated dimensions of the two patterns for calibration. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記撮影装置の光軸方向を校正するための校正用ターゲットと、該校正用ターゲットを利用して上記校正を支援する校正支援装置、校正支援方法、および校正支援プログラムとに関するものである。特に、本発明は、計測対象に投影された、位置に応じて周期的に輝度が変化する光パタンを解析することによって、計測対象の三次元形状を計測する三次元形状計測装置に関するものである。   The present invention relates to a photographing apparatus for photographing a photographing object placed on a reference plane, and a calibration target for calibrating the optical axis direction of the photographing apparatus and the calibration target using the calibration target. The present invention relates to a calibration support apparatus, a calibration support method, and a calibration support program. In particular, the present invention relates to a three-dimensional shape measuring apparatus that measures a three-dimensional shape of a measurement target by analyzing an optical pattern that is projected onto the measurement target and whose luminance changes periodically according to the position. .

画像解析によって対象物の三次元形状情報を得る手段として、所定の撮像視野内に存在する計測対象に光パタンを投影し、計測対象の三次元形状に応じて変形した光パタンの変形量を解析する方法がある。代表的な方法としては、光切断法や空間コード法、縞解析法などが挙げられる。これらは全て三角測量の原理に基づいているが、中でも、縞解析法に関しては空間縞解析や時間縞解析など多くの手法が提案されており、高い計測精度を得る手法として知られている。
特開平10−047924号公報(1998年2月20日公開) 特開平09−318337号公報(1997年12月12日公開)
As a means of obtaining 3D shape information of an object by image analysis, an optical pattern is projected onto a measurement target existing within a predetermined imaging field of view, and the deformation amount of the optical pattern deformed according to the 3D shape of the measurement target is analyzed. There is a way to do it. Typical methods include a light cutting method, a spatial code method, a fringe analysis method, and the like. These are all based on the principle of triangulation, but among them, many methods such as space fringe analysis and time fringe analysis have been proposed for the fringe analysis method, which are known as methods for obtaining high measurement accuracy.
JP 10-047924 A (published February 20, 1998) JP 09-318337 A (released on December 12, 1997)

上述の方法の場合、光パタンを投影する投光装置と、計測対象が載置される平面である基準面と、計測対象を撮影する撮影装置との幾何学的位置関係が高さ位置の測定精度に影響を及ぼすことになる。この点について図31を参照して説明する。   In the case of the above-described method, the height position is determined by the geometric positional relationship between the light projecting device that projects the optical pattern, the reference plane that is the plane on which the measurement target is placed, and the imaging device that captures the measurement target. It will affect the accuracy. This point will be described with reference to FIG.

図31は、三角測量の原理を示す図である。説明を簡単にするため、基準面P0と垂直な光軸を有する撮影装置Ccによって、基準面P0からの高さがhである平面Phを観測する場合を考える。また、投光装置Cpは、基準面P0から見て撮影装置Ccと同じ高さに配置され、光パタンを基準面P0上の点Oの位置に向けて投影するものとする。   FIG. 31 is a diagram showing the principle of triangulation. In order to simplify the explanation, consider a case where a plane Ph having a height h from the reference plane P0 is observed by the photographing apparatus Cc having an optical axis perpendicular to the reference plane P0. In addition, the light projecting device Cp is disposed at the same height as the imaging device Cc when viewed from the reference plane P0, and projects the light pattern toward the position of the point O on the reference surface P0.

基準面P0と平行で、高さhだけ離れた平面Phを観測する場合、点Oに向かう光パタンは点Pと交わる。このとき、撮影装置Ccから見ると、基準面P0へ向けて投影された光パタンは、光軸(Z軸)から距離PQの位置Pに観測されることになる。この位置ずれPQが光パタンの位相差となって現れる。位相差を算出することができれば、次の式(1)   When observing a plane Ph that is parallel to the reference plane P0 and separated by a height h, the light pattern toward the point O intersects with the point P. At this time, when viewed from the photographing device Cc, the optical pattern projected toward the reference plane P0 is observed at a position P at a distance PQ from the optical axis (Z axis). This positional deviation PQ appears as a phase difference of the optical pattern. If the phase difference can be calculated, the following equation (1)

によって高さhを算出することができる。 Can calculate the height h.

図31を参照すると、撮影装置Ccの光軸が傾くと、上記距離PQが変化して上記の式(1)から算出される高さhも変化することが理解できる。従って、高さhを精度良く計測するには、撮影装置Ccの光軸方向が設計方向(例えば基準面に垂直)となるように、精確に取り付ける必要がある。   Referring to FIG. 31, it can be understood that when the optical axis of the photographing apparatus Cc is tilted, the distance PQ changes and the height h calculated from the above equation (1) also changes. Therefore, in order to accurately measure the height h, it is necessary to accurately attach the photographing apparatus Cc so that the optical axis direction of the photographing apparatus Cc is in the design direction (for example, perpendicular to the reference plane).

従来、この校正は、角度計などを利用して、撮影装置の光軸方向が設計方向となるように調整することにより行われていた。しかしながら、この校正方法では、精度の良い角度計を利用したりする必要があるため、校正を行うユーザの負担が大きくなっていた。   Conventionally, this calibration has been performed by using an angle meter or the like so that the optical axis direction of the photographing apparatus is adjusted to the design direction. However, in this calibration method, it is necessary to use a highly accurate angle meter, which increases the burden on the user who performs calibration.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、基準面と撮影装置との位置関係の校正を容易に行うことができる校正用ターゲットなどを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a calibration target and the like that can easily calibrate the positional relationship between a reference plane and an imaging device.

本発明に係る校正用ターゲットは、基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記撮影装置の光軸方向を校正するための校正用ターゲットであって、上記課題を解決するために、上記基準面との接触面となる底面と、該底面に対し傾斜した複数の傾斜面とを有しており、交線が上記底面と平行である2つの上記傾斜面には、上記底面に正射影したパタンが同じである校正用パタンがそれぞれ形成されていることを特徴としている。   The calibration target according to the present invention is a calibration target for calibrating the optical axis direction of the imaging apparatus with respect to an imaging apparatus that performs imaging of an imaging target placed on a reference plane, and solves the above problems. Therefore, the two inclined surfaces having a bottom surface serving as a contact surface with the reference surface and a plurality of inclined surfaces inclined with respect to the bottom surface, and whose intersecting line is parallel to the bottom surface, A calibration pattern having the same orthographic projection pattern is formed on the bottom surface.

上記の構成によると、2つの上記傾斜面には、上記底面に正射影したパタンが同じである校正用パタンがそれぞれ形成されている。このため、例えば、上記校正用パタンを撮影装置が基準面の法線方向から撮影した場合、撮影画像に含まれる校正用パタンの寸法が同じとなる。一方、撮影装置が基準面の法線方向から傾いて撮影した場合、撮影画像に含まれる校正用パタンの寸法が異なることになる。   According to the above configuration, calibration patterns having the same pattern projected onto the bottom surface are formed on the two inclined surfaces, respectively. For this reason, for example, when the imaging device captures the calibration pattern from the normal direction of the reference plane, the dimensions of the calibration pattern included in the captured image are the same. On the other hand, when the photographing apparatus is photographed while being tilted from the normal direction of the reference plane, the dimensions of the calibration pattern included in the photographed image are different.

従って、本発明の校正用ターゲットを利用して、撮影装置が撮影を行い、作成された撮影画像に含まれる校正用パタンの寸法を比較して、撮影装置が基準面に対し所定の方向に設けられているかどうかを判断できる。その結果、精度の良い角度計などを利用する必要がないので、基準面と撮影装置との位置関係の校正を容易に行うことができる。   Therefore, using the calibration target of the present invention, the imaging apparatus performs imaging, compares the dimensions of the calibration pattern included in the created captured image, and the imaging apparatus is provided in a predetermined direction with respect to the reference plane. It can be determined whether or not. As a result, since it is not necessary to use a highly accurate angle meter or the like, the positional relationship between the reference plane and the imaging device can be easily calibrated.

本発明に係る校正用ターゲットでは、上記2つの傾斜面を複数組有してもよい。さらに、本発明に係る校正用ターゲットでは、各組における上記2つの傾斜面の交線に関して、少なくとも2組の上記交線の方向が同じであってもよい。この場合、基準面に含まれる方向であって、上記交線の方向に垂直な方向への撮影装置の傾きの校正に関して、1度の撮影で校正用パタンの寸法の比較を少なくとも2回行うことができるので、上記校正をさらに精度よく行うことができる。   The calibration target according to the present invention may have a plurality of sets of the two inclined surfaces. Furthermore, in the calibration target according to the present invention, the direction of at least two sets of intersecting lines may be the same with respect to the intersecting line between the two inclined surfaces in each set. In this case, the calibration pattern dimensions should be compared at least twice in one imaging operation for calibration of the tilt of the imaging device in the direction included in the reference plane and perpendicular to the direction of the intersection line. Therefore, the calibration can be performed with higher accuracy.

また、本発明に係る校正用ターゲットでは、各組における上記2つの傾斜面の交線に関して、少なくとも2組の上記交線の方向が異なってもよい。この場合、基準面に含まれる少なくとも2つの方向への撮影装置の傾きを校正することができる。   In the calibration target according to the present invention, the directions of the at least two sets of intersecting lines may be different with respect to the intersecting line between the two inclined surfaces in each set. In this case, the inclination of the photographing apparatus in at least two directions included in the reference plane can be calibrated.

ところで、上記撮影装置から上記校正用ターゲットの上記2つの傾斜面までの距離が一定ではないため、上記2つの傾斜面全てに上記撮影装置のピントが合うとは限らない。従って、上記撮影装置は、上記傾斜面の校正用パタンにピントが合うようにピント位置を調整する必要がある。このため、調整可能なピント位置の範囲が限定されることになる。特に、微細な計測対象の高さを精度良く計測するには、或るピント位置に対してピントの合う範囲を示す被写界深度が狭くなるので、調整可能なピント位置の範囲が狭くなる。   By the way, since the distance from the imaging device to the two inclined surfaces of the calibration target is not constant, the imaging device is not always focused on the two inclined surfaces. Therefore, the photographing apparatus needs to adjust the focus position so that the calibration pattern on the inclined surface is in focus. For this reason, the range of adjustable focus positions is limited. In particular, in order to accurately measure the height of a minute measurement target, the depth of field that indicates a range in focus with respect to a certain focus position is narrowed, so the range of adjustable focus positions is narrowed.

そこで、本発明に係る校正用ターゲットでは、上記2つの傾斜面のそれぞれに上記校正用パタンが繰り返し形成されていることが好ましい。この場合、上記撮影装置は、繰り返し形成された複数の校正用パタンの何れかにピントが合うようにピント位置を調整すればよいので、調整可能なピント位置の範囲を拡大することができる。   Therefore, in the calibration target according to the present invention, it is preferable that the calibration pattern is repeatedly formed on each of the two inclined surfaces. In this case, the imaging apparatus only needs to adjust the focus position so that any of a plurality of calibration patterns repeatedly formed is in focus, so that the range of adjustable focus positions can be expanded.

本発明に係る校正用ターゲットでは、上記2つの傾斜面には、上記撮影装置の被写界深度に対応する範囲よりも広い範囲に上記校正用パタンが形成されていてもよい。この場合、上記撮影画像に含まれる校正用パタンにおいて、ピントの合っている領域の寸法を比較することにより、撮影装置が基準面に対し所定の方向に設けられているかどうかを判断できる。従って、精確な校正用パタンを撮影するために、校正用パタンを被写界深度に対応する範囲内に形成する必要がない。なお、ピントの合っている領域の寸法を精度良く計測するため、上記校正用パタンは、精細なパタンであることが望ましい。   In the calibration target according to the present invention, the calibration pattern may be formed on the two inclined surfaces in a range wider than the range corresponding to the depth of field of the imaging apparatus. In this case, it is possible to determine whether or not the photographing apparatus is provided in a predetermined direction with respect to the reference plane by comparing the dimensions of the in-focus area in the calibration pattern included in the photographed image. Therefore, it is not necessary to form the calibration pattern within a range corresponding to the depth of field in order to photograph an accurate calibration pattern. In order to accurately measure the size of the in-focus area, it is desirable that the calibration pattern is a fine pattern.

なお、上記2つの傾斜面は、底面との傾斜角が等しく、上記校正用パタンの間隔および/または幅が等しいことが望ましい。この場合、校正用ターゲットの製造が容易になる。   Note that it is desirable that the two inclined surfaces have the same inclination angle with the bottom surface, and the intervals and / or widths of the calibration patterns are the same. In this case, the calibration target can be easily manufactured.

本発明に係る校正支援装置は、基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記撮影装置の光軸方向の校正を支援する校正支援装置であって、上記課題を解決するために、上記構成の校正用ターゲットを上記撮影装置が撮影した撮影画像を取得する画像取得手段と、該画像取得手段が取得した撮影画像から、上記2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識するパタン認識手段と、該パタン認識手段が認識した上記2つの校正用パタンの寸法を算出する寸法算出手段と、該寸法算出手段が算出した上記2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成する校正情報作成手段とを備えることを特徴としている。   A calibration support apparatus according to the present invention is a calibration support apparatus that supports calibration in the optical axis direction of the imaging apparatus with respect to an imaging apparatus that performs imaging of an imaging target placed on a reference plane, and solves the above problems. Therefore, an image acquisition unit that acquires a captured image captured by the imaging apparatus with the calibration target configured as described above, and two calibrations that are respectively formed on the two inclined surfaces from the captured image acquired by the image acquisition unit. A pattern recognizing unit for recognizing the pattern, a size calculating unit for calculating the size of the two calibration patterns recognized by the pattern recognizing unit, and a size of the two calibration patterns calculated by the size calculating unit. And calibration information creating means for creating calibration information for the calibration.

また、本発明に係る校正支援方法は、基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記構成の校正用ターゲットを利用して、上記撮影装置の光軸方向の校正を支援する校正支援装置の校正支援方法であって、上記課題を解決するために、上記校正用ターゲットを上記撮影装置が撮影した撮影画像を取得する画像取得ステップと、該画像取得ステップにて取得された撮影画像から、上記2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識するパタン認識ステップと、該パタン認識ステップにて認識された上記2つの校正用パタンの寸法を算出する寸法算出ステップと、該寸法算出ステップにて算出された上記2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成する校正情報作成ステップとを含むことを特徴としている。   Further, the calibration support method according to the present invention supports the calibration of the imaging apparatus in the optical axis direction by using the calibration target having the above-described configuration with respect to the imaging apparatus that performs imaging of the imaging target placed on the reference plane. A calibration support method for a calibration support apparatus, the image acquisition step for acquiring a captured image obtained by capturing the calibration target by the imaging device, in order to solve the above-described problem, and the image acquisition step A pattern recognition step for recognizing the two calibration patterns formed on the two inclined surfaces from the photographed image, and a dimension calculation step for calculating the dimensions of the two calibration patterns recognized in the pattern recognition step. And a calibration information creating step for creating calibration information for the calibration based on the dimensions of the two calibration patterns calculated in the dimension calculating step. It is characterized in that.

ここで、校正用パタンの寸法の例としては、パタン同士の間隔、パタンの幅、パタンのピントが合っている領域の大きさなどが挙げられる。なお、撮影画像から2つの校正用パタンを認識することは、公知の画像認識技術を利用して行うことができる。   Here, examples of the dimension of the calibration pattern include an interval between patterns, a width of the pattern, and a size of a region in which the pattern is focused. Note that recognizing two calibration patterns from a captured image can be performed using a known image recognition technique.

上記の構成および方法によると、撮影装置によって撮影された校正用ターゲットの撮影画像から、2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識し、認識した2つの校正用パタンの寸法を算出し、算出した2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成している。従って、校正用ターゲットを撮影装置が撮影することで校正の支援を行うことができ、精度の良い角度計などを利用する必要がないので、基準面と撮影装置との位置関係の校正を容易に行うことができる。   According to the above-described configuration and method, the two calibration patterns formed on the two inclined surfaces are recognized from the captured image of the calibration target photographed by the photographing apparatus, and the two recognized calibration patterns are dimensioned. Based on the calculated dimensions of the two calibration patterns, calibration information for the calibration is created. Therefore, it is possible to support the calibration by photographing the calibration target with the photographing apparatus, and it is not necessary to use a highly accurate angle meter, etc., so that the positional relationship between the reference plane and the photographing apparatus can be easily calibrated. It can be carried out.

本発明に係る校正支援装置では、上記校正情報作成手段は、上記寸法算出手段が算出した上記2つの校正用パタンの寸法が等しい場合、上記撮影装置の光軸方向が正常であることを示す上記校正情報を作成してもよい。この場合、ユーザは上記撮影装置の光軸方向が正常であるか否かを容易に判断することができる。   In the calibration support apparatus according to the present invention, the calibration information creation means indicates that the optical axis direction of the imaging apparatus is normal when the dimensions of the two calibration patterns calculated by the dimension calculation means are equal. Calibration information may be created. In this case, the user can easily determine whether or not the optical axis direction of the photographing apparatus is normal.

本発明に係る校正支援装置では、上記校正情報作成手段は、上記寸法算出手段が算出した上記2つの校正用パタンの寸法の比に基づいて、上記撮影装置の光軸方向に関する正常方向からの傾きを算出し、算出した傾きを上記構成情報として作成してもよい。この場合、ユーザは上記撮影装置の光軸方向をどの程度動かせば正常となるかを判断でき、上記校正を容易に行うことができる。   In the calibration support apparatus according to the present invention, the calibration information generating means is configured to incline the normal direction with respect to the optical axis direction of the photographing apparatus based on a ratio of the dimensions of the two calibration patterns calculated by the dimension calculating means. And the calculated inclination may be created as the configuration information. In this case, the user can determine how much the optical axis direction of the photographing apparatus is moved to be normal, and can easily perform the calibration.

なお、上記校正支援装置における各ステップを、校正支援プログラムによりコンピュータに実行させることができる。さらに、上記校正支援プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記校正支援プログラムを実行させることができる。   Each step in the calibration support apparatus can be executed by a computer using a calibration support program. Further, the calibration support program can be executed on an arbitrary computer by storing the calibration support program in a computer-readable recording medium.

以上のように、本発明に係る校正用ターゲットを撮影装置が撮影し、撮影された撮影画像の画像解析を行うことにより、校正の支援を行うことができ、精度の良い角度計などを利用する必要がないので、基準面と撮影装置との位置関係の校正を容易に行うことができるという効果を奏する。   As described above, the image capturing apparatus captures the calibration target according to the present invention, and can perform calibration support by performing image analysis of the captured image, and uses an accurate angle meter or the like. Since there is no need, the positional relationship between the reference plane and the photographing apparatus can be easily calibrated.

〔実施の形態1〕
本発明の一実施形態について図1〜図19に基づいて説明すると以下の通りである。図2は、本発明の一実施形態に係る三次元形状計測システム(三次元形状計測装置)10の概略構成を示す図である。
[Embodiment 1]
An embodiment of the present invention will be described below with reference to FIGS. FIG. 2 is a diagram showing a schematic configuration of a three-dimensional shape measurement system (three-dimensional shape measurement apparatus) 10 according to an embodiment of the present invention.

図2に示すように、本実施形態の三次元形状計測システム10は、移動ユニット11に載置された計測対象12に対し投光ユニット13から光パタン14を投影し、計測対象12に投影された光パタン14を撮像ユニット(撮影装置)15が撮影し、撮影された光パタン14の形状を画像解析・処理ユニット(校正支援装置)16が解析し、これを、移動ユニット11により計測対象を移動させて繰り返すことによって、計測対象12全体の三次元形状を計測する装置である。計測される三次元形状の例としては、計測対象12の表面に設けられた凹部の奥行きや凸部の高さおよびそれらの位置などが挙げられる。三次元形状計測システム10の使用用途は特に限定されないが、例えば実装基板を検査する装置などに適用することができる。   As shown in FIG. 2, the three-dimensional shape measurement system 10 of the present embodiment projects an optical pattern 14 from a light projecting unit 13 onto a measurement target 12 placed on a moving unit 11 and is projected onto the measurement target 12. The imaging unit (imaging device) 15 captures the obtained optical pattern 14, the image analysis / processing unit (calibration support device) 16 analyzes the shape of the captured optical pattern 14, and this is measured by the moving unit 11. It is an apparatus that measures the three-dimensional shape of the entire measurement object 12 by moving and repeating. Examples of the three-dimensional shape to be measured include the depth of the concave portion provided on the surface of the measurement object 12, the height of the convex portion, and their positions. Although the usage of the three-dimensional shape measurement system 10 is not particularly limited, it can be applied to, for example, an apparatus for inspecting a mounting board.

一般に、計測システムでは、正確な計測を行うために各種の校正が行われる。本実施形態の三次元形状計測システム10では、移動ユニット11と撮像ユニット15との位置関係の校正が行われる。より詳細には、移動ユニット11の上面、すなわち計測対象12が載置される基準面P0に対し、撮像ユニット15の光軸方向が垂直となるように、撮像ユニット15が調整される。   In general, in a measurement system, various calibrations are performed in order to perform accurate measurement. In the three-dimensional shape measurement system 10 of the present embodiment, the positional relationship between the moving unit 11 and the imaging unit 15 is calibrated. More specifically, the imaging unit 15 is adjusted so that the optical axis direction of the imaging unit 15 is perpendicular to the upper surface of the moving unit 11, that is, the reference plane P0 on which the measurement target 12 is placed.

図1は、三次元形状計測システム10において、基準面P0と撮像ユニット15との位置関係の校正を行う様子を示している。なお、その他の校正に関しては、従来と同様であるので、本願ではその説明を省略する。   FIG. 1 shows how the positional relationship between the reference plane P0 and the imaging unit 15 is calibrated in the three-dimensional shape measurement system 10. Since other calibrations are the same as those in the prior art, the description thereof is omitted in the present application.

図1に示す三次元形状計測システム10は、図2に示す三次元形状計測システム10に比べて、計測対象12の代わりに、校正用ターゲット20が移動ユニット11上に設けられている点が異なる。本実施形態の校正用ターゲット20は、撮像ユニット15の光軸方向の校正を行うためのものである。なお、以下では、図1に示すような校正を行う場合を「校正モード」と称し、図2に示すような三次元形状の計測を行う場合を「計測モード」と称する。   The three-dimensional shape measurement system 10 shown in FIG. 1 is different from the three-dimensional shape measurement system 10 shown in FIG. 2 in that a calibration target 20 is provided on the moving unit 11 instead of the measurement target 12. . The calibration target 20 of the present embodiment is for calibrating the imaging unit 15 in the optical axis direction. In the following, the case of performing calibration as shown in FIG. 1 is referred to as “calibration mode”, and the case of measuring a three-dimensional shape as shown in FIG. 2 is referred to as “measurement mode”.

図3は、校正用ターゲット20の外観を示している。図示のように、校正用ターゲット20は、底面21と底面に平行な稜線22とを有し、稜線の両側に傾斜面23・24を有している。底面21は、移動ユニット11の上面(基準面P0)と接触する面である。また、傾斜面23・24は、底面21に対する角度である傾斜角αが等しくなるように形成されている。   FIG. 3 shows the appearance of the calibration target 20. As illustrated, the calibration target 20 has a bottom surface 21 and a ridge line 22 parallel to the bottom surface, and has inclined surfaces 23 and 24 on both sides of the ridge line. The bottom surface 21 is a surface in contact with the upper surface (reference surface P0) of the moving unit 11. In addition, the inclined surfaces 23 and 24 are formed so that the inclination angles α, which are the angles with respect to the bottom surface 21, are equal.

傾斜面23には2本のライン(校正用パタン)25・26が等間隔に形成され、傾斜面24には2本のライン27・28が等間隔に形成されている。さらに、傾斜面23のライン25・26の間隔と傾斜面24のライン27・28の間隔とが等しくなるように形成されている。なお、各ライン25〜28は、稜線22に平行であることが望ましいが、少なくとも稜線22の方向の成分を有していればよい。また、傾斜面23のライン25は、傾斜面24のライン27・28の何れか一方と高さが同じである必要はない。同様に、傾斜面23のライン26は、傾斜面24のライン27・28の何れか一方と高さが同じである必要はない。   Two lines (calibration patterns) 25 and 26 are formed at equal intervals on the inclined surface 23, and two lines 27 and 28 are formed at equal intervals on the inclined surface 24. Further, the distance between the lines 25 and 26 of the inclined surface 23 is equal to the distance between the lines 27 and 28 of the inclined surface 24. Each of the lines 25 to 28 is desirably parallel to the ridge line 22, but may have at least a component in the direction of the ridge line 22. Further, the line 25 of the inclined surface 23 need not have the same height as any one of the lines 27 and 28 of the inclined surface 24. Similarly, the line 26 of the inclined surface 23 need not have the same height as either one of the lines 27 and 28 of the inclined surface 24.

図4は、上記構成の校正用ターゲット20を、基準面(移動ユニット11の上面)に載置して撮像ユニット15が撮影した撮影画像を示している。なお、以下では、撮像ユニット15の光軸方向が基準面に垂直である、すなわち基準面の法線方向と一致するように撮像ユニット15が取り付けられた状態が、撮像ユニット15が正常に取り付けられた「正常な状態」と称する。また、撮像ユニット15の光軸方向が基準面の法線方向から傾いている状態を「傾いた状態」と称する。   FIG. 4 shows a captured image taken by the imaging unit 15 with the calibration target 20 having the above-described configuration placed on the reference plane (the upper surface of the moving unit 11). In the following description, the imaging unit 15 is normally attached when the imaging unit 15 is attached so that the optical axis direction of the imaging unit 15 is perpendicular to the reference plane, that is, the normal direction of the reference plane. This is called “normal state”. A state in which the optical axis direction of the imaging unit 15 is tilted from the normal direction of the reference plane is referred to as a “tilted state”.

図4の(a)は、撮像ユニット15が正常な状態に取り付けられた場合を示しており、(b)は、撮像ユニット15が傾いた状態に取り付けられた場合を示している。同図を参照すると、上記正常な状態の場合、撮影画像におけるライン25・26の間隔とライン27・28の間隔とが等しいことが理解できる。一方、上記傾いた状態の場合、撮影画像におけるライン25・26の間隔とライン27・28の間隔とが異なることが理解できる。   4A shows a case where the imaging unit 15 is attached in a normal state, and FIG. 4B shows a case where the imaging unit 15 is attached in an inclined state. Referring to the figure, in the normal state, it can be understood that the distance between the lines 25 and 26 and the distance between the lines 27 and 28 in the captured image are equal. On the other hand, in the tilted state, it can be understood that the interval between the lines 25 and 26 and the interval between the lines 27 and 28 in the captured image are different.

従って、本実施形態の校正用ターゲット20を利用して、撮像ユニット15が撮影を行い、作成された撮影画像に含まれるライン25・26の間隔とライン27・28の間隔とを比較することにより、撮像ユニット15が正常な状態であるか傾いた状態であるかを判断できる。その結果、基準面に対する撮像ユニット15の傾きの校正を容易に行うことができる。   Therefore, by using the calibration target 20 of the present embodiment, the imaging unit 15 performs imaging, and by comparing the distance between the lines 25 and 26 and the distance between the lines 27 and 28 included in the created captured image. It can be determined whether the imaging unit 15 is in a normal state or in a tilted state. As a result, the inclination of the imaging unit 15 with respect to the reference plane can be easily calibrated.

なお、傾斜面23または傾斜面24の傾斜角が既知である場合、撮影画像におけるライン25・26の間隔とライン27・28の間隔との比を求めることにより、基準面の法線方向に対する撮像ユニット15の光軸方向の傾きを求めることができる。この点について、図5を参照して説明する。   In addition, when the inclination angle of the inclined surface 23 or the inclined surface 24 is known, the ratio of the interval between the lines 25 and 26 and the interval between the lines 27 and 28 in the captured image is obtained, thereby imaging the normal direction of the reference surface The inclination of the unit 15 in the optical axis direction can be obtained. This point will be described with reference to FIG.

図5は、撮像ユニット15と校正用ターゲット20の傾斜面23・24とを正面側から見た幾何学的位置関係を模式的に示している。なお、図示では、各傾斜面の傾斜角が異なる場合も考慮している。同図において、撮像ユニット(カメラ)15の光軸が破線で示され、各傾斜面が一点鎖線で示され、かつ、各傾斜面におけるラインの間隔が実線で示されている。   FIG. 5 schematically shows a geometric positional relationship when the imaging unit 15 and the inclined surfaces 23 and 24 of the calibration target 20 are viewed from the front side. In the figure, the case where the inclination angles of the inclined surfaces are different is also taken into consideration. In the figure, the optical axis of the imaging unit (camera) 15 is indicated by a broken line, each inclined surface is indicated by a one-dot chain line, and the interval between the lines on each inclined surface is indicated by a solid line.

撮影において、実空間上の物体(被写体)は、カメラ15の撮像面に正射影で投影されると考えられる。従って、正常な状態では次の式(2)・(3)が成り立つ。
l1=a×L1×sinθ1 ・・・(2)
l2=a×L2×sinθ2 ・・・(3)
ここで、L1は第1の傾斜面におけるラインの間隔であり、l1は、上記間隔L1がカメラ15の撮像面に正射影で投影されたものである。また、L2は第2の傾斜面におけるラインの間隔であり、l2は、上記間隔L2が上記撮像面に正射影で投影されたものである。また、θ1は、正常な状態におけるカメラ15の光軸から、第1の傾斜面までの角であり、θ2は、上記光軸から第2の傾斜面までの角である。また、φは、正常な状態におけるカメラ15の光軸から、傾いた状態におけるカメラ15の光軸までの角である。そして、aは、カメラ15の光学系と被写体までの距離とに依存する撮影倍率である。
In photographing, an object (subject) in real space is considered to be projected onto the imaging surface of the camera 15 by orthogonal projection. Therefore, in the normal state, the following expressions (2) and (3) are established.
l1 = a × L1 × sin θ1 (2)
l2 = a × L2 × sin θ2 (3)
Here, L1 is an interval between lines on the first inclined surface, and l1 is a projection of the interval L1 onto the imaging surface of the camera 15 by orthogonal projection. L2 is an interval between lines on the second inclined surface, and l2 is a projection of the interval L2 onto the imaging surface by orthogonal projection. In addition, θ1 is an angle from the optical axis of the camera 15 to the first inclined surface in a normal state, and θ2 is an angle from the optical axis to the second inclined surface. Φ is an angle from the optical axis of the camera 15 in a normal state to the optical axis of the camera 15 in a tilted state. A is a photographing magnification that depends on the optical system of the camera 15 and the distance to the subject.

一方、傾いた状態では、次の式(4)・(5)が成り立つ。ここで、l1’は、第1の傾斜面におけるラインの間隔L1が、傾いた状態のカメラ15の撮像面に正射影で投影されたものであり、l2’は、第2の傾斜面におけるラインの間隔L2が、上記撮像面に正射影で投影されたものである。
l1’=a×L1×sin(θ1−φ) ・・・(4)
l2’=a×L2×sin(θ2+φ) ・・・(5)
上記の式(4)・(5)から、撮影倍率aを消去して、間隔L1・L2・l1’・l2’と角θ1・θ2とを取得することにより、傾きφを求めることができる。
On the other hand, in the inclined state, the following expressions (4) and (5) hold. Here, l1 ′ is an orthogonal projection of the line interval L1 on the first inclined surface onto the imaging surface of the camera 15 in an inclined state, and l2 ′ is a line on the second inclined surface. The interval L2 is projected onto the imaging surface by orthographic projection.
l1 ′ = a × L1 × sin (θ1−φ) (4)
l2 ′ = a × L2 × sin (θ2 + φ) (5)
From the above equations (4) and (5), the inclination φ can be obtained by deleting the photographing magnification a and obtaining the intervals L1, L2, l1 ′, l2 ′ and the angles θ1, θ2.

本実施形態の校正用ターゲット20は、上述のように、傾斜面23・24の傾斜角αが等しく、各傾斜面23・24におけるラインの間隔が等しい。従って、θ1=θ2、L1=L2が成り立つ。この場合、l’1/l’2は、上記の式(4)・(5)から次の評価式となる。
l’1/l’2
=sin(θ1−φ)/sin(θ1+φ)
=(tanθ1−tanφ)/(tanθ1+tanφ) ・・・(6)。
As described above, the calibration target 20 of the present embodiment has the same inclination angle α of the inclined surfaces 23 and 24 and the same line spacing between the inclined surfaces 23 and 24. Therefore, θ1 = θ2 and L1 = L2 hold. In this case, l′ 1 / l′ 2 is the following evaluation formula from the above formulas (4) and (5).
l'1 / l'2
= Sin (θ1-φ) / sin (θ1 + φ)
= (Tan θ1-tan φ) / (tan θ1 + tan φ) (6).

上記の式(6)を変形すると次の式となる。なお、k=l’1/l’2である。
tanφ=(1−k)/(1+k)×tanθ1 ・・・(7)
上記の式(7)から、角θ1が既知であれば、間隔l’1・l’2を校正用ターゲット20の撮影画像から取得することにより、傾きφを求めることができる。そして、求めた傾きφだけ、カメラ15を逆回転させることにより、カメラ15の光軸を正常な状態にすることができる。なお、本実施形態の場合、θ1=α+90°が成り立つから、傾斜角αが既知であればよい。
When the above equation (6) is modified, the following equation is obtained. Note that k = l′ 1 / l′ 2.
tan φ = (1−k) / (1 + k) × tan θ1 (7)
From the above equation (7), if the angle θ1 is known, the inclination φ can be obtained by acquiring the interval l′ 1, l′ 2 from the captured image of the calibration target 20. Then, the optical axis of the camera 15 can be brought into a normal state by rotating the camera 15 backward by the determined inclination φ. In the case of the present embodiment, θ1 = α + 90 ° holds, and it is sufficient that the inclination angle α is known.

また、l’1/l’2=1の場合、φ=0となる。従って、校正用ターゲット20の撮影画像における上記間隔l’1・l’2が等しくなるようにカメラ15の傾きを調整すれば、φ=0となり、カメラ15の光軸を正常な状態にすることができる。   When l′ 1 / l′ 2 = 1, φ = 0. Therefore, if the tilt of the camera 15 is adjusted so that the intervals l′ 1 and l′ 2 in the captured image of the calibration target 20 are equal, φ = 0, and the optical axis of the camera 15 is set to a normal state. Can do.

次に、角θ1が満たすべき条件について説明する。上記間隔l’1・l’2を利用して校正を行うため、校正用ターゲット20にてライン25〜28が施された傾斜面23・24は、カメラ15から見える必要がある。従って、角θ1と傾きφとは次の条件式を満たす必要がある。
φ<θ1<φ+180° ・・・(8)。
Next, conditions that the angle θ1 should satisfy will be described. In order to perform the calibration using the distances l ′ 1 and l ′ 2, the inclined surfaces 23 and 24 on which the lines 25 to 28 are formed on the calibration target 20 must be visible from the camera 15. Therefore, the angle θ1 and the inclination φ need to satisfy the following conditional expression.
φ <θ1 <φ + 180 ° (8).

上記の式(8)から、例えば、傾きφを±45°の範囲内で計測したい場合、角θ1は、45°<θ1<135°の条件を満たす必要がある。また、図3に示すような校正用ターゲット20の場合、稜線22から斜め下方に傾斜面23・24が伸びているので、角θ1は、90°<θ1の条件も満たす必要がある。従って、90°<θ1<135°の条件を満たす必要がある。   From the above equation (8), for example, when it is desired to measure the inclination φ within a range of ± 45 °, the angle θ1 needs to satisfy the condition of 45 ° <θ1 <135 °. Further, in the case of the calibration target 20 as shown in FIG. 3, the inclined surfaces 23 and 24 extend obliquely downward from the ridge line 22, and therefore the angle θ1 needs to satisfy the condition of 90 ° <θ1. Therefore, it is necessary to satisfy the condition of 90 ° <θ1 <135 °.

また、傾きφの変動に対し、上記の評価式(6)の変動が大きいほど計測感度が良くなる。従って、計測感度の評価式は次の式となる。
∂k/∂φ=−2・tanθ1/(tanθ1+sinφ)^2 ・・・(9)
カメラ15の傾きの調整では、φ=0付近が重要となる。そこで、上記の式(9)にφ=0を代入すると、次の式となる。
∂k/∂φ=−2/tanθ1 ・・・(10)。
Further, the measurement sensitivity is improved as the fluctuation of the evaluation formula (6) is larger with respect to the fluctuation of the inclination φ. Therefore, the measurement sensitivity evaluation formula is as follows.
∂k / ∂φ = −2 · tan θ1 / (tan θ1 + sin φ) ^ 2 (9)
In adjusting the tilt of the camera 15, the vicinity of φ = 0 is important. Therefore, when φ = 0 is substituted into the above equation (9), the following equation is obtained.
∂k / ∂φ = −2 / tan θ1 (10).

この式(10)から、|∂k/∂φ|は、θ1→90°で最小となり、角θ1が90°から離れるに従って大きくなり、θ1→0°または180°で最大となる。例えば、上記の90°<θ1<135°の条件を満たす必要がある場合、θ1=135°が望ましいことになる。   From this equation (10), | ∂k / ∂φ | becomes minimum when θ1 → 90 °, increases as the angle θ1 increases from 90 °, and becomes maximum when θ1 → 0 ° or 180 °. For example, when the above condition of 90 ° <θ1 <135 ° needs to be satisfied, θ1 = 135 ° is desirable.

次に、三次元形状計測システム10の詳細について説明する。図6は、三次元形状計測システム10の要部構成を示すブロック図である。図1および図2に示すように、三次元形状計測システム10は、移動ユニット11、投光ユニット13、撮像ユニット15、および画像解析・処理ユニット16を備えている。さらに、三次元形状計測システム10は、移動ユニット11を制御する移動コントローラ17と、投光ユニット13を制御する投光コントローラ18とを備えている。   Next, details of the three-dimensional shape measurement system 10 will be described. FIG. 6 is a block diagram showing a main configuration of the three-dimensional shape measurement system 10. As shown in FIGS. 1 and 2, the three-dimensional shape measurement system 10 includes a moving unit 11, a light projecting unit 13, an imaging unit 15, and an image analysis / processing unit 16. The three-dimensional shape measurement system 10 further includes a movement controller 17 that controls the movement unit 11 and a light projection controller 18 that controls the light projection unit 13.

投光ユニット13は、上述のように、計測対象12の表面に光パタン14を投影するためのものである。また、投光ユニット13は、図6に示すように、ハロゲンランプやキセノンランプなどの光源31、光源31から照射された光にパタンを持たせるためのパタン生成素子32、およびマクロレンズなどの光学系33を備えている。   As described above, the light projecting unit 13 is for projecting the optical pattern 14 onto the surface of the measurement target 12. Further, as shown in FIG. 6, the light projecting unit 13 includes a light source 31 such as a halogen lamp or a xenon lamp, a pattern generation element 32 for giving a pattern to light emitted from the light source 31, and an optical such as a macro lens. A system 33 is provided.

投影する光パタンとしては、正弦波、三角波、または矩形波などの、位置に応じて周期性を有し、かつ位相を特定できるパタンであれば何れのものでもよいが、本実施形態では、計測分解能の向上に寄与する正弦波状の光パタンを用いることとする。また、パタン生成素子32としては、液晶素子によって構成されたものや、ガラスまたはフィルムを加工したものなどを用いることができる。   The optical pattern to be projected may be any pattern, such as a sine wave, a triangular wave, or a rectangular wave, as long as it has a periodicity according to the position and can specify the phase. A sinusoidal optical pattern that contributes to improvement in resolution is used. Moreover, as the pattern generation element 32, what was comprised by the liquid crystal element, the thing which processed glass or a film, etc. can be used.

撮像ユニット15は、上述のように、光パタン14が投影された計測対象12を読み取り、その画像を取得するものである。また、撮像ユニット15は、図6に示すように、1本のラインセンサ34と、マクロレンズなどの光学系35とを備えている。   As described above, the imaging unit 15 reads the measurement target 12 onto which the optical pattern 14 is projected, and acquires the image. Further, as shown in FIG. 6, the imaging unit 15 includes one line sensor 34 and an optical system 35 such as a macro lens.

移動ユニット11は、ラインセンサ34の主走査方向(長手方向)、および該主走査方向と垂直な方向(以下「副走査方向」という)に計測対象12を水平移動させるためのものである。また、移動ユニット11は、図6に示すように、計測対象12を載置するための移動テーブル41、移動テーブル41を駆動するサーボモータ42、移動テーブル41の位置を検出するリニアスケーラ43などを備えている。   The moving unit 11 is for horizontally moving the measurement object 12 in the main scanning direction (longitudinal direction) of the line sensor 34 and in a direction perpendicular to the main scanning direction (hereinafter referred to as “sub-scanning direction”). Further, as shown in FIG. 6, the moving unit 11 includes a moving table 41 for placing the measurement object 12, a servo motor 42 for driving the moving table 41, a linear scaler 43 for detecting the position of the moving table 41, and the like. I have.

移動ユニット11により計測対象12を副走査方向に移動させつつラインセンサ34により逐次撮像することによって、計測対象12全体の三次元形状を計測することが可能になる。また、計測対象12がラインセンサ34の撮像範囲よりも主走査方向に広い場合には、移動ユニット11により計測対象12を主走査方向に移動させてラインセンサ34により逐次撮像すればよい。   It is possible to measure the three-dimensional shape of the entire measurement target 12 by sequentially capturing images with the line sensor 34 while moving the measurement target 12 in the sub-scanning direction by the moving unit 11. If the measurement target 12 is wider in the main scanning direction than the imaging range of the line sensor 34, the moving unit 11 may move the measurement target 12 in the main scanning direction and sequentially capture images with the line sensor 34.

画像解析・処理ユニット16は、校正モードにおいて、撮像ユニット15によって撮像された校正用ターゲット20の画像を解析し、撮像ユニット15の光軸の傾きφを算出するものである。算出した傾きφをユーザに提示することにより、ユーザが撮像ユニット15の光軸を校正することができる。なお、外部からの指示に基づいて撮像ユニット15を回転駆動する回転駆動装置を備えている場合、算出した傾きφに基づく指示を上記回転駆動装置に送信することにより、撮像ユニット15の光軸を自動的に校正することができる。   The image analysis / processing unit 16 analyzes the image of the calibration target 20 imaged by the imaging unit 15 in the calibration mode, and calculates the inclination φ of the optical axis of the imaging unit 15. By presenting the calculated inclination φ to the user, the user can calibrate the optical axis of the imaging unit 15. In the case where a rotation driving device that rotationally drives the imaging unit 15 based on an instruction from the outside is provided, the optical axis of the imaging unit 15 is changed by transmitting an instruction based on the calculated inclination φ to the rotation driving device. It can be automatically calibrated.

また、画像解析・処理ユニット16は、計測モードにおいて、撮像ユニット15によって撮像された画像に含まれる光パタン14を縞解析法によって解析し、計測対象12の三次元形状を算出すると共に、移動コントローラ17および投光コントローラ18に各種指示を行うものである。また、画像解析・処理ユニット16は、図6に示すように、撮像ユニット15からの画像をデジタルデータで取り込むキャプチャボード(画像取得手段)44、各種の制御を行う制御部45、および各種の情報を記憶する記憶部46を備えている。   Further, in the measurement mode, the image analysis / processing unit 16 analyzes the optical pattern 14 included in the image captured by the imaging unit 15 by the fringe analysis method, calculates the three-dimensional shape of the measurement target 12, and moves the movement controller. 17 and various instructions are given to the light projection controller 18. Further, as shown in FIG. 6, the image analysis / processing unit 16 includes a capture board (image acquisition means) 44 that captures an image from the imaging unit 15 as digital data, a control unit 45 that performs various controls, and various types of information. Is stored.

なお、本実施形態では、移動ユニット11は、計測対象12を移動させる構成としたが、計測対象12を移動させる代わりに、投光ユニット13および撮像ユニット15を副走査方向に、さらには主走査方向に移動させる構成としてもよい。すなわち、移動ユニット11は、計測対象12を投光ユニット13および撮像ユニット15に対して相対的に移動させるものであればよい。   In the present embodiment, the moving unit 11 is configured to move the measurement target 12. However, instead of moving the measurement target 12, the light projecting unit 13 and the imaging unit 15 are moved in the sub-scanning direction, and further in the main scanning. It is good also as a structure moved to a direction. That is, the moving unit 11 only needs to move the measurement target 12 relative to the light projecting unit 13 and the imaging unit 15.

このような三次元形状計測システム10に備わる各部の幾何学的位置関係について一例を用いて以下に説明するが、本発明はこれに限定されない。   Although the geometric positional relationship of each part provided in such a three-dimensional shape measurement system 10 will be described below using an example, the present invention is not limited to this.

本実施形態の三次元形状計測システム10では、撮像ユニット15のラインセンサ34は、その主走査方向が移動テーブル41の載置面(基準面)と平行になるように設置されている。ラインセンサ34の主走査方向と移動テーブル41の載置面とを平行にすることにより、計測対象12の上面を均一な倍率で撮像することができる。また、ラインセンサ34の主走査方向と副走査方向とを垂直にしているので、搬送しながら撮影した複数のライン画像からなる2次元画像には、直角部分が直角部分として撮像される。   In the three-dimensional shape measurement system 10 of the present embodiment, the line sensor 34 of the imaging unit 15 is installed so that the main scanning direction is parallel to the placement surface (reference surface) of the moving table 41. By making the main scanning direction of the line sensor 34 parallel to the placement surface of the moving table 41, the upper surface of the measurement object 12 can be imaged at a uniform magnification. Further, since the main scanning direction and the sub-scanning direction of the line sensor 34 are perpendicular to each other, a right-angle portion is captured as a right-angle portion in a two-dimensional image composed of a plurality of line images photographed while being conveyed.

また、投光ユニット13は、その光軸が撮像ユニット15の光軸に対して所定の角度を有するように設置されている。これにより、詳細は後述するが、計測対象12に投影した光パタンのずれに基づいて、計測対象12の高さを算出することができる。なお、撮像ユニット15および投光ユニット13の幾何学的配置は設置時にあらかじめ計測しておいてもよいし、校正により算出してもよい。   The light projecting unit 13 is installed such that its optical axis has a predetermined angle with respect to the optical axis of the imaging unit 15. Thereby, although details will be described later, the height of the measurement target 12 can be calculated based on the shift of the optical pattern projected onto the measurement target 12. The geometric arrangement of the imaging unit 15 and the light projecting unit 13 may be measured in advance at the time of installation or may be calculated by calibration.

このような三次元形状計測システム10の動作について説明すると以下の通りである。まず、各種機器の校正を行う。特に、本実施形態では、移動テーブル41に校正用ターゲット20を載置し、載置された校正用ターゲット20を撮像ユニット15が撮影し、撮影された校正用ターゲット20の画像を画像解析・処理ユニット16が解析して、撮像ユニット15の光軸の傾きφを算出することにより、撮像ユニット15の光軸の校正を行う。   The operation of the three-dimensional shape measurement system 10 will be described as follows. First, various devices are calibrated. In particular, in the present embodiment, the calibration target 20 is placed on the moving table 41, the imaging unit 15 photographs the placed calibration target 20, and the image of the photographed calibration target 20 is subjected to image analysis / processing. The unit 16 analyzes and calculates the inclination φ of the optical axis of the imaging unit 15 to calibrate the optical axis of the imaging unit 15.

各種校正の終了後、計測対象12の三次元形状の計測を行う。まず、画像解析・処理ユニット16から移動コントローラ17を介しての命令によって、移動ユニット11のサーボモータ42が移動テーブル41を初期設定位置にセットする。この初期設定位置は、撮像ユニット15が計測対象12を撮像する際の副走査方向の撮像開始位置を決定するものであり、撮像ユニット15の撮像領域が、移動ユニット11の移動テーブル41に載せられた計測対象12の副走査方向における端部に来るような位置であることが好ましい。   After completion of various calibrations, the three-dimensional shape of the measurement object 12 is measured. First, the servo motor 42 of the moving unit 11 sets the moving table 41 at the initial setting position according to a command from the image analysis / processing unit 16 via the movement controller 17. This initial setting position determines the imaging start position in the sub-scanning direction when the imaging unit 15 images the measurement target 12, and the imaging area of the imaging unit 15 is placed on the moving table 41 of the moving unit 11. It is preferable that the measurement object 12 be positioned at the end in the sub-scanning direction.

そして、投光ユニット13が計測対象12に光パタンを投影する。撮像ユニット15は、光パタンが投影された計測対象12を走査し、この計測対象12の画像を取得する。撮像ユニット15によって取得された画像は、画像解析・処理ユニット16に送信され、画像解析・処理ユニット16のキャプチャボード44によってデジタルデータに変換される。そして、画像解析・処理ユニット16の制御部45が光パタンを解析することによって、計測対象12の高さ情報が算出される。   Then, the light projecting unit 13 projects an optical pattern onto the measurement target 12. The imaging unit 15 scans the measurement target 12 on which the optical pattern is projected, and acquires an image of the measurement target 12. The image acquired by the imaging unit 15 is transmitted to the image analysis / processing unit 16 and converted into digital data by the capture board 44 of the image analysis / processing unit 16. Then, the control unit 45 of the image analysis / processing unit 16 analyzes the optical pattern, whereby the height information of the measurement target 12 is calculated.

ここで、本実施形態の三次元形状計測システム10では、画像中の光パタンを解析する際に、空間縞解析法を用いる構成となっている。これにより、撮像ユニット15に備わった1本のラインセンサ34が1回走査して取得した1つのライン画像から、計測対象12の、撮像ユニット15の走査領域(撮像領域)内での各位置における高さを求めることができる。なお、空間縞解析法の詳細については後述する。   Here, in the three-dimensional shape measurement system 10 of the present embodiment, the spatial fringe analysis method is used when analyzing the optical pattern in the image. Thereby, from one line image acquired by one line sensor 34 included in the imaging unit 15 once scanned, the measurement target 12 at each position in the scanning region (imaging region) of the imaging unit 15 is obtained. The height can be determined. Details of the spatial fringe analysis method will be described later.

そして、移動ユニット11は、画像解析・処理ユニット16の制御によって、計測対象12を副走査方向に所定の距離だけ移動させる。これにより、計測対象12における撮像ユニット15の撮像領域と投光ユニット13によって投影される光パタン14とが、所定の距離だけ副走査方向にずれることになる。この後、再び撮像ユニット15が計測対象12を走査し、ライン画像を取得する。ここで得られたライン画像には、計測対象12の、先ほどの走査領域よりも所定の距離だけ副走査方向にずれた領域が含まれることになる。得られた画像は、同様に画像解析・処理ユニット16に送信され、新しい走査領域内での各位置における三次元情報が求められる。   The moving unit 11 moves the measurement object 12 by a predetermined distance in the sub-scanning direction under the control of the image analysis / processing unit 16. Thereby, the imaging region of the imaging unit 15 in the measurement target 12 and the light pattern 14 projected by the light projecting unit 13 are shifted in the sub-scanning direction by a predetermined distance. Thereafter, the imaging unit 15 scans the measurement object 12 again to acquire a line image. The line image obtained here includes an area of the measurement object 12 that is shifted in the sub-scanning direction by a predetermined distance from the previous scanning area. The obtained image is similarly transmitted to the image analysis / processing unit 16, and three-dimensional information at each position in the new scanning region is obtained.

このように、移動ユニット11が再び計測対象12を所定の距離だけ移動させ、撮像ユニット15が計測対象12を撮像し、画像解析・処理ユニット16がライン画像を解析する処理を繰り返すことによって、計測対象12の全体の三次元形状が計測される。   As described above, the movement unit 11 moves the measurement object 12 again by a predetermined distance, the imaging unit 15 images the measurement object 12, and the image analysis / processing unit 16 repeats the process of analyzing the line image, thereby measuring. The overall three-dimensional shape of the object 12 is measured.

なお、計測対象12の三次元形状情報のうち、ラインセンサ34の主走査方向の長さおよび副走査方向の長さ情報については、公知の方法によって計測する。具体的に説明すると、計測対象12の主走査方向の長さ情報は、ライン画像に撮像された計測対象の主走査方向の長さに基づいて算出する。一方、計測対象12の副走査方向の長さ情報は、移動ユニット11による移動速度に基づいて算出する。このように、計測対象12の主走査方向および副走査方向の長さ情報と、高さ情報とを求めることによって、計測対象12の三次元形状情報を得ることができる。   Of the three-dimensional shape information of the measurement target 12, the length information of the line sensor 34 in the main scanning direction and the length information in the sub scanning direction is measured by a known method. More specifically, the length information of the measurement target 12 in the main scanning direction is calculated based on the length of the measurement target captured in the line image in the main scanning direction. On the other hand, the length information of the measurement target 12 in the sub-scanning direction is calculated based on the moving speed of the moving unit 11. Thus, the three-dimensional shape information of the measurement target 12 can be obtained by obtaining the length information and the height information of the measurement target 12 in the main scanning direction and the sub-scanning direction.

なお、上記の所定の距離とは、撮像ユニット15の撮像領域の副走査方向における長さと等しいことが好ましい。これにより、上記の工程によって計測対象12の全領域を漏らすことなく迅速に計測することができる。   Note that the predetermined distance is preferably equal to the length of the imaging region of the imaging unit 15 in the sub-scanning direction. Thereby, it can measure rapidly, without leaking the whole area | region of the measuring object 12 by said process.

また、所定の距離ごとの撮像は、移動テーブル41を一定速度で移動させつつ、撮像ユニット15に一定時間ごとに撮像させることによって実現することができる。この場合、移動コントローラ17が、キャプチャボード44を介して、例えば数KHzオーダーの一定時間ごとに撮像駆動信号を撮像ユニット15に送信する。撮像ユニット15は、この駆動信号をトリガとして光パタンの投影された計測対象12の画像を取得する。一方、移動コントローラ17は、同様の一定時間ごとの搬送駆動信号を移動ユニット11にも送信する。移動ユニット11のサーボモータ42は、この搬送駆動信号をトリガとして移動テーブル41を一定速度で駆動する。これにより、所定の領域ずつ計測対象12を撮像することができる。   Further, imaging at predetermined distances can be realized by causing the imaging unit 15 to capture images at regular intervals while moving the moving table 41 at a constant speed. In this case, the movement controller 17 transmits an imaging drive signal to the imaging unit 15 via the capture board 44 at regular intervals of, for example, several KHz order. The imaging unit 15 acquires an image of the measurement target 12 onto which the optical pattern is projected using this drive signal as a trigger. On the other hand, the movement controller 17 also transmits the same conveyance drive signal at regular intervals to the movement unit 11. The servo motor 42 of the moving unit 11 drives the moving table 41 at a constant speed using this transport drive signal as a trigger. Thereby, the measurement object 12 can be imaged for each predetermined region.

また、所定の距離ごとの撮像にリニアスケーラ43を利用してもよい。この場合、図6に示すように、リニアスケーラ43は移動ユニット11に設けられ、移動テーブル41が所定の距離だけ移動されるたびに、移動コントローラ17に対して信号を送信する。そして、移動コントローラ17は、この信号を受信すると、撮像ユニット15のラインセンサ34に対して撮像駆動信号を送信する。これにより、移動ユニット11の搬送速度ムラなどに左右されることなく、精確に所定の距離ごとの撮像を行うことが可能になり、その結果、三次元計測の精度が向上する。   Moreover, you may utilize the linear scaler 43 for the imaging for every predetermined distance. In this case, as shown in FIG. 6, the linear scaler 43 is provided in the movement unit 11 and transmits a signal to the movement controller 17 every time the movement table 41 is moved by a predetermined distance. And the movement controller 17 will transmit an imaging drive signal with respect to the line sensor 34 of the imaging unit 15, if this signal is received. Thereby, it becomes possible to accurately perform imaging at every predetermined distance without being affected by unevenness in the conveyance speed of the moving unit 11, and as a result, the accuracy of three-dimensional measurement is improved.

さて、このような三次元形状計測装置の利点について説明する。本実施形態では、撮像ユニット15に含まれる読み取りセンサとして、ラインセンサ34を用いる構成となっている。例えば主走査方向の画素数が10000画素のラインセンサ34を用いる場合、主走査方向の長さが100mmの計測対象を、約10μmの分解能で撮像することができる。これに対して、例えば横方向の画素数が640画素のエリアカメラを用いる場合、横方向の長さが100mmの計測対象を、約150μmの分解能でしか撮像することができない。   Now, advantages of such a three-dimensional shape measuring apparatus will be described. In the present embodiment, the line sensor 34 is used as a reading sensor included in the imaging unit 15. For example, when the line sensor 34 having 10,000 pixels in the main scanning direction is used, a measurement target having a length of 100 mm in the main scanning direction can be imaged with a resolution of about 10 μm. On the other hand, for example, when an area camera having 640 pixels in the horizontal direction is used, a measurement target having a horizontal length of 100 mm can be imaged only with a resolution of about 150 μm.

また、上記のエリアカメラがラインセンサ34と同じ分解能で撮像するためには、主走査方向に所定の距離ずつ移動し、そして撮像するといった処理工程を最低でも12セット行う必要がある。この場合、主走査方向に撮像ユニット15を移動させ、撮像させるために多大な時間を要してしまう。   In order for the area camera to capture an image with the same resolution as the line sensor 34, it is necessary to perform at least 12 sets of processing steps such as moving by a predetermined distance in the main scanning direction and capturing the image. In this case, it takes a lot of time to move the imaging unit 15 in the main scanning direction and capture the image.

これに対して、本実施形態の三次元形状計測装置では、ラインセンサ34を用いることにより、計測対象12に対して高い分解能で高速な撮像を行うことが可能になる。   On the other hand, in the three-dimensional shape measuring apparatus of the present embodiment, by using the line sensor 34, it is possible to perform high-speed imaging with high resolution on the measurement object 12.

さらに、本実施形態では、撮像ユニット15によって読み取った各ライン画像を空間縞解析法によって解析する構成となっている。空間縞解析法では、1つのライン画像から光パタンの位相ずれを算出し、この位相ずれから三次元情報を算出することができる。よって、計測対象12に対して必要な延べ走査回数が1回で済むため、ラインセンサの数を1本のみにすることもできる。これにより、複数のラインセンサを平行に設置する構成に比べて、ラインセンサの設置を容易に行うことができるようになる。また、1本のラインセンサで複数回操作を行う構成と比べると、高速に計測を行うことが可能になる。   Furthermore, in the present embodiment, each line image read by the imaging unit 15 is analyzed by a spatial fringe analysis method. In the spatial fringe analysis method, the phase shift of the optical pattern can be calculated from one line image, and three-dimensional information can be calculated from this phase shift. Therefore, since the total number of scans required for the measurement object 12 is only one, the number of line sensors can be limited to one. Thereby, compared with the structure which installs a some line sensor in parallel, it comes to be able to install a line sensor easily. In addition, it is possible to perform measurement at high speed as compared with a configuration in which an operation is performed a plurality of times with one line sensor.

さらに、1度の走査によって取得した1つのライン画像のみに基づいて高さを計測できるため、走査と同時に三次元形状の計測を行うことも可能になる。これにより、例えば基板の検査を行う場合などに、計測対象となる基板上に何らかの製造上の不具合を発見した際に、最後まで撮像処理を繰り返すことなく直ちに計測を中断させることができ、基板の検査を迅速化することもできるようになる。   Furthermore, since the height can be measured based on only one line image acquired by one scan, it is possible to measure a three-dimensional shape simultaneously with the scan. As a result, for example, when inspecting a substrate, when any manufacturing defect is found on the substrate to be measured, the measurement can be interrupted immediately without repeating the imaging process until the end. Inspection can also be speeded up.

次に、画像解析・処理ユニット16による画像解析の詳細について説明する。図7は、画像解析・処理ユニット16の要部構成を示している。図6に示すように、画像解析・処理ユニット16は、キャプチャボード44、制御部45、および記憶部46を備えている。さらに、画像解析・処理ユニット16は、入力・設定部47および出力部48を備えている。   Next, details of image analysis by the image analysis / processing unit 16 will be described. FIG. 7 shows a main configuration of the image analysis / processing unit 16. As shown in FIG. 6, the image analysis / processing unit 16 includes a capture board 44, a control unit 45, and a storage unit 46. Further, the image analysis / processing unit 16 includes an input / setting unit 47 and an output unit 48.

入力・設定部47は、ユーザからの指示入力、情報入力、設定入力などの各種入力を受け付けるものであり、例えばキーボードやボタンなどのキー入力デバイスや、マウスなどのポインティングデバイスなどによって構成される。なお、入力・設定部47と共に、或いは入力・設定部47の代わりに、印刷された情報を読み取るスキャナデバイス、無線または有線の伝送媒体を介して信号を受信する受信デバイス、外部または自装置内の記録媒体に記録されたデータを再生する再生デバイスなどを用いて、外部からの上記各種入力を受け付けてもよい。   The input / setting unit 47 accepts various inputs such as an instruction input, information input, and setting input from the user, and includes, for example, a key input device such as a keyboard and buttons, and a pointing device such as a mouse. In addition to the input / setting unit 47 or instead of the input / setting unit 47, a scanner device for reading printed information, a receiving device for receiving signals via a wireless or wired transmission medium, an external device or a device in its own device The above-described various inputs from the outside may be received using a playback device that plays back data recorded on the recording medium.

出力部48は、制御部45からの指示に基づいて情報を出力するものである。出力部48を構成するデバイスの例としては、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、CRT(Cathode Ray Tube)などの表示デバイス、紙などの印刷媒体に情報を印刷する印刷出力デバイス、上記伝送媒体を介して信号を送信する送信デバイス、上記記録媒体にデータを記録する記録デバイスなどが挙げられる。   The output unit 48 outputs information based on an instruction from the control unit 45. Examples of devices constituting the output unit 48 include display devices such as LCD (Liquid Crystal Display), PDP (Plasma Display Panel), and CRT (Cathode Ray Tube), and print output devices that print information on a print medium such as paper. And a transmission device that transmits a signal via the transmission medium and a recording device that records data on the recording medium.

次に、画像解析・処理ユニット16の制御部45および記憶部46の詳細について説明する。制御部45は、校正処理を行う校正処理部51と、計測処理を行う計測処理部71とを備えている。これらの各部は、CPU(Central Processing Unit)に各種制御プログラムを実行させることによって実現される。あるいはその代わりに、図示しないDSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)などによって実現してもよい。なお、計測処理部71の詳細については後述する。   Next, details of the control unit 45 and the storage unit 46 of the image analysis / processing unit 16 will be described. The control unit 45 includes a calibration processing unit 51 that performs calibration processing and a measurement processing unit 71 that performs measurement processing. Each of these units is realized by causing a CPU (Central Processing Unit) to execute various control programs. Alternatively, it may be realized by a DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array) or the like not shown. Details of the measurement processing unit 71 will be described later.

また、記憶部46は、RAM(Random Access Memory)、ROM(Read Only Memory)、外部記憶装置などの何れか1つまたはそれらの組合せによって実現されている。記憶部46には、設定値格納部61が存在する。なお、計測処理部71に関する構成については後述する。   The storage unit 46 is realized by one or a combination of a random access memory (RAM), a read only memory (ROM), and an external storage device. The storage unit 46 includes a set value storage unit 61. The configuration related to the measurement processing unit 71 will be described later.

校正処理部51は、設定値取得部52、ライン認識部(画像取得手段、パタン認識手段)53、間隔算出部(寸法算出手段)54、および傾き算出部(校正情報作成手段)55を備えている。   The calibration processing unit 51 includes a set value acquisition unit 52, a line recognition unit (image acquisition unit, pattern recognition unit) 53, an interval calculation unit (dimension calculation unit) 54, and an inclination calculation unit (calibration information creation unit) 55. Yes.

設定値取得部52は、入力・設定部47を介して入力された設定値を取得するものである。設定値取得部52は、取得した設定値を設定値格納部61に記憶する。本実施形態では、設定値取得部52は、正常な状態における撮像ユニット15の光軸から、校正用ターゲット20の傾斜面23・24までの角θ1、または傾斜角αを取得して設定値格納部61に記憶する。   The setting value acquisition unit 52 acquires the setting value input via the input / setting unit 47. The set value acquisition unit 52 stores the acquired set value in the set value storage unit 61. In the present embodiment, the set value acquisition unit 52 acquires the angle θ1 or the tilt angle α from the optical axis of the imaging unit 15 in the normal state to the inclined surfaces 23 and 24 of the calibration target 20, and stores the set value. Store in the unit 61.

ライン認識部53は、撮像ユニット15が撮影した校正用ターゲット20の撮影画像を、キャプチャボード44を介して取得し、取得した撮影画像から、公知の画像認識技術を用いて、校正用ターゲット20の傾斜面23・24におけるライン25〜28の画像領域を識別するものである。ライン認識部53は、認識したライン25〜28の画像領域の情報を間隔算出部54に送信する。   The line recognizing unit 53 acquires a captured image of the calibration target 20 captured by the imaging unit 15 via the capture board 44, and uses a known image recognition technique from the acquired captured image to detect the calibration target 20. The image areas of the lines 25 to 28 on the inclined surfaces 23 and 24 are identified. The line recognition unit 53 transmits information on the recognized image areas of the lines 25 to 28 to the interval calculation unit 54.

間隔算出部54は、ライン認識部53から受信したライン25〜28の画像領域の情報に基づいて、各傾斜面23・24におけるラインの画像上の間隔、すなわちライン25・26の画像上の間隔と、ライン27・28の画像上の間隔とを算出するものである。間隔算出部54は、算出した間隔の情報を傾き算出部55に送信する。   Based on the information of the image areas of the lines 25 to 28 received from the line recognition unit 53, the interval calculation unit 54 is the interval between the lines on the inclined surfaces 23 and 24, that is, the interval between the lines 25 and 26 on the image. And the interval between the lines 27 and 28 on the image. The interval calculation unit 54 transmits the calculated interval information to the inclination calculation unit 55.

傾き算出部55は、間隔算出部54から受信した間隔の情報と、設定値格納部61から読み出した角θ1または傾斜角αとに基づき、上記の式(7)を利用して傾きφを算出するものである。傾き算出部55は、算出した傾きφを、出力部48を介して外部に出力する。   The inclination calculation unit 55 calculates the inclination φ using the above equation (7) based on the interval information received from the interval calculation unit 54 and the angle θ1 or the inclination angle α read from the set value storage unit 61. To do. The inclination calculation unit 55 outputs the calculated inclination φ to the outside via the output unit 48.

次に、計測処理部71における画像解析による三次元形状計測の詳細について説明する。まず、本実施形態の画像解析手法の原理について説明する。   Next, details of three-dimensional shape measurement by image analysis in the measurement processing unit 71 will be described. First, the principle of the image analysis method of this embodiment will be described.

計測処理部71は、光パタンの投影された計測対象12のライン画像を空間縞解析法に基づいて解析する。空間縞解析法とは、上述したように三角測量の原理に基づくものである。三角測量の原理については、図31を参照して上述したので、以下では、縞解析法および空間縞解析法について順番に説明する。   The measurement processing unit 71 analyzes the line image of the measurement target 12 onto which the optical pattern is projected based on the spatial fringe analysis method. The spatial fringe analysis method is based on the principle of triangulation as described above. Since the principle of triangulation has been described above with reference to FIG. 31, the fringe analysis method and the spatial fringe analysis method will be described in turn below.

まず、縞解析法について説明する。本実施形態では、計測対象12に投影する光パタンとして、正弦波状の光パタンを用いる。正弦波状の光パタンとは、輝度が正弦関数によって表されるグラデーションを有するパタンのことをいう。換言すれば、位置と輝度との関係が正弦関数によって表される光パタンのことを正弦波状の光パタンという。正弦波状の光パタンの一例を図9に示す。   First, the fringe analysis method will be described. In the present embodiment, a sinusoidal optical pattern is used as the optical pattern projected onto the measurement object 12. The sinusoidal light pattern refers to a pattern having gradation in which luminance is expressed by a sine function. In other words, an optical pattern in which the relationship between position and luminance is expressed by a sine function is called a sine wave optical pattern. An example of a sinusoidal optical pattern is shown in FIG.

このような光パタンを、図10(a)、図10(b)に示すような計測対象12に投影した場合、投影される光パタンを上面から観測すると図11(a)のようになる。すなわち、斜め方向から投影された光パタンは、高さを有する凸部において歪みを生じることになる。このように光パタンが投影された計測対象12を撮像ユニット15のラインセンサ34によって走査すると、走査位置と輝度との関係は図11(b)のようになる。   When such an optical pattern is projected onto the measurement object 12 as shown in FIGS. 10A and 10B, the projected optical pattern is observed from the top surface as shown in FIG. That is, the light pattern projected from the oblique direction is distorted at the convex portion having the height. When the measurement target 12 on which the optical pattern is projected in this way is scanned by the line sensor 34 of the imaging unit 15, the relationship between the scanning position and the luminance is as shown in FIG.

図11(b)の上段に示すように、凸部のない基準面に投影された光パタンは、常に一定の周期で輝度が変化する。これに対して、図11(b)の下段に示すように、凸部に投影された光パタンは凸部の傾斜によって輝度の周期が変化し、その結果、基準面に投影された光パタンに対して位相のずれを生じることになる。よって、実際に計測対象12に光パタンを投影して撮像した画像(ライン画像)に含まれる或る位置の画素における光パタンの位相と、基準面に光パタンを投影した場合の同画素の位相(基準位相)との差を求めれば、その画素に対応する位置における計測対象12の高さを上記の三角測量の原理に基づいて求めることができる。   As shown in the upper part of FIG. 11B, the luminance of the light pattern projected on the reference surface having no convex portion always changes at a constant cycle. On the other hand, as shown in the lower part of FIG. 11B, the light pattern projected on the convex part changes in the luminance cycle due to the inclination of the convex part. As a result, the optical pattern projected on the reference plane On the other hand, a phase shift occurs. Therefore, the phase of the optical pattern in a pixel at a certain position included in the image (line image) actually projected by projecting the optical pattern on the measurement object 12, and the phase of the same pixel when the optical pattern is projected on the reference plane If the difference from (reference phase) is obtained, the height of the measurement object 12 at the position corresponding to the pixel can be obtained based on the principle of triangulation.

上記の位相差を算出するにあたって、基準位相は、基準面に光パタンを投影して撮像することなどによって予め求めておくことができる。一方、実際に計測対象に光パタンを投影して撮像した画像(ライン画像)に含まれる各位置の画素における光パタンの位相の求め方には、大別して2通りある。空間縞解析法と時間縞解析法との相違点は、この位相の求め方にある。   In calculating the phase difference, the reference phase can be obtained in advance by projecting an optical pattern on the reference plane and taking an image. On the other hand, there are roughly two methods for obtaining the phase of the optical pattern in the pixels at each position included in the image (line image) actually captured by projecting the optical pattern onto the measurement target. The difference between the spatial fringe analysis method and the time fringe analysis method lies in how to obtain this phase.

図11(b)に示すように、正弦関数では、或る一つの変位を与える位相が1周期内に2つ存在する。例えば、y=sinθによって表される関数において、変位y=0を与える位相θは0およびπの2つ存在する。また、変位y=1/2を与える位相θはπ/6および5π/6の2つ存在する。このような理由から、撮像した画像において、単一の画素の輝度値(正弦関数の変位に相当)のみから、その画素における光パタンの位相を求めることはできない。   As shown in FIG. 11B, in the sine function, there are two phases that give a certain displacement within one period. For example, in the function represented by y = sin θ, there are two phases θ that give displacement y = 0, 0 and π. There are two phases θ that give displacement y = ½, π / 6 and 5π / 6. For this reason, in the captured image, the phase of the optical pattern in the pixel cannot be obtained from only the luminance value of the single pixel (corresponding to the displacement of the sine function).

ここで、従来用いられてきた手法である時間縞解析法では、所定の量だけ位相をずらした光パタンを計測対象に投影して再び計測対象を撮像し、2つの画像を解析することによって位相を1つに決定する。つまり、初めに撮像した画像における或る画素の輝度を基に、その画素における光パタンの位相を2つに絞り込み、次に撮像した画像におけるその画素の輝度を基に、光パタンの位相を1つに特定する。従って、時間縞解析法を用いる場合は、計測対象の反射特性が厳密に一様であったとしても、計測対象を最低でも2回撮像しなければならないことが分かる。   Here, in the time fringe analysis method which is a conventionally used technique, an optical pattern whose phase is shifted by a predetermined amount is projected onto the measurement target, the measurement target is imaged again, and the two images are analyzed to analyze the phase. Is determined as one. That is, based on the luminance of a certain pixel in the first captured image, the phase of the optical pattern in that pixel is narrowed down to two, and on the basis of the luminance of that pixel in the next captured image, the phase of the optical pattern is set to 1. Specific. Therefore, it can be seen that when using the time stripe analysis method, the measurement object must be imaged at least twice even if the reflection characteristics of the measurement object are strictly uniform.

一方、空間縞解析法では、位相を求める画素(以下「注目画素」という)およびその周辺の画素の輝度に基づいて、注目画素における位相を算出する。例えば、上記の例において変位y=0を与える位相θは0およびπの2つあるが、ここで、注目画素における位相が0の場合とπの場合とでは、周辺の画素の輝度が異なることになる。もし、注目画素における位相が0の場合、例えば注目画素よりも少し位相が小さい側に存在する周辺画素の輝度値は、注目画素の輝度値よりも小さくなる。一方、注目画素における位相がπの場合は、注目画素よりも少し位相が小さい側に存在する周辺画素の輝度値が注目画素の輝度値よりも大きくなる。従って、注目画素の近傍の画素に基づいて、光パタンの位相を1つに決定することができる。このように、注目画素の近傍に存在する画素の輝度値に基づいて、注目画素における位相を決定するのが空間縞解析法の特徴である。   On the other hand, in the spatial fringe analysis method, the phase at the target pixel is calculated based on the luminance of the pixel whose phase is to be obtained (hereinafter referred to as “target pixel”) and the surrounding pixels. For example, in the above example, there are two phases θ that give the displacement y = 0, 0 and π. Here, the luminance of the surrounding pixels differs between the case where the phase of the pixel of interest is 0 and the case of π. become. If the phase of the pixel of interest is 0, for example, the luminance value of the peripheral pixel existing on the side slightly smaller in phase than the pixel of interest is smaller than the luminance value of the pixel of interest. On the other hand, when the phase of the pixel of interest is π, the luminance value of the peripheral pixel existing on the side slightly smaller in phase than the pixel of interest is larger than the luminance value of the pixel of interest. Therefore, the phase of the optical pattern can be determined as one based on the pixels in the vicinity of the target pixel. Thus, the feature of the spatial fringe analysis method is to determine the phase of the target pixel based on the luminance value of the pixel existing in the vicinity of the target pixel.

本実施形態の三次元形状計測システム10に用いられる空間縞解析法の具体的な処理工程について以下に詳述するが、本発明はこれに限定されず、上述した縞解析法の原理に基づいたものであればどのようなものであってもよい。   Specific processing steps of the spatial fringe analysis method used in the three-dimensional shape measurement system 10 of the present embodiment will be described in detail below, but the present invention is not limited to this, and is based on the principle of the fringe analysis method described above. Any thing can be used.

本実施形態では、撮像したライン画像から、光パタンを90°移相した移相光パタンを仮想的に作成する。ここで、投影する光パタンを、次の式(11)   In the present embodiment, a phase-shifted light pattern obtained by shifting the light pattern by 90 ° is virtually created from the captured line image. Here, the projected optical pattern is expressed by the following equation (11).

とすると、この光パタンを90°移相した移相光パタンは、次の式(12) Then, the phase-shifting optical pattern obtained by shifting the optical pattern by 90 ° is expressed by the following equation (12).

と表される。従って、位置xにおける画素の位相φ(x)は、次の式(13) It is expressed. Therefore, the phase φ (x) of the pixel at the position x is expressed by the following equation (13)

で求めることができる。 Can be obtained.

ここで、I(x)の値は、主走査方向の位置xにおける画素の輝度値である。一方、I^(x)(以下、ハットのついたI(x)を便宜的にこのように記述する)の値の算出には、Hilbert変換を用いる。すなわち、移相光パタンによる位置xにおける輝度値I^(x)は、次の式(14)   Here, the value of I (x) is the luminance value of the pixel at the position x in the main scanning direction. On the other hand, the Hilbert transform is used to calculate the value of I ^ (x) (hereinafter I (x) with a hat is described in this way for convenience). That is, the luminance value I ^ (x) at the position x by the phase-shifting light pattern is expressed by the following equation (14).

で表される。ここで、取得できる輝度データは画素ごとのデータ、つまり離散的なものであるため、上記の式(14)を次の式(15) It is represented by Here, since the luminance data that can be acquired is data for each pixel, that is, discrete data, the above equation (14) is changed to the following equation (15).

のように近似する。この式(15)によって、I^(x)の値を求めることができる。 It approximates as follows. By this equation (15), the value of I ^ (x) can be obtained.

以上より、輝度値I(x)を取得すれば、上記の式(15)からI^(x)の値を求め、上記の式(13)から位相φ(x)を求めることができる。そして、求めた位相φ(x)と基準面における位相φ(x)との位相差Δφ(x)により、上述した三角測量の原理に基づいて、位置xにおける高さzを算出することができる。 As described above, if the luminance value I (x) is obtained, the value of I ^ (x) can be obtained from the above equation (15), and the phase φ (x) can be obtained from the above equation (13). Then, based on the phase difference Δφ (x) between the obtained phase φ (x) and the phase φ 0 (x) on the reference plane, the height z at the position x can be calculated based on the above-described triangulation principle. it can.

高さzは、具体的には、基準面からの距離として算出され、次の式(16)   Specifically, the height z is calculated as a distance from the reference plane, and the following equation (16)

によって求めることができる。なお、上記の式(16)において、A(x,z)およびB(x,z)は、パタン周期やカメラから基準面までの距離、パタンの投影角度などの幾何学的配置に依存して各画素ごとに決まる関数である。ただし、これらの関数は、未知数zの関数なので、厳密な形を算出するのは困難である。従って、本実施形態では、予め高さが既知の校正用ターゲットを観測して、A(x,z)およびB(x,z)の値を各画素xごとに算出し、これを用いて直線近似やスプライン関数近似でzの関数形を推定している。 Can be obtained. In the above equation (16), A (x, z) and B (x, z) depend on the geometrical arrangement such as the pattern period, the distance from the camera to the reference plane, and the projection angle of the pattern. This is a function determined for each pixel. However, since these functions are functions of the unknown number z, it is difficult to calculate an exact form. Therefore, in this embodiment, a calibration target with a known height is observed in advance, and the values of A (x, z) and B (x, z) are calculated for each pixel x, and are used to calculate a straight line. The function form of z is estimated by approximation or spline function approximation.

次に、計測処理部71の構成について説明する。図12は、画像解析・処理ユニット16の要部構成、特に計測処理部71の要部構成を示している。計測処理部71は、背景除去部72、輝度取得部73、Hilbert変換部74、位相算出部75、位相差算出部76、および高さ算出部77を備えている。また、画像解析・処理ユニット16の記憶部46には、逆正接DB(Database)62、基準位相DB63、および三次元形状DB64が存在する。   Next, the configuration of the measurement processing unit 71 will be described. FIG. 12 shows the main configuration of the image analysis / processing unit 16, particularly the main configuration of the measurement processing unit 71. The measurement processing unit 71 includes a background removal unit 72, a luminance acquisition unit 73, a Hilbert conversion unit 74, a phase calculation unit 75, a phase difference calculation unit 76, and a height calculation unit 77. The storage unit 46 of the image analysis / processing unit 16 includes an arctangent DB (Database) 62, a reference phase DB 63, and a three-dimensional shape DB 64.

逆正接DB62は、y=tan-1xによって表される関数におけるyとxとの対応を示すデータベースであり、xの値と、tan-1xの値とが予め関連付けて格納されている。これにより、xの値に基づいて、その逆正接の値yを検索することができる。 The arc tangent DB 62 is a database indicating the correspondence between y and x in a function represented by y = tan −1 x, and stores the value of x and the value of tan −1 x in advance. Thus, the arctangent value y can be searched based on the value of x.

基準位相DB63は、光パタンを投影した基準面(高さが常に0の平面)を撮像したライン画像の各画素における光パタンの位相(以下「基準位相」という)を予め格納したデータベースであり、ライン画像に含まれる画素の主走査方向の位置xと、その画素における基準位相φ(x)とが関連付けて格納されている。これにより、ライン画像に含まれる画素の位置xの情報に基づいて、その画素における基準位相φ(x)を検索することができる。なお、基準位相DB63は、校正モードにおいて、記憶部46に予め格納または更新されることが望ましい。 The reference phase DB 63 is a database that stores in advance the phase of an optical pattern (hereinafter referred to as “reference phase”) in each pixel of a line image obtained by imaging a reference plane (a plane whose height is always 0) on which the optical pattern is projected, A position x in the main scanning direction of a pixel included in the line image and a reference phase φ 0 (x) in the pixel are stored in association with each other. Thereby, based on the information on the position x of the pixel included in the line image, the reference phase φ 0 (x) in the pixel can be searched. The reference phase DB 63 is preferably stored or updated in advance in the storage unit 46 in the calibration mode.

三次元形状DB64は、計測によって得られた計測対象12の三次元形状情報を格納するためのデータベースである。この三次元形状DB52には、計測対象12の表面上の点を特定するx座標(主走査方向に相当)、y座標(副走査方向に相当)、z座標(高さに相当)が関連付けて格納される。これにより、計測終了後に、計測対象12のx座標およびy座標に基づいて、その位置における高さ(z座標)を検索することができる。   The three-dimensional shape DB 64 is a database for storing three-dimensional shape information of the measurement target 12 obtained by measurement. The three-dimensional shape DB 52 is associated with x-coordinates (corresponding to the main scanning direction), y-coordinates (corresponding to the sub-scanning direction), and z-coordinates (corresponding to the height) that specify points on the surface of the measurement object 12. Stored. Thus, after the measurement is completed, the height (z coordinate) at the position can be searched based on the x coordinate and the y coordinate of the measurement target 12.

背景除去部72は、キャプチャボード44から取得したライン画像から背景成分を除去するものである。背景除去部72は、背景成分を除去したライン画像を輝度取得部73およびHilbert変換部74に送信する。具体的には、背景除去部72は、光パタンを投影した状態で計測対象12を撮像したライン画像と、光パタンを投影せずに一様な輝度の光を照射した状態で計測対象12を撮像した対照ライン画像とを取得し、光パタンを投影した状態のライン画像における各画素の輝度値を、上記対照ライン画像の対応する画素の輝度値で除算している。   The background removing unit 72 removes a background component from the line image acquired from the capture board 44. The background removal unit 72 transmits the line image from which the background component has been removed to the luminance acquisition unit 73 and the Hilbert conversion unit 74. Specifically, the background removing unit 72 displays the line image obtained by capturing the measurement object 12 with the light pattern projected and the measurement object 12 irradiated with light having a uniform luminance without projecting the light pattern. The captured control line image is acquired, and the luminance value of each pixel in the line image in a state in which the light pattern is projected is divided by the luminance value of the corresponding pixel of the control line image.

なお、ライン画像における背景成分の除去を行う場合は、撮像ユニット15が光パタンを投影した状態と投影していない状態とで2回の走査を行う構成としてもよいし、撮像ユニット15と同様の第2の撮像ユニットをさらに設け、この第2の撮像ユニットが対照ライン画像を取得する構成としてもよい。   In addition, when removing the background component in a line image, it is good also as a structure which scans twice in the state which the imaging unit 15 projected the optical pattern, and the state which is not projecting, and is the same as that of the imaging unit 15 A second imaging unit may be further provided, and the second imaging unit may acquire the control line image.

上記2回の走査を行う場合には、投光ユニット13に備えるパタン生成素子32を液晶素子によって構成することが好ましい。これにより、光パタンのオン/オフを容易に切り換えることができるようになる。あるいは、ガラスまたはフィルムの表面に、パタンを形成した領域とパタンを形成していない領域とを有するパタン生成素子32を作製しておき、ガラスまたはフィルムをずらすことによって、パタンの有無を切り換えてもよい。   In the case of performing the above two scans, it is preferable that the pattern generating element 32 provided in the light projecting unit 13 is constituted by a liquid crystal element. This makes it possible to easily switch on / off the optical pattern. Alternatively, the pattern generation element 32 having a pattern formed area and a pattern formed area on the surface of the glass or film is prepared, and the presence or absence of the pattern is switched by shifting the glass or film. Good.

輝度取得部73は、背景除去部72からのライン画像データ、すなわち背景成分の除去されたライン画像データから、位置xにおける画素の輝度値I(x)を取得するものである。輝度取得部73は、取得した輝度値を位相算出部75に送信する。   The luminance acquisition unit 73 acquires the luminance value I (x) of the pixel at the position x from the line image data from the background removal unit 72, that is, the line image data from which the background component has been removed. The luminance acquisition unit 73 transmits the acquired luminance value to the phase calculation unit 75.

Hilbert変換部74は、背景除去部72からのライン画像データ、すなわち背景成分の除去されたライン画像データから、上記の式(15)に基づいて、位置xにおける移相光パタンによる画素の輝度値I^(x)を算出するものである。Hilbert変換部74は、算出した輝度値を位相算出部75に送信する。   The Hilbert conversion unit 74 calculates the luminance value of the pixel based on the phase-shifted light pattern at the position x from the line image data from the background removal unit 72, that is, the line image data from which the background component has been removed, based on the equation (15) I ^ (x) is calculated. The Hilbert conversion unit 74 transmits the calculated luminance value to the phase calculation unit 75.

位相算出部75は、輝度取得部73からの輝度値I(x)と、Hilbert変換部74からの輝度値I^(x)とを用い、上記の式(13)に基づいて、位置xにおける光パタンの位相を算出する。位相算出部75は、算出した位相を位相差算出部76に送信する。なお、位相算出部75は、輝度値I(x)を輝度値I^(x)で除算した後、その逆正接の値を、逆正接DB62を参照することによって求めてもよい。   The phase calculation unit 75 uses the luminance value I (x) from the luminance acquisition unit 73 and the luminance value I ^ (x) from the Hilbert conversion unit 74, and at the position x based on the above equation (13). The phase of the optical pattern is calculated. The phase calculation unit 75 transmits the calculated phase to the phase difference calculation unit 76. The phase calculation unit 75 may determine the arctangent value by referring to the arctangent DB 62 after dividing the luminance value I (x) by the luminance value I ^ (x).

位相差算出部76は、位相算出部75から位置xにおける光パタンの位相φ(x)を受信するとともに、基準位相DB63を参照して位置xにおける光パタンの基準位相φ(x)を取得し、上記位相φ(x)から上記基準位相φ(x)を減算することによって、位置xにおける位相差(位相のずれ)Δφ(x)を算出するものである。位相差算出部76は、算出した位相差を高さ算出部77に送信する。 The phase difference calculation unit 76 receives the phase φ (x) of the optical pattern at the position x from the phase calculation unit 75 and acquires the reference phase φ 0 (x) of the optical pattern at the position x with reference to the reference phase DB 63. The phase difference (phase shift) Δφ (x) at the position x is calculated by subtracting the reference phase φ 0 (x) from the phase φ (x). The phase difference calculation unit 76 transmits the calculated phase difference to the height calculation unit 77.

高さ算出部77は、位相差算出部76からの位相差Δφ(x)から、上記の式(16)に基づいて、位置xにおける計測対象12の高さzを算出するものである。高さ算出部77は、算出した高さzを、主走査方向の座標xおよび副走査方向の座標yと関連付けて、三次元形状DB64に格納する。   The height calculator 77 calculates the height z of the measurement object 12 at the position x from the phase difference Δφ (x) from the phase difference calculator 76 based on the above equation (16). The height calculation unit 77 stores the calculated height z in the three-dimensional shape DB 64 in association with the coordinate x in the main scanning direction and the coordinate y in the sub scanning direction.

続いて、上記構成の三次元形状計測システム10における処理動作について説明する。三次元形状計測システム10は、まず校正モードに移行して校正を行った後に、計測モードに移行して計測対象12の三次元形状を計測している。   Next, a processing operation in the three-dimensional shape measurement system 10 having the above configuration will be described. The three-dimensional shape measurement system 10 first shifts to the calibration mode and performs calibration, and then shifts to the measurement mode and measures the three-dimensional shape of the measurement object 12.

校正モードでは、図1に示すように、移動テーブル41上に校正用ターゲット20が適所に載置されて校正が行われる。図8は、校正モードにおいて画像解析・処理ユニット16が行う処理動作を示している。   In the calibration mode, as shown in FIG. 1, the calibration target 20 is placed on an appropriate position on the moving table 41 and calibration is performed. FIG. 8 shows processing operations performed by the image analysis / processing unit 16 in the calibration mode.

図8に示すように、まず、ライン認識部53は、撮像ユニット15が撮像した校正用ターゲット20の撮影画像を、キャプチャボード44を介して取得する(ステップS11)。次に、ライン認識部53は、取得した撮影画像から、公知の画像認識技術を用いて、校正用ターゲット20に施されたライン25〜28を認識して、ライン25〜28の画像領域を識別する(ステップS12)。   As illustrated in FIG. 8, first, the line recognition unit 53 acquires a captured image of the calibration target 20 captured by the imaging unit 15 via the capture board 44 (step S11). Next, the line recognition unit 53 recognizes the lines 25 to 28 applied to the calibration target 20 from the acquired photographed image using a known image recognition technique, and identifies the image areas of the lines 25 to 28. (Step S12).

次に、間隔算出部54は、ライン認識部53が識別したライン25〜28の画像領域に基づいて、各傾斜面23・24におけるラインの画像上の間隔、すなわちライン25・26の画像上の間隔と、ライン27・28の画像上の間隔とを算出する(ステップS13)。次に、傾き算出部55は、間隔算出部54が算出した間隔と、設定値格納部61から読み出した角θ1または傾斜角αとに基づき、上記の式(7)を利用して傾きφを算出し、算出した傾きφを、出力部48を介して外部に出力する(ステップS14)。そして、校正を繰り返すか否かをユーザに問い合わせ(ステップS15)、繰り返す場合にはステップS11に戻って上記動作を繰り返し、繰り返さない場合には校正モードを終了する。   Next, based on the image areas of the lines 25 to 28 identified by the line recognizing unit 53, the interval calculating unit 54 determines the interval between the lines on the inclined surfaces 23 and 24, that is, on the images of the lines 25 and 26. The interval and the interval on the image of the lines 27 and 28 are calculated (step S13). Next, the inclination calculation unit 55 calculates the inclination φ using the above equation (7) based on the interval calculated by the interval calculation unit 54 and the angle θ1 or the inclination angle α read from the set value storage unit 61. The calculated inclination φ is output to the outside via the output unit 48 (step S14). Then, the user is inquired whether or not to repeat the calibration (step S15). When the calibration is repeated, the process returns to step S11 to repeat the above operation, and when not repeated, the calibration mode is terminated.

図13は、計測モードにおいて画像解析・処理ユニット16が行う画像解析処理を示している。画像解析・処理ユニット16は、直線状に画素が配列されたライン画像において、その一端部から他端部に向かって順次高さを算出する。よって、まず、主走査方向における画素の位置xを0にセットする(ステップS21)。   FIG. 13 shows image analysis processing performed by the image analysis / processing unit 16 in the measurement mode. The image analysis / processing unit 16 sequentially calculates the height from one end to the other end of the line image in which pixels are arranged in a straight line. Therefore, first, the pixel position x in the main scanning direction is set to 0 (step S21).

次に、画像解析・処理ユニット16は、位置xにおける位相φ(x)を取得する(ステップS22)。具体的には、まず、輝度取得部73は、背景除去部72にて背景成分が除去されたライン画像データから、位置xにおける画素の輝度値I(x)を取得する。続いて、Hilbert変換部74が、ライン画像データから、上記の式(15)に基づいて、位置xにおける移相光パタンによる画素の輝度値I^(x)を算出する。なお、Hilbert変換部74が処理を行った後に、輝度取得部73が処理を行ってもよいし、Hilbert変換部74および輝度取得部73が処理を同時に行ってもよい。   Next, the image analysis / processing unit 16 acquires the phase φ (x) at the position x (step S22). Specifically, first, the luminance acquisition unit 73 acquires the luminance value I (x) of the pixel at the position x from the line image data from which the background component has been removed by the background removal unit 72. Subsequently, the Hilbert conversion unit 74 calculates the luminance value I ^ (x) of the pixel based on the phase-shifted light pattern at the position x from the line image data based on the above equation (15). Note that the luminance acquisition unit 73 may perform the processing after the Hilbert conversion unit 74 performs the processing, or the Hilbert conversion unit 74 and the luminance acquisition unit 73 may perform the processing simultaneously.

そして、位相算出部75は、輝度取得部73が取得した位置xにおける輝度値I(x)と、Hilbert変換部74が算出した位置xにおける輝度値I^(x)とから、上記の式(13)に基づいて、位置xにおける光パタンの位相φ(x)を算出する。   Then, the phase calculation unit 75 calculates the above equation (1) from the luminance value I (x) at the position x acquired by the luminance acquisition unit 73 and the luminance value I ^ (x) at the position x calculated by the Hilbert conversion unit 74. Based on 13), the phase φ (x) of the optical pattern at the position x is calculated.

次に、位相差算出部76は、取得した位置xにおける位相φ(x)から、基準位相DB63を参照して取得した位置xにおける基準位相φ(x)を減算することによって、位置xにおける位相差Δφ(x)を算出する(ステップS23)。次に、高さ算出部77は、位相差算出部76が算出した位相差Δφ(x)から、上記の式(16)に基づいて、位置xにおける計測対象12の高さzを算出する(ステップS24)。高さ算出部77は、このようにして算出した高さzを、主走査方向の座標xおよび副走査方向の座標yと関連付けて、三次元形状DB64に格納する(ステップS25)。 Next, the phase difference calculation unit 76 subtracts the reference phase φ 0 (x) at the position x acquired with reference to the reference phase DB 63 from the phase φ (x) at the acquired position x, thereby obtaining the position x at the position x. A phase difference Δφ (x) is calculated (step S23). Next, the height calculation unit 77 calculates the height z of the measurement object 12 at the position x based on the above equation (16) from the phase difference Δφ (x) calculated by the phase difference calculation unit 76 ( Step S24). The height calculation unit 77 stores the height z calculated in this way in the three-dimensional shape DB 64 in association with the coordinate x in the main scanning direction and the coordinate y in the sub scanning direction (step S25).

続いて、位置xが直線状のライン画像の終端であるか否かを判定する(ステップS26)。ここで、位置xがライン画像の終端である場合は、画像解析処理を終了する。一方、位置xがライン画像の終端でない場合は、注目画素の位置を主走査方向に1画素分ずらすために、xの値を1つ増やす(ステップS27)。そして、ステップS22に戻る。   Subsequently, it is determined whether or not the position x is the end of the linear line image (step S26). Here, if the position x is the end of the line image, the image analysis process is terminated. On the other hand, if the position x is not the end of the line image, the value of x is increased by one in order to shift the position of the target pixel by one pixel in the main scanning direction (step S27). Then, the process returns to step S22.

上記のステップS22からステップS27の処理を繰り返すことにより、三次元形状DB64には、計測対象12の主走査方向に沿った各位置における高さ情報が蓄積される。また、上記の画像解析処理が終了すると、移動ユニット11が計測対象12を副走査方向にずらし、その後、撮像ユニット15が計測対象12を再び撮像し、撮像によって得られたライン画像に基づいて再び上記の画像解析処理が行われる。これにより、三次元形状DB64には、副走査方向に沿った各位置における高さ情報も順次蓄積され、最終的に、計測対象12全体の三次元形状情報が蓄積される。   By repeating the processing from step S22 to step S27, height information at each position along the main scanning direction of the measurement target 12 is accumulated in the three-dimensional shape DB 64. When the image analysis process is completed, the moving unit 11 shifts the measurement target 12 in the sub-scanning direction, and then the imaging unit 15 captures the measurement target 12 again, and again based on the line image obtained by the imaging. The image analysis process described above is performed. Thereby, the height information at each position along the sub-scanning direction is sequentially accumulated in the three-dimensional shape DB 64, and finally, the three-dimensional shape information of the entire measurement target 12 is accumulated.

なお、Hilbert変換部74が、式(15)に基づいて位置xにおける移相光パタンの輝度値を求める際に、式(15)のパラメータNの値を、入力・設定部47を介して変更可能にすることが好ましい。これは、位置xにおける移相光パタンの輝度を算出する際に用いる注目画素近傍の画素の数を可変にすることを意味する。あるいは、空間縞解析法で用いるフィルタのサイズを可変にするともいえる。   When the Hilbert conversion unit 74 obtains the luminance value of the phase-shifting light pattern at the position x based on the equation (15), the value of the parameter N in the equation (15) is changed via the input / setting unit 47. Preferably it is possible. This means that the number of pixels near the target pixel used when calculating the luminance of the phase-shifted light pattern at the position x is variable. Or it can be said that the size of the filter used in the spatial fringe analysis method is made variable.

ここで、Nの値を大きくする(すなわちフィルタのサイズを大きくする)と、より多くの画素に基づいて位相を算出することになり、最終的に求められる高さ情報の算出精度が向上する。一方、Nの値を小さくする(すなわちフィルタのサイズを小さくする)と、I^(x)の算出に必要な演算回数が少なくなり、算出速度が向上する。また、注目画素近傍の画素に黒点などの輝度の不連続点が含まれ難くなるので、不連続点による誤差伝搬の影響を抑制することもできる。   Here, when the value of N is increased (that is, the size of the filter is increased), the phase is calculated based on more pixels, and the calculation accuracy of the finally obtained height information is improved. On the other hand, if the value of N is reduced (that is, the size of the filter is reduced), the number of calculations required for calculating I ^ (x) is reduced, and the calculation speed is improved. Further, since it is difficult for a pixel near the target pixel to include a discontinuous point of luminance such as a black point, the influence of error propagation due to the discontinuous point can be suppressed.

それ以外にも、撮像ユニット15によって撮像されたライン画像に対して、輝度取得部73およびHilbert変換部74に送信する前に前処理を行ってもよい。前処理の内容としては、例えばライン画像に含まれるノイズの除去などが挙げられる。さらに、位相算出部75が位相を算出した後に、算出した位相に対して後処理を行ってもよい。例えば、位相算出部75と位相差算出部76との間にPLL(Phase Locked Loop)部をさらに設け、ノイズによる誤差を軽減することなどが挙げられる。   In addition, the line image captured by the imaging unit 15 may be preprocessed before being transmitted to the luminance acquisition unit 73 and the Hilbert conversion unit 74. Examples of the content of the preprocessing include removal of noise included in the line image. Furthermore, after the phase calculation unit 75 calculates the phase, post-processing may be performed on the calculated phase. For example, a PLL (Phase Locked Loop) unit may be further provided between the phase calculation unit 75 and the phase difference calculation unit 76 to reduce an error due to noise.

なお、上記の前処理は、図13に示すステップS22よりも前に行えばよく、一方上記の後処理は、図13に示すステップS22とステップS23との間に行えばよい。   Note that the pre-processing described above may be performed before step S22 shown in FIG. 13, while the post-processing described above may be performed between step S22 and step S23 shown in FIG.

以上により、画像解析・処理ユニット16は、校正用ターゲット20と、撮像ユニット15によって撮像されたライン画像とを基に、校正を行うことができると共に、撮像ユニット15によって撮像されたライン画像を基に、計測対象12の三次元形状を計測することができる。   As described above, the image analysis / processing unit 16 can perform calibration based on the calibration target 20 and the line image captured by the imaging unit 15, and based on the line image captured by the imaging unit 15. In addition, the three-dimensional shape of the measurement object 12 can be measured.

次に、本実施形態の校正用ターゲット20の変形例について説明する。図14〜図19は、校正用ターゲット20の変形例を示しており、各図の(a)に概要を示し、(b)に正面図および平面図を示している。   Next, a modified example of the calibration target 20 of the present embodiment will be described. FIGS. 14 to 19 show modified examples of the calibration target 20, in which (a) shows an outline and (b) shows a front view and a plan view.

図14は、正面から見た形状がM字形状である校正用ターゲット20を示している。図示のように、校正用ターゲット20は、内側に傾斜面を有する形状であってもよい。また、図15は、正面から見た形状が台形である校正用ターゲット20を示している。図示のように、校正用ターゲット20は、傾斜面同士が交わらなくてもよい。   FIG. 14 shows the calibration target 20 whose shape viewed from the front is M-shaped. As illustrated, the calibration target 20 may have a shape having an inclined surface inside. FIG. 15 shows the calibration target 20 having a trapezoidal shape when viewed from the front. As shown in the drawing, the calibration targets 20 do not need to have inclined surfaces intersecting each other.

また、図16および図17は、傾斜面が曲面で形成されていた校正用ターゲット20を示している。また、図18は、傾斜角が異なる傾斜面を有する校正用ターゲット20を示している。これらの場合、ラインは、真上から見たラインの間隔、すなわち底面に正射影したラインの間隔が等しくなるように傾斜面に施せばよい。   16 and 17 show the calibration target 20 in which the inclined surface is formed as a curved surface. FIG. 18 shows a calibration target 20 having inclined surfaces with different inclination angles. In these cases, the lines may be provided on the inclined surfaces so that the intervals of the lines viewed from directly above, that is, the intervals of the lines orthogonally projected onto the bottom surface are equal.

また、図19は、正面から見た形状が、三角形を複数個配列した形状である校正用ターゲット20を示している。この場合、傾斜面の組合せが複数個となるので、図示の校正用ターゲット20を撮像ユニット15が1度撮影することにより、傾き算出部55が複数の傾きφを算出することができる。従って、傾き算出部55が、算出した複数の傾きφの平均値を、出力部48を介して外部に出力すると、傾きφの誤差を減らすことができるので、傾きφの精度を向上させることができる。換言すれば、傾きφの精度を向上させるために、撮像ユニット15が校正用ターゲットを複数回撮影する必要が無い。   FIG. 19 shows the calibration target 20 in which the shape seen from the front is a shape in which a plurality of triangles are arranged. In this case, since there are a plurality of combinations of the inclined surfaces, the inclination calculating unit 55 can calculate a plurality of inclinations φ when the imaging unit 15 captures the illustrated calibration target 20 once. Therefore, if the inclination calculating unit 55 outputs the calculated average value of the plurality of inclinations φ to the outside via the output unit 48, the error of the inclination φ can be reduced, so that the accuracy of the inclination φ can be improved. it can. In other words, it is not necessary for the imaging unit 15 to image the calibration target a plurality of times in order to improve the accuracy of the inclination φ.

以上のように、校正用ターゲット20としては、種々の形状のものを利用することができる。また、本実施形態では、傾斜面に2本のラインを施し、ラインの間隔を利用して撮像ユニット15の傾きφを校正しているが、傾斜面に1本の太いラインを施し、該ラインの線幅を利用して撮像ユニット15の傾きφを校正してもよい。このように、傾斜方向に幅を規定できるものであれば、任意のパタンを利用することができる。   As described above, the calibration target 20 can have various shapes. In the present embodiment, two lines are provided on the inclined surface, and the inclination φ of the image pickup unit 15 is calibrated using the line interval. However, one thick line is provided on the inclined surface, and the line The inclination φ of the imaging unit 15 may be calibrated using the line width of. Thus, any pattern can be used as long as the width can be defined in the tilt direction.

次に、計測対象12に投影する光パタンの好ましい変形例について説明する。   Next, a preferred modification of the optical pattern projected onto the measurement object 12 will be described.

本実施形態の三次元形状計測システム10や、上述した特許文献1や非特許文献1の装置(以下「従来の装置」という)では、計測対象12に投影する光パタンの輝度が、ラインセンサ34の主走査方向に沿って変化する構成となっている。ここで、従来の装置では、位相をずらした最低2種類の光パタンを計測対象に投影した状態で撮像するために、光パタンの輝度の変化のピッチが最も小さくなる方向(以下「最小ピッチ方向」という)を、ラインセンサの主走査方向と異ならせる必要があった。なぜならば、それら2つの方向を一致させてしまうと、ラインセンサの主走査方向に対して垂直な方向の搬送方向に計測対象を搬送しても、計測対象の同一部分に投影される光パタンの位相がずれないからである。   In the three-dimensional shape measurement system 10 of the present embodiment and the devices described in Patent Document 1 and Non-Patent Document 1 described above (hereinafter referred to as “conventional device”), the brightness of the optical pattern projected onto the measurement target 12 is determined by the line sensor 34. The configuration changes along the main scanning direction. Here, in the conventional apparatus, in order to capture an image in a state in which at least two types of optical patterns whose phases are shifted are projected onto the measurement target, the direction in which the pitch of the change in the luminance of the optical pattern becomes the smallest (hereinafter referred to as “the minimum pitch direction” Need to be different from the main scanning direction of the line sensor. This is because, if these two directions are matched, even if the measurement target is transported in the transport direction perpendicular to the main scanning direction of the line sensor, the optical pattern projected on the same part of the measurement target This is because the phase does not shift.

一方、本実施形態の三次元形状計測システム10では、光パタンが投影された計測対象12をラインセンサ34によって撮像して得られた1つのライン画像のみに基づいて、光パタンの位相、ひいては位相差を算出することができる。従って、光パタンの最小ピッチ方向をラインセンサ34の主走査方向と一致させても何ら問題は生じない。   On the other hand, in the three-dimensional shape measurement system 10 of the present embodiment, the phase of the optical pattern, and hence the position, based on only one line image obtained by imaging the measurement target 12 on which the optical pattern is projected by the line sensor 34. The phase difference can be calculated. Therefore, no problem occurs even if the minimum pitch direction of the optical pattern is made to coincide with the main scanning direction of the line sensor 34.

ここで、ラインセンサ34によって撮像したライン画像において、光パタンの輝度のピッチは、高さ計測を行う上で、計測精度を決定する重要な因子になる。具体的には、ピッチを小さくすればするほど計測精度が向上する。そして、ラインセンサ34が撮像したライン画像において光パタンの輝度のピッチが最も小さくなるのは、光パタンの最小ピッチ方向が、ラインセンサ34の主走査方向と一致する場合である。従って、本実施形態の三次元形状計測システム10において、計測対象12に対して投影される光パタンの最小ピッチ方向は、ラインセンサ34の主走査方向と平行である(一致している)ことが好ましい。   Here, in the line image captured by the line sensor 34, the brightness pitch of the optical pattern is an important factor for determining the measurement accuracy in measuring the height. Specifically, the measurement accuracy improves as the pitch is reduced. In the line image captured by the line sensor 34, the light pattern has the smallest brightness pitch when the minimum pitch direction of the light pattern matches the main scanning direction of the line sensor 34. Therefore, in the three-dimensional shape measurement system 10 of the present embodiment, the minimum pitch direction of the optical pattern projected onto the measurement target 12 is parallel to (matches) the main scanning direction of the line sensor 34. preferable.

ところで、従来の装置では、光パタンを複数のラインセンサで撮像するため、複数のラインセンサそれぞれの撮像領域に対して光パタンを投影する必要がある。ここで、複数のラインセンサのそれぞれに個別の専用の投影部を設ける場合、投影される光パタンが投影部ごとにバラついてしまうという問題が生じる。このような問題から、投影部を1つにすることが一般的となっている。ここで、投光ユニットを1つにするためには、複数のラインセンサの撮像領域全てカバーできる光パタンを投影する必要がある。   By the way, in the conventional apparatus, since an optical pattern is imaged with a some line sensor, it is necessary to project an optical pattern with respect to each imaging area of a some line sensor. Here, when an individual dedicated projection unit is provided for each of the plurality of line sensors, there is a problem that the projected light pattern varies for each projection unit. From such a problem, it is common to use one projection unit. Here, in order to use one light projecting unit, it is necessary to project an optical pattern that can cover all the imaging regions of a plurality of line sensors.

しかしながら、本実施形態の三次元形状計測システム10では、単一のラインセンサ34を用いて計測対象12を撮像する構成であるため、投光ユニット13によって投影される光パタンは、単一のラインセンサ34の撮像領域のみをカバーすればよい。よって、本実施形態の三次元形状計測システム10において、投影する光パタンは、図1および図2のように二次元方向に広がったものでなくてもよい。   However, since the three-dimensional shape measurement system 10 of the present embodiment is configured to image the measurement target 12 using the single line sensor 34, the light pattern projected by the light projecting unit 13 is a single line. Only the imaging area of the sensor 34 need be covered. Therefore, in the three-dimensional shape measurement system 10 of the present embodiment, the projected optical pattern may not be spread in the two-dimensional direction as shown in FIGS.

この際、光パタンのエネルギー効率を高める上では、投光ユニット13が、集光した光パタンを投影することが好ましい。具体的には、投光ユニット13が、図17に示すように、ラインセンサ34の主走査方向に延在する1軸に集光した直線形状の光パタン(厳密には副走査方向に微小有限幅を有する)を計測対象12に投影することが好ましい。この場合、投光ユニット13は、光パタンを1軸集光するための1軸集光素子を備え、この1軸集光素子によって光パタンを主走査方向に延在する直線形状に集光すればよい。この直線形状の光パタンは、ラインセンサ34の撮像領域をカバーするように投影される。   At this time, in order to increase the energy efficiency of the optical pattern, it is preferable that the light projecting unit 13 projects the condensed optical pattern. Specifically, as shown in FIG. 17, the light projecting unit 13 has a linear optical pattern condensed on one axis extending in the main scanning direction of the line sensor 34 (strictly speaking, a minute finite amount in the sub scanning direction). It is preferable to project the measurement object 12 on the measurement object 12. In this case, the light projecting unit 13 includes a uniaxial condensing element for condensing the optical pattern uniaxially, and the uniaxial condensing element collects the optical pattern in a linear shape extending in the main scanning direction. That's fine. This linear optical pattern is projected so as to cover the imaging region of the line sensor 34.

なお、上記1軸集光素子の具体例としては、フレネルレンズまたはシリンドリカルレンズなどが挙げられる。これらのレンズをパタン生成素子32と計測対象12との間に配置すれば、計測対象12に対して1軸に集光した光パタンを投影することができる。   Specific examples of the uniaxial condensing element include a Fresnel lens or a cylindrical lens. If these lenses are arranged between the pattern generating element 32 and the measurement target 12, it is possible to project an optical pattern condensed on one axis with respect to the measurement target 12.

次に、本実施形態の三次元形状計測システム10の変形例について説明する。上記の説明では、撮像ユニット15が1本のラインセンサ34のみを備える構成としたが、本発明はこれに限定されず、複数のラインセンサを備えていてもよい。複数本のラインセンサを備えることにより、ラインセンサの輝度ノイズを統計的に除去することができ、三次元形状計測の安定性を向上させることができる。あるいは、計測対象12の同一部分を複数回撮像することによってノイズを除去する構成にしてもよい。   Next, a modified example of the three-dimensional shape measurement system 10 of the present embodiment will be described. In the above description, the imaging unit 15 includes only one line sensor 34. However, the present invention is not limited to this, and may include a plurality of line sensors. By providing a plurality of line sensors, luminance noise of the line sensors can be statistically removed, and the stability of three-dimensional shape measurement can be improved. Or you may make it the structure which removes noise by imaging the same part of the measuring object 12 in multiple times.

また、本実施形態では、三次元形状計測システム10は、別々の構成となっているが、それらの構成の一部または全部を一体の構成とすることもできる。また、本実施形態では、ライン画像を空間縞解析法に基づいて解析しているが、時間縞解析法に基づいて解析することもできる。   Moreover, in this embodiment, although the three-dimensional shape measurement system 10 has a separate configuration, part or all of these configurations can be integrated. Moreover, in this embodiment, although the line image is analyzed based on the space fringe analysis method, it can also be analyzed based on the time fringe analysis method.

〔実施の形態2〕
次に、本発明の別の実施形態について図20〜図25に基づいて説明すると以下の通りである。図20は、本実施形態に係る三次元形状計測システム10に利用される校正用ターゲット80の外観を示している。図20に示す校正用ターゲット80は、図3に示す校正用ターゲット20に比べて、傾斜面に施されるパタンが異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の機能を有する構成には同一の符号を付して、その説明を省略する。
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 20 shows the appearance of the calibration target 80 used in the three-dimensional shape measurement system 10 according to this embodiment. The calibration target 80 shown in FIG. 20 differs from the calibration target 20 shown in FIG. 3 in the pattern applied to the inclined surface, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure which has the function similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図20に示す校正用ターゲット80は、図3に示す校正用ターゲット20と同様に、底面81と底面に平行な稜線82とを有し、稜線の両側に傾斜面83・84を有している。傾斜面83・84は、底面81に対する角度である傾斜角αが等しくなるように形成されている。一方、本実施形態の校正用ターゲット80は、図3に示す校正用ターゲット20と異なり、各傾斜面83・84に縞状のパタンが繰り返し形成されている。   A calibration target 80 shown in FIG. 20 has a bottom surface 81 and a ridge line 82 parallel to the bottom surface, and inclined surfaces 83 and 84 on both sides of the ridge line, similarly to the calibration target 20 shown in FIG. . The inclined surfaces 83 and 84 are formed so that the inclination angles α, which are the angles with respect to the bottom surface 81, are equal. On the other hand, unlike the calibration target 20 shown in FIG. 3, the calibration target 80 according to the present embodiment has striped patterns repeatedly formed on the inclined surfaces 83 and 84.

ところで、上記実施形態では、ラインの間隔を計測するためにラインがぼやけることなく撮像ユニット15が撮影する必要がある。すなわち、撮像ユニット15は、ライン25〜28の全てにピントを合わせて撮影できる必要がある。逆に言うと、ライン25〜28は、図25に示すような、ピントの合う範囲を示す被写界深度内に形成される必要がある。   By the way, in the said embodiment, in order to measure the space | interval of a line, it is necessary for the imaging unit 15 to image | photograph without blurring a line. That is, the imaging unit 15 needs to be able to shoot with all the lines 25 to 28 in focus. In other words, the lines 25 to 28 need to be formed within the depth of field indicating the in-focus range as shown in FIG.

しかしながら、微細な対象を高解像度で計測する三次元形状計測システムの場合、上記被写界深度が狭くなるので、校正用ターゲット20に形成されるライン等のパタンの範囲が制限されることになる。   However, in the case of a three-dimensional shape measurement system that measures a fine object with high resolution, the depth of field becomes narrow, so that the range of a pattern such as a line formed on the calibration target 20 is limited. .

これに対し、本実施形態の校正用ターゲットは、縞状のパタンが繰り返し形成されているので、一部のパタンにピントが合えば、撮像ユニット15の光軸方向を校正することができる。図21は、上記構成の校正用ターゲット80を、移動ユニット11の上面に載置して撮像ユニット15が撮影した撮影画像を示している。同図の(a)は、撮像ユニット15が正常な状態に取り付けられた場合を示しており、(b)は、撮像ユニット15が傾いた状態に取り付けられた場合を示している。   On the other hand, since the calibration target of the present embodiment is repeatedly formed with striped patterns, the optical axis direction of the imaging unit 15 can be calibrated if a part of the pattern is in focus. FIG. 21 shows a captured image taken by the imaging unit 15 with the calibration target 80 having the above-described configuration placed on the upper surface of the moving unit 11. (A) of the figure shows a case where the imaging unit 15 is attached in a normal state, and (b) shows a case where the imaging unit 15 is attached in an inclined state.

図21を参照すると、各傾斜面83・84においてピントの合う領域(矢印で示す領域)が存在することが理解できる。従って、当該領域のパタンを傾斜面83・84同士で比較することにより、上述のように、基準面に対する撮像ユニット15の傾きの校正を行うことができ、被写界深度の影響を受けることが無い。また、撮像ユニット15は、繰り返し形成された上記パタンの何れかにピントが合うようにピント位置を調整すればよいので、調整可能なピント位置の範囲を拡大することができる。   Referring to FIG. 21, it can be understood that there are in-focus regions (regions indicated by arrows) on each of the inclined surfaces 83 and 84. Therefore, by comparing the pattern of the area between the inclined surfaces 83 and 84, as described above, the inclination of the imaging unit 15 with respect to the reference surface can be calibrated, and it is affected by the depth of field. No. In addition, the imaging unit 15 only needs to adjust the focus position so that any of the repeatedly formed patterns is in focus, so that the range of adjustable focus positions can be expanded.

さらに、本実施形態の校正用ターゲットは、被写界深度による現象を利用して、撮像ユニット15の光軸方向を校正することができる。再び図21を参照すると、上記正常な状態の場合、各傾斜面83・84においてピントの合う領域の幅(矢印で示す長さ)が等しいことが理解できる。一方、上記傾いた状態の場合、各傾斜面83・84においてピントの合う領域の幅が異なることが理解できる。従って、各傾斜面83・84においてピントの合う領域の幅が同じとなるように撮像ユニット15を調整することにより、撮像ユニット15の光軸方向を校正することができる。   Furthermore, the calibration target of the present embodiment can calibrate the optical axis direction of the imaging unit 15 by using a phenomenon caused by the depth of field. Referring to FIG. 21 again, in the normal state, it can be understood that the widths (the lengths indicated by arrows) of the in-focus regions on the inclined surfaces 83 and 84 are equal. On the other hand, in the case of the tilted state, it can be understood that the widths of the in-focus regions on the inclined surfaces 83 and 84 are different. Therefore, the optical axis direction of the imaging unit 15 can be calibrated by adjusting the imaging unit 15 so that the widths of the in-focus areas on the inclined surfaces 83 and 84 are the same.

従って、本実施形態の校正用ターゲット80を利用して、撮像ユニット15が撮影を行い、作成された撮影画像における傾斜面83・84の領域において、ピントの合う領域の幅同士を比較することにより、撮像ユニット15が正常な状態であるか傾いた状態であるかを判断できる。その結果、基準面に対する撮像ユニット15の傾きの校正を容易に行うことができる。   Therefore, by using the calibration target 80 of the present embodiment, the imaging unit 15 performs imaging, and in the areas of the inclined surfaces 83 and 84 in the created captured image, the widths of the focused areas are compared with each other. It can be determined whether the imaging unit 15 is in a normal state or in a tilted state. As a result, the inclination of the imaging unit 15 with respect to the reference plane can be easily calibrated.

なお、本実施形態では、縞状のパタンを利用しているが、繰返しのパタンであれば任意のパタンを利用することができる。   In this embodiment, a striped pattern is used, but any pattern can be used as long as it is a repeated pattern.

次に、縞の間隔が満たすべき条件について図22〜図24を参照して説明する。図22は、縞状のパタンの一部を拡大して示している。図示のように、白ラインの線幅をWw(μm)とし、黒ラインの線幅をBw(μm)とする。   Next, the conditions that should be satisfied by the stripe interval will be described with reference to FIGS. FIG. 22 shows an enlarged part of the striped pattern. As shown in the figure, the line width of the white line is Ww (μm), and the line width of the black line is Bw (μm).

上記縞の間隔が満たすべき条件には、カメラ分解能による条件と、レンズ解像力による条件と、被写界深度による条件とがある。   The conditions to be satisfied by the stripe interval include a condition based on the camera resolution, a condition based on the lens resolving power, and a condition based on the depth of field.

まず、カメラ分解能による条件として、白ラインおよび黒ラインの両方は、カメラ15において1画素以上で撮影される必要がある。このため、カメラの分解能をPw(μm/pix)とすると、次の式を満たす必要がある。
Pw<Ww、かつPw<Bw ・・・(17)
例えば、カメラの分解能が20μm/pixである場合、白ラインおよび黒ラインの線幅Ww・Bwは20μmよりも大きくする必要がある。
First, as a condition according to the camera resolution, both the white line and the black line need to be captured by the camera 15 with one pixel or more. For this reason, when the resolution of the camera is Pw (μm / pix), the following equation must be satisfied.
Pw <Ww and Pw <Bw (17)
For example, when the resolution of the camera is 20 μm / pix, the line widths Ww · Bw of the white line and the black line need to be larger than 20 μm.

次に、レンズ解像力の指標としてMTFがある。MTFは、被写体の持つコントラストをどの程度忠実に再現できるか表現した指標であり、さまざまな間隔(LinePair/mm)の縞を想定しグラフ化したものである。図23および図24は、上記MTFの一例を示している。   Next, there is MTF as an index of lens resolving power. The MTF is an index that expresses how faithfully the contrast of a subject can be reproduced, and is graphed assuming stripes of various intervals (LinePair / mm). 23 and 24 show an example of the MTF.

例えば、レンズ周辺で70%のコントラストを確保できる空間周波数が10(LP/mm)以下である場合、図23および図24のグラフから、白ラインおよび黒ラインの線幅Ww・Bwは、1000μm/(10×2)=50μm以上である必要がある。   For example, when the spatial frequency capable of securing 70% contrast around the lens is 10 (LP / mm) or less, the line widths Ww and Bw of the white line and the black line are 1000 μm / mm from the graphs of FIGS. It is necessary that (10 × 2) = 50 μm or more.

従って、カメラ分解能による条件とレンズ解像力による条件とから、線幅Ww・Bwの下限値が決定される。なお、縞状のパタンは、撮像ユニット15の光軸に垂直な面ではなく、傾斜面83・84に形成されているため、上記光軸と傾斜面83・84とのなす角θ1を考慮して、上記下限値の1/|sinθ1|倍が設定されることになる。   Therefore, the lower limit value of the line widths Ww and Bw is determined from the condition based on the camera resolution and the condition based on the lens resolving power. The striped pattern is not formed on the surface perpendicular to the optical axis of the image pickup unit 15 but on the inclined surfaces 83 and 84. Therefore, the angle θ1 between the optical axis and the inclined surfaces 83 and 84 is taken into consideration. Thus, 1 / | sin θ1 | times the above lower limit value is set.

次に、被写界深度による条件を説明する。撮影画像の視野内においてピントの合う範囲がZ(μm)である場合、校正用ターゲット80の傾斜面83・84上でピントの合う範囲は|Z/cosθ1|となる。この範囲内に2周期の縞を確保する必要がある。従って、次の式を満たす必要がある。
(Ww+Bw)×3(周期)×2(平面)<|Z/cosθ1| ・・・(18)
例えば、Z=1000(μm)、θ1=45°の場合、Ww+Bw<235.7(μm)となる。ここで、Ww=Bwとすると、Bw<117.8(μm)となり、これによりBwの上限値が設定される。
Next, conditions according to the depth of field will be described. When the focus range is Z (μm) in the field of view of the captured image, the focus range on the inclined surfaces 83 and 84 of the calibration target 80 is | Z / cos θ1 |. It is necessary to ensure two-period fringes within this range. Therefore, it is necessary to satisfy the following formula.
(Ww + Bw) × 3 (period) × 2 (plane) <| Z / cos θ1 | (18)
For example, when Z = 1000 (μm) and θ1 = 45 °, Ww + Bw <235.7 (μm). Here, assuming that Ww = Bw, Bw <117.8 (μm), and the upper limit value of Bw is thereby set.

以上の条件を利用して、線幅Ww・Bwの上限値および下限値が設定されることになる。   Using the above conditions, the upper limit value and the lower limit value of the line widths Ww and Bw are set.

〔実施の形態3〕
次に、本発明の他の実施形態について図26〜図30に基づいて説明すると以下の通りである。図26は、本実施形態に係る三次元形状計測システム10に利用される校正用ターゲット90の外観を示している。図26に示す校正用ターゲット90は、図20に示す校正用ターゲット80に比べて、形状が四角錐となっている点と、4つの傾斜面に縞状のパタンが形成されている点とが異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の機能を有する構成には同一の符号を付して、その説明を省略する。
[Embodiment 3]
Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 26 shows the appearance of the calibration target 90 used in the three-dimensional shape measurement system 10 according to this embodiment. Compared to the calibration target 80 shown in FIG. 20, the calibration target 90 shown in FIG. 26 has a point that the shape is a quadrangular pyramid and a point where striped patterns are formed on four inclined surfaces. Differently, other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure which has the function similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図26に示すように、各傾斜面に形成される縞は、上記傾斜面と底面との交線に平行に形成されている。上記構成の校正用ターゲット90を、移動ユニット11の上面に載置して撮像ユニット15が撮影を行う。その撮影画像に関して、底面との交線が対向する傾斜面同士のパタンの画像を比較することにより、撮像ユニット15の光軸方向の上記対向方向への傾きを校正することができる。従って、本実施形態の校正用ターゲット90を利用することにより、撮像ユニット15の光軸方向に関して、2方向への傾きを校正することができる。   As shown in FIG. 26, the stripes formed on each inclined surface are formed in parallel to the intersection line between the inclined surface and the bottom surface. The calibration target 90 configured as described above is placed on the upper surface of the moving unit 11 and the imaging unit 15 performs imaging. With respect to the photographed image, the inclination of the imaging unit 15 in the opposite direction in the optical axis direction can be calibrated by comparing the images of the patterns of the inclined surfaces opposite to each other in the line of intersection with the bottom surface. Therefore, by using the calibration target 90 of the present embodiment, the tilt in two directions can be calibrated with respect to the optical axis direction of the imaging unit 15.

次に、本実施形態の校正用ターゲット90の変形例について説明する。図27〜図30は、校正用ターゲット20の変形例を示している。図27、図28、および図30は、各図の(a)に概要を示し、(b)に平面図を示している。また、図29は、正面図および平面図を示している。   Next, a modified example of the calibration target 90 of the present embodiment will be described. 27 to 30 show modifications of the calibration target 20. FIG. 27, FIG. 28, and FIG. 30 show an outline in (a) of each figure and a plan view in (b). FIG. 29 shows a front view and a plan view.

図27は、直方体において上面から四角錐の形状が取り除かれた校正用ターゲット90を示している。図示のように、校正用ターゲット90は、内側に傾斜面を有する形状であってもよい。また、図28は、四角錐において上部が取り除かれた校正用ターゲット90を示している。図示のように、校正用ターゲット90は、傾斜面同士が交わらなくてもよい。   FIG. 27 shows the calibration target 90 in which the shape of the quadrangular pyramid is removed from the upper surface of the rectangular parallelepiped. As illustrated, the calibration target 90 may have a shape having an inclined surface inside. FIG. 28 shows the calibration target 90 with the upper part removed from the quadrangular pyramid. As shown in the drawing, the calibration targets 90 do not need to intersect with each other.

また、図29は、傾斜面が半球の球面で形成された校正用ターゲット90を示している。この場合、縞状のパタンは、真上から見た縞状のパタン、すなわち底面に正射影した縞状のパタンが同心円となるように形成すればよい。図示の校正用ターゲット90を利用すると、撮像ユニット15の光軸方向に関して全方向の傾きを校正することができる。   FIG. 29 shows a calibration target 90 in which the inclined surface is a hemispherical spherical surface. In this case, the striped pattern may be formed so that the striped pattern seen from directly above, that is, the striped pattern orthogonally projected onto the bottom surface becomes a concentric circle. When the calibration target 90 shown in the figure is used, the tilt in all directions with respect to the optical axis direction of the imaging unit 15 can be calibrated.

また、図30は、図20に示す校正用ターゲット80を2個用いて十字形状に組み合わせた校正用ターゲット90を示している。以上のように、校正用ターゲット90としては、種々の形状のものを利用することができる。   FIG. 30 shows a calibration target 90 in which two calibration targets 80 shown in FIG. 20 are combined in a cross shape. As described above, various types of calibration targets 90 can be used.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

例えば、上記実施形態では、撮像ユニット15の正常な光軸方向を、基準面に垂直な方向としているが、ラインセンサ34の方向が基準面に含まれるのであれば、特許文献1に記載のように、基準面に垂直な方向から所定の角度だけ傾いた方向とすることもできる。   For example, in the above-described embodiment, the normal optical axis direction of the imaging unit 15 is the direction perpendicular to the reference plane. However, if the direction of the line sensor 34 is included in the reference plane, as described in Patent Document 1 In addition, the direction can be a direction inclined by a predetermined angle from the direction perpendicular to the reference plane.

また、上記実施形態では、本発明を三次元形状計測システムに適用しているが、実装基板を検査する装置など、FA(Factory Automation)用の画像検査装置に適用することもできる。さらに、カメラの傾きが画像を捉えるのに重要な働きをし、かつ、カメラの傾きを容易に修正できない任意の撮影システムに本発明を適用することができる。   In the above embodiment, the present invention is applied to the three-dimensional shape measurement system. However, the present invention can also be applied to an image inspection apparatus for FA (Factory Automation) such as an apparatus for inspecting a mounting board. Furthermore, the present invention can be applied to any photographing system in which the camera tilt plays an important role in capturing an image and the camera tilt cannot be easily corrected.

最後に、画像解析・処理ユニット16の各機能ブロック、特に計測処理部71は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each functional block of the image analysis / processing unit 16, in particular the measurement processing unit 71, may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、画像解析・処理ユニット16は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像解析・処理ユニット16の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記画像解析・処理ユニット16に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In other words, the image analysis / processing unit 16 includes a CPU that executes instructions of a control program that realizes each function, a ROM that stores the program, a RAM that expands the program, a memory that stores the program and various data, and the like. A device (recording medium) is provided. The object of the present invention is a recording in which the program code (execution format program, intermediate code program, source program) of the control program of the image analysis / processing unit 16 which is software for realizing the functions described above is recorded so as to be readable by a computer. This can also be achieved by supplying a medium to the image analysis / processing unit 16 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、画像解析・処理ユニット16を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The image analysis / processing unit 16 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明によれば、撮影装置の校正を容易に行うことができるので、例えば実装基板を検査する画像検査装置などに好適に適用することができる。   According to the present invention, the photographing apparatus can be easily calibrated, and thus can be suitably applied to, for example, an image inspection apparatus that inspects a mounting board.

本発明の一実施形態である三次元形状計測システムの概略構成を示す図であり、校正用ターゲットを用いて校正を行う様子を示す図である。It is a figure which shows schematic structure of the three-dimensional shape measurement system which is one Embodiment of this invention, and is a figure which shows a mode that it calibrates using the calibration target. 上記三次元形状計測システムの概略構成を示す図であり、計測対象の計測を行う様子を示す図である。It is a figure which shows schematic structure of the said three-dimensional shape measurement system, and is a figure which shows a mode that the measurement object is measured. 上記校正用ターゲットの外観を示す斜視図である。It is a perspective view which shows the external appearance of the said calibration target. 上記校正用ターゲットの撮影画像を示す図であり、(a)は、上記三次元形状計測システムの撮像ユニットが正常な場合を示しており、(b)は、上記撮像ユニットが傾いた場合を示している。It is a figure which shows the picked-up image of the said calibration target, (a) has shown the case where the imaging unit of the said three-dimensional shape measurement system is normal, (b) shows the case where the said imaging unit inclines. ing. 上記撮像ユニットと上記校正用ターゲットの傾斜面とを正面側から見た幾何学的位置関係を模式的に示す図である。It is a figure which shows typically the geometric positional relationship which looked at the said imaging unit and the inclined surface of the said calibration target from the front side. 上記三次元形状計測システムの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the said three-dimensional shape measurement system. 上記三次元形状計測システムにおける画像解析・処理ユニットの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the image analysis and processing unit in the said three-dimensional shape measurement system. 校正モードにおいて上記画像解析・処理ユニットが行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which the said image analysis and processing unit performs in calibration mode. 上記三次元形状計測システムにおける投光ユニットが投影する光パタンの一例を示す図である。It is a figure which shows an example of the optical pattern which the light projection unit in the said three-dimensional shape measurement system projects. 計測対象の形状を示す図であり、(a)は上面図であり、(b)は側面図である。It is a figure which shows the shape of a measuring object, (a) is a top view, (b) is a side view. 上記計測対象に光パタンを投影した場合に、上記計測対象に投影された光パタンの歪みを示す図であり、(a)は上面図であり、(b)は基準面での輝度変動と凸部での輝度変動を示す波形図である。When an optical pattern is projected on the measurement target, it is a diagram showing distortion of the optical pattern projected on the measurement target, (a) is a top view, and (b) is a luminance variation and a convexity on the reference plane. It is a wave form diagram which shows the brightness | luminance fluctuation | variation in a part. 上記画像解析・処理ユニットにおける計測処理部の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the measurement process part in the said image analysis / processing unit. 計測モードにおいて上記画像解析・処理ユニットが行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which the said image analysis and processing unit performs in measurement mode. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は正面図および平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a front view and a top view. 本発明の別の実施形態である三次元形状計測システムにて利用される校正用ターゲットの外観を示す斜視図である。It is a perspective view which shows the external appearance of the calibration target utilized with the three-dimensional shape measurement system which is another embodiment of this invention. 上記校正用ターゲットの撮影画像を示す図であり、(a)は、上記三次元形状計測システムの撮像ユニットが正常な場合を示しており、(b)は、上記撮像ユニットが傾いた場合を示している。It is a figure which shows the picked-up image of the said calibration target, (a) has shown the case where the imaging unit of the said three-dimensional shape measurement system is normal, (b) shows the case where the said imaging unit inclines. ing. 上記校正用ターゲットの傾斜面に形成される縞状のパタンの一部を拡大して示す図である。It is a figure which expands and shows a part of striped pattern formed in the inclined surface of the said calibration target. レンズ解像力の指標であるMTFの一例を示すグラフである。It is a graph which shows an example of MTF which is a parameter | index of lens resolving power. 上記MTFの他の例を示すグラフである。It is a graph which shows the other example of the said MTF. 被写界深度を説明するための図である。It is a figure for demonstrating the depth of field. 本発明の他の実施形態である三次元形状計測システムにて利用される校正用ターゲットの外観を示す斜視図である。It is a perspective view which shows the external appearance of the calibration target utilized with the three-dimensional shape measurement system which is other embodiment of this invention. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a top view. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a top view. 上記校正用ターゲットの変形例の概要を示す正面図および平面図である。It is the front view and top view which show the outline | summary of the modification of the said calibration target. 上記校正用ターゲットの変形例の概要を示す図であり、(a)は斜視図であり、(b)は平面図である。It is a figure which shows the outline | summary of the modification of the said calibration target, (a) is a perspective view, (b) is a top view. 三角測量の原理を説明するためのグラフである。It is a graph for demonstrating the principle of a triangulation.

符号の説明Explanation of symbols

10 三次元形状計測システム(三次元形状計測装置)
11 移動ユニット
12 計測対象
13 投光ユニット
14 光パタン
15 撮像ユニット(撮影装置)
16 画像解析・処理ユニット(校正支援装置)
17 移動コントローラ
18 投光コントローラ
20・80・90 校正用ターゲット
21・81 底面
22・82 稜線
23・24 傾斜面
25〜28 ライン(校正用パタン)
44 キャプチャボード(画像取得手段)
45 制御部
46 記憶部
47 入力・設定部
48 出力部
51 校正処理部
52 設定値取得部
53 ライン認識部(画像取得手段、パタン認識手段)
54 間隔算出部(寸法算出手段)
55 傾き算出部(校正情報作成手段)
61 設定値格納部
10 3D shape measurement system (3D shape measurement device)
DESCRIPTION OF SYMBOLS 11 Mobile unit 12 Measurement object 13 Light projection unit 14 Optical pattern 15 Imaging unit (imaging device)
16 Image analysis / processing unit (calibration support device)
17 Movement controller 18 Light projection controller 20/80/90 Calibration target 21/81 Bottom surface 22/82 Ridge line 23/24 Inclined surface 25-28 line (calibration pattern)
44 Capture board (image acquisition means)
45 control unit 46 storage unit 47 input / setting unit 48 output unit 51 calibration processing unit 52 set value acquisition unit 53 line recognition unit (image acquisition unit, pattern recognition unit)
54 Interval calculation unit (size calculation means)
55 Inclination calculator (calibration information creation means)
61 Setting value storage

Claims (12)

基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記撮影装置の光軸方向を校正するための校正用ターゲットであって、
上記基準面との接触面となる底面と、
該底面に対し傾斜した複数の傾斜面とを有しており、
交線が上記底面と平行である2つの上記傾斜面には、上記底面に正射影したパタンが同じである校正用パタンがそれぞれ形成されていることを特徴とする校正用ターゲット。
With respect to an imaging apparatus that performs imaging of an imaging target placed on a reference plane, a calibration target for calibrating the optical axis direction of the imaging apparatus,
A bottom surface serving as a contact surface with the reference surface;
A plurality of inclined surfaces inclined with respect to the bottom surface;
A calibration target, wherein calibration patterns having the same pattern orthogonally projected onto the bottom surface are formed on the two inclined surfaces whose intersecting lines are parallel to the bottom surface.
上記2つの傾斜面を複数組有することを特徴とする請求項1に記載の校正用ターゲット。   The calibration target according to claim 1, comprising a plurality of sets of the two inclined surfaces. 各組における上記2つの傾斜面の交線に関して、少なくとも2組の上記交線の方向が同じであることを特徴とする請求項2に記載の校正用ターゲット。   3. The calibration target according to claim 2, wherein at least two sets of the intersecting lines have the same direction with respect to the intersecting line of the two inclined surfaces in each set. 各組における上記2つの傾斜面の交線に関して、少なくとも2組の上記交線の方向が異なることを特徴とする請求項2に記載の校正用ターゲット。   3. The calibration target according to claim 2, wherein the direction of the intersecting line of at least two sets is different with respect to the intersecting line of the two inclined surfaces in each set. 上記2つの傾斜面のそれぞれに上記校正用パタンが繰り返し形成されていることを特徴とする請求項1に記載の校正用ターゲット。   The calibration target according to claim 1, wherein the calibration pattern is repeatedly formed on each of the two inclined surfaces. 上記2つの傾斜面には、上記撮影装置の被写界深度に対応する範囲よりも広い範囲に上記校正用パタンが形成されていることを特徴とする請求項1に記載の校正用ターゲット。   2. The calibration target according to claim 1, wherein the calibration pattern is formed on the two inclined surfaces in a range wider than a range corresponding to a depth of field of the imaging apparatus. 上記2つの傾斜面は、底面との傾斜角が等しく、上記校正用パタンの間隔および/または幅が等しいことを特徴とする請求項1に記載の校正用ターゲット。   2. The calibration target according to claim 1, wherein the two inclined surfaces have the same inclination angle with the bottom surface, and the intervals and / or widths of the calibration patterns are the same. 基準面に載置された撮影対象の撮影を行う撮影装置に関して、上記撮影装置の光軸方向の校正を支援する校正支援装置であって、
請求項1から7までの何れか1項に記載の校正用ターゲットを上記撮影装置が撮影した撮影画像を取得する画像取得手段と、
該画像取得手段が取得した撮影画像から、上記2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識するパタン認識手段と、
該パタン認識手段が認識した上記2つの校正用パタンの寸法を算出する寸法算出手段と、
該寸法算出手段が算出した上記2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成する校正情報作成手段とを備えることを特徴とする校正支援装置。
A calibration support apparatus that supports calibration in the optical axis direction of the imaging apparatus with respect to an imaging apparatus that performs imaging of an imaging target placed on a reference plane,
Image acquisition means for acquiring a photographic image obtained by photographing the calibration target according to any one of claims 1 to 7 by the photographing apparatus;
Pattern recognition means for recognizing two calibration patterns respectively formed on the two inclined surfaces from the captured image acquired by the image acquisition means;
Dimension calculation means for calculating the dimensions of the two calibration patterns recognized by the pattern recognition means;
A calibration support apparatus comprising calibration information creating means for creating calibration information for the calibration based on the dimensions of the two calibration patterns calculated by the dimension calculating means.
上記校正情報作成手段は、上記寸法算出手段が算出した上記2つの校正用パタンの寸法が等しい場合、上記撮影装置の光軸方向が正常であることを示す上記校正情報を作成することを特徴とする請求項8に記載の校正支援装置。   The calibration information creating means creates the calibration information indicating that the optical axis direction of the photographing apparatus is normal when the dimensions of the two calibration patterns calculated by the dimension calculating means are equal. The calibration support apparatus according to claim 8. 上記校正情報作成手段は、上記寸法算出手段が算出した上記2つの校正用パタンの寸法の比に基づいて、上記撮影装置の光軸方向に関する正常方向からの傾きを算出し、算出した傾きを上記構成情報として作成することを特徴とする請求項8に記載の校正支援装置。   The calibration information creation means calculates an inclination from the normal direction with respect to the optical axis direction of the imaging apparatus based on a ratio of the dimensions of the two calibration patterns calculated by the dimension calculation means, and calculates the calculated inclination as the above The calibration support apparatus according to claim 8, wherein the calibration support apparatus is created as configuration information. 基準面に載置された撮影対象の撮影を行う撮影装置に関して、請求項1から7までの何れか1項に記載の校正用ターゲットを利用して、上記撮影装置の光軸方向の校正を支援する校正支援装置の校正支援方法であって、
上記校正用ターゲットを上記撮影装置が撮影した撮影画像を取得する画像取得ステップと、
該画像取得ステップにて取得された撮影画像から、上記2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識するパタン認識ステップと、
該パタン認識ステップにて認識された上記2つの校正用パタンの寸法を算出する寸法算出ステップと、
該寸法算出ステップにて算出された上記2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成する校正情報作成ステップとを含むことを特徴とする校正支援方法。
An imaging apparatus for imaging an imaging object placed on a reference plane, using the calibration target according to any one of claims 1 to 7, to support calibration in the optical axis direction of the imaging apparatus. A calibration support method for a calibration support apparatus
An image acquisition step of acquiring a captured image obtained by capturing the calibration target by the imaging device;
A pattern recognition step for recognizing two calibration patterns respectively formed on the two inclined surfaces from the captured image acquired in the image acquisition step;
A dimension calculating step for calculating the dimensions of the two calibration patterns recognized in the pattern recognition step;
And a calibration information creating step for creating calibration information for the calibration based on the dimensions of the two calibration patterns calculated in the dimension calculating step.
基準面に載置された撮影対象の撮影を行う撮影装置に関して、請求項1から7までの何れか1項に記載の校正用ターゲットを利用して、上記撮影装置の光軸方向の校正を支援する校正支援装置を動作させるための校正支援プログラムであって、
上記校正用ターゲットを上記撮影装置が撮影した撮影画像を取得する画像取得ステップと、
該画像取得ステップにて取得された撮影画像から、上記2つの傾斜面にそれぞれ形成された2つの校正用パタンを認識するパタン認識ステップと、
該パタン認識ステップにて認識された上記2つの校正用パタンの寸法を算出する寸法算出ステップと、
該寸法算出ステップにて算出された上記2つの校正用パタンの寸法に基づいて、上記校正のための校正情報を作成する校正情報作成ステップとをコンピュータに実行させるための校正支援プログラム。
An imaging apparatus for imaging an imaging object placed on a reference plane, using the calibration target according to any one of claims 1 to 7, to support calibration in the optical axis direction of the imaging apparatus. A calibration support program for operating the calibration support device
An image acquisition step of acquiring a captured image obtained by capturing the calibration target by the imaging device;
A pattern recognition step for recognizing two calibration patterns respectively formed on the two inclined surfaces from the captured image acquired in the image acquisition step;
A dimension calculating step for calculating the dimensions of the two calibration patterns recognized in the pattern recognition step;
A calibration support program for causing a computer to execute a calibration information creating step for creating calibration information for the calibration based on the dimensions of the two calibration patterns calculated in the dimension calculating step.
JP2007199927A 2007-07-31 2007-07-31 Target for calibration and device, method and program for supporting calibration Pending JP2009036589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007199927A JP2009036589A (en) 2007-07-31 2007-07-31 Target for calibration and device, method and program for supporting calibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007199927A JP2009036589A (en) 2007-07-31 2007-07-31 Target for calibration and device, method and program for supporting calibration

Publications (1)

Publication Number Publication Date
JP2009036589A true JP2009036589A (en) 2009-02-19

Family

ID=40438643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007199927A Pending JP2009036589A (en) 2007-07-31 2007-07-31 Target for calibration and device, method and program for supporting calibration

Country Status (1)

Country Link
JP (1) JP2009036589A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124140A1 (en) * 2011-03-15 2012-09-20 オムロン株式会社 Image processing device, and image processing program
KR101213303B1 (en) 2010-07-08 2012-12-18 서울대학교산학협력단 Micro-patterned device and method for compensating distortion of optical coherent tomography image using the same
JP2013500462A (en) * 2009-07-24 2013-01-07 ボブスト ソシエテ アノニム Topography device for the surface of the substrate
JP2014059309A (en) * 2009-05-21 2014-04-03 Samsung Heavy Industries Co Ltd Flat bed scan module, flat bed scan system, flat bed scan module alignment error measurement jig and flat bed scan module alignment error measurement method using flat bed scan module alignment error measurement jig
JP2015112688A (en) * 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2017015440A (en) * 2015-06-29 2017-01-19 株式会社ジェイテクト Imaging device calibration jig and imaging device calibration method
JP2017026551A (en) * 2015-07-27 2017-02-02 日産自動車株式会社 Calibration target and calibration method
JP2019215487A (en) * 2018-06-14 2019-12-19 日本特殊陶業株式会社 Jig and adjustment method
CN111598959A (en) * 2020-06-28 2020-08-28 中国科学院深圳先进技术研究院 Calibration target and calibration method of optical imaging system
JP2021110758A (en) * 2020-01-15 2021-08-02 シック アイヴィピー エービー Imaging system with objects to be calibrated
CN113390891A (en) * 2016-02-04 2021-09-14 株式会社高迎科技 Method for verifying whether inspection part is abnormal, inspection bench and inspection system
US20220397387A1 (en) * 2021-06-15 2022-12-15 Disco Corporation Operation accuracy measuring method
WO2024034738A1 (en) * 2022-08-09 2024-02-15 한국전자기술연구원 Camera calibration device and method using automatic recognition of calibration pattern
US12309916B2 (en) 2016-02-04 2025-05-20 Koh Young Technology Inc. Method of verifying fault of inspection unit, inspection apparatus and inspection system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02264804A (en) * 1989-04-06 1990-10-29 Nec Corp Positioning mark
JPH0474905A (en) * 1990-07-16 1992-03-10 Mitsubishi Electric Corp Detecting mechanism for position of camera
JPH04269194A (en) * 1991-02-25 1992-09-25 Fujitsu Ltd Plane measuring method
JPH05172531A (en) * 1991-12-25 1993-07-09 Kawasaki Steel Corp Distance measurement method
JPH06147828A (en) * 1992-11-05 1994-05-27 Toshiba Corp Position/attitude measuring equipment
JPH0996506A (en) * 1995-09-29 1997-04-08 Ricoh Co Ltd Position adjustment method using three-dimensional visual sensor and three-dimensional image recognition device
JP2002080852A (en) * 2000-06-23 2002-03-22 Nkk Corp Measuring method for coke oven wall shape
JP2002221411A (en) * 2001-01-25 2002-08-09 Toyota Motor Corp Measurement accuracy assurance method for non-contact type 3D shape measuring instrument
JP2007139596A (en) * 2005-11-18 2007-06-07 Toshiba Corp Transportable motion measuring system and motion measuring method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02264804A (en) * 1989-04-06 1990-10-29 Nec Corp Positioning mark
JPH0474905A (en) * 1990-07-16 1992-03-10 Mitsubishi Electric Corp Detecting mechanism for position of camera
JPH04269194A (en) * 1991-02-25 1992-09-25 Fujitsu Ltd Plane measuring method
JPH05172531A (en) * 1991-12-25 1993-07-09 Kawasaki Steel Corp Distance measurement method
JPH06147828A (en) * 1992-11-05 1994-05-27 Toshiba Corp Position/attitude measuring equipment
JPH0996506A (en) * 1995-09-29 1997-04-08 Ricoh Co Ltd Position adjustment method using three-dimensional visual sensor and three-dimensional image recognition device
JP2002080852A (en) * 2000-06-23 2002-03-22 Nkk Corp Measuring method for coke oven wall shape
JP2002221411A (en) * 2001-01-25 2002-08-09 Toyota Motor Corp Measurement accuracy assurance method for non-contact type 3D shape measuring instrument
JP2007139596A (en) * 2005-11-18 2007-06-07 Toshiba Corp Transportable motion measuring system and motion measuring method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059309A (en) * 2009-05-21 2014-04-03 Samsung Heavy Industries Co Ltd Flat bed scan module, flat bed scan system, flat bed scan module alignment error measurement jig and flat bed scan module alignment error measurement method using flat bed scan module alignment error measurement jig
JP2013500462A (en) * 2009-07-24 2013-01-07 ボブスト ソシエテ アノニム Topography device for the surface of the substrate
KR101213303B1 (en) 2010-07-08 2012-12-18 서울대학교산학협력단 Micro-patterned device and method for compensating distortion of optical coherent tomography image using the same
US9571795B2 (en) 2011-03-15 2017-02-14 Omron Corporation Image processing device and image processing program
WO2012124140A1 (en) * 2011-03-15 2012-09-20 オムロン株式会社 Image processing device, and image processing program
JP2012193980A (en) * 2011-03-15 2012-10-11 Omron Corp Image processing device and image processing program
JP2015112688A (en) * 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2017015440A (en) * 2015-06-29 2017-01-19 株式会社ジェイテクト Imaging device calibration jig and imaging device calibration method
JP2017026551A (en) * 2015-07-27 2017-02-02 日産自動車株式会社 Calibration target and calibration method
CN113390891A (en) * 2016-02-04 2021-09-14 株式会社高迎科技 Method for verifying whether inspection part is abnormal, inspection bench and inspection system
US12309916B2 (en) 2016-02-04 2025-05-20 Koh Young Technology Inc. Method of verifying fault of inspection unit, inspection apparatus and inspection system
JP2019215487A (en) * 2018-06-14 2019-12-19 日本特殊陶業株式会社 Jig and adjustment method
US11692815B2 (en) 2020-01-15 2023-07-04 Sick Ivp Ab Imaging system with calibration target object
JP2021110758A (en) * 2020-01-15 2021-08-02 シック アイヴィピー エービー Imaging system with objects to be calibrated
CN111598959A (en) * 2020-06-28 2020-08-28 中国科学院深圳先进技术研究院 Calibration target and calibration method of optical imaging system
US12298126B2 (en) * 2021-06-15 2025-05-13 Disco Corporation Operation accuracy measuring method
US20220397387A1 (en) * 2021-06-15 2022-12-15 Disco Corporation Operation accuracy measuring method
WO2024034738A1 (en) * 2022-08-09 2024-02-15 한국전자기술연구원 Camera calibration device and method using automatic recognition of calibration pattern

Similar Documents

Publication Publication Date Title
JP2009036589A (en) Target for calibration and device, method and program for supporting calibration
JP4924042B2 (en) Three-dimensional shape measuring apparatus, calibration method thereof, program, and computer-readable recording medium
JP4715944B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and three-dimensional shape measuring program
JP2007114071A (en) Three-dimensional shape measuring apparatus, program, computer-readable storage medium, and three-dimensional shape measuring method
US8199335B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
CN110268223B (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, and non-transitory storage medium
JP5375201B2 (en) 3D shape measuring method and 3D shape measuring apparatus
JP2009236917A (en) Method and apparatus for determining 3d coordinates of object
KR101237497B1 (en) Method of setting inspection area
JP5397704B2 (en) Shape measuring device
JP2007508557A (en) Device for scanning three-dimensional objects
JP6894280B2 (en) Inspection method and inspection equipment
JP2006023178A (en) 3-dimensional measuring method and device
JP2006084286A (en) Three-dimensional measuring method and its measuring device
WO2013035847A1 (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and computer-readable recording medium
JP2012093234A (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, structure manufacturing method, and structure manufacturing system
JP2016008837A (en) Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program
JP2012211905A (en) Three-dimensional shape measuring apparatus, program, computer-readable storage medium, and three-dimensional shape measuring method
JP7452121B2 (en) Inspection equipment and inspection method
JP2019124543A (en) Method for acquiring inspection device height information and inspection device
JP6894348B2 (en) How to obtain height information of inspection equipment and inspection equipment
JP2008170282A (en) Shape measuring device
JP2006003168A (en) Measurement method for surface shape and device therefor
JP3848586B2 (en) Surface inspection device
JP6884393B2 (en) A method and device for performing phase analysis by converting a deformation grid into a rectangular grid or a square grid using projective transformation.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Effective date: 20120111

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20120703

Free format text: JAPANESE INTERMEDIATE CODE: A02