JP2016011930A - Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program - Google Patents
Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program Download PDFInfo
- Publication number
- JP2016011930A JP2016011930A JP2014134794A JP2014134794A JP2016011930A JP 2016011930 A JP2016011930 A JP 2016011930A JP 2014134794 A JP2014134794 A JP 2014134794A JP 2014134794 A JP2014134794 A JP 2014134794A JP 2016011930 A JP2016011930 A JP 2016011930A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional data
- measurement object
- overlay image
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、三次元データの連結方法、測定方法、測定装置、構造物製造方法、構造物製造システム、及び形状測定プログラムに関する。 The present invention relates to a method for connecting three-dimensional data, a measuring method, a measuring apparatus, a structure manufacturing method, a structure manufacturing system, and a shape measuring program.
測定対象物の三次元形状を測定する手法として、例えば位相シフト法が知られている。位相シフト法を用いた形状測定装置は、投影部、撮像部、及び制御部を備えている。この投影部は、正弦波状の光強度の分布を有する縞状のパターン光(以下、構造光という。)を測定対象物に投影する。この際、撮像部は、4種類の異なる位相の構造光がそれぞれ測定対象物に投影されるときに、それぞれ測定対象物を撮像して4つの位相画像を取得する。制御部は、撮像部が撮像した4つの画像における各画素の信号強度に関するデータを所定の演算式に当てはめ、測定対象物の面形状に応じた各画素における縞の位相値を求める。そして、演算部は、三角測量の原理を利用して、各画素における縞の位相値から測定対象物の三次元データ(例えば、点群データ)を算出する。この位相シフト法を利用した装置は、例えば、特許文献1に開示されている。 As a technique for measuring the three-dimensional shape of the measurement object, for example, a phase shift method is known. A shape measuring apparatus using the phase shift method includes a projection unit, an imaging unit, and a control unit. This projection unit projects a striped pattern light having a sinusoidal light intensity distribution (hereinafter referred to as structured light) onto a measurement object. At this time, when the four types of structured light having different phases are projected onto the measurement object, the imaging unit images each measurement object and acquires four phase images. The control unit applies data relating to the signal intensity of each pixel in the four images captured by the imaging unit to a predetermined arithmetic expression, and obtains the phase value of the fringes at each pixel according to the surface shape of the measurement target. Then, the calculation unit calculates three-dimensional data (for example, point cloud data) of the measurement object from the phase value of the stripes in each pixel using the principle of triangulation. An apparatus using this phase shift method is disclosed in Patent Document 1, for example.
上記の場合において、例えば測定対象物が撮像部の撮像視野に収まらないときには、測定対象物の異なる位置をそれぞれ測定して算出した、各三次元データを連結することで測定対象物全体の三次元形状を測定することができる。三次元データをつなぎ合わせは、例えば三次元データの一部同士を重ねあわせて行う。また、三次元データの一部同士を重ね合わせる際には、測定対象物の同じ領域における三次元データ同士を重ね合わせる。 In the above case, for example, when the measurement object does not fit in the imaging field of the imaging unit, the three-dimensional data of the entire measurement object is connected by connecting the three-dimensional data calculated by measuring different positions of the measurement object. The shape can be measured. The joining of the three-dimensional data is performed, for example, by overlapping a part of the three-dimensional data. Moreover, when superimposing a part of three-dimensional data, the three-dimensional data in the same area | region of a measuring object are superimposed.
三次元データの一部同士を重ね合わせる処理では、まず測定対象物の第1部分の画像を撮像し、次に第1部分の画像と一部が重なるように第2部分の画像を撮像し、それぞれ三次元データを算出する。この第1部分の画像と第2部分の画像との重複部分の範囲は、予め設定されている。例えば、この重複部分の範囲は、第1部分の画像と第2部分の画像とが、3つ以上の共通の特徴領域を互いに含む範囲となるように設定される。この特徴領域は、例えば第1部分の画像及び第2部分の画像の各画像内の領域であって、他の領域に対して輝度(信号強度)が変化していることにより識別可能な領域である。この場合、輝度(信号強度)の変化は、測定対象物の形状や表面の光反射率等の変化等に基づくものである。そして、第1部分及び第2部分の各三次元データにおいて、重複して撮像された部分同士を重ねるようにして、第1部分の三次元データと第2部分の三次元データとを連結する。このとき、第1部分の三次元データと第2部分の三次元データとで共通の座標データとなる上記3つの特徴領域の画素をサーチして、第1部分と第2部分との重複部分を判断する。三次元データを複数回連結する場合には、順次新たな三次元データを重ねていくようにする。 In the process of superimposing parts of the three-dimensional data, first, an image of the first part of the measurement object is captured, and then an image of the second part is captured so that the image of the first part partially overlaps, Three-dimensional data is calculated for each. The range of the overlapping portion between the first portion image and the second portion image is set in advance. For example, the range of the overlapping part is set so that the first part image and the second part image include three or more common feature areas. This feature area is an area in each image of the first part image and the second part image, for example, and can be identified by the change in luminance (signal intensity) with respect to the other areas. is there. In this case, the change in luminance (signal intensity) is based on a change in the shape of the measurement object, the light reflectance of the surface, and the like. Then, in the three-dimensional data of the first part and the second part, the three-dimensional data of the first part and the three-dimensional data of the second part are connected so that the parts captured in an overlapping manner are overlapped. At this time, the pixel of the above three feature regions that are common coordinate data in the three-dimensional data of the first part and the three-dimensional data of the second part is searched, and an overlapping part of the first part and the second part is found. to decide. When three-dimensional data is connected a plurality of times, new three-dimensional data is sequentially overlapped.
しかしながら、従来では、第1部分の画像と第2部分の画像とがどの程度重複しているのかを確認しながら撮像することが困難であったため、撮像に手間がかかってしまい、三次元データの連結を効率的に行うことが困難であった。 However, in the past, it was difficult to capture images while confirming how much the images of the first part and the second part overlap. It was difficult to perform the connection efficiently.
以上のような事情に鑑み、本発明は、三次元データの連結を効率的に行うことを目的とする。 In view of the circumstances as described above, an object of the present invention is to efficiently link three-dimensional data.
本発明の第1態様に従えば、測定対象物について取得される複数の三次元データを連結する三次元データの連結方法であって、測定対象物のライブビュー画像を表示することと、第1の三次元データを取得する際に撮像される測定対象物の画像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示することと、オーバーレイ画像の表示状態を変更することと、第1の三次元データと重複する部分を有しライブビュー画像に対応する測定対象物の第2の三次元データと、第1の三次元データとを連結することとを含む三次元データの連結方法が提供される。 According to the first aspect of the present invention, there is provided a three-dimensional data connection method for connecting a plurality of three-dimensional data acquired for a measurement object, wherein a live view image of the measurement object is displayed; Displaying a part of the image of the measurement object imaged when acquiring the three-dimensional data on the live view image as an overlay image, changing the display state of the overlay image, and the first tertiary There is provided a method for connecting three-dimensional data, including connecting the second three-dimensional data of the measurement object corresponding to the live view image and the first three-dimensional data having a portion overlapping with the original data. The
本発明の第2態様に従えば、測定対象物の三次元形状を測定する測定方法であって、測定対象物についての複数の三次元データを取得することと、本発明の第1態様に従う三次元データの連結方法を用いて複数の三次元データを連結することと、連結された結果に基づいて、測定対象物の三次元形状を算出することとを含む測定方法が提供される。 According to the second aspect of the present invention, there is provided a measurement method for measuring a three-dimensional shape of a measurement object, wherein a plurality of three-dimensional data about the measurement object is obtained, and a tertiary according to the first aspect of the present invention. There is provided a measuring method including connecting a plurality of three-dimensional data using a connecting method of original data, and calculating a three-dimensional shape of a measurement object based on the connected result.
本発明の第3態様に従えば、測定対象物の三次元形状を測定する測定装置であって、測定対象物を撮像する撮像部と、撮像部によって撮像される画像を表示する表示部と、測定対象物のライブビュー画像を撮像部に撮像させ、ライブビュー画像を表示部に表示させる動作と、測定対象物の第1の三次元データを取得する際に測定対象物の画像の一部を撮像部で撮像させ、測定対象物の画像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示部に表示させる動作と、オーバーレイ画像の表示状態を変更させる動作と、第1の三次元データと重複する部分を有しライブビュー画像に対応する測定対象物の第2の三次元データと、第1の三次元データとを連結する動作と、を行わせる制御部と、連結された結果に基づいて、測定対象物の三次元形状を算出する算出部とを備える測定装置が提供される。 According to the third aspect of the present invention, there is provided a measuring device for measuring a three-dimensional shape of a measurement object, an imaging unit that images the measurement object, a display unit that displays an image captured by the imaging unit, An operation for causing the imaging unit to capture a live view image of the measurement object and displaying the live view image on the display unit, and a part of the image of the measurement object when acquiring the first three-dimensional data of the measurement object An operation of causing the imaging unit to capture a part of the image of the measurement object as an overlay image and displaying the image on the display unit on the live view image; an operation of changing a display state of the overlay image; and the first three-dimensional data Based on the result of the connection, the control unit for performing the operation of connecting the second three-dimensional data of the measurement object corresponding to the live view image and the first three-dimensional data having an overlapping portion. Measurement object Measuring device and a calculation unit for calculating a three-dimensional shape is provided.
本発明の第4態様に従えば、構造物の形状に関する設計情報を作製することと、設計情報に基づいて前記構造物を作製することと、作製された構造物の形状を測定する本発明の第2態様に従う形状測定方法と、形状測定方法によって得られた構造物の形状に関する形状情報と設計情報とを比較することとを含む構造物製造方法が提供される。 According to the fourth aspect of the present invention, the design information relating to the shape of the structure is produced, the structure is produced based on the design information, and the shape of the produced structure is measured. A shape manufacturing method according to the second aspect, and a structure manufacturing method including comparing shape information related to the shape of the structure obtained by the shape measuring method with design information are provided.
本発明の第5態様に従えば、構造物の形状に関する設計情報を作製する設計装置と、設計情報に基づいて構造物を作製する成形装置と、作製された構造物の形状を測定する本発明の第3態様に従う測定装置と、測定装置によって得られた構造物の形状に関する形状情報と設計情報とを比較する検査装置とを含む構造物製造システムが提供される。 According to the fifth aspect of the present invention, a design apparatus for producing design information related to the shape of the structure, a molding apparatus for producing the structure based on the design information, and the present invention for measuring the shape of the produced structure. There is provided a structure manufacturing system including a measuring apparatus according to the third aspect of the present invention, and an inspection apparatus that compares design information with shape information related to the shape of the structure obtained by the measuring apparatus.
本発明の第6態様に従えば、測定対象物の三次元形状を測定する測定装置に含まれるコンピュータに、測定対象物のライブビュー画像を表示する処理と、第1の三次元データを取得する際に撮像される測定対象物の画像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示する処理と、オーバーレイ画像の表示状態を変更する処理と、第1の三次元データと重複する部分を有しライブビュー画像に対応する測定対象物の第2の三次元データと、第1の三次元データとを連結する処理とを実行させる形状測定プログラムが提供される。 According to the sixth aspect of the present invention, processing for displaying a live view image of a measurement object on a computer included in a measurement apparatus that measures the three-dimensional shape of the measurement object, and first three-dimensional data are acquired. A process for displaying a part of the image of the measurement object imaged on the live view image as an overlay image, a process for changing the display state of the overlay image, and a part overlapping the first three-dimensional data. There is provided a shape measurement program for executing a process of connecting the second three-dimensional data of the measurement object corresponding to the live view image and the first three-dimensional data.
本発明の態様によれば、三次元データの連結を効率的に行うことができる。 According to the aspect of the present invention, it is possible to efficiently link three-dimensional data.
<第1実施形態>
図1は、第1実施形態に係る形状測定装置の一例を示す図である。なお、図1において、紙面の右方向をX軸とし、X軸と直交するある方向をY軸とし、X軸及びY軸と直交する方向をZ軸としている。形状測定装置1は、位相シフト法を用いて測定対象物2の三次元形状を測定する装置である。形状測定装置1は、図1に示すように、投影部10と、撮像部50と、演算処理部60と、表示装置70と、筐体90とを備える。形状測定装置1は、投影部10、撮像部50、演算処理部60及び表示装置70が持ち運び可能な筐体90に収容された構成となっている。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a shape measuring apparatus according to the first embodiment. In FIG. 1, the right direction of the drawing is the X axis, a certain direction orthogonal to the X axis is the Y axis, and a direction orthogonal to the X axis and the Y axis is the Z axis. The shape measuring device 1 is a device that measures the three-dimensional shape of the measuring object 2 using the phase shift method. As shown in FIG. 1, the shape measuring apparatus 1 includes a projection unit 10, an imaging unit 50, an arithmetic processing unit 60, a display device 70, and a housing 90. The shape measuring apparatus 1 has a configuration in which the projection unit 10, the imaging unit 50, the arithmetic processing unit 60, and the display device 70 are accommodated in a portable case 90.
投影部10は、第1の方向D1(図1のX軸方向)に沿った光強度分布を有するライン状の投影光100を生成する。そして、投影部10は、生成した投影光100を第1の方向とは異なる第2の方向D2(図1のY軸方向)に沿って走査することにより、投影領域200に対して構造光101を投影する。第1実施形態の構造光101は、位相シフト法で用いる構造光である。なお、構造光101、投影領域200、及び特徴領域の詳細については後述する(図3及び図4参照)。 The projection unit 10 generates a line-shaped projection light 100 having a light intensity distribution along the first direction D1 (X-axis direction in FIG. 1). Then, the projection unit 10 scans the generated projection light 100 along a second direction D2 (the Y-axis direction in FIG. 1) different from the first direction, thereby causing the structured light 101 with respect to the projection region 200. Project. The structured light 101 of the first embodiment is structured light used in the phase shift method. Details of the structured light 101, the projection region 200, and the feature region will be described later (see FIGS. 3 and 4).
投影部10は、図1に示すように、光生成部20と、投影光学系30と、走査部40とを有する。光生成部20は、投影光100を生成する。投影光学系30は、光生成部20で生成された投影光100を投影する。投影光学系30から出射された投影光100は、走査部40を介して測定対象物2または測定対象物2の近傍に向けて投影される。走査部40は、投影光100を第2の方向D2(図1のY軸方向)に走査する。 As shown in FIG. 1, the projection unit 10 includes a light generation unit 20, a projection optical system 30, and a scanning unit 40. The light generation unit 20 generates the projection light 100. The projection optical system 30 projects the projection light 100 generated by the light generation unit 20. The projection light 100 emitted from the projection optical system 30 is projected toward the measurement object 2 or the vicinity of the measurement object 2 via the scanning unit 40. The scanning unit 40 scans the projection light 100 in the second direction D2 (Y-axis direction in FIG. 1).
撮像部50は、測定対象物2を撮像する。撮像部50は、投影部10の位置と異なる位置に配置されている。撮像部50は、投影光100が投影された測定対象物2を、投影部10による投影方向とは異なる方向から撮像する。撮像部50は、例えば構造光101が投影された測定対象物2の像(以下、「測定像」と表記する。)を撮像する。また、撮像部50は、例えば自然光による測定対象物2の像(以下、「参照像」と表記する。)を撮像する。参照像は、静止画像及びライブビュー画像を含む。 The imaging unit 50 images the measurement object 2. The imaging unit 50 is disposed at a position different from the position of the projection unit 10. The imaging unit 50 images the measurement object 2 onto which the projection light 100 is projected from a direction different from the direction in which the projection unit 10 projects. The imaging unit 50 captures an image of the measurement object 2 onto which the structured light 101 is projected (hereinafter referred to as “measurement image”), for example. In addition, the imaging unit 50 captures an image of the measurement object 2 using natural light (hereinafter referred to as “reference image”), for example. The reference image includes a still image and a live view image.
撮像部50は、受光光学系51及び撮像装置52を有している。撮像部50としては、モノクロカメラが用いられる。受光光学系51は、測定対象物2の表面において、投影光100が投影された部分を含む領域の像を撮像装置52に結像させる光学系である。受光光学系51は、例えば複数のレンズが用いられる。撮像装置52は、受光光学系51によって結像された像に基づいて測定対象物2の画像データを生成するとともに、生成した画像データを記憶する。 The imaging unit 50 includes a light receiving optical system 51 and an imaging device 52. As the imaging unit 50, a monochrome camera is used. The light receiving optical system 51 is an optical system that causes the imaging device 52 to form an image of a region including a portion on which the projection light 100 is projected on the surface of the measurement object 2. For the light receiving optical system 51, for example, a plurality of lenses are used. The imaging device 52 generates image data of the measurement object 2 based on the image formed by the light receiving optical system 51 and stores the generated image data.
演算処理部60は、光生成部20による投影光100の生成を制御する。また、演算処理部60は、走査部40による投影光100の走査と、撮像部50による測定対象物2の撮像とを同期させるように、走査部40及び撮像部50を制御する。また、演算処理部60は、自然光による測定対象物2の像を撮像するように撮像部50を制御する。また、演算処理部60は、撮像部50が撮像した画像データにおける各画素の輝度データ(信号強度)に基づいて、測定対象物2の三次元形状を算出する。 The arithmetic processing unit 60 controls the generation of the projection light 100 by the light generation unit 20. In addition, the arithmetic processing unit 60 controls the scanning unit 40 and the imaging unit 50 so that the scanning of the projection light 100 by the scanning unit 40 and the imaging of the measurement object 2 by the imaging unit 50 are synchronized. In addition, the arithmetic processing unit 60 controls the imaging unit 50 so as to capture an image of the measurement target 2 by natural light. Further, the arithmetic processing unit 60 calculates the three-dimensional shape of the measurement object 2 based on the luminance data (signal intensity) of each pixel in the image data captured by the imaging unit 50.
次に、図2を参照して形状測定装置1に含まれる投影部10、撮像部50、及び演算処理部60の詳細な構成について説明する。図2は、図1に示す形状測定装置1の詳細構成の一例を示すブロック図である。図1に示すように3軸座標系を設定した場合、図2においては、紙面の右方向がX軸となり、紙面の上方向がZ軸となり、紙面の裏から表に向かう方向がY軸となる。図2に示すように、投影部10は、レーザコントローラ21、レーザダイオード(光源)22、投影光学系30、及び走査部40を有している。図1に示す光生成部20は、レーザコントローラ21及びレーザダイオード22を含む。 Next, detailed configurations of the projection unit 10, the imaging unit 50, and the arithmetic processing unit 60 included in the shape measuring apparatus 1 will be described with reference to FIG. FIG. 2 is a block diagram showing an example of a detailed configuration of the shape measuring apparatus 1 shown in FIG. When a three-axis coordinate system is set as shown in FIG. 1, in FIG. 2, the right direction of the paper is the X axis, the upward direction of the paper is the Z axis, and the direction from the back of the paper to the front is the Y axis. Become. As shown in FIG. 2, the projection unit 10 includes a laser controller 21, a laser diode (light source) 22, a projection optical system 30, and a scanning unit 40. The light generation unit 20 illustrated in FIG. 1 includes a laser controller 21 and a laser diode 22.
レーザコントローラ21は、制御部62からの指令信号に基づいてレーザダイオード22によるレーザ光の照射を制御する。例えば、レーザコントローラ21は、後述するように、制御部62からの指令信号に基づいて、走査部40による投影光100の走査と同期するようにレーザ光の光強度を変化させることが可能となっている。なお、制御部62については後述する。レーザダイオード22は、レーザコントローラ21からの制御信号に基づいてレーザ光を照射する光源である。レーザダイオード22は、例えば赤色光を射出する赤色レーザダイオードと、緑色光を射出する緑色レーザダイオードと、青色光を射出する青色レーザダイオードとを有している。 The laser controller 21 controls irradiation of the laser light by the laser diode 22 based on a command signal from the control unit 62. For example, the laser controller 21 can change the light intensity of the laser light so as to be synchronized with the scanning of the projection light 100 by the scanning unit 40 based on a command signal from the control unit 62, as will be described later. ing. The control unit 62 will be described later. The laser diode 22 is a light source that emits laser light based on a control signal from the laser controller 21. The laser diode 22 includes, for example, a red laser diode that emits red light, a green laser diode that emits green light, and a blue laser diode that emits blue light.
投影光学系30は、上述したように、投影光100を投影する。投影光学系30は、一つまたは複数の透過光学素子または反射光学素子によって構成される。 The projection optical system 30 projects the projection light 100 as described above. The projection optical system 30 includes one or a plurality of transmission optical elements or reflection optical elements.
走査部40は、投影光学系30から出射された投影光100を、例えば、ミラー等の反射光学素子を用いて反射し、その反射角を変化させることにより投影光100を第2の方向D2(図2のY軸方向)に走査する。走査部40を構成する反射光学素子の一例として、静電気でミラーを共振させて投影光100の反射角を変化させるMEMS(Micro Electro Mechanical Systems)ミラーが用いられる。第2の方向D2は、第1の方向D1(図2のX軸方向)と異なる測定対象物2上の方向である。例えば、第1の方向D1と第2の方向D2とは直交している。 The scanning unit 40 reflects the projection light 100 emitted from the projection optical system 30 by using, for example, a reflection optical element such as a mirror, and changes the reflection angle thereof to change the projection light 100 in the second direction D2 ( Scan in the Y-axis direction in FIG. As an example of the reflective optical element constituting the scanning unit 40, a MEMS (Micro Electro Mechanical Systems) mirror that resonates the mirror with static electricity and changes the reflection angle of the projection light 100 is used. The second direction D2 is a direction on the measurement object 2 different from the first direction D1 (X-axis direction in FIG. 2). For example, the first direction D1 and the second direction D2 are orthogonal to each other.
MEMSミラーは、図1に示すように紙面内の振動中心AXを軸として方向S(図1参照)に振動し、投影光100を所定の反射角で反射させつつ、その反射角を変化させる。MEMSミラーによる第2の方向D2の走査幅(つまり、投影領域200における第2の方向D2の長さ)は、MEMSミラーの振動方向Sの振幅によって決定される。また、MEMSミラーにより投影光100が第2の方向D2に走査される速度は、MEMSミラーの角速度(つまり、共振周波数)によって決定される。また、MEMSミラーを振動させることにより、投影光100を往復して走査可能となる。投影光100の走査の開始位置は任意である。例えば、投影領域200の端から投影光100の走査が開始されるほかに、投影領域200の略中央付近から走査が開始されてもよい。 As shown in FIG. 1, the MEMS mirror vibrates in the direction S (see FIG. 1) with the vibration center AX in the paper as an axis, and changes the reflection angle while reflecting the projection light 100 at a predetermined reflection angle. The scanning width in the second direction D2 by the MEMS mirror (that is, the length in the second direction D2 in the projection region 200) is determined by the amplitude in the vibration direction S of the MEMS mirror. Further, the speed at which the projection light 100 is scanned in the second direction D2 by the MEMS mirror is determined by the angular speed (that is, the resonance frequency) of the MEMS mirror. Further, by vibrating the MEMS mirror, the projection light 100 can be scanned back and forth. The start position of scanning with the projection light 100 is arbitrary. For example, in addition to starting the scanning of the projection light 100 from the end of the projection area 200, the scanning may be started from approximately the center of the projection area 200.
図3は、投影領域200における構造光101の強度分布を示す図である。図1に示すような3軸座標系を設定した場合、図3においては、紙面の右方向がY軸となり、紙面の上方向がX軸となり、紙面の裏から表に向かう方向がZ軸となる。 FIG. 3 is a diagram illustrating the intensity distribution of the structured light 101 in the projection region 200. When a three-axis coordinate system as shown in FIG. 1 is set, in FIG. 3, the right direction of the paper surface is the Y axis, the upward direction of the paper surface is the X axis, and the direction from the back of the paper surface to the front is the Z axis. Become.
図3に示すように、投影光100は、第1の方向D1に所定の長さを有するスリット状の光である。投影光100は、第2の方向D2に所定の距離にわたって走査されることで矩形状の投影領域200を形成する。投影領域200は、構造光101が投影される領域であり、第1の方向D1と第2の方向D2とで規定される領域である。投影領域200は、測定対象物2の一部または全部を含んでいる。 As shown in FIG. 3, the projection light 100 is slit-shaped light having a predetermined length in the first direction D1. The projection light 100 is scanned over a predetermined distance in the second direction D2, thereby forming a rectangular projection region 200. The projection area 200 is an area onto which the structured light 101 is projected, and is an area defined by the first direction D1 and the second direction D2. The projection area 200 includes part or all of the measurement object 2.
図3に示す構造光101は、第2の方向D2に沿って周期的な光強度の分布を有するパターン光である。第1実施形態では、構造光101の一例として、第2の方向D2に沿って正弦波状の周期的な光強度の分布を有する縞パターンPが用いられる。縞パターンPは、例えば投影光100の波長を所定波長(例、約680nm)として、投影光100の光強度を周期的に変化させつつ第2の方向D2に走査することで形成される。縞パターンPは、明るい部分(図3の白い部分)と暗い部分(図3の黒い部分)とが第2の方向D2に沿って変化する明暗パターンを有する。また、縞パターンPは、濃い部分(図3の黒い部分)と薄い部分(図3の白い部分)とが徐々に変化する濃淡パターンとも表現される。また、縞パターンPは、格子状のパターンであるから格子パターンとも表現される。また、第2の方向D2を明暗の方向または濃淡の方向、格子の方向ともいう。 The structured light 101 shown in FIG. 3 is pattern light having a periodic light intensity distribution along the second direction D2. In the first embodiment, a stripe pattern P having a sinusoidal periodic light intensity distribution along the second direction D2 is used as an example of the structured light 101. The fringe pattern P is formed, for example, by setting the wavelength of the projection light 100 to a predetermined wavelength (eg, about 680 nm) and scanning in the second direction D2 while periodically changing the light intensity of the projection light 100. The stripe pattern P has a light-dark pattern in which a bright part (white part in FIG. 3) and a dark part (black part in FIG. 3) change along the second direction D2. The fringe pattern P is also expressed as a shading pattern in which a dark portion (black portion in FIG. 3) and a thin portion (white portion in FIG. 3) gradually change. Further, since the stripe pattern P is a lattice pattern, it is also expressed as a lattice pattern. Further, the second direction D2 is also referred to as a light / dark direction, a light / dark direction, or a lattice direction.
続いて、図2に示すように、撮像部50は、受光光学系51、CCDカメラ52a、及び画像メモリ52bを有している。撮像装置52は、CCDカメラ52a及び画像メモリ52bを含む。受光光学系51は、上述したように、測定対象物2の表面において、投影光100が投影された部分を含む領域の像または自然光による像をCCDカメラ52aの受光面に結像させる。CCDカメラ52aは、電荷結合素子(Charge Coupled Device)を用いたカメラである。 Subsequently, as shown in FIG. 2, the imaging unit 50 includes a light receiving optical system 51, a CCD camera 52a, and an image memory 52b. The imaging device 52 includes a CCD camera 52a and an image memory 52b. As described above, the light receiving optical system 51 forms an image of a region including the portion on which the projection light 100 is projected or an image of natural light on the surface of the measurement object 2 on the light receiving surface of the CCD camera 52a. The CCD camera 52a is a camera using a charge coupled device.
CCDカメラ52aにより生成される画像データは画素毎の信号強度データによって構成される。例えば、画像データは512×512=262144画素の信号強度データで構成される。画像メモリ52bは、CCDカメラ52aが生成した画像データを記憶する。 Image data generated by the CCD camera 52a is composed of signal intensity data for each pixel. For example, the image data is composed of signal intensity data of 512 × 512 = 262144 pixels. The image memory 52b stores image data generated by the CCD camera 52a.
続いて、図2に示すように、演算処理部60は、操作部61、制御部62、設定情報記憶部63、取込メモリ64、演算部65、画像記憶部66、及び表示制御部67を有している。
操作部61は、ユーザの操作に応じた操作信号を制御部62に出力する。この操作部61は、例えば、ユーザによって操作されるボタン、スイッチ、タッチパネルなどである。
Subsequently, as shown in FIG. 2, the calculation processing unit 60 includes an operation unit 61, a control unit 62, a setting information storage unit 63, a capture memory 64, a calculation unit 65, an image storage unit 66, and a display control unit 67. Have.
The operation unit 61 outputs an operation signal corresponding to a user operation to the control unit 62. The operation unit 61 is, for example, a button, switch, touch panel, or the like operated by the user.
制御部62は、光生成部20と、走査部40と、撮像部50とを制御する。制御部62は、設定情報記憶部63に記憶されているプログラムに従って次の制御を実行する。 The control unit 62 controls the light generation unit 20, the scanning unit 40, and the imaging unit 50. The control unit 62 executes the following control according to the program stored in the setting information storage unit 63.
制御部62は、走査部40及びCCDカメラ52aに指令信号を出力し、CCDカメラ52aによる測定対象物2の撮像が、走査部40による縞パターンPの走査に同期するように制御する。また、制御部62は、CCDカメラ52aによる1フレームの撮像と、縞パターンPの複数回の走査とを同期させるように制御する。また、制御部62は、CCDカメラ52aを単独で制御することが可能である。この場合、制御部62の制御により、CCDカメラ52aは、自然光による測定対象物2の像を所定のフレームレートで撮像する。 The control unit 62 outputs a command signal to the scanning unit 40 and the CCD camera 52a, and controls the imaging of the measurement object 2 by the CCD camera 52a to be synchronized with the scanning of the fringe pattern P by the scanning unit 40. Further, the control unit 62 performs control so as to synchronize imaging of one frame by the CCD camera 52a and a plurality of times of scanning of the stripe pattern P. The control unit 62 can control the CCD camera 52a independently. In this case, under the control of the control unit 62, the CCD camera 52a captures an image of the measuring object 2 with natural light at a predetermined frame rate.
制御部62は、レーザコントローラ21に指令信号を出力することにより、レーザダイオード22から赤色光、青色光及び緑色光を組み合わせた所望のレーザ光を照射可能である。また、制御部62は、レーザコントローラ21に指令信号を出力することにより、レーザダイオード22から照射されるレーザ光の光強度を調整可能である。制御部62は、縞パターンPを測定対象物2に投影する場合、例えばレーザコントローラ21と走査部40とを同期制御することにより、所定波長の投影光100の光強度を周期的に変化させつつ該投影光100を第2の方向D2に走査する。 The control unit 62 can emit desired laser light combining red light, blue light, and green light from the laser diode 22 by outputting a command signal to the laser controller 21. The control unit 62 can adjust the light intensity of the laser light emitted from the laser diode 22 by outputting a command signal to the laser controller 21. When projecting the fringe pattern P onto the measurement object 2, the control unit 62 periodically changes the light intensity of the projection light 100 having a predetermined wavelength by synchronously controlling the laser controller 21 and the scanning unit 40, for example. The projection light 100 is scanned in the second direction D2.
走査部40を構成するMEMSミラーの周波数は、例えば500Hz(MEMSミラーの振動周期は往復2ms)に設定される。また、CCDカメラ52aのシャッタースピード(CCDカメラ52aの露光時間)は例えば40msに設置される。従って、CCDカメラ52aが1枚の画像を撮像する間に、走査部40は投影光100を投影領域200に40回走査(20回往復走査)する。制御部62は、CCDカメラ52aによる1フレームの撮像の間に、例えば走査部40により、投影光100を20回往復させるように制御を行う。ただし、CCDカメラ52aによる1フレームの撮像において、投影光100を何往復走査させるかは、任意に設定可能である。例えば、CCDカメラ52aのシャッタースピードの調整や、MEMSミラーの周波数の調整により、1フレームの撮像で取り込む投影光100の走査数は調整される。 The frequency of the MEMS mirror that constitutes the scanning unit 40 is set to, for example, 500 Hz (the oscillation cycle of the MEMS mirror is 2 ms for reciprocation). The shutter speed of the CCD camera 52a (exposure time of the CCD camera 52a) is set to 40 ms, for example. Accordingly, while the CCD camera 52a captures one image, the scanning unit 40 scans the projection light 100 in the projection region 200 40 times (20 reciprocating scans). The control unit 62 performs control so that the projection light 100 is reciprocated 20 times, for example, by the scanning unit 40 during imaging of one frame by the CCD camera 52a. However, it is possible to arbitrarily set how many reciprocating scans of the projection light 100 are performed when the CCD camera 52a captures one frame. For example, by adjusting the shutter speed of the CCD camera 52a and the frequency of the MEMS mirror, the number of scans of the projection light 100 captured by one frame imaging is adjusted.
設定情報記憶部63は、制御部62に制御を実行させるためのプログラムを記憶する。また、設定情報記憶部63は、表示制御部67に表示制御を実行させるためのプログラムを記憶する。このようなプログラムとして、例えば表示装置70にライブビュー画像を表示させるためのプログラムや、測定対象物2の参照像の一部をオーバーレイ画像として上記ライブビュー画像に重ねて表示装置70に表示させるためのプログラムなどが挙げられる。なお、ライブビュー画像は、CCDカメラ52aからの出力がリアルタイムで表示装置70に表示される画像である。ライブビュー画像は、例えば撮像部50により撮像されている測定対象物2等の画像をユーザが確認するために用いられる。また、オーバーレイ画像は、ライブビュー画像に重ねて表示される画像である。 The setting information storage unit 63 stores a program for causing the control unit 62 to execute control. The setting information storage unit 63 stores a program for causing the display control unit 67 to execute display control. As such a program, for example, a program for displaying a live view image on the display device 70 or a part of a reference image of the measurement object 2 is displayed on the display device 70 as an overlay image so as to be superimposed on the live view image. Programs. The live view image is an image in which the output from the CCD camera 52a is displayed on the display device 70 in real time. The live view image is used for the user to confirm an image of the measurement object 2 or the like captured by the imaging unit 50, for example. The overlay image is an image displayed on the live view image.
また、設定情報記憶部63は、演算部65に対して、三次元形状の演算処理を実行させるためのプログラムを記憶する。設定情報記憶部63は、演算部65の演算処理において縞パターンPの縞の位相から測定対象物2の実座標値を算出する際に用いるキャリブレーション情報なども記憶する。 In addition, the setting information storage unit 63 stores a program for causing the calculation unit 65 to execute calculation processing of a three-dimensional shape. The setting information storage unit 63 also stores calibration information used when calculating the actual coordinate value of the measurement object 2 from the fringe phase of the fringe pattern P in the calculation process of the calculation unit 65.
取込メモリ64は、画像メモリ52bに記憶された画像データを取り込んで記憶する。この取込メモリ64は、縞パターンPを投影して撮像した測定対象物2の測定像や、自然光による測定対象物2の参照像などが記憶される。取込メモリ64には、複数の記憶領域が設けられている。測定像の画像データ及び参照像の画像データは、例えばそれぞれ異なる記憶領域に記憶される。 The capture memory 64 captures and stores the image data stored in the image memory 52b. The capture memory 64 stores a measurement image of the measurement object 2 imaged by projecting the fringe pattern P, a reference image of the measurement object 2 by natural light, and the like. The capture memory 64 is provided with a plurality of storage areas. The image data of the measurement image and the image data of the reference image are stored in different storage areas, for example.
演算部65は、設定情報記憶部63に記憶されているプログラムやキャリブレーション情報に従って、所定の演算を実行する。演算部65は、例えば撮像部50によって撮像された参照像に基づいた画像処理により測定対象物2の特徴領域を検出する。特徴領域は、例えば測定対象物2の参照像に含まれる領域であって、他の領域に対して輝度が変化していることにより識別可能な領域である。この場合、輝度の変化は、測定対象物2の形状や表面の光反射率等の変化等に基づくものである。なお、このような特徴領域として、測定対象物2上又はその周囲に上記の不図示のマーカを配置した場合、該マーカが、特徴領域として含まれてもよい。 The calculation unit 65 performs a predetermined calculation according to the program and calibration information stored in the setting information storage unit 63. The computing unit 65 detects the feature region of the measurement object 2 by image processing based on the reference image imaged by the imaging unit 50, for example. The feature region is a region that is included in the reference image of the measurement object 2, for example, and can be identified by the change in luminance with respect to other regions. In this case, the change in luminance is based on a change in the shape of the measurement object 2, the light reflectance of the surface, and the like. In addition, when such a marker (not shown) is arranged on or around the measurement object 2 as such a feature region, the marker may be included as a feature region.
画像記憶部66は、演算部65による演算処理によって算出される測定対象物2の三次元形状データを記憶する。また、画像記憶部66は、演算部65によって算出される測定対象物2の画像データや、演算処理の際に用いられる画像データなどを記憶する。このような画像データには、静止画、動画、ライブビュー画像などが含まれる。 The image storage unit 66 stores the three-dimensional shape data of the measurement object 2 calculated by the calculation process by the calculation unit 65. The image storage unit 66 stores the image data of the measurement object 2 calculated by the calculation unit 65, the image data used in the calculation process, and the like. Such image data includes still images, moving images, live view images, and the like.
表示制御部67は、設定情報記憶部63に記憶されているプログラムに従って、ライブビュー画像の表示制御を実行する。この場合、表示制御部67は、画像記憶部66に記憶された測定対象物2のライブビュー画像を読み出し、表示装置70の表示画面に表示させる。 The display control unit 67 performs display control of the live view image according to the program stored in the setting information storage unit 63. In this case, the display control unit 67 reads the live view image of the measurement object 2 stored in the image storage unit 66 and displays it on the display screen of the display device 70.
また、表示制御部67は、設定情報記憶部63に記憶されているプログラムに従って、オーバーレイ画像の表示制御を実行する。この場合、表示制御部67は、画像記憶部66に記憶された測定対象物2の参照像のデータを読み出す。そして、表示制御部67は、読み出した参照像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示装置70の表示画面に表示させる。表示画面のうちオーバーレイ画像が表示される範囲については、ユーザが予め設定しておいてもよいし、自動で設定されてもよい。 In addition, the display control unit 67 performs display control of the overlay image according to a program stored in the setting information storage unit 63. In this case, the display control unit 67 reads the reference image data of the measurement object 2 stored in the image storage unit 66. Then, the display control unit 67 displays a part of the read reference image on the display screen of the display device 70 as an overlay image superimposed on the live view image. The range in which the overlay image is displayed on the display screen may be set by the user in advance or may be set automatically.
また、表示制御部67は、表示画面に表示されるオーバーレイ画像の表示状態を変更する制御を行う。このオーバーレイ画像の表示状態の変更には、例えばオーバーレイ画像の透明度を変更することなどが含まれる。オーバーレイ画像の透明度については、表示制御部67が自動で設定してもよいし、表示制御部67がユーザによって設定される値に応じて設定してもよい。オーバーレイ画像の透明度をユーザに設定させる場合、表示制御部67は、透明度を表す情報を表示装置70の表示画面に表示させる制御を行ってもよい。 In addition, the display control unit 67 performs control to change the display state of the overlay image displayed on the display screen. The change of the display state of the overlay image includes, for example, changing the transparency of the overlay image. About the transparency of an overlay image, the display control part 67 may set automatically, and the display control part 67 may set according to the value set by the user. When the user sets the transparency of the overlay image, the display control unit 67 may perform control to display information indicating the transparency on the display screen of the display device 70.
また、表示制御部67は、設定情報記憶部63に記憶されているプログラムに従って三次元形状の画像の表示制御を実行する。すなわち、表示制御部67は、ユーザによる操作部61の操作に応じて、または自動的に、画像記憶部66に記憶された三次元形状データを読み出す。そして、表示制御部67は、読み出した三次元形状データに基づいて表示装置70の表示画面に測定対象物2の三次元形状の画像を表示させる制御を実行する。 Further, the display control unit 67 executes display control of a three-dimensional image according to a program stored in the setting information storage unit 63. That is, the display control unit 67 reads the three-dimensional shape data stored in the image storage unit 66 in accordance with the operation of the operation unit 61 by the user or automatically. And the display control part 67 performs control which displays the image of the three-dimensional shape of the measuring object 2 on the display screen of the display apparatus 70 based on the read-out three-dimensional shape data.
表示装置70は、表示制御部67の制御により、測定対象物2の三次元形状の画像や参照像(静止画像及びライブビュー画像)を表示する装置である。また、表示装置70として、例えばタッチパネルが用いられている。この表示装置70は、画像等を表示させるものであるが、タッチパネルによる操作が可能であるため、操作部61としても用いられる。 The display device 70 is a device that displays a three-dimensional image or a reference image (a still image and a live view image) of the measurement target 2 under the control of the display control unit 67. For example, a touch panel is used as the display device 70. The display device 70 is for displaying an image or the like, but can also be operated by a touch panel, and is also used as the operation unit 61.
また、上記の制御部62、演算部65、及び表示制御部67は、CPU(Central Processing Unit)などの演算処理装置により構成される。すなわち、演算処理装置が設定情報記憶部63に記憶されているプログラムに従って制御部62が実行する処理を行う。また、演算処理装置が設定情報記憶部63に記憶されているプログラムに従って演算部65が実行する処理を行う。また、演算処理装置が設定情報記憶部63に記憶されているプログラムに従って表示制御部67が実行する処理を行う。このプログラムには、測定プログラムが含まれる。 The control unit 62, the calculation unit 65, and the display control unit 67 are configured by a calculation processing device such as a CPU (Central Processing Unit). That is, the arithmetic processing unit performs processing executed by the control unit 62 in accordance with a program stored in the setting information storage unit 63. In addition, the arithmetic processing unit performs processing executed by the arithmetic unit 65 in accordance with a program stored in the setting information storage unit 63. Further, the arithmetic processing unit performs processing executed by the display control unit 67 in accordance with a program stored in the setting information storage unit 63. This program includes a measurement program.
この測定プログラムは、演算処理装置(制御部62)に対して、測定対象物2のライブビュー画像を表示する処理と、測定対象物2の三次元データ(第1の三次元データ)を取得する際に撮像される測定対象物2の画像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示する処理と、オーバーレイ画像の表示状態を変更する処理と、第1の三次元データと重複する部分を有しライブビュー画像に対応する測定対象物2の第2の三次元データと、上記の第1の三次元データとを連結する処理とを実行させる処理とを行わせる。 This measurement program acquires processing for displaying a live view image of the measurement object 2 and three-dimensional data (first three-dimensional data) of the measurement object 2 on the arithmetic processing unit (control unit 62). A part of the image of the measurement object 2 that is picked up at the time is displayed as an overlay image superimposed on the live view image, a process of changing the display state of the overlay image, and a part overlapping the first three-dimensional data And the second three-dimensional data of the measurement object 2 corresponding to the live view image and the process of linking the first three-dimensional data are performed.
次に、位相シフト法の原理について説明する。
位相シフト法は、三角測量の原理に基づいて、測定対象物2へ投影した正弦波状の光強度分布を有する縞パターンPの縞の位相をシフトさせて撮像した縞画像(縞パターンPが投影された測定対象物2の測定像)を解析することにより、三次元的に形状を計測する手法である。本実施形態において、縞パターンPは、縞の位相を第2の方向D2に沿ってπ/2ずつシフトさせた4種類の縞パターンPである。ここで、縞パターンPの位相は、縞パターンPの光強度の分布である正弦波の位相と言い換えることができる。つまり、光強度の分布である正弦波をπ/2ずつ第2の方向D2に沿ってシフトさせて4種類の縞パターンPを生成する。
Next, the principle of the phase shift method will be described.
The phase shift method is based on the principle of triangulation, and a fringe image (the fringe pattern P is projected by shifting the fringe phase of the fringe pattern P having a sinusoidal light intensity distribution projected onto the measurement object 2. This is a method of measuring the shape three-dimensionally by analyzing the measured image of the measured object 2). In the present embodiment, the fringe pattern P is four types of fringe patterns P obtained by shifting the fringe phase by π / 2 along the second direction D2. Here, the phase of the fringe pattern P can be rephrased as a phase of a sine wave that is a light intensity distribution of the fringe pattern P. That is, four types of fringe patterns P are generated by shifting a sine wave, which is a light intensity distribution, by π / 2 along the second direction D2.
以下、例えば基準となる縞パターンPを第1縞パターン(第1位相光)P1とし、この第1縞パターンP1の位相を0とする。そして、この第1縞パターンP1の位相をπ/2だけシフトさせた縞パターンPを第2縞パターン(第2位相光)P2とし、第1縞パターンP1の位相をπだけシフトさせた縞パターンPを第3縞パターン(第3位相光)P3とし、第1縞パターンP1の位相を3π/2だけシフトさせた縞パターンPを第4縞パターン(第4位相光)P4とする。 Hereinafter, for example, the reference stripe pattern P is a first stripe pattern (first phase light) P1, and the phase of the first stripe pattern P1 is zero. The stripe pattern P obtained by shifting the phase of the first stripe pattern P1 by π / 2 is defined as the second stripe pattern (second phase light) P2, and the stripe pattern obtained by shifting the phase of the first stripe pattern P1 by π. Let P be the third stripe pattern (third phase light) P3, and let the stripe pattern P obtained by shifting the phase of the first stripe pattern P1 by 3π / 2 be the fourth stripe pattern (fourth phase light) P4.
図5(a)〜(d)は、測定対象物2のない平面に第1縞パターンP1〜第4縞パターンP4が投影された状態を示す図であり、投影領域200内における撮像領域210の画像である。なお、撮像領域210は、撮像部50により撮像される測定対象物2の領域である。図5(a)は第1縞パターンP1、(b)は第2縞パターンP2、(c)は第3縞パターンP3、(d)は第4縞パターンP4を示している。 5A to 5D are views showing a state in which the first stripe pattern P1 to the fourth stripe pattern P4 are projected on a plane without the measurement object 2, and the imaging region 210 in the projection region 200 is shown. It is an image. Note that the imaging region 210 is a region of the measurement object 2 that is imaged by the imaging unit 50. 5A shows the first stripe pattern P1, FIG. 5B shows the second stripe pattern P2, FIG. 5C shows the third stripe pattern P3, and FIG. 5D shows the fourth stripe pattern P4.
位相シフト法では、図5(a)〜(d)に示すような第1縞パターンP1〜第4縞パターンP4を投影部10から測定対象物2に投影すると共に、投影部10に対して異なる角度に配置される撮像部50で測定対象物2を撮影する。このとき、投影部10、測定対象物2、撮像部50は、三角測量の位置関係になるよう配置される。 In the phase shift method, the first fringe pattern P1 to the fourth fringe pattern P4 as shown in FIGS. 5A to 5D are projected from the projection unit 10 onto the measurement object 2 and are different from the projection unit 10. The measurement object 2 is imaged by the imaging unit 50 arranged at an angle. At this time, the projection unit 10, the measurement object 2, and the imaging unit 50 are arranged so as to have a triangulation positional relationship.
撮像部50は、第1縞パターンP1〜第4縞パターンP4がそれぞれ測定対象物2に投影された状態で、それぞれ測定対象物2を撮像して4つの測定像を取得する。そして、演算処理部60は、撮像部50が撮像した4つの測定像のそれぞれの信号強度に関するデータを以下の(式1)に当てはめ、測定対象物2の面形状に応じた各画素における縞の位相値φを求める。 The imaging unit 50 captures the measurement object 2 and obtains four measurement images in a state where the first stripe pattern P1 to the fourth stripe pattern P4 are respectively projected onto the measurement object 2. Then, the arithmetic processing unit 60 applies the data on the signal strengths of the four measurement images captured by the imaging unit 50 to the following (Equation 1), and the fringes in each pixel according to the surface shape of the measurement object 2 are calculated. A phase value φ is obtained.
φ(u,v)=tan−1{(I4(u,v)−I2(u,v))/(I1(u,v)−I3(u,v))}・・・(式1)
ただし、(u、v)は画素の位置座標を示している。また、I1は第1縞パターンP1が投影されたときに撮像された測定像の信号強度である。同様に、I2は第2縞パターンP2、I3は第3縞パターンP3、I4は第4縞パターンP4がそれぞれ投影されたときの測定像の信号強度である。
φ (u, v) = tan −1 {(I4 (u, v) −I2 (u, v)) / (I1 (u, v) −I3 (u, v))} (Expression 1)
However, (u, v) indicates the position coordinates of the pixel. I1 is the signal intensity of the measurement image captured when the first fringe pattern P1 is projected. Similarly, I2 is the second stripe pattern P2, I3 is the third stripe pattern P3, and I4 is the signal intensity of the measurement image when the fourth stripe pattern P4 is projected.
このように、画像の画素毎に正弦波状に変化する信号強度の位相を求めることができる。位相φ(u,v)が等しい点を連結して得られる線(等位相線)が、光切断法における切断線と同じく物体をある平面で切断した断面の形状を表す。従って、この位相φ(u,v)に基づいて三角測量の原理により三次元形状(画像の各点での高さ情報)が求められる。 In this way, the phase of the signal intensity that changes sinusoidally for each pixel of the image can be obtained. A line (equal phase line) obtained by connecting points having the same phase φ (u, v) represents the shape of a cross section obtained by cutting an object along a certain plane in the same manner as the cutting line in the optical cutting method. Therefore, a three-dimensional shape (height information at each point of the image) is obtained by the principle of triangulation based on this phase φ (u, v).
なお、図5(a)〜(d)に示すように、縞パターンPの位相が0、π/2、π、3π/2とシフトする毎に、撮像領域210上で縞の位置(縞の明るい部分と縞の暗い部分の位置)が位相差分だけずれているのが確認される。このように、縞パターンPの位相をシフトさせることにより、撮像領域210上においては、位相に対応して、縞の明るい部分及び暗い部分の位置が第2の方向D2にずれた状態で投影される。 As shown in FIGS. 5A to 5D, every time the phase of the fringe pattern P shifts to 0, π / 2, π, 3π / 2, the position of the fringe on the imaging region 210 (the fringe pattern). It is confirmed that the bright portions and the dark portions of the stripes are shifted by the phase difference. As described above, by shifting the phase of the fringe pattern P, the bright and dark portions of the fringe are projected in the second direction D2 on the imaging region 210 in accordance with the phase. The
図5(a)〜(d)に示すように、例えば、第2縞パターンP2では、第1縞パターンP1に対して、縞の位置が位相π/2に対応する距離だけ第2の方向D2にずれている。また、第3縞パターンP3では、第1縞パターンP1に対して、縞の位置が位相πに対応する距離だけ第2の方向D2にずれている。同様に、第4縞パターンP4では、第1縞パターンP1に対して、縞の位置が位相3π/2に対応する距離だけ第2の方向D2にずれている。このため、撮像領域210上においては、第1縞パターンP1から第4縞パターンP4にかけて、縞の位置が等間隔ずつ第2の方向D2にずれた状態で投影される。 As shown in FIGS. 5A to 5D, for example, in the second stripe pattern P2, the second direction D2 is a distance corresponding to the phase π / 2 of the stripe position with respect to the first stripe pattern P1. It is shifted to. Further, in the third stripe pattern P3, the position of the stripe is shifted in the second direction D2 by a distance corresponding to the phase π with respect to the first stripe pattern P1. Similarly, in the fourth stripe pattern P4, the position of the stripe is shifted in the second direction D2 by a distance corresponding to the phase 3π / 2 with respect to the first stripe pattern P1. For this reason, on the imaging region 210, the position of the stripe is projected from the first stripe pattern P1 to the fourth stripe pattern P4 in the second direction D2 at equal intervals.
なお、図5(a)〜(d)では、平面上に投影された縞パターンPの像を示しているので、縞パターンPの像の形状に変化はない。測定対象物2がある場合は、測定対象物2の表面に縞パターンPが投影されるので測定対象物2の形状(高さ)に応じて縞パターンPの像が第2の方向D2(図3のY軸方向)に沿って変形する。 5A to 5D show an image of the stripe pattern P projected on the plane, the shape of the image of the stripe pattern P is not changed. When the measuring object 2 is present, the fringe pattern P is projected on the surface of the measuring object 2, so that the image of the fringe pattern P in the second direction D2 (see FIG. 3 in the Y-axis direction).
次に、上記のように構成された形状測定装置1を用いた測定方法の一例について説明する。第1実施形態では、測定対象物2が撮像部50の撮像視野よりも大きくなるように配置された場合を例に挙げて説明する。例えば、図1に示すように、測定対象物2がY方向において投影領域200よりも大きい寸法となっている。この場合、測定対象物2のうち−Y側の第1部分2M及び+Y側の第2部分2N(図1参照)をそれぞれ測定し、各三次元データをつなぎ合わせることで測定対象物2全体の三次元形状を測定する手順を例に挙げる。この三次元データの一部同士をつなぎ合わせる処理では、第1部分2Mの画像と一部が重なるように第2部分2Nの画像を撮像し、それぞれ三次元データを算出する。このとき、本実施形態では、第1部分2Mの画像と第2部分2Nの画像との重複部分の範囲が、予め設定されている場合を例に挙げて説明する。なお、この重複部分の範囲については、予め設定される場合に限定されるものではなく、例えば撮像等を行っている間に設定を行うようにしてもよい。また、本実施形態では、第1部分2Mの画像と第2部分2Nの画像とが共通の3つの特徴領域(ここでは、一例として測定対象物2の形状の特徴領域)を互いに含むように、例えばこの2つの画像の半分ずつが重複部分の範囲として設定されるが、これには限定されない。 Next, an example of a measuring method using the shape measuring apparatus 1 configured as described above will be described. In the first embodiment, a case where the measurement object 2 is arranged so as to be larger than the imaging field of view of the imaging unit 50 will be described as an example. For example, as shown in FIG. 1, the measurement object 2 has a size larger than the projection region 200 in the Y direction. In this case, the first part 2M on the −Y side and the second part 2N on the + Y side (see FIG. 1) of the measurement object 2 are respectively measured, and the three-dimensional data are connected to each other to measure the entire measurement object 2. A procedure for measuring a three-dimensional shape is given as an example. In the process of joining parts of the three-dimensional data, the image of the second part 2N is captured so that the part of the image of the first part 2M overlaps, and the three-dimensional data is calculated respectively. At this time, in the present embodiment, a case where the range of the overlapping portion between the image of the first portion 2M and the image of the second portion 2N is set in advance will be described as an example. Note that the range of the overlapping portion is not limited to being set in advance, and may be set, for example, during imaging. In the present embodiment, the image of the first portion 2M and the image of the second portion 2N include three common feature regions (here, feature regions of the shape of the measurement object 2 as an example) For example, half of the two images are set as the overlapping range, but the present invention is not limited to this.
図5は、第1実施形態に係る測定方法の一例について説明するフローチャートである。また、図6は、測定方法における測定対象物2と形状測定装置1との位置関係の一例を示す図である。また、図7〜図10は、測定方法において表示領域70aで表示される画像等を処理順に沿って模式的に示す図である。 FIG. 5 is a flowchart for explaining an example of the measurement method according to the first embodiment. FIG. 6 is a diagram illustrating an example of a positional relationship between the measurement object 2 and the shape measuring apparatus 1 in the measurement method. 7 to 10 are diagrams schematically showing images and the like displayed in the display area 70a in the measurement method along the processing order.
本実施形態の測定方法では、ユーザは、図6に示す測定位置A1に形状測定装置1を配置して測定対象物2の第1部分2Nの画像を撮像する。その後、ユーザは、形状測定装置1を+Y側に移動させ、図6に示す測定位置A2に形状測定装置1を配置して第2部分2Nの画像を撮像する。
まず、ユーザが、測定対象物2のうち−Y側の第1部分2Mについて測定する場合を説明する。形状測定装置1の電源がオンとなった状態において、制御部62は、撮像部50に対して、自然光による測定対象物2のライブビュー画像を所定のフレームレートで撮像させる。表示制御部67は、図7(a)に示すように、撮像部50によって撮像されたライブビュー画像Im1を表示装置70の表示領域70aに表示させる。この状態から、ユーザは、形状測定装置1を撮像位置A1まで移動させ、シャッター操作を行う。
In the measurement method of the present embodiment, the user places the shape measuring device 1 at the measurement position A1 shown in FIG. 6 and captures an image of the first portion 2N of the measurement object 2. Thereafter, the user moves the shape measuring device 1 to the + Y side, places the shape measuring device 1 at the measurement position A2 shown in FIG. 6, and takes an image of the second portion 2N.
First, a case where the user measures the first portion 2M on the −Y side of the measurement object 2 will be described. In a state where the power of the shape measuring apparatus 1 is turned on, the control unit 62 causes the imaging unit 50 to capture a live view image of the measurement object 2 using natural light at a predetermined frame rate. The display control unit 67 displays the live view image Im1 captured by the imaging unit 50 in the display area 70a of the display device 70 as illustrated in FIG. From this state, the user moves the shape measuring apparatus 1 to the imaging position A1 and performs a shutter operation.
ユーザによりシャッター操作が行われると、制御部62は、光生成部20及び走査部40に対して指令信号を出力し、第1部分2Mに4種類の縞パターンP(図5(a)〜(d)参照)を投影させ、各縞パターンPが投影された第1部分2Mの測定像をそれぞれCCDカメラ52aに撮像させる。そして演算部65は、4種類の測定像に基づいて、第1部分2Mの三次元データ(第1の三次元データ)を取得する(ステップS01)。この三次元データは、第1部分2Mの三次元形状に関する画像データである。 When a shutter operation is performed by the user, the control unit 62 outputs a command signal to the light generation unit 20 and the scanning unit 40, and four types of stripe patterns P (see FIGS. 5A to 5D) in the first portion 2M. d) is projected, and the CCD camera 52a captures the measurement images of the first portion 2M on which the fringe patterns P are projected. And the calculating part 65 acquires the three-dimensional data (1st three-dimensional data) of the 1st part 2M based on four types of measurement images (step S01). This three-dimensional data is image data relating to the three-dimensional shape of the first portion 2M.
また、演算部65は、上記シャッター操作が行われた場合、撮像部50によって第1部分2Mの参照像ImR(図8参照)を取得する。図8に示すように、参照像ImRは、第1部分2Mの静止画像である。演算部65は、画像処理により、取得した第1部分2Mの参照像ImRのうち複数の位置で特徴領域Cを検出する。特徴領域Cとしては、例えば、測定対象物2の角部や凹部等に対応する3つの部分が検出される。表示制御部67は、図7(b)に示すように、撮像部50によって撮像されるライブビュー画像Im1を表示領域70aの全体に表示させる(ステップ02)と共に、取得した参照像ImRの右側半分(図8参照)をオーバーレイ画像Im2としてライブビュー画像Im1の左側半分の領域に重ねて表示させる(ステップS03)。 Further, when the shutter operation is performed, the calculation unit 65 acquires the reference image ImR (see FIG. 8) of the first portion 2M by the imaging unit 50. As shown in FIG. 8, the reference image ImR is a still image of the first portion 2M. The computing unit 65 detects the feature region C at a plurality of positions in the acquired reference image ImR of the first portion 2M by image processing. As the feature region C, for example, three portions corresponding to the corners and concave portions of the measurement object 2 are detected. As shown in FIG. 7B, the display control unit 67 displays the live view image Im1 picked up by the image pickup unit 50 on the entire display area 70a (step 02) and at the right half of the acquired reference image ImR. (See FIG. 8) is displayed as an overlay image Im2 so as to be superimposed on the left half region of the live view image Im1 (step S03).
本実施形態では、形状測定装置1を+Y方向に移動させることで次の撮像を行う。そのため、表示制御部67は、形状測定装置1の移動方向とは反対側、すなわち表示領域70aの左側半分の領域にオーバーレイ画像Im2を配置させる。このとき、表示制御部67は、参照像ImRの右側(+Y側)半分に相当する部分を、オーバーレイ画像Im2として表示させる。 In this embodiment, the next imaging is performed by moving the shape measuring apparatus 1 in the + Y direction. Therefore, the display control unit 67 arranges the overlay image Im2 on the side opposite to the moving direction of the shape measuring apparatus 1, that is, the left half region of the display region 70a. At this time, the display control unit 67 displays a portion corresponding to the right half (+ Y side) of the reference image ImR as the overlay image Im2.
また、表示制御部67は、オーバーレイ画像Im2を所定の透明度で表示させる。このため、ライブビュー画像Im1は、オーバーレイ画像Im2が表示される領域では、オーバーレイ画像Im2から透けるように表示される。 Further, the display control unit 67 displays the overlay image Im2 with a predetermined transparency. Therefore, the live view image Im1 is displayed so as to be transparent from the overlay image Im2 in the area where the overlay image Im2 is displayed.
次に、表示制御部67は、図9(a)に示すように、オーバーレイ画像Im2の透明度を示すインジケータ71を表示領域70a内に表示させる。この場合、オーバーレイ画像Im2の透明度が高いほど、オーバーレイ画像Im2からライブビュー画像Im1が透けて見える度合いが大きくなる。例えば、オーバーレイ画像Im2の透明度が最も高い場合、ライブビュー画像Im1はオーバーレイ画像Im2を重ねない状態と同等に表示される。逆に、オーバーレイ画像Im2の透明度が低いほど、オーバーレイ画像Im2からライブビュー画像Im1が透けて見える度合いが小さくなる。例えば、オーバーレイ画像Im2の透明度が最も低い場合、ライブビュー画像Im1は見えない状態となる。このインジケータ71は、例えばゲージが上端に達するほど透明度が低くなる(ライブビュー画像Im1が透けて見える度合いが大きくなる)ように設定されるが、これには限定されない。インジケータ71が示された後、ユーザは、表示領域70aに表示されるライブビュー画像Im1とオーバーレイ画像Im2とを確認し、オーバーレイ画像Im2の透明度を調整可能である。ユーザによってオーバーレイ画像Im2の透明度が変更された場合、表示制御部67は、変更された透明度に基づいてオーバーレイ画像Im2の表示を変更する(ステップS04)。また、表示制御部67は、変更された透明度に応じてインジケータ71のゲージを変更する。例えば図9(b)では、図9(a)の状態に比べて、ユーザによってオーバーレイ画像Im2の透明度が高くなるように設定された場合の例を示している。図9(b)の表示状態では、図9(a)の表示状態に比べて、オーバーレイ画像Im2を透かして表示されるライブビュー画像Im1が明瞭になっている。また、インジケータ71のゲージが下側に移動している。このように、ユーザは、オーバーレイ画像Im2の表示状態を変更することにより、表示領域70aにおいてライブビュー画像Im1とオーバーレイ画像Im2とを識別しやすくすることができる。 Next, as shown in FIG. 9A, the display control unit 67 displays an indicator 71 indicating the transparency of the overlay image Im2 in the display area 70a. In this case, the higher the transparency of the overlay image Im2, the greater the degree that the live view image Im1 can be seen through from the overlay image Im2. For example, when the transparency of the overlay image Im2 is the highest, the live view image Im1 is displayed in the same manner as when the overlay image Im2 is not superimposed. On the contrary, the lower the transparency of the overlay image Im2, the smaller the degree to which the live view image Im1 can be seen through from the overlay image Im2. For example, when the transparency of the overlay image Im2 is the lowest, the live view image Im1 is invisible. For example, the indicator 71 is set so that the transparency decreases as the gauge reaches the upper end (the degree to which the live view image Im1 is seen through increases), but is not limited thereto. After the indicator 71 is displayed, the user can check the live view image Im1 and the overlay image Im2 displayed in the display area 70a, and can adjust the transparency of the overlay image Im2. When the transparency of the overlay image Im2 is changed by the user, the display control unit 67 changes the display of the overlay image Im2 based on the changed transparency (step S04). In addition, the display control unit 67 changes the gauge of the indicator 71 according to the changed transparency. For example, FIG. 9B shows an example in which the user sets the overlay image Im2 to have higher transparency than the state of FIG. 9A. In the display state of FIG. 9B, the live view image Im1 displayed through the overlay image Im2 is clearer than the display state of FIG. 9A. Moreover, the gauge of the indicator 71 has moved downward. As described above, the user can easily identify the live view image Im1 and the overlay image Im2 in the display area 70a by changing the display state of the overlay image Im2.
次に、ユーザは、測定対象物2のうち+Y側の第2部分2Nについて測定する。ユーザは、形状測定装置1を+Y側(例えば、図6に示す位置A1a)に移動させると、図10(a)に示すように、ライブビュー画像Im1が切り替わる。このときユーザは、表示領域70aに表示されるライブビュー画像Im1とオーバーレイ画像Im2とを見比べ、オーバーレイ画像Im2で示される測定対象物2の表示に対して、ライブビュー画像Im1で示される測定対象物2の表示が重なるように形状測定装置1を+Y方向に移動させる。このとき、オーバーレイ画像Im2の表示状態が変更され、ライブビュー画像Im1とオーバーレイ画像Im2とを容易に識別できるようになっているため、ユーザは容易にこれらの画像を重ね合わせることが可能となる。 Next, the user measures the second portion 2N on the + Y side of the measurement object 2. When the user moves the shape measuring apparatus 1 to the + Y side (for example, the position A1a illustrated in FIG. 6), the live view image Im1 is switched as illustrated in FIG. At this time, the user compares the live view image Im1 displayed on the display area 70a with the overlay image Im2, and displays the measurement target 2 indicated by the live view image Im1 with respect to the display of the measurement target 2 indicated by the overlay image Im2. The shape measuring apparatus 1 is moved in the + Y direction so that the display of 2 overlaps. At this time, since the display state of the overlay image Im2 is changed and the live view image Im1 and the overlay image Im2 can be easily identified, the user can easily superimpose these images.
その後、図10(b)に示すように、ユーザは、ライブビュー画像Im1とオーバーレイ画像Im2とが重なる位置(例えば、図6に示す撮像位置A2)に形状測定装置1の位置を調整した後、シャッター操作を行う。このシャッター操作が行われると、制御部62は、操作部61からシャッター操作が行われたことを表す信号が入力される。また、シャッター操作が行われた場合、第2部分2Nとの距離を測定して、投影光学系30や受光光学系51のフォーカス合わせが行われてもよい。 Thereafter, as illustrated in FIG. 10B, the user adjusts the position of the shape measuring apparatus 1 to a position where the live view image Im1 and the overlay image Im2 overlap (for example, the imaging position A2 illustrated in FIG. 6). Perform the shutter operation. When this shutter operation is performed, the control unit 62 receives a signal indicating that the shutter operation has been performed from the operation unit 61. Further, when the shutter operation is performed, the projection optical system 30 and the light receiving optical system 51 may be focused by measuring the distance from the second portion 2N.
シャッター操作が行われると、制御部62は、光生成部20及び走査部40に対して指令信号を出力し、測定対象物2のうち+Y側の第2部分2Nに4種類の縞パターンPを投影させ、各縞パターンPが投影された第2部分2Nの測定像をそれぞれCCDカメラ52aに撮像させる。その後、演算部65は、4種類の測定像に基づいて、第2部分2Nの三次元データ(第2の三次元データ)を取得する。この三次元データは、シャッター操作を行った時のライブビュー画像Im1に示される測定対象物2の形状データであり、例えば第2部分2Nの三次元形状に関する画像データである。このように、第2の三次元データは、ライブビュー画像Im1に対応したデータとなっている。また、第2の三次元データの測定像は、オーバーレイ画像Im2に表示される測定対象物2と、ライブビュー画像Im1に表示される測定対象物2とがほぼ重なった状態で撮像されたものである。したがって、第2の三次元データは、第1の三次元データとの間で重複部分を有している。このようにして、演算処理部60は、測定対象物2の三次元形状に関する複数の三次元データを取得する(ステップS05)。取得された第2の三次元データと第1の三次元データとの間の重複部分の範囲は、ほぼ予め設定された範囲となる。 When the shutter operation is performed, the control unit 62 outputs a command signal to the light generation unit 20 and the scanning unit 40, and four types of stripe patterns P are formed on the second portion 2N on the + Y side of the measurement object 2. The CCD camera 52a picks up a measurement image of the second portion 2N on which the fringe pattern P is projected. Thereafter, the calculation unit 65 acquires the three-dimensional data (second three-dimensional data) of the second portion 2N based on the four types of measurement images. This three-dimensional data is the shape data of the measurement object 2 shown in the live view image Im1 when the shutter operation is performed, for example, image data relating to the three-dimensional shape of the second portion 2N. Thus, the second three-dimensional data is data corresponding to the live view image Im1. The measurement image of the second three-dimensional data is captured in a state where the measurement object 2 displayed in the overlay image Im2 and the measurement object 2 displayed in the live view image Im1 are substantially overlapped. is there. Therefore, the second three-dimensional data has an overlapping portion with the first three-dimensional data. In this way, the arithmetic processing unit 60 acquires a plurality of three-dimensional data related to the three-dimensional shape of the measurement object 2 (step S05). The range of the overlapping portion between the acquired second three-dimensional data and the first three-dimensional data is almost a preset range.
また、演算部65は、上記シャッター操作が行われた場合、撮像部50によって第2部分2Nの参照像を取得する。演算部65は、取得した第2部分2Nの参照像のうち複数の位置で特徴領域を検出する。そして、表示制御部67は、取得した第2部分2Nの参照像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示する。その後、ユーザは、測定対象物2の全体の三次元データを取得した場合には、撮像を終了する。また、測定対象物2の一部の三次元データが得られていない場合には、測定対象物2のすべての部分の三次元データが得られるまで、上記操作を繰り返し行う。すなわち、新たに表示されるオーバーレイ画像とライブビュー画像とを見比べて、ライブビュー画像とオーバーレイ画像とが重なるように形状測定装置1の位置を調整した後、シャッター操作を行う。 In addition, when the shutter operation is performed, the calculation unit 65 acquires a reference image of the second portion 2N by the imaging unit 50. The computing unit 65 detects feature regions at a plurality of positions in the acquired reference image of the second portion 2N. Then, the display control unit 67 displays a part of the acquired reference image of the second portion 2N as an overlay image so as to be superimposed on the live view image. Thereafter, when the user acquires the entire three-dimensional data of the measurement object 2, the user ends imaging. Further, when the three-dimensional data of a part of the measuring object 2 is not obtained, the above operation is repeated until three-dimensional data of all the parts of the measuring object 2 is obtained. That is, the newly displayed overlay image and the live view image are compared, the position of the shape measuring apparatus 1 is adjusted so that the live view image and the overlay image overlap, and then the shutter operation is performed.
次に、演算部65は、取得した第1部分2Mの三次元データと第2部分2Nの三次元データとを、測定対象物2の形状が復元するように連結する。これらの三次元データ同士を連結する場合、まず、形状測定装置1から第1部分2M及び第2部分2Nへの回転及び並進を算出する。例えば、算出した第1部分2Mの三次元データX1と、取得した第1部分2Mの参照像ImRに含まれる特徴領域の2次元座標との対応により、形状測定装置1から第1部分2Mへの回転R1及び並進t1を求める。また、例えば、算出した第2部分2Nの三次元データX2と、取得した第2部分2Nの参照像の特徴領域の二次元座標との対応により、形状測定装置1から第2部分2Nへの回転R2及び並進t2を算出する。なお、特徴領域は、第1部分2Mの参照像ImRと第2部分2Nの参照像との間で共通する領域である。この場合の回転及び並進の算出方法としては、学術論文(例、V. Lepetit et al. “EPnP: An Accurate O(n) Solution to the PnP Problem”,International Journal Of Computer Vision, vol. 81, p. 155-166, 2009.)や公開公報などに記載の公知の手法を用いることができる。 Next, the computing unit 65 connects the acquired three-dimensional data of the first part 2M and the three-dimensional data of the second part 2N so that the shape of the measurement object 2 is restored. When connecting these three-dimensional data, first, the rotation and translation from the shape measuring apparatus 1 to the first part 2M and the second part 2N are calculated. For example, the correspondence between the calculated three-dimensional data X1 of the first portion 2M and the two-dimensional coordinates of the feature region included in the acquired reference image ImR of the first portion 2M is transferred from the shape measuring device 1 to the first portion 2M. Obtain rotation R1 and translation t1. In addition, for example, the rotation from the shape measuring device 1 to the second portion 2N by the correspondence between the calculated three-dimensional data X2 of the second portion 2N and the two-dimensional coordinates of the feature region of the acquired reference image of the second portion 2N. R2 and translation t2 are calculated. The feature region is a region common between the reference image ImR of the first portion 2M and the reference image of the second portion 2N. In this case, rotation and translation can be calculated by using academic papers (eg, V. Lepetit et al. “EPnP: An Accurate O (n) Solution to the PnP Problem”, International Journal Of Computer Vision, vol. 81, p. 155-166, 2009.) and published publications can be used.
次に、演算部65は、求めたR1、t1、R2、t2を用いて、以下の[数1]により、形状測定装置1の回転Ra及び並進taを求める。なお、回転R1、R2、Raは行列式で表され、並進t1、t2、taはベクトルで表される。 Next, the computing unit 65 obtains the rotation Ra and the translation ta of the shape measuring apparatus 1 by the following [Equation 1] using the obtained R1, t1, R2, and t2. The rotations R1, R2, and Ra are represented by determinants, and the translations t1, t2, and ta are represented by vectors.
このように、形状測定装置1は、第1位置と第2位置との間で、回転と並進とがそれぞれRa、taだけ変化している。したがって、第2位置で取得した三次元データX2を、以下の[数2]の変換式によって変換することにより、第1位置から見たときの三次元データに変換できる。 As described above, in the shape measuring apparatus 1, the rotation and the translation change by Ra and ta, respectively, between the first position and the second position. Therefore, the three-dimensional data X2 acquired at the second position can be converted into the three-dimensional data when viewed from the first position by converting using the following equation [2].
このように、三次元データX1、X2を変換した後、演算部65は、特徴領域同士を重ね合わせることにより、三次元データX1と三次元データX2とを連結する。そして、演算部65は、連結した三次元データに基づいて測定対象物2の形状を測定する(ステップS06)。 Thus, after converting the three-dimensional data X1 and X2, the calculation unit 65 connects the three-dimensional data X1 and the three-dimensional data X2 by superimposing the feature regions. And the calculating part 65 measures the shape of the measuring object 2 based on the connected three-dimensional data (step S06).
ここで、上記のように三次元データ同士を連結する場合には、第1部分2Mの画像と第2部分2Nの画像との重複部分の範囲が予め設定された範囲となるようにすることが重要である。従来では、他の領域に対して光反射率等が大きく異なるようなマーカを特徴領域として使用する場合、第1部分2Mの画像に対する第2部分2Nの画像の重複の程度を確認しながら、所定数の共通の特徴領域(例えば3つのマーカ)が含まれるように重複部分の範囲を設定することができた。しかしながら、マーカを用いずにマーカ以外の領域(測定対象物2の形状や光反射率の変化)を特徴領域として用いる場合、特徴領域と他の領域との間の変化(例えば、画像上におけるコントラスト)が小さくなる場合が多く、所定数の共通の特徴領域が含まれるように重複部分の範囲を設定することが困難であった。そのため、第1部分2Mの画像と第2部分2Nの画像とがどの程度重複しているのかを確認しながら撮像することが困難となり、重複部分の範囲が予め設定された範囲に対して広すぎたり、狭すぎたりする場合があった。重複部分の範囲が広すぎる場合、測定対象物2の全体を計測するために必要な撮像回数が多くなる。また、重複部分の範囲が狭すぎる場合、所望の数(例えば3つ)の特徴領域がその重複部分に含まれていないため、三次元データ同士の連結の精度が低下し、精度よく三次元データ同士を連結できるように測定対象物2の撮像をやり直す必要がある。そのため、撮像に手間がかかってしまい、三次元データの連結を効率的に行うことが困難であった。 Here, when three-dimensional data is connected as described above, the range of the overlapping portion between the image of the first portion 2M and the image of the second portion 2N is set to a preset range. is important. Conventionally, in the case where a marker whose light reflectance is significantly different from other regions is used as a feature region, a predetermined amount is obtained while checking the degree of overlap of the image of the second portion 2N with respect to the image of the first portion 2M. It was possible to set the range of the overlapping portion so as to include a number of common feature areas (for example, three markers). However, when a region other than the marker (change in the shape of the measurement object 2 or light reflectance) is used as the feature region without using the marker, a change between the feature region and another region (for example, contrast on the image) ) Is often small, and it is difficult to set the overlapping range so that a predetermined number of common feature regions are included. Therefore, it becomes difficult to capture images while confirming how much the image of the first part 2M and the image of the second part 2N overlap, and the range of the overlapping part is too wide with respect to the preset range. Sometimes it was too narrow. When the range of the overlapping portion is too wide, the number of imaging required for measuring the entire measurement object 2 increases. In addition, when the range of the overlapping portion is too narrow, since the desired number (for example, three) of feature regions are not included in the overlapping portion, the accuracy of the connection between the three-dimensional data is reduced, and the three-dimensional data is accurately obtained. It is necessary to redo the imaging of the measurement object 2 so that they can be connected to each other. For this reason, it takes time and effort to capture images, and it has been difficult to efficiently link three-dimensional data.
なお、マーカを用いず、マーカ以外の領域であって、被測定物上の特徴領域を利用して第1部分の三次元データと第2部分の三次元データとを連結する理由としては、マーカを配置する手間(一方、配置したマーカを撤去する手間)や測定対象物が大きいためマーカを配置することができないこと等がある。 The reason why the first part of the three-dimensional data and the second part of the three-dimensional data are connected using the feature region on the object to be measured without using the marker is as follows. There are cases where it is not possible to place a marker because of the large amount of time (or the time to remove the placed marker) and the measurement object.
そこで、本実施形態では、測定対象物2を撮像したときの参照像ImRの半分をライブビュー画像Im1上にオーバーレイ画像Im2として表示し、オーバーレイ画像Im2とライブビュー画像Im1とを見比べながら重複部分の位置合わせを行うこととしている。これにより、オーバーレイ画像Im2とライブビュー画像Im1との識別が容易となるため、オーバーレイ画像Im2とライブビュー画像Im1との間の重複部分を予め設定された範囲にすることが容易となる。しかし、単にオーバーレイ画像を表示した場合、測定対象物2の形状や色合い等によっては、オーバーレイ画像とライブビュー画像とを十分に識別できず、重複部分が適正かどうかの判断を行うことが困難となる場合がある。 Therefore, in this embodiment, half of the reference image ImR when the measurement object 2 is imaged is displayed as an overlay image Im2 on the live view image Im1, and the overlap portion Im2 and the live view image Im1 are compared while comparing the overlay image Im2. Alignment is to be performed. Accordingly, since the overlay image Im2 and the live view image Im1 can be easily identified, it is easy to set the overlapping portion between the overlay image Im2 and the live view image Im1 to a preset range. However, when an overlay image is simply displayed, the overlay image and the live view image cannot be sufficiently identified depending on the shape or color of the measurement object 2, and it is difficult to determine whether or not the overlapping portion is appropriate. There is a case.
このような場合、本実施形態では、オーバーレイ画像Im2の透明度を変更することにより、オーバーレイ画像Im2とライブビュー画像Im1との識別が容易となる。そのため、オーバーレイ画像Im2とライブビュー画像Im1との間の重複部分が適正かどうかの判断を容易に行うことができる。 In such a case, in this embodiment, the overlay image Im2 and the live view image Im1 can be easily identified by changing the transparency of the overlay image Im2. For this reason, it is possible to easily determine whether or not the overlapping portion between the overlay image Im2 and the live view image Im1 is appropriate.
以上のように、第1実施形態によれば、測定対象物2のライブビュー画像Im1を表示することと、第1の三次元データを取得する際に撮像される測定対象物2の画像の一部をオーバーレイ画像Im2としてライブビュー画像Im1に重ねて表示することと、オーバーレイ画像Im2の表示状態を変更することと、第1の三次元データと重複する部分を有しライブビュー画像Im1に対応する測定対象物2の第2の三次元データと、第1の三次元データとを連結することとを含むため、オーバーレイ画像Im2とライブビュー画像Im1との識別が容易となり、オーバーレイ画像Im2とライブビュー画像Im1との間の重複部分を予め設定された範囲にすることが容易となる。これにより、測定対象物2の全体を計測するための撮像回数を抑えることができる。また、三次元データ同士の連結を精度よく行うことができるため、測定対象物2の撮像をやり直す可能性が低くなる。そのため、撮像に要する手間を軽減することができ、三次元データの連結を効率的に行うことができる。 As described above, according to the first embodiment, the live view image Im1 of the measurement object 2 is displayed, and one of the images of the measurement object 2 captured when the first three-dimensional data is acquired. Corresponding to the live view image Im1 having a portion overlapping with the first three-dimensional data, displaying the image as an overlay image Im2 and overlapping the live view image Im1, changing the display state of the overlay image Im2 Since it includes connecting the second 3D data of the measurement object 2 and the first 3D data, the overlay image Im2 and the live view image Im1 can be easily identified, and the overlay image Im2 and the live view are displayed. It becomes easy to set the overlapping portion with the image Im1 within a preset range. Thereby, the frequency | count of imaging for measuring the whole measuring object 2 can be suppressed. In addition, since the three-dimensional data can be connected with high accuracy, the possibility that the measurement object 2 is imaged again is reduced. Therefore, the labor required for imaging can be reduced, and three-dimensional data can be efficiently connected.
<第2実施形態>
次に、第2実施形態を説明する。本実施形態では、オーバーレイ画像Im2の表示状態として、オーバーレイ画像の色彩を変更する場合を例に挙げて説明する。図11(a)及び(b)は、表示領域70aに表示される画像の一例を示す図である。なお、色彩は、色相、明度及び彩度によって表される。
Second Embodiment
Next, a second embodiment will be described. In the present embodiment, the case where the color of the overlay image is changed will be described as an example of the display state of the overlay image Im2. FIGS. 11A and 11B are diagrams illustrating an example of an image displayed in the display area 70a. Note that the color is represented by hue, brightness, and saturation.
例えば測定対象物2の第1部分2Mを表示領域70aに表示させた状態でユーザによりシャッター操作が行われた場合、制御部62は、第1部分2Mの三次元データ(第1の三次元データ)を取得させる。また、演算部65は、上記シャッター操作が行われた場合、撮像部50によって第1部分2Mの参照像を取得する。演算部65は、取得した第1部分2Mの参照像のうち複数の位置で特徴領域を検出する。また、表示制御部67は、図11(a)に示すように、取得した参照像の一部をオーバーレイ画像Im2としてライブビュー画像Im1に重ねて表示する。このとき、表示制御部67は、測定対象物2の画像に対して色彩を変更した状態でオーバーレイ画像Im2を表示させる。 For example, when the user performs a shutter operation in a state where the first portion 2M of the measurement object 2 is displayed on the display area 70a, the control unit 62 determines the three-dimensional data (first three-dimensional data) of the first portion 2M. ). In addition, when the shutter operation is performed, the calculation unit 65 acquires a reference image of the first portion 2M by the imaging unit 50. The computing unit 65 detects feature regions at a plurality of positions in the acquired reference image of the first portion 2M. Further, as illustrated in FIG. 11A, the display control unit 67 displays a part of the acquired reference image as an overlay image Im2 so as to be superimposed on the live view image Im1. At this time, the display control unit 67 displays the overlay image Im2 in a state where the color is changed with respect to the image of the measurement object 2.
オーバーレイ画像Im2の色彩については、表示制御部67が自動で設定してもよいし、表示制御部67がユーザによって設定される値に応じて設定してもよい。本実施形態では、参照像、ライブビュー画像Im1、及びオーバーレイ画像Im2がモノクロ画像である。このため、オーバーレイ画像Im2の色彩を表示制御部67が設定する場合、例えば、ライブビュー画像Im1で表示される部分について、明度を反転させるようにオーバーレイ画像Im2を表示させてもよい。オーバーレイ画像Im2の色彩をユーザに設定させる場合、表示制御部67は、色彩を表す情報を表示装置70の表示画面に表示させる制御を行ってもよい。 About the color of overlay image Im2, the display control part 67 may set automatically, and the display control part 67 may set according to the value set by the user. In the present embodiment, the reference image, the live view image Im1, and the overlay image Im2 are monochrome images. For this reason, when the display control unit 67 sets the color of the overlay image Im2, for example, the overlay image Im2 may be displayed so as to invert the brightness of the portion displayed in the live view image Im1. When the user sets the color of the overlay image Im2, the display control unit 67 may perform control to display information representing the color on the display screen of the display device 70.
例えばユーザは、表示領域70aに表示されるライブビュー画像Im1とオーバーレイ画像Im2とを確認し、オーバーレイ画像Im2の色彩を変更可能である。ユーザによってオーバーレイ画像Im2の色彩が変更された場合、表示制御部67は、図11(b)に示すように、変更された色彩に基づいてオーバーレイ画像Im2の表示を変更する。 For example, the user can confirm the live view image Im1 and the overlay image Im2 displayed in the display area 70a, and can change the color of the overlay image Im2. When the color of the overlay image Im2 is changed by the user, the display control unit 67 changes the display of the overlay image Im2 based on the changed color, as shown in FIG.
このように、第2実施形態によれば、オーバーレイ画像Im2の色彩を変更することにより、オーバーレイ画像Im2とライブビュー画像Im1との識別が容易となる。そのため、オーバーレイ画像Im2とライブビュー画像Im1との間の重複部分が適正かどうかの判断を容易に行うことができる。これにより、三次元データの連結を精度よくかつ効率的に行うことができる。 Thus, according to the second embodiment, the overlay image Im2 and the live view image Im1 can be easily identified by changing the color of the overlay image Im2. For this reason, it is possible to easily determine whether or not the overlapping portion between the overlay image Im2 and the live view image Im1 is appropriate. Thereby, the connection of three-dimensional data can be performed accurately and efficiently.
なお、図12は、表示領域70aに表示される画像の他の例を示す図である。
演算部65が第1部分2Mの参照像から特徴領域Cを検出した場合、表示制御部67は、図12に示すように、参照像のうち特徴領域Cに係る部分の色彩のみを変更するように表示してもよい。なお、特徴領域Cとしては、例えば測定対象物2に配置される複数(例えば3つ)のマーカであってもよい。これにより、特徴領域Cが際立つことになるため、オーバーレイ画像Im2(特徴領域C)とライブビュー画像Im1との識別が一層容易となる。
FIG. 12 is a diagram illustrating another example of an image displayed in the display area 70a.
When the calculation unit 65 detects the feature region C from the reference image of the first portion 2M, the display control unit 67 changes only the color of the portion related to the feature region C in the reference image as shown in FIG. May be displayed. Note that the feature region C may be, for example, a plurality of (for example, three) markers arranged on the measurement object 2. As a result, the feature region C stands out, and it becomes easier to identify the overlay image Im2 (feature region C) and the live view image Im1.
<第3実施形態>
次に、第2実施形態を説明する。本実施形態では、オーバーレイ画像Im2の表示状態として、オーバーレイ画像を点滅させる場合を例に挙げて説明する。図13(a)は、表示領域70aに表示される画像の一例を示す図である。
<Third Embodiment>
Next, a second embodiment will be described. In the present embodiment, the case where the overlay image blinks will be described as an example of the display state of the overlay image Im2. FIG. 13A is a diagram illustrating an example of an image displayed in the display area 70a.
図13(a)に示すように、表示制御部67は、取得した参照像の一部をオーバーレイ画像Im2としてライブビュー画像Im1に重ねて表示する。このとき、表示制御部67は、図13(a)に示すように、オーバーレイ画像Im2を点滅させた状態で表示させてもよい。 As illustrated in FIG. 13A, the display control unit 67 displays a part of the acquired reference image as an overlay image Im2 so as to be superimposed on the live view image Im1. At this time, the display control unit 67 may display the overlay image Im2 in a blinking state as shown in FIG.
オーバーレイ画像の点滅について、表示制御部67は、点滅の間隔や点滅させる範囲を設定可能である。この設定は、表示制御部67が自動で設定してもよいし、ユーザによって設定される値に応じて設定してもよい。オーバーレイ画像の点滅の間隔や点滅させる範囲をユーザに設定させる場合、表示制御部67は、点滅の間隔及び点滅させる範囲に関する情報を表示装置70の表示画面に表示させる制御を行う。 Regarding blinking of the overlay image, the display control unit 67 can set a blinking interval and a blinking range. This setting may be automatically set by the display control unit 67 or may be set according to a value set by the user. When the user sets the blinking interval and blinking range of the overlay image, the display control unit 67 performs control to display information regarding the blinking interval and blinking range on the display screen of the display device 70.
例えばユーザは、表示領域70aに表示されるライブビュー画像Im1とオーバーレイ画像Im2とを確認し、オーバーレイ画像Im2の点滅の状態を変更可能である。ユーザによってオーバーレイ画像Im2が点滅の状態が変更された場合、表示制御部67は、変更された態様に基づいてオーバーレイ画像Im2の点滅の状態を変更する。 For example, the user can confirm the live view image Im1 and the overlay image Im2 displayed in the display area 70a, and can change the blinking state of the overlay image Im2. When the flashing state of the overlay image Im2 is changed by the user, the display control unit 67 changes the flashing state of the overlay image Im2 based on the changed mode.
このように、第3実施形態によれば、オーバーレイ画像Im2を点滅させることにより、オーバーレイ画像Im2とライブビュー画像Im1との識別が容易となる。そのため、オーバーレイ画像Im2とライブビュー画像Im1との間の重複部分が適正かどうかの判断を容易に行うことができる。これにより、三次元データの連結を精度よくかつ効率的に行うことができる。 Thus, according to the third embodiment, the overlay image Im2 and the live view image Im1 can be easily identified by blinking the overlay image Im2. For this reason, it is possible to easily determine whether or not the overlapping portion between the overlay image Im2 and the live view image Im1 is appropriate. Thereby, the connection of three-dimensional data can be performed accurately and efficiently.
なお、図13(b)は、表示領域70aに表示される画像の他の例を示す図である。
演算部65が第1部分2Mの参照像から特徴領域Cを検出した場合、表示制御部67は、図13(b)に示すように、参照像のうち特徴領域Cに係る部分のみを点滅させるように表示してもよい。なお、特徴領域Cは、測定対象物2に配置される複数(例えば3つ)のマーカであってもよい。このように、表示制御部67は、点滅させる範囲を変更することができる。また、表示制御部67は、特徴領域Cに係る部分のみの点滅の状態を変更してもよい。これにより、特徴領域Cが際立つことになるため、オーバーレイ画像Im2(特徴領域C)とライブビュー画像Im1との識別が一層容易となる。
FIG. 13B is a diagram showing another example of an image displayed in the display area 70a.
When the calculation unit 65 detects the feature region C from the reference image of the first portion 2M, the display control unit 67 blinks only the portion related to the feature region C in the reference image as shown in FIG. May be displayed as follows. The feature region C may be a plurality of (for example, three) markers arranged on the measurement object 2. As described above, the display control unit 67 can change the blinking range. Further, the display control unit 67 may change the blinking state of only the portion related to the feature region C. As a result, the feature region C stands out, and it becomes easier to identify the overlay image Im2 (feature region C) and the live view image Im1.
<変形例>
次に、本発明の変形例を説明する。以下の変形例は、上記した実施形態の構成に適宜組み合わせて適用することが可能である。
例えば、上記各実施形態においては、オーバーレイ画像Im2が表示領域70aの左側半分に表示された場合を例に挙げて説明したが、これに限定するものではない。例えば、測定対象物2の形状によっては、形状測定装置1を上記実施形態のような右方向(+Y方向)ではなく、上下方向(Z方向)または左方向(−Y方向)に移動させる場合がある。このような場合、オーバーレイ画像Im2は、表示領域70aのうち形状測定装置1の移動方向とは反対側に表示させるようにする。例えば、形状測定装置1を下側(例えば−Z方向)に移動させる場合にはオーバーレイ画像Im2を表示領域70aの上側半分に表示させる。また、形状測定装置1を上側(例えば+Z方向)に移動させる場合にはオーバーレイ画像Im2を表示領域70aの下側半分に表示させる。また、形状測定装置1を左側(例えば−Y方向)に移動させる場合にはオーバーレイ画像Im2を表示領域70aの右側半分に表示させる。なお、形状測定装置1の移動方向を変更する場合には、形状測定装置1の移動方向の変更に合わせてオーバーレイ画像Im2の表示位置を変更させるようにする。オーバーレイ画像Im2を表示領域70aの上側半分に表示させる場合、表示制御部67は、参照像の下側半分を表示させる。また、オーバーレイ画像Im2を表示領域70aの下側半分に表示させる場合、表示制御部67は、参照像の上側半分を表示させる。また、オーバーレイ画像Im2を表示領域70aの右側半分に表示させる場合、表示制御部67は、参照像の左側半分を表示させる。
<Modification>
Next, a modified example of the present invention will be described. The following modifications can be applied in appropriate combination with the configuration of the above-described embodiment.
For example, in each of the above embodiments, the case where the overlay image Im2 is displayed on the left half of the display area 70a has been described as an example, but the present invention is not limited to this. For example, depending on the shape of the measurement object 2, the shape measuring apparatus 1 may be moved in the vertical direction (Z direction) or the left direction (−Y direction) instead of the right direction (+ Y direction) as in the above embodiment. is there. In such a case, the overlay image Im2 is displayed on the opposite side of the display region 70a from the moving direction of the shape measuring apparatus 1. For example, when the shape measuring apparatus 1 is moved downward (for example, in the −Z direction), the overlay image Im2 is displayed on the upper half of the display area 70a. When the shape measuring apparatus 1 is moved upward (for example, in the + Z direction), the overlay image Im2 is displayed on the lower half of the display area 70a. When the shape measuring apparatus 1 is moved to the left side (for example, in the −Y direction), the overlay image Im2 is displayed on the right half of the display area 70a. In addition, when changing the moving direction of the shape measuring apparatus 1, the display position of the overlay image Im2 is changed according to the change of the moving direction of the shape measuring apparatus 1. When displaying the overlay image Im2 on the upper half of the display area 70a, the display control unit 67 displays the lower half of the reference image. When displaying the overlay image Im2 in the lower half of the display region 70a, the display control unit 67 displays the upper half of the reference image. When displaying the overlay image Im2 on the right half of the display area 70a, the display control unit 67 displays the left half of the reference image.
また、図14(a)に示すように、オーバーレイ画像Im2の表示範囲は、例えばユーザの操作等によって変更可能である。この場合、オーバーレイ画像Im2の表示範囲は表示領域70aの半分よりも広い範囲であっても、狭い範囲であってもよい。なお、オーバーレイ画像Im2の表示範囲を変更する場合、表示制御部67は、ライブビュー画像Im1の座標系でオーバーレイ画像Im2をY方向に平行移動させるようにする。これにより、測定対象物2の形状や色彩等に応じてオーバーレイ画像Im2の表示範囲を変更できるため、オーバーレイ画像Im2とライブビュー画像Im1との識別を容易に行うことが可能となる。オーバーレイ画像Im2を表示領域70aの上側、下側、右側に表示させる場合も同様である。また、例えば、表示制御部67が演算部65による画像処理に基づいて自動でオーバーレイ画像Im2の表示範囲を変更するようにしてもよい。この場合、表示制御部67は、オーバーレイ画像Im2に含まれる特徴領域の分布に応じて適宜表示範囲を変更できる。このときにオーバーレイ画像Im2に含まれる特徴領域は、4つ以上であってもよいし、特徴領域は2つであってもよい。 Further, as shown in FIG. 14A, the display range of the overlay image Im2 can be changed by a user operation or the like, for example. In this case, the display range of the overlay image Im2 may be a range wider than a half of the display region 70a or a narrow range. When the display range of the overlay image Im2 is changed, the display control unit 67 translates the overlay image Im2 in the Y direction in the coordinate system of the live view image Im1. Thereby, since the display range of the overlay image Im2 can be changed according to the shape, color, etc. of the measurement object 2, the overlay image Im2 and the live view image Im1 can be easily identified. The same applies to the case where the overlay image Im2 is displayed on the upper side, lower side, and right side of the display area 70a. Further, for example, the display control unit 67 may automatically change the display range of the overlay image Im2 based on the image processing by the calculation unit 65. In this case, the display control unit 67 can change the display range as appropriate in accordance with the distribution of the feature region included in the overlay image Im2. At this time, the number of feature areas included in the overlay image Im2 may be four or more, and the number of feature areas may be two.
また、図14(b)に示すように、上記第1実施形態において、オーバーレイ画像Im2の透明度が0(不透明)となるように設定することも可能である。この場合、ライブビュー画像Im1のうちオーバーレイ画像Im2に重なる部分は見えなくなる。なお、測定対象物2のうちY方向(図14(b)の左右方向)に延びる直線状の辺2Lが設けられる場合、オーバーレイ画像Im2の透明度を0としても、ライブビュー画像Im1とオーバーレイ画像Im2との間で辺2Lの重なり具合を見ながら形状測定装置1の位置を調整することができる。 As shown in FIG. 14B, in the first embodiment, the overlay image Im2 can be set to have a transparency of 0 (opaque). In this case, the portion of the live view image Im1 that overlaps the overlay image Im2 is not visible. When a linear side 2L extending in the Y direction (left-right direction in FIG. 14B) is provided in the measurement object 2, even if the transparency of the overlay image Im2 is 0, the live view image Im1 and the overlay image Im2 The position of the shape measuring apparatus 1 can be adjusted while observing how the side 2L overlaps between the two.
また、上記第1実施形態においては、1つの撮像部50のみが設けられる構成を例に挙げて説明したが、これに限定するものではない。図15は、変形例に係る形状測定装置1Aの一例を示す図である。 In the first embodiment, the configuration in which only one imaging unit 50 is provided has been described as an example. However, the present invention is not limited to this. FIG. 15 is a diagram illustrating an example of a shape measuring apparatus 1A according to a modification.
図15に示すように、形状測定装置1Aは、撮像部50に加えて、撮像部50とは独立して制御可能な第2撮像部150を有する構成となっている。なお、他の構成、例えば投影部10や演算処理部60の構成、測定対象物2などの構成については、第1実施形態と同一である。第2撮像部150は、受光光学系151及び撮像装置152を有している。第2撮像部150としては、例えばカラーカメラが用いられる。このため、第2撮像部150で撮像された画像は、カラー画像となる。 As illustrated in FIG. 15, the shape measuring apparatus 1 </ b> A includes a second imaging unit 150 that can be controlled independently of the imaging unit 50 in addition to the imaging unit 50. In addition, about another structure, for example, the structure of the projection part 10, the arithmetic processing part 60, the structure of the measuring object 2, etc., it is the same as 1st Embodiment. The second imaging unit 150 includes a light receiving optical system 151 and an imaging device 152. For example, a color camera is used as the second imaging unit 150. For this reason, the image imaged with the 2nd imaging part 150 turns into a color image.
このような構成において、表示制御部67は、例えば図16に示すように、第2撮像部150で撮像された画像のうち複数(例えば、3つ)のマーカMの画像を特徴領域Cとしてオーバーレイ画像Im2に表示させてもよい。この場合、ライブビュー画像Im1の全部及びオーバーレイ画像Im2のうち特徴領域C以外の部分はモノクロ画像として表示される。また、オーバーレイ画像Im2のうち特徴領域Cは、カラー画像として表示される。このため、ユーザは、オーバーレイ画像Im2とライブビュー画像Im1とを容易に識別することができる。また、本変形例を第2実施形態に組み合わせる場合、参照像、ライブビュー画像Im1及びオーバーレイ画像Im2はカラー画像となる。そのため、オーバーレイ画像Im2の色彩を変更する場合には、明度のみならず色相や彩度を変更してもよい。 In such a configuration, the display control unit 67 overlays the images of a plurality of (for example, three) markers M among the images captured by the second imaging unit 150 as feature regions C, as shown in FIG. It may be displayed on the image Im2. In this case, the entire live view image Im1 and the portion other than the feature region C in the overlay image Im2 are displayed as a monochrome image. In addition, the feature region C of the overlay image Im2 is displayed as a color image. Therefore, the user can easily identify the overlay image Im2 and the live view image Im1. When this modification is combined with the second embodiment, the reference image, the live view image Im1, and the overlay image Im2 are color images. Therefore, when changing the color of the overlay image Im2, not only the lightness but also the hue and saturation may be changed.
なお、第2撮像部150として、カラーカメラに変えてモノクロカメラが用いられてもよい。なお、特徴部分Cは、マーカMの画像として説明したが、これに限定するものではなく、例えば測定対象物2の一部の画像であってもよい。 Note that a monochrome camera may be used as the second imaging unit 150 instead of a color camera. In addition, although the characteristic part C was demonstrated as an image of the marker M, it is not limited to this, For example, the partial image of the measuring object 2 may be sufficient.
<構造物製造システム及び構造物製造方法>
図17は、構造物製造システムの実施形態の一例を示すブロック図である。図17に示す構造物製造システムSYSは、上記した形状測定装置1(又は形状測定装置1A)、設計装置710、成形装置720、制御装置(検査装置)730、及びリペア装置740を有している。
<Structure manufacturing system and structure manufacturing method>
FIG. 17 is a block diagram illustrating an example of an embodiment of a structure manufacturing system. The structure manufacturing system SYS illustrated in FIG. 17 includes the shape measuring device 1 (or the shape measuring device 1A), the design device 710, the molding device 720, the control device (inspection device) 730, and the repair device 740. .
設計装置710は、構造物の形状に関する設計情報を作製する。そして、設計装置710は、作製した設計情報を成形装置720及び制御装置730に送信する。ここで、設計情報とは、構造物の各位置の座標を示す情報である。また、測定対象物は、構造物である。 The design apparatus 710 creates design information related to the shape of the structure. Then, the design device 710 transmits the produced design information to the molding device 720 and the control device 730. Here, the design information is information indicating the coordinates of each position of the structure. Further, the measurement object is a structure.
成形装置720は、設計装置710から送信された設計情報に基づいて構造物を成形する。この成形装置720の成形工程は、鋳造、鍛造、または切削などが含まれる。形状測定装置1、1Aは、成形装置720により作製された構造物(測定対象物2)の三次元形状、すなわち構造物の座標を測定する。そして、形状測定装置1、1Aは、測定した座標を示す情報(以下、形状情報という。)を制御装置730に送信する。 The forming device 720 forms a structure based on the design information transmitted from the design device 710. The molding process of the molding apparatus 720 includes casting, forging, cutting, or the like. The shape measuring devices 1 and 1 </ b> A measure the three-dimensional shape of the structure (measurement object 2) produced by the forming device 720, that is, the coordinates of the structure. Then, the shape measuring devices 1 and 1 </ b> A transmit information indicating the measured coordinates (hereinafter referred to as shape information) to the control device 730.
制御装置730は、座標記憶部731及び検査部732を有している。座標記憶部731は、設計装置710から送信される設計情報を記憶する。検査部732は、座標記憶部731から設計情報を読み出す。また、検査部732は、座標記憶部731から読み出した設計情報と、形状測定装置1、1Aから送信される形状情報とを比較する。そして、検査部732は、比較結果に基づき、構造物が設計情報の通りに成形されたか否かを検査する。 The control device 730 includes a coordinate storage unit 731 and an inspection unit 732. The coordinate storage unit 731 stores design information transmitted from the design device 710. The inspection unit 732 reads design information from the coordinate storage unit 731. Further, the inspection unit 732 compares the design information read from the coordinate storage unit 731 with the shape information transmitted from the shape measuring devices 1 and 1A. And the test | inspection part 732 test | inspects whether the structure was shape | molded according to design information based on the comparison result.
また、検査部732は、成形装置720により成形された構造物が良品であるか否かを判定する。構造物が良品であるか否かは、例えば、設計情報と形状情報との誤差が所定の閾値の範囲内であるか否かにより判定する。そして、検査部732は、構造物が設計情報の通りに成形されていない場合は、その構造物を設計情報の通りに修復することができるか否かを判定する。修復することができると判定した場合は、検査部732は、比較結果に基づき、不良部位と修復量を算出する。そして、検査部732は、不良部位を示す情報(以下、不良部位情報という。)と、修復量を示す情報(以下、修復量情報という。)と、をリペア装置740に送信する。 Further, the inspection unit 732 determines whether or not the structure molded by the molding device 720 is a non-defective product. Whether or not the structure is a non-defective product is determined based on, for example, whether or not the error between the design information and the shape information is within a predetermined threshold range. If the structure is not molded according to the design information, the inspection unit 732 determines whether the structure can be repaired according to the design information. If it is determined that it can be repaired, the inspection unit 732 calculates a defective portion and a repair amount based on the comparison result. Then, the inspection unit 732 transmits information indicating a defective portion (hereinafter referred to as defective portion information) and information indicating a repair amount (hereinafter referred to as repair amount information) to the repair device 740.
リペア装置740は、制御装置730から送信された不良部位情報と修復量情報とに基づいて、構造物の不良部位を加工する。 The repair device 740 processes the defective portion of the structure based on the defective portion information and the repair amount information transmitted from the control device 730.
図18は、構造物製造システムSYSによる処理を示すフローチャートであり、構造物製造方法の実施形態の一例を示している。図18に示すように、設計装置710は、構造物の形状に関する設計情報を作製する(ステップS31)。設計装置710は、作製した設計情報を成形装置720及び制御装置730に送信する。制御装置730は、設計装置710から送信された設計情報を受信する。そして、制御装置730は、受信した設計情報を座標記憶部731に記憶する。 FIG. 18 is a flowchart showing processing by the structure manufacturing system SYS, and shows an example of an embodiment of a structure manufacturing method. As shown in FIG. 18, the design device 710 creates design information related to the shape of the structure (step S31). The design device 710 transmits the produced design information to the molding device 720 and the control device 730. The control device 730 receives the design information transmitted from the design device 710. Then, the control device 730 stores the received design information in the coordinate storage unit 731.
次に、成形装置720は、設計装置710が作製した設計情報に基づいて構造物を成形する(ステップS32)。そして、形状測定装置1、1Aは、成形装置720が成形した構造物の三次元形状を測定する(ステップS33)。その後、形状測定装置1、1Aは、構造物の測定結果である形状情報を制御装置730に送信する。次に、検査部732は、形状測定装置1、1Aから送信された形状情報と、座標記憶部731に記憶されている設計情報とを比較して、構造物が設計情報の通りに成形されたか否か検査する(ステップS34)。 Next, the molding apparatus 720 molds the structure based on the design information created by the design apparatus 710 (step S32). Then, the shape measuring devices 1 and 1A measure the three-dimensional shape of the structure formed by the forming device 720 (step S33). Thereafter, the shape measuring devices 1 and 1A transmit shape information, which is a measurement result of the structure, to the control device 730. Next, the inspection unit 732 compares the shape information transmitted from the shape measuring apparatuses 1 and 1A with the design information stored in the coordinate storage unit 731, and whether the structure has been molded according to the design information. Whether or not is checked (step S34).
次に、検査部732は、構造物が良品であるか否かを判定する(ステップS35)。構造物が良品であると判定した場合は(ステップS35:YES)、構造物製造システムSYSによる処理を終了する。一方、検査部732は、構造物が良品でないと判定した場合は(ステップS35:NO)、検査部732は、構造物を修復することができるか否かを判定する(ステップS36)。 Next, the inspection unit 732 determines whether or not the structure is a good product (step S35). If it is determined that the structure is a non-defective product (step S35: YES), the process by the structure manufacturing system SYS is terminated. On the other hand, when the inspection unit 732 determines that the structure is not a non-defective product (step S35: NO), the inspection unit 732 determines whether the structure can be repaired (step S36).
検査部732が構造物を修復することができると判定した場合は(ステップS36:YES)、検査部732は、ステップS34の比較結果に基づいて、構造物の不良部位と修復量を算出する。そして、検査部732は、不良部位情報と修復量情報とをリペア装置740に送信する。リペア装置740は、不良部位情報と修復量情報とに基づいて構造物のリペア(再加工)を実行する(ステップS37)。そして、ステップS33の処理に移行する。すなわち、リペア装置740がリペアを実行した構造物に対してステップS33以降の処理が再度実行される。一方、検査部732が構造物を修復することができると判定した場合は(ステップS36:NO)、構造物製造システムSYSによる処理を終了する。 When the inspection unit 732 determines that the structure can be repaired (step S36: YES), the inspection unit 732 calculates the defective portion of the structure and the repair amount based on the comparison result of step S34. Then, the inspection unit 732 transmits the defective part information and the repair amount information to the repair device 740. The repair device 740 performs repair (rework) of the structure based on the defective part information and the repair amount information (step S37). Then, the process proceeds to step S33. That is, the process after step S33 is performed again with respect to the structure which the repair apparatus 740 performed repair. On the other hand, when the inspection unit 732 determines that the structure can be repaired (step S36: NO), the process by the structure manufacturing system SYS is terminated.
このように、構造物製造システムSYS及び構造物製造方法では、形状測定装置1、1Aによる構造物の測定結果に基づいて、検査部732が設計情報の通りに構造物が作製されたか否かを判定する。これにより、成形装置720により作製された構造物が良品であるか否か精度よく判定することができるとともに、その判定の時間を短縮することができる。また、上記した構造物製造システムSYSでは、検査部732により構造物が良品でないと判定された場合に、直ちに構造物のリペアを実行することができる。 As described above, in the structure manufacturing system SYS and the structure manufacturing method, based on the measurement result of the structure by the shape measuring apparatuses 1 and 1A, the inspection unit 732 determines whether the structure is manufactured according to the design information. judge. Accordingly, it can be accurately determined whether or not the structure manufactured by the molding apparatus 720 is a non-defective product, and the determination time can be shortened. Further, in the structure manufacturing system SYS described above, when the inspection unit 732 determines that the structure is not a non-defective product, the structure can be repaired immediately.
なお、上記した構造物製造システムSYS及び構造物製造方法において、リペア装置740が加工を実行することに代えて、成形装置720が再度加工を実行するように構成してもよい。 In the structure manufacturing system SYS and the structure manufacturing method described above, the forming device 720 may be configured to execute the processing again instead of the repair device 740 executing the processing.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。また、法令で許容される限りにおいて、上述の各実施形態及び変形例で引用したX線装置などに関する全ての公開公報及び米国特許の開示を援用して本文の記載の一部とする。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations. In addition, as long as it is permitted by law, the disclosure of all published publications and US patents related to the X-ray apparatus and the like cited in the above embodiments and modifications are incorporated herein by reference.
例えば、上記した各実施形態及び変形例において、第1の方向D1と第2の方向D2とが直交していたが、第1の方向D1と第2の方向D2とが異なる方向であれば直交していなくてもよい。例えば、第2の方向D2は、第1の方向D1に対して60度や80度の角度に設定されてもよい。 For example, in each of the above-described embodiments and modifications, the first direction D1 and the second direction D2 are orthogonal to each other, but are orthogonal if the first direction D1 and the second direction D2 are different directions. You don't have to. For example, the second direction D2 may be set to an angle of 60 degrees or 80 degrees with respect to the first direction D1.
また、上記した各実施形態及び変形例において、各図面では光学素子を一つまたは複数で表しているが、特に使用する数を指定しない限り、同様の光学性能を発揮させるものであれば、使用する光学素子の数は任意である。 Further, in each of the above-described embodiments and modifications, each drawing shows one or more optical elements, but unless the number to be used is specified, it is used as long as the same optical performance is exhibited. The number of optical elements to be performed is arbitrary.
また、上記した各実施形態及び変形例において、光生成部20等が構造光101を生成するための光は、可視光領域の波長の光、赤外線領域の波長の光、紫外線領域の波長の光、のいずれが用いられてもよい。可視光領域の波長の光が用いられることにより、使用者が投影領域200を認識可能となる。この可視光領域のうち、赤色の波長が用いられることにより、測定対象物2へのダメージを軽減させることができる。また、上記した各実施形態及び変形例では、参照像として、例えば自然光による測定対象物2の像を例に挙げて説明したが、これに限定するものではなく、例えば白色光などの照明光による測定対象物2の像であってもよい。なお、照明光は、白色光には限定されず、他の種類の光であってもよい。 In each of the above-described embodiments and modifications, the light for generating the structured light 101 by the light generation unit 20 or the like is light having a wavelength in the visible light region, light having a wavelength in the infrared region, or light having a wavelength in the ultraviolet region. Either of these may be used. By using light having a wavelength in the visible light region, the user can recognize the projection region 200. By using a red wavelength in the visible light region, damage to the measurement object 2 can be reduced. Further, in each of the above-described embodiments and modifications, the reference image has been described by taking, for example, an image of the measurement object 2 by natural light as an example, but the present invention is not limited to this, for example, by illumination light such as white light. It may be an image of the measuring object 2. The illumination light is not limited to white light and may be other types of light.
また、上記した各実施形態及び変形例において、走査部40は、構造光を反射する光学素子を用いているがこれに限定されない。例えば、回折光学素子や、屈折光学素子、平行平板ガラス等が用いられてもよい。レンズ等の屈折光学素子を光軸に対して振動させることで構造光を走査させてもよい。なお、この屈折光学素子としては、投影光学系30の一部の光学素子が用いられてもよい。 Further, in each of the above-described embodiments and modifications, the scanning unit 40 uses an optical element that reflects structured light, but is not limited thereto. For example, a diffractive optical element, a refractive optical element, parallel flat glass, or the like may be used. The structured light may be scanned by vibrating a refractive optical element such as a lens with respect to the optical axis. As this refractive optical element, a part of the optical elements of the projection optical system 30 may be used.
また、上記した各実施形態及び変形例において、撮像部50としてCCDカメラ52aが用いられるがこれに限定されない。例えば、CCDカメラに代えて、CMOSイメージセンサ(CMOS:Complementary Metal Oxide Semiconductor:相補性金属酸化膜半導体)などのイメージセンサが用いられてもよい。また、上記実施形態では、撮像部50として、モノクロカメラが用いられる場合を例に挙げて説明したが、これに限定するものではなく、カラーカメラが用いられてもよい。 In each of the above-described embodiments and modifications, the CCD camera 52a is used as the imaging unit 50, but the present invention is not limited to this. For example, an image sensor such as a CMOS image sensor (CMOS: Complementary Metal Oxide Semiconductor) may be used instead of the CCD camera. In the above embodiment, the case where a monochrome camera is used as the imaging unit 50 has been described as an example. However, the present invention is not limited to this, and a color camera may be used.
また、上記した各実施形態及び変形例において、位相シフト法に用いる縞パターンPの位相を一周期の間に4回シフトさせる4バケット法が用いられるが、これに限定されない。例えば、縞パターンPの位相の一周期2πを5分割した5バケット法や、同じく6分割した6バケット法などが用いられてもよい。 In each of the above-described embodiments and modifications, the 4-bucket method is used in which the phase of the fringe pattern P used in the phase shift method is shifted four times during one period. However, the present invention is not limited to this. For example, a 5-bucket method in which one period 2π of the phase of the fringe pattern P is divided into 5 or a 6-bucket method in which the period is also divided into 6 may be used.
また、上記した各実施形態及び変形例において、いずれも位相シフト法が用いられているが、空間コード法を用いて測定対象物2の三次元形状を測定するものでもよい。 In each of the above-described embodiments and modifications, the phase shift method is used, but the three-dimensional shape of the measurement object 2 may be measured using the spatial code method.
また、上記した各実施形態及び変形例において、縞パターンPを白色及び黒色で表していたが、これに限定されず、いずれか一方または双方が単色であってもよい。例えば、縞パターンPは、白色と赤色とで生成されるものでもよい。 Moreover, in each above-mentioned embodiment and modification, although the fringe pattern P was represented by white and black, it is not limited to this, Either one or both may be a single color. For example, the stripe pattern P may be generated in white and red.
また、上記各実施形態及び変形例において、表示制御部67が、測定対象物2のうち輪郭部分のみ表示を変更した状態でオーバーレイ画像Im2を表示させてもよい。 Moreover, in each said embodiment and modification, the display control part 67 may display overlay image Im2 in the state which changed the display only of the outline part among the measuring objects 2. FIG.
また、上記第1実施形態では、オーバーレイ画像Im2の透明度をユーザの操作によって設定する場合を例に挙げて説明したが、これに限定するものではなく、表示制御部67により自動で設定するようにしてもよい。この場合、表示制御部67が、ライブビュー画像Im1の明度等に応じて透明度を設定する構成であってもよい。また、上記第1実施形態において、オーバーレイ画像Im2の透明度を可変とする範囲についても、ユーザの操作又は表示制御部67による制御により、変更可能としてもよい。また、上記第1実施形態において、オーバーレイ画像Im2の透明度だけでなくライブビュー画像Im1の透明度を変更してもよいし、オーバーレイ画像Im2とライブビュー画像Im1との両方の透明度を変更してもよい。 In the first embodiment, the case where the transparency of the overlay image Im2 is set by a user operation has been described as an example. However, the present invention is not limited to this and is automatically set by the display control unit 67. May be. In this case, the display control unit 67 may be configured to set the transparency according to the brightness of the live view image Im1. In the first embodiment, the range in which the transparency of the overlay image Im <b> 2 can be changed may be changed by a user operation or control by the display control unit 67. In the first embodiment, not only the transparency of the overlay image Im2 but also the transparency of the live view image Im1 may be changed, or the transparency of both the overlay image Im2 and the live view image Im1 may be changed. .
また、上記第1実施形態では、参照像ImRから特徴領域Cを検出し、その特徴領域Cの位置等を基準としてオーバーレイ画像Im2の範囲を設定するようにしたが、これに限定するものではなく、測定対象物2を基準としてオーバーレイ画像Im2の範囲を設定してもよい。例えば、参照像ImRのうち測定対象物2の所定部分を含む領域がオーバーレイ画像Im2となるように設定してもよい。この場合、ユーザは、撮像時には表示領域70aを確認しつつ、測定対象物2の所定部分を含むように撮像すればよい。 In the first embodiment, the feature region C is detected from the reference image ImR, and the range of the overlay image Im2 is set based on the position of the feature region C and the like. However, the present invention is not limited to this. The range of the overlay image Im2 may be set with the measurement object 2 as a reference. For example, an area including a predetermined part of the measurement object 2 in the reference image ImR may be set to be the overlay image Im2. In this case, the user only needs to take an image so as to include a predetermined portion of the measuring object 2 while confirming the display area 70a at the time of imaging.
また、上記実施形態では、演算部65によって特徴領域Cを検出する場合を例に挙げて説明したが、これに限定するものではなく、例えばユーザがタッチパネル上で特徴領域を指定するものであってもよい。 In the above embodiment, the case where the feature region C is detected by the calculation unit 65 has been described as an example. However, the present invention is not limited to this. For example, the user designates the feature region on the touch panel. Also good.
また、上記実施形態又は変形例では、測定対象物2上の一部を特徴領域Cとして用いる場合を例に挙げて説明したが、上記の説明において特徴領域としてマーカを用いてもよい。この場合であっても、第1部分2Mの画像と第2部分2Nの画像との重複の程度が従来よりも確認しやすくなるため、2つの画像の重複部分を予め設定された範囲にすることが容易となる。よって、測定対象物2の撮像をやり直す可能性がより低くなり、撮像に要する手間を軽減することができるため、三次元データの連結を効率的に行うことができる。 Moreover, in the said embodiment or modification, although the case where a part on the measuring object 2 was used as the feature region C was described as an example, a marker may be used as the feature region in the above description. Even in this case, since the degree of overlap between the image of the first part 2M and the image of the second part 2N is easier to confirm than in the past, the overlapping part of the two images is set in a preset range. Becomes easy. Therefore, the possibility that the measurement object 2 is imaged again becomes lower and the labor required for imaging can be reduced, so that the three-dimensional data can be efficiently connected.
また、上記第2実施形態では、表示制御部67によって色彩が自動で設定される場合を例に挙げて説明したが、これに限定するものではなく、ユーザが色彩を設定できる構成であってもよい。この場合、表示制御部67は、例えばユーザが色彩をタッチパネルで設定するための操作領域を表示領域70aに表示させるようにする。このような操作領域としては、例えば色相、明度、彩度を個別に変更可能なインジケータを表示させてもよいし、ユーザが直接色彩を選択できるように複数の色彩を並べて表示させてもよい。また、色相、明度、彩度について、数値を入力して変更するようにしてもよい。 In the second embodiment, the case where the color is automatically set by the display control unit 67 has been described as an example. However, the present invention is not limited to this, and the user can set the color. Good. In this case, the display control unit 67 displays, for example, an operation area for the user to set a color on the touch panel on the display area 70a. As such an operation area, for example, an indicator that can individually change the hue, lightness, and saturation may be displayed, or a plurality of colors may be displayed side by side so that the user can directly select a color. Also, the hue, lightness, and saturation may be changed by inputting numerical values.
なお、演算処理部60の全ての機能を持ち運びが可能な筐体に収容しなくてもよく、演算処理部60の一部の機能(演算部、画像記憶部、表示制御部、及び設定情報記憶部の少なくとも一部)を外部のコンピュータに持たせてもよい。また、本発明は、持ち運び可能な形状測定装置1に限定されず、例えば多関節アームに三次元測定部が設けられた測定機や、測定対象物2を載置するステージ上を三次元測定部が移動可能に構成された測定機などの、据え置き型の形状測定装置に対しても適用できる。 Note that all functions of the arithmetic processing unit 60 may not be housed in a portable case, and some functions of the arithmetic processing unit 60 (the arithmetic unit, the image storage unit, the display control unit, and the setting information storage) May be provided to an external computer. In addition, the present invention is not limited to the portable shape measuring device 1, for example, a measuring machine provided with a three-dimensional measuring unit on an articulated arm, or a three-dimensional measuring unit on a stage on which a measurement object 2 is placed. The present invention can also be applied to a stationary shape measuring apparatus such as a measuring machine configured to be movable.
この場合であっても、上述の実施形態と同様に、MEMSミラーの往復振動とレーザダイオードから射出される光強度とを同期させる必要がなく、複雑かつ高度な同期制御が不要となる。投影部10、撮像部50、演算処理部60及び表示装置70を持ち運びが可能な筐体に収容した形状測定装置を持ち運ぶ場合、特に外部の測定環境(温度、湿度、気圧など)が変化しやすくなるが、外部環境が変化したとしても高精度な測定対象物2の形状測定を行うことができる。 Even in this case, similarly to the above-described embodiment, it is not necessary to synchronize the reciprocal vibration of the MEMS mirror and the light intensity emitted from the laser diode, and complicated and sophisticated synchronization control is not necessary. When carrying the shape measuring device housed in a portable case where the projection unit 10, the imaging unit 50, the arithmetic processing unit 60, and the display device 70 are carried, the external measurement environment (temperature, humidity, atmospheric pressure, etc.) is likely to change. However, even if the external environment changes, the shape of the measurement object 2 can be measured with high accuracy.
また、形状測定装置1の一部の構成をコンピュータにより実現してもよい。例えば、演算部処理部60をコンピュータにより実現してもよい。この場合、コンピュータは、測定対象物2のライブビュー画像を表示する処理と、測定対象物2の三次元データ(第1の三次元データ)を取得する際に撮像される測定対象物2の画像の一部をオーバーレイ画像としてライブビュー画像に重ねて表示する処理と、オーバーレイ画像の表示状態を変更する処理と、第1の三次元データと重複する部分を有しライブビュー画像に対応する測定対象物2の第2の三次元データと、第1の三次元データとを連結する処理とを実行させる処理とを実行する。 Moreover, you may implement | achieve the one part structure of the shape measuring apparatus 1 with a computer. For example, the calculation unit processing unit 60 may be realized by a computer. In this case, the computer displays the live view image of the measurement object 2 and the image of the measurement object 2 captured when acquiring the three-dimensional data (first three-dimensional data) of the measurement object 2. A process for displaying a part of the image as an overlay image superimposed on the live view image, a process for changing the display state of the overlay image, and a measurement target corresponding to the live view image having a part overlapping the first three-dimensional data A process of executing the process of connecting the second three-dimensional data of the object 2 and the first three-dimensional data is executed.
なお、上述の各実施形態の要件は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。また、法令で許容される限りにおいて、上述の各実施形態及び変形例で引用した検出方法、形状測定方法や形状測定装置などに関する全ての公開公報及び米国特許の開示を援用して本文の記載の一部とする。 Note that the requirements of the above-described embodiments can be combined as appropriate. Some components may not be used. In addition, as long as it is permitted by law, the disclosure of the text is incorporated with the disclosure of all published publications and US patents related to the detection methods, shape measurement methods, shape measurement devices, etc. cited in the above embodiments and modifications. Part.
Im1…ライブビュー画像 Im2…オーバーレイ画像 C…特徴領域 SYS…構造物製造システム 1、1A…形状測定装置 2…測定対象物 2M…第1部分 2N…第2部分 50…撮像部 60…演算処理部 62…制御部 63…設定情報記憶部 65…演算部 66…画像記憶部 67…表示制御部 70…表示装置 70a…表示領域 71…インジケータ 90…筐体 150…第2撮像部 710…設計装置 720…成形装置 730…制御装置 740…リペア装置 Im1 ... Live view image Im2 ... Overlay image C ... Characteristic region SYS ... Structure manufacturing system 1, 1A ... Shape measuring device 2 ... Measurement object 2M ... First part 2N ... Second part 50 ... Imaging part 60 ... Calculation processing part 62 ... Control unit 63 ... Setting information storage unit 65 ... Calculation unit 66 ... Image storage unit 67 ... Display control unit 70 ... Display device 70a ... Display area 71 ... Indicator 90 ... Housing 150 ... Second imaging unit 710 ... Design device 720 ... Molding device 730 ... Control device 740 ... Repair device
Claims (22)
前記測定対象物のライブビュー画像を表示することと、
第1の三次元データを取得する際に撮像される前記測定対象物の画像の一部をオーバーレイ画像として前記ライブビュー画像に重ねて表示することと、
前記オーバーレイ画像の表示状態を変更することと、
前記第1の三次元データと重複する部分を有し前記ライブビュー画像に対応する前記測定対象物の第2の三次元データと、前記第1の三次元データとを連結することと
を含む三次元データの連結方法。 A method for connecting three-dimensional data for connecting a plurality of three-dimensional data acquired for a measurement object,
Displaying a live view image of the measurement object;
Displaying a part of an image of the measurement object imaged when acquiring the first three-dimensional data as an overlay image superimposed on the live view image;
Changing the display state of the overlay image;
Connecting the first three-dimensional data with the second three-dimensional data of the measurement object corresponding to the live view image and having a portion overlapping with the first three-dimensional data. How to concatenate original data.
請求項1に記載の三次元データの連結方法。 The method of connecting three-dimensional data according to claim 1, wherein changing the display state of the overlay image includes changing the transparency of the overlay image.
請求項2に記載の三次元データの連結方法。 The three-dimensional data connection method according to claim 2, wherein the change of the transparency includes displaying information indicating the transparency on the display unit.
請求項1から請求項3のうちいずれか一項に記載の三次元データの連結方法。 The method of connecting three-dimensional data according to any one of claims 1 to 3, wherein changing the display state of the overlay image includes changing a color of the overlay image.
請求項1から請求項4のうちいずれか一項に記載の三次元データの連結方法。 The change of the display state of the overlay image includes blinking the overlay image or changing the blinking state of the overlay image. The three-dimensional data according to any one of claims 1 to 4, Consolidation method.
請求項5に記載の三次元データの連結方法。 The three-dimensional data connection method according to claim 5, wherein the change of the blinking state includes changing at least one of the blinking interval and range.
請求項1から請求項6のうちいずれか一項に記載の三次元データの連結方法。 The method for connecting three-dimensional data according to any one of claims 1 to 6, wherein changing the display state of the overlay image includes changing a display state of a part of the overlay image.
請求項7に記載の三次元データの連結方法。 The method for connecting three-dimensional data according to claim 7, wherein a part of the overlay image is a feature region included in the overlay image.
前記測定対象物についての複数の三次元データを取得することと、
請求項1から請求項8のうちいずれか一項に記載の三次元データの連結方法を用いて複数の三次元データを連結することと、
連結された結果に基づいて、前記測定対象物の三次元形状を算出することと
を含む測定方法。 A measurement method for measuring a three-dimensional shape of a measurement object,
Obtaining a plurality of three-dimensional data about the measurement object;
Connecting a plurality of three-dimensional data using the three-dimensional data connection method according to any one of claims 1 to 8,
Calculating a three-dimensional shape of the measurement object based on the connected result.
前記測定対象物を撮像する撮像部と、
前記撮像部によって撮像される画像を表示する表示部と、
前記測定対象物のライブビュー画像を前記撮像部に撮像させ、前記ライブビュー画像を前記表示部に表示させる動作と、前記測定対象物の第1の三次元データを取得する際に前記測定対象物の画像の一部を前記撮像部で撮像させ、前記測定対象物の画像の一部をオーバーレイ画像として前記ライブビュー画像に重ねて前記表示部に表示させる動作と、前記オーバーレイ画像の表示状態を変更させる動作と、前記第1の三次元データと重複する部分を有し前記ライブビュー画像に対応する前記測定対象物の第2の三次元データと、前記第1の三次元データとを連結する動作と、を行わせる制御部と、
連結された結果に基づいて、前記測定対象物の三次元形状を算出する算出部と
を備える測定装置。 A measuring device for measuring a three-dimensional shape of a measurement object,
An imaging unit for imaging the measurement object;
A display unit for displaying an image captured by the imaging unit;
An operation of causing the imaging unit to capture a live view image of the measurement object and displaying the live view image on the display unit, and obtaining the first three-dimensional data of the measurement object The image capturing unit captures a part of the image and the measurement target object part of the image is superimposed on the live view image as an overlay image and displayed on the display unit, and the display state of the overlay image is changed. Connecting the first three-dimensional data and the second three-dimensional data of the measurement object corresponding to the live view image having a portion overlapping with the first three-dimensional data And a control unit for performing
A measurement device comprising: a calculation unit that calculates a three-dimensional shape of the measurement object based on the connected result.
請求項10に記載の測定装置。 The measuring apparatus according to claim 10, wherein the operation of changing the display state of the overlay image includes an operation of changing the transparency of the overlay image.
請求項11に記載の測定装置。 The measurement apparatus according to claim 11, wherein the operation of changing the transparency includes displaying information indicating the transparency on the display unit.
請求項10から請求項12のうちいずれか一項に記載の測定装置。 The measurement apparatus according to any one of claims 10 to 12, wherein the operation of changing the display state of the overlay image includes an operation of changing a color of the overlay image.
請求項10から請求項13のうちいずれか一項に記載の測定装置。 The measurement device according to any one of claims 10 to 13, wherein the operation of changing the display state of the overlay image includes an operation of blinking the overlay image or changing the blinking state.
請求項14に記載の測定装置。 The measurement device according to claim 14, wherein the operation of changing the blinking state includes an operation of changing at least one of the interval and range of the blinking.
請求項10から請求項15のうちいずれか一項に記載の測定装置。 The measurement apparatus according to any one of claims 10 to 15, wherein the operation of changing the display state of the overlay image includes an operation of changing a display state of a part of the overlay image.
請求項16に記載の測定装置。 The measurement apparatus according to claim 16, wherein a part of the overlay image is a characteristic region included in the overlay image.
前記制御部は、前記オーバーレイ画像の表示状態を変更させる動作において、前記第2撮像部によって撮像される画像のうち少なくとも一部を表示させる
請求項10から請求項17のうちいずれか一項に記載の測定装置。 A second imaging unit that is provided separately from the imaging unit and captures an image of the measurement object;
18. The control unit displays at least a part of an image captured by the second imaging unit in an operation of changing a display state of the overlay image. 18. Measuring device.
前記第2撮像部によって撮像される画像は、カラー画像を含む
請求項18に記載の測定装置。 The second imaging unit is a color camera;
The measurement apparatus according to claim 18, wherein the image captured by the second imaging unit includes a color image.
前記設計情報に基づいて前記構造物を作製することと、
作製された前記構造物の形状を測定する請求項9に記載の形状測定方法と、
前記形状測定方法によって得られた前記構造物の形状に関する形状情報と前記設計情報とを比較することと、
を含む構造物製造方法。 Creating design information on the shape of the structure;
Producing the structure based on the design information;
The shape measuring method according to claim 9, wherein the shape of the manufactured structure is measured;
Comparing the shape information on the shape of the structure obtained by the shape measuring method with the design information;
A structure manufacturing method comprising:
前記設計情報に基づいて前記構造物を作製する成形装置と、
作製された前記構造物の形状を測定する請求項10から請求項18のうちいずれか一項に記載の形状測定装置と、
前記形状測定装置によって得られた前記構造物の形状に関する形状情報と前記設計情報とを比較する検査装置と、
を含む構造物製造システム。 A design device for creating design information on the shape of the structure;
A molding apparatus for producing the structure based on the design information;
The shape measuring device according to any one of claims 10 to 18, which measures the shape of the manufactured structure,
An inspection device for comparing shape information on the shape of the structure obtained by the shape measuring device with the design information;
Structure manufacturing system including.
前記測定対象物のライブビュー画像を表示する処理と、
第1の三次元データを取得する際に撮像される前記測定対象物の画像の一部をオーバーレイ画像として前記ライブビュー画像に重ねて表示する処理と、
前記オーバーレイ画像の表示状態を変更する処理と、
前記第1の三次元データと重複する部分を有し前記ライブビュー画像に対応する前記測定対象物の第2の三次元データと、前記第1の三次元データとを連結する処理と
を実行させる形状測定プログラム。 In the computer included in the measuring device that measures the three-dimensional shape of the measurement object,
Processing to display a live view image of the measurement object;
A process of displaying a part of an image of the measurement object imaged when acquiring the first three-dimensional data as an overlay image on the live view image;
A process of changing the display state of the overlay image;
A process of connecting the first three-dimensional data with the second three-dimensional data of the measurement object corresponding to the live view image and having a portion overlapping with the first three-dimensional data. Shape measurement program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014134794A JP2016011930A (en) | 2014-06-30 | 2014-06-30 | Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014134794A JP2016011930A (en) | 2014-06-30 | 2014-06-30 | Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016011930A true JP2016011930A (en) | 2016-01-21 |
Family
ID=55228721
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014134794A Pending JP2016011930A (en) | 2014-06-30 | 2014-06-30 | Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016011930A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110111339A (en) * | 2019-04-28 | 2019-08-09 | 航天智造(上海)科技有限责任公司 | Stripe pattern target area extracting method |
| JP2020078050A (en) * | 2018-09-11 | 2020-05-21 | コグネックス・コーポレイション | Methods and apparatus for optimizing image acquisition of objects subjected to illumination patterns |
| JP2020125921A (en) * | 2019-02-01 | 2020-08-20 | ファナック株式会社 | Three-dimensional shape measurement system and three-dimensional shape measurement method |
-
2014
- 2014-06-30 JP JP2014134794A patent/JP2016011930A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020078050A (en) * | 2018-09-11 | 2020-05-21 | コグネックス・コーポレイション | Methods and apparatus for optimizing image acquisition of objects subjected to illumination patterns |
| US11240435B2 (en) | 2018-09-11 | 2022-02-01 | Cognex Corporation | Methods and apparatus for optimizing image acquisition of objects subject to illumination patterns |
| JP7170607B2 (en) | 2018-09-11 | 2022-11-14 | コグネックス・コーポレイション | Method and Apparatus for Optimizing Image Acquisition of Objects Subjected to Illumination Patterns |
| JP2020125921A (en) * | 2019-02-01 | 2020-08-20 | ファナック株式会社 | Three-dimensional shape measurement system and three-dimensional shape measurement method |
| US11389967B2 (en) | 2019-02-01 | 2022-07-19 | Fanuc Corporation | Three-dimensional shape measurement system and three-dimensional shape measurement method |
| CN110111339A (en) * | 2019-04-28 | 2019-08-09 | 航天智造(上海)科技有限责任公司 | Stripe pattern target area extracting method |
| CN110111339B (en) * | 2019-04-28 | 2023-08-15 | 航天智造(上海)科技有限责任公司 | Stripe image target area extraction method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10508902B2 (en) | Three-dimensional measurement device | |
| JP6112807B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
| JP6116164B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
| JP6091864B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
| JP6184289B2 (en) | 3D image processing apparatus, 3D image processing method, 3D image processing program, computer-readable recording medium, and recorded apparatus | |
| US10430940B2 (en) | Inspection system and inspection method | |
| JP2005534026A (en) | Three-dimensional measurement data automatic alignment apparatus and method using optical markers | |
| CN108076654A (en) | Method and camera for three-dimensional measurement of dental objects | |
| JP2015102485A (en) | Shape measuring device, optical scanning device, structure manufacturing system, shape measuring method, structure manufacturing method, and shape measuring program | |
| JP2017110991A (en) | Measurement system, measurement method, robot control method, robot, robot system, and picking device | |
| JP7093915B2 (en) | Surface shape measurement method | |
| JP2014134611A (en) | Geometric distortion correction device, projector, and geometric distortion correction method | |
| KR102160340B1 (en) | Method and apparatus for generating 3-dimensional data of moving object | |
| JP2016011930A (en) | Three-dimensional data connection method, measurement method, measurement apparatus, structure manufacturing method, structure manufacturing system, and shape measurement program | |
| JP2017125801A (en) | Three-dimensional shape measuring method, displacement measuring method, three-dimensional shape measuring device, displacement measuring device, structure manufacturing method, structure manufacturing system, and three-dimensional shape measuring program | |
| JP2021177157A (en) | Eyewear display system | |
| JP2014055814A (en) | Shape measuring device, shape measuring method, and shape measuring program | |
| JP2015206749A (en) | Three-dimensional data connection method, shape measurement method, three-dimensional data connection device, shape measurement device, structure manufacturing method, structure manufacturing system, and shape measurement program | |
| JP5375479B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
| JP6476252B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
| JP2017198470A (en) | Measurement device, measurement method, system, and goods manufacturing method | |
| JP2011191170A (en) | Image processing apparatus | |
| JP2016008837A (en) | Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program | |
| JP2015203588A (en) | Detection device, detection method, shape measurement device, shape measurement method, structure manufacturing system, structure manufacturing method and shape measurement program | |
| WO2016113861A1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, structure manufacturing system, structure manufacturing method and measurement program |