[go: up one dir, main page]

JP2011247759A - Three-dimensional shape measuring device, calibration method and robot - Google Patents

Three-dimensional shape measuring device, calibration method and robot Download PDF

Info

Publication number
JP2011247759A
JP2011247759A JP2010121574A JP2010121574A JP2011247759A JP 2011247759 A JP2011247759 A JP 2011247759A JP 2010121574 A JP2010121574 A JP 2010121574A JP 2010121574 A JP2010121574 A JP 2010121574A JP 2011247759 A JP2011247759 A JP 2011247759A
Authority
JP
Japan
Prior art keywords
feature point
coordinate value
unit
calibration
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010121574A
Other languages
Japanese (ja)
Other versions
JP5494234B2 (en
Inventor
Toshinori Nagahashi
敏則 長橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010121574A priority Critical patent/JP5494234B2/en
Publication of JP2011247759A publication Critical patent/JP2011247759A/en
Application granted granted Critical
Publication of JP5494234B2 publication Critical patent/JP5494234B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】三次元形状計測における高さ方向のキャリブレーションを効率的に且つ高精度に行う。
【解決手段】階段形状のキャリブレーション用ブロックと、これが載置される載置台40を移動させる載置台駆動部30と、撮像画像から光切断線を検出する光切断線検出部22と、光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と載置台40の移動ピッチとキャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成する反射位置計算部23と、特徴点座標値と移動ピッチとから世界座標系における特徴点の三次元座標値に変換する変換行列を計算する変換行列計算部24と、特徴点情報と変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこれに対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成する三次元座標変換部25とを備えた。
【選択図】図2
To perform calibration in the height direction in three-dimensional shape measurement efficiently and with high accuracy.
A calibration block having a staircase shape, a mounting table driving unit for moving a mounting table on which the staircase is mounted, a light cutting line detection unit for detecting a light cutting line from a captured image, and a light cutting. A reflection position that detects a feature point from a line, calculates a feature point coordinate value, and generates feature point information that associates the feature point coordinate value, the movement pitch of the mounting table 40, and predetermined attribute data of the calibration block Based on the calculation unit 23, a conversion matrix calculation unit 24 for calculating a conversion matrix for converting the feature point coordinate value and the movement pitch into a three-dimensional coordinate value of the feature point in the world coordinate system, and the feature point information and the conversion matrix And a three-dimensional coordinate conversion unit 25 that generates a calibration data by obtaining a combination of the two-dimensional coordinate value of the image plane of the captured image and the corresponding three-dimensional coordinate value of the world coordinate system.
[Selection] Figure 2

Description

本発明は、三次元形状計測装置、キャリブレーション方法、およびロボットに関する。   The present invention relates to a three-dimensional shape measuring apparatus, a calibration method, and a robot.

スリット光源が射出したスリット光を計測対象物体に照射し、その計測対象物体の表面に映るスリット光の輝線(光切断線)をカメラで撮像して、計測対象物体の三次元形状を計測する光切断法による三次元形状計測装置では、カメラが撮像した計測対象物体の画像における位置と、実空間における位置とを対応させるためのキャリブレーション(校正)が必要である。
そこで従来、カメラの歪補正と高さ方向のキャリブレーションとを同時に行って校正作業全体にかかる時間を短縮することのできるキャリブレーション装置が知られている(例えば、特許文献1参照)。特許文献1に開示されたキャリブレーション装置では、各列に階段状ブロックを配置するとともに、一列おきの階段状ブロックを前列よりも一段低く配置したキャリブレーションブロックを用いて校正作業を行うものである。
Light that irradiates the measurement target object with the slit light emitted from the slit light source, captures the bright line (light cutting line) of the slit light reflected on the surface of the measurement target object, and measures the three-dimensional shape of the measurement target object In the three-dimensional shape measuring apparatus using the cutting method, calibration (calibration) is required for associating the position in the image of the measurement target object imaged by the camera with the position in the real space.
Therefore, conventionally, a calibration device is known that can simultaneously perform camera distortion correction and height direction calibration to reduce the time required for the entire calibration work (see, for example, Patent Document 1). In the calibration apparatus disclosed in Patent Document 1, a stair-like block is arranged in each row, and calibration is performed using a calibration block in which every other stair-like block is arranged one step lower than the previous row. .

特開2007−33039号公報JP 2007-33039 A

しかしながら、特許文献1に開示されたキャリブレーション装置は、キャリブレーションブロック上の輝線を合成して得られる格子図形から画像上の座標を求めてキャリブレーションに用いるため、キャリブレーションブロック全体を確実に計測して画像上の格子図形と対応させる必要があり、キャリブレーション作業に長時間がかかっていた。   However, since the calibration apparatus disclosed in Patent Document 1 obtains coordinates on an image from a lattice figure obtained by synthesizing bright lines on a calibration block and uses them for calibration, the entire calibration block is reliably measured. Therefore, it was necessary to correspond to the lattice figure on the image, and the calibration work took a long time.

そこで、本発明は上記問題に鑑みてなされたものであり、三次元形状計測における高さ方向のキャリブレーションを効率的に且つ高精度に行う、三次元形状計測装置およびキャリブレーション方法を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and provides a three-dimensional shape measuring apparatus and a calibration method that efficiently and accurately perform calibration in the height direction in three-dimensional shape measurement. With the goal.

[1]上記の課題を解決するため、本発明の一態様である三次元形状計測装置は、スリット光を射出する光源部と、キャリブレーション用ブロックが載置される載置台と、前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部と、前記載置台と前記光源部および前記撮像部の組合せとの少なくとも一方を移動させる移動部と、前記撮像部が撮像した撮像画像から前記光切断線を検出する光切断線検出部と、前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成する特徴点情報生成部と、前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算する変換行列計算部と、前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成する三次元座標変換部と、を備えることを特徴とする。
本発明の一態様によれば、三次元形状計測装置は、キャリブレーション用ブロックを撮像することにより得られる特徴点の特徴点座標値と移動部の移動ピッチとから世界座標系における特徴点の三次元座標値に変換する変換行列を求め校正用データを生成するため、従来のようにキャリブレーション用ブロック全体を確実に計測する必要がなく、高さ方向のキャリブレーションを効率的に且つ高精度に行うことができる。
[1] In order to solve the above-described problem, a three-dimensional shape measuring apparatus according to an aspect of the present invention includes a light source unit that emits slit light, a mounting table on which a calibration block is mounted, and the calibration An imaging unit that captures an optical cutting line of the slit light irradiated to the block for use, a moving unit that moves at least one of the combination of the mounting table, the light source unit, and the imaging unit, and the imaging unit A light cutting line detection unit for detecting the light cutting line from the captured image; a feature point is detected from the light cutting line to calculate a feature point coordinate value; the feature point coordinate value, a movement pitch of the moving unit, and the A feature point information generating unit that generates feature point information associated with predetermined attribute data of a calibration block; and the feature points in the world coordinate system from the feature point coordinate values and the movement pitch Based on the transformation matrix calculation unit for calculating a transformation matrix to be transformed into a three-dimensional coordinate value, the feature point information and the transformation matrix, the two-dimensional coordinate value of the image plane of the captured image and the two-dimensional coordinate value A three-dimensional coordinate conversion unit that obtains a combination with the three-dimensional coordinate values of the world coordinate system and generates calibration data.
According to one aspect of the present invention, the three-dimensional shape measurement apparatus uses the feature point coordinate value of the feature point obtained by imaging the calibration block and the movement pitch of the moving unit to obtain the third order of the feature point in the world coordinate system. Since the transformation matrix to be converted into the original coordinate values is obtained and the calibration data is generated, there is no need to measure the entire calibration block reliably as in the conventional case, and the calibration in the height direction is efficiently and highly accurate. It can be carried out.

[2]上記[1]記載の三次元形状計測装置において、前記光切断線検出部は、前記撮像画像から輝度の重心位置を求めることによって前記光切断線を検出することを特徴とする。
これにより、三次元形状計測装置は、撮像画像の光切断線に含まれるノイズの影響を除外して高精度に光切断線を検出することができる。
[2] The three-dimensional shape measuring apparatus according to [1], wherein the light section line detection unit detects the light section line by obtaining a barycentric position of luminance from the captured image.
Thereby, the three-dimensional shape measuring apparatus can detect the light cutting line with high accuracy by removing the influence of noise included in the light cutting line of the captured image.

[3]上記[1]または[2]記載の三次元形状計測装置において、前記キャリブレーション用ブロックは、前記載置台に載置される底部からの高さ寸法が異なる複数の平面部を有し、前記複数の平面部それぞれに、前記スリット光の照射により生じる光切断線と非平行である直線の輪郭を有し、その輪郭を境にして光反射率が異なるパターンが形成されることを特徴とする。
ここで、キャリブレーション用ブロックの複数の平面部それぞれには、互いに光反射率が異なる幾何学的模様のパターンが形成されることが好ましい。これにより、三次元形状計測装置は、平面部のパターンにスリット光が照射されたときに、同一の高さの平面上から様々な位置の特徴点を検出することができる。
[3] In the three-dimensional shape measuring apparatus according to [1] or [2], the calibration block has a plurality of plane portions having different height dimensions from the bottom portion placed on the mounting table. Each of the plurality of plane portions has a linear outline that is non-parallel to the light cutting line generated by the irradiation of the slit light, and a pattern having different light reflectivity is formed with the outline as a boundary. And
Here, it is preferable that geometric patterns having different light reflectivities are formed on each of the plurality of plane portions of the calibration block. As a result, the three-dimensional shape measuring apparatus can detect feature points at various positions from the same height plane when the slit light is irradiated onto the pattern of the plane portion.

[4]上記[3]記載の三次元形状計測装置において、前記特徴点情報生成部は、複数の前記特徴点座標値に基づいて前記パターンの頂点座標値を計算し、この頂点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた頂点情報を生成して前記特徴点情報に追加することを特徴とする。
これにより、三次元形状計測装置は、移動部の移動ピッチよりも細かく且つ撮像画像の画素ピッチの影響を受けることなく特徴点情報を求めることができる。
[4] In the three-dimensional shape measurement apparatus according to [3], the feature point information generation unit calculates a vertex coordinate value of the pattern based on a plurality of the feature point coordinate values, and the vertex coordinate value and the Vertex information associating the moving pitch of the moving unit with predetermined attribute data of the calibration block is generated and added to the feature point information.
Thereby, the three-dimensional shape measuring apparatus can obtain the feature point information finer than the moving pitch of the moving unit and without being affected by the pixel pitch of the captured image.

[5]上記の課題を解決するため、本発明の一態様である三次元形状計測装置のキャリブレーション方法は、三次元形状計測装置のキャリブレーション方法において、キャリブレーション用ブロックが載置された載置台とスリット光を射出する光源部および前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部の組合せとの少なくとも一方を移動させるステップと、前記撮像部が撮像した撮像画像から前記光切断線を検出するステップと、前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成するステップと、前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算するステップと、前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成するステップと、を有することを特徴とする。
本発明の一態様によれば、三次元形状計測装置は、キャリブレーション用ブロックを撮像することにより得られる特徴点の特徴点座標値と移動部の移動ピッチとから世界座標系における特徴点の三次元座標値に変換する変換行列を求め校正用データを生成するため、従来のようにキャリブレーション用ブロック全体を確実に計測する必要がなく、高さ方向のキャリブレーションを効率的に且つ高精度に行うことができる。
[5] In order to solve the above-described problem, a calibration method for a three-dimensional shape measurement apparatus according to an aspect of the present invention is a mounting method in which a calibration block is placed in the calibration method for a three-dimensional shape measurement apparatus. Moving at least one of a combination of a mounting table, a light source unit that emits slit light, and an image pickup unit that picks up an optical cutting line of the slit light irradiated to the calibration block; and an image picked up by the image pickup unit Detecting the light cutting line from the image; detecting a feature point from the light cutting line; calculating a feature point coordinate value; and calculating the feature point coordinate value, the moving pitch of the moving unit, and the calibration block Generating feature point information in association with predetermined attribute data, and calculating the world position from the feature point coordinate value and the movement pitch. A step of calculating a transformation matrix to be transformed into a three-dimensional coordinate value of the feature point in the system, a two-dimensional coordinate value of the image plane of the captured image and the two-dimensional coordinate value based on the feature point information and the transformation matrix Generating a calibration data by obtaining a combination with a three-dimensional coordinate value of the world coordinate system corresponding to.
According to one aspect of the present invention, the three-dimensional shape measurement apparatus uses the feature point coordinate value of the feature point obtained by imaging the calibration block and the movement pitch of the moving unit to obtain the third order of the feature point in the world coordinate system. Since the transformation matrix to be converted into the original coordinate values is obtained and the calibration data is generated, there is no need to measure the entire calibration block reliably as in the conventional case, and the calibration in the height direction is efficiently and highly accurate. It can be carried out.

[6]上記の課題を解決するため、本発明の一態様であるロボットは、スリット光を射出する光源部と、キャリブレーション用ブロックが載置される載置台と、前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部と、前記載置台と前記光源部および前記撮像部の組合せとのいずれか一方が取り付けられたハンド部と、前記ハンド部が可動自在に取り付けられたアーム部と、前記撮像部が撮像した撮像画像から前記光切断線を検出する光切断線検出部と、前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記ハンド部の一方向の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成する特徴点情報生成部と、前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算する変換行列計算部と、前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成する三次元座標変換部と、を備えることを特徴とする。
本発明の一態様によれば、ロボットは、キャリブレーション用ブロックを撮像することにより得られる特徴点の特徴点座標値とハンド部の一方向の移動ピッチとから世界座標系における特徴点の三次元座標値に変換する変換行列を求め校正用データを生成するため、従来のようにキャリブレーション用ブロック全体を確実に計測する必要がなく、高さ方向のキャリブレーションを効率的に且つ高精度に行うことができる。
[6] In order to solve the above problems, a robot according to an aspect of the present invention is directed to a light source unit that emits slit light, a mounting table on which a calibration block is mounted, and irradiation to the calibration block. An imaging unit that captures an optical cutting line of the slit light, a hand unit to which any one of the mounting table and the combination of the light source unit and the imaging unit is attached, and the hand unit is movably attached A feature point is detected by calculating a feature point coordinate value by detecting a feature point from the optical cutting line, and a feature point coordinate value is calculated from the optical cutting line. A feature point information generating unit that generates feature point information in which a point coordinate value, a movement pitch in one direction of the hand unit, and predetermined attribute data of the calibration block are associated; and the feature point locus An image of a captured image based on the transformation matrix calculation unit that calculates a transformation matrix that transforms the value and the moving pitch into a three-dimensional coordinate value of the feature point in the world coordinate system; and the feature point information and the transformation matrix And a three-dimensional coordinate conversion unit that generates a calibration data by obtaining a combination of a two-dimensional coordinate value of a plane and a three-dimensional coordinate value of the world coordinate system corresponding to the two-dimensional coordinate value.
According to one aspect of the present invention, the robot can obtain the three-dimensional feature point in the world coordinate system from the feature point coordinate value of the feature point obtained by imaging the calibration block and the unidirectional movement pitch of the hand unit. Since a conversion matrix to be converted into coordinate values is obtained and calibration data is generated, there is no need to reliably measure the entire calibration block as in the past, and calibration in the height direction is performed efficiently and with high accuracy. be able to.

本発明の一実施形態である三次元形状計測装置がキャリブレーションを行っている様子を模式的に示した、三次元形状計測装置およびキャリブレーション用ブロックの斜視図である。1 is a perspective view of a three-dimensional shape measuring apparatus and a calibration block schematically showing how a three-dimensional shape measuring apparatus according to an embodiment of the present invention performs calibration. 同実施形態における、三次元形状計測装置の主要な機能構成を示すブロック図である。It is a block diagram which shows the main function structures of the three-dimensional shape measuring apparatus in the embodiment. 同実施形態における、キャリブレーション用ブロックの外観の斜視図である。It is a perspective view of the appearance of a calibration block in the same embodiment. 同実施形態において、キャリブレーション用ブロックの各段上平面にパターンニングされるパターンの例である。In the embodiment, it is an example of a pattern that is patterned on each upper plane of a calibration block. 同実施形態において、三次元形状計測装置が実行する校正用データの生成処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of calibration data generation processing executed by the three-dimensional shape measurement apparatus in the embodiment. 同実施形態において、キャリブレーション用ブロックが搬送されたときの、パターンが輝線を通過する様子を模式的に示した図である。In the same embodiment, it is the figure which showed typically a mode that a pattern passed a bright line when the block for a calibration was conveyed. 同実施形態において、三次元形状計測装置が実行する三次元形状計測の処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure of 3D shape measurement executed by the 3D shape measurement apparatus in the embodiment. 三次元形状計測装置の一部の機能が組み込まれたロボットがキャリブレーションを行っている様子を示した、ロボットおよびキャリブレーション用ブロックならびに載置台の斜視図である。FIG. 3 is a perspective view of a robot, a calibration block, and a mounting table, showing a state where a robot incorporating a part of the functions of the three-dimensional shape measuring apparatus is performing calibration.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。図1は、本発明の一実施形態である三次元形状計測装置がキャリブレーションを行っている様子を模式的に示した、三次元形状計測装置およびキャリブレーション用ブロックの斜視図である。同図における三次元形状計測装置1は、光切断法によって計測対象物体(キャリブレーション用ブロックを含む。)の外部形状を計測する装置であり、キャリブレーションモードまたは通常計測モードに切り換えられて動作する。光切断法とは、例えば、スリット光源と計測対象物体とを相対的に移動させながら、スリット光源が計測対象物体にスリット光を照射し、撮像装置が計測対象物体の表面に映る輝線(光切断線)を撮像して二次元の輝線画像を取得し、画像処理装置がその輝線画像に基づいて計測対象物体の三次元形状を得る方法である。
三次元形状計測装置1は、スリット光源部11と、撮像部12と、載置台40とを含んで構成される。そして、同図において、載置台40には、撮像部12が撮像した画像における位置と実空間における位置との整合をとるために用いられるキャリブレーション用ブロック100が載置されている。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a perspective view of a three-dimensional shape measuring apparatus and a calibration block schematically showing how a three-dimensional shape measuring apparatus according to an embodiment of the present invention performs calibration. A three-dimensional shape measurement apparatus 1 in the figure is an apparatus that measures the external shape of a measurement target object (including a calibration block) by a light cutting method, and operates by switching to a calibration mode or a normal measurement mode. . The light cutting method refers to, for example, a bright line (light cutting) in which the slit light source irradiates the measurement target object with slit light while the slit light source and the measurement target object are moved relative to each other, and the imaging device reflects on the surface of the measurement target object. Line) to acquire a two-dimensional bright line image, and the image processing apparatus obtains a three-dimensional shape of the measurement target object based on the bright line image.
The three-dimensional shape measurement apparatus 1 includes a slit light source unit 11, an imaging unit 12, and a mounting table 40. In FIG. 2, the mounting table 40 is mounted with a calibration block 100 used for matching the position in the image captured by the imaging unit 12 with the position in the real space.

図2は、三次元形状計測装置1の主要な機能構成を示すブロック図である。なお、同図において、図1に示した構成と同一の構成については同一の符号を付している。図2に示すように、三次元形状計測装置1は、光学測定部10と、制御部20と、載置台駆動部30と、載置台40とを含んで構成される。以下、図1および図2を併せ参照して三次元形状計測装置1の構成について説明する。   FIG. 2 is a block diagram showing the main functional configuration of the three-dimensional shape measuring apparatus 1. In the figure, the same components as those shown in FIG. As shown in FIG. 2, the three-dimensional shape measurement apparatus 1 includes an optical measurement unit 10, a control unit 20, a mounting table driving unit 30, and a mounting table 40. Hereinafter, the configuration of the three-dimensional shape measuring apparatus 1 will be described with reference to FIGS. 1 and 2 together.

光学測定部10は、光切断法によって三次元形状計測を行う測定ユニットであり、スリット光源部11と、撮像部12とを含んで構成される。
スリット光源部11は、スリット光SLを射出する光源である。このスリット光SLは、扇形状に広がって空間に射出される。スリット光SLは、例えばレーザー光を用いるのがよい。スリット光源部11は、スリット光SLの中心光軸が鉛直軸と非平行である所定の角度を有して設置される。
The optical measurement unit 10 is a measurement unit that performs three-dimensional shape measurement by a light cutting method, and includes a slit light source unit 11 and an imaging unit 12.
The slit light source unit 11 is a light source that emits slit light SL. The slit light SL spreads in a fan shape and is emitted into the space. As the slit light SL, for example, laser light is preferably used. The slit light source unit 11 is installed with a predetermined angle at which the central optical axis of the slit light SL is not parallel to the vertical axis.

キャリブレーション用ブロック100を載せた載置台40は、載置台駆動部30の駆動によって搬送方向Aの向きに移動し、それによってキャリブレーション用ブロック100が搬送方向Aの向きに搬送される。スリット光源部11から射出されたスリット光SLが搬送中のキャリブレーション用ブロック100の上面側に設けられた段上平面に照射されると、その照射部分から反射光RLが反射される。   The mounting table 40 on which the calibration block 100 is placed is moved in the transport direction A by driving the mounting table driving unit 30, whereby the calibration block 100 is transported in the transport direction A. When the slit light SL emitted from the slit light source unit 11 is irradiated onto the stepped plane provided on the upper surface side of the calibration block 100 being conveyed, the reflected light RL is reflected from the irradiated portion.

撮像部12は、例えば、デジタルカメラまたはデジタルビデオカメラである。撮像部12は、その光学系の光軸がスリット光SLの中心光軸と非平行である所定の角度で傾斜する位置、具体的には反射光RLを光学系に入射させて撮像可能な位置に設置される。このとき、キャリブレーション用ブロック100の反射部分は、光切断線である輝線LLとして可視化される。撮像部12は、その輝線LLを撮像して撮像画像データを制御部20に供給する。   The imaging unit 12 is, for example, a digital camera or a digital video camera. The imaging unit 12 is a position where the optical axis of the optical system is inclined at a predetermined angle that is not parallel to the central optical axis of the slit light SL, specifically, a position where the reflected light RL is incident on the optical system and can be imaged. Installed. At this time, the reflection part of the calibration block 100 is visualized as a bright line LL which is a light cutting line. The imaging unit 12 captures the bright line LL and supplies the captured image data to the control unit 20.

制御部20は、三次元形状計測装置1全体を制御するものであり、CPU(Central Processing Unit)と半導体記憶部と(いずれも不図示)を含んで構成される。制御部20は、その機能上、計測制御部21と、光切断線検出部22と、反射位置計算部(特徴点情報生成部)23と、変換行列計算部24と、三次元座標変換部25と、記憶部26とを含んで構成される。   The control unit 20 controls the entire three-dimensional shape measuring apparatus 1 and includes a CPU (Central Processing Unit) and a semiconductor storage unit (both not shown). The control unit 20 is functionally composed of a measurement control unit 21, a light section line detection unit 22, a reflection position calculation unit (feature point information generation unit) 23, a transformation matrix calculation unit 24, and a three-dimensional coordinate conversion unit 25. And the storage unit 26.

計測制御部21は、光学測定部10および載置台駆動部30を制御する。具体的には、計測制御部21は、スリット光源部11に対して、スリット光SLの射出の開始および停止を制御する。また、計測制御部21は、撮像部12に対して、計測対象物体の表面に映った輝線LLの撮像の開始および停止を制御したり、撮像画像データを光切断線検出部22に供給させる制御をしたりする。また、計測制御部21は、載置台駆動部30に対して、載置台40を少なくとも搬送方向Aの方向に移動させる制御を行う。
また、計測制御部21は、反射位置計算部23に対して、載置台駆動部30の移動ピッチを供給する。この移動ピッチとは、単位時間あたりの載置台40の移動量である。
The measurement control unit 21 controls the optical measurement unit 10 and the mounting table driving unit 30. Specifically, the measurement control unit 21 controls the slit light source unit 11 to start and stop the emission of the slit light SL. Further, the measurement control unit 21 controls the imaging unit 12 to start and stop imaging of the bright line LL reflected on the surface of the measurement target object, or to supply the optical cutting line detection unit 22 with the captured image data. Or do. Further, the measurement control unit 21 controls the mounting table driving unit 30 to move the mounting table 40 at least in the transport direction A.
In addition, the measurement control unit 21 supplies the movement pitch of the mounting table driving unit 30 to the reflection position calculation unit 23. This movement pitch is the movement amount of the mounting table 40 per unit time.

光切断線検出部22は、撮像部12から供給された撮像画像データを取り込み、その画像から光切断線の位置を検出する。撮像部12の撮像性能によっては、画像に含まれる輝線LLの画像(輝線画像)にノイズが含まれたり太く撮像されていたりする場合がある。そこで、光切断線検出部22は、画像から輝度の重心位置を求めることにより光切断線の位置を高精度に検出する。
具体的には、光切断線検出部22は、画像平面をxy座標系としたときの座標値(imin,jmin)から座標値(imax,jmax)までのウィンドウにおけるx軸方向の輝度の重心位置xを、下記の式(1)を計算することにより求める。なお、式(1)において、(x,y)は、画像平面の座標値であり、I(x,y)は、座標値(x,y)における輝度値である。
The light section line detection unit 22 takes in the captured image data supplied from the image capturing unit 12 and detects the position of the light section line from the image. Depending on the imaging performance of the imaging unit 12, the image of the bright line LL (bright line image) included in the image may include noise or be captured thickly. Therefore, the light section line detection unit 22 detects the position of the light section line with high accuracy by determining the barycentric position of the luminance from the image.
Specifically, the light section line detection unit 22 in the x-axis direction in the window from the coordinate value (i min , j min ) to the coordinate value (i max , j max ) when the image plane is the xy coordinate system. The luminance gravity center position xc is obtained by calculating the following equation (1). In equation (1), (x i , y j ) is a coordinate value of the image plane, and I (x i , y j ) is a luminance value at the coordinate value (x i , y j ).

Figure 2011247759
Figure 2011247759

そして、光切断線検出部22は、重心位置xとこの位置に対応するy軸方向の位置であるyとを、当該ウィンドウにおける重心座標値(x,y)として記憶する。さらに、光切断線検出部22は、ウィンドウをシフトさせながら式(1)の計算を行って光切断線の位置を検出する。 Then, the light section line detecting unit 22 stores a y c is the position of the y-axis direction corresponding to the position of the gravity center position x c Toko, barycentric coordinates value in the window (x c, y c) as. Further, the light section line detection unit 22 calculates the expression (1) while shifting the window to detect the position of the light section line.

反射位置計算部23は、光切断線検出部22で検出された光切断線の輝度の変化点である特徴点を検出して画像平面における特徴点座標値を計算する。そして、反射位置計算部23は、キャリブレーションモードにおいて、特徴点座標値と、計測制御部21から供給された移動ピッチと、当該特徴点に対応するキャリブレーション用ブロック100の所定の属性データとを関連づけた特徴点情報を生成して記憶部26に記憶する。この特徴点情報については、後述する動作説明の欄において具体的に説明する。
変換行列計算部24は、画像平面の二次元座標値と載置台駆動部30の移動ピッチとから計測対象物体の位置を規定する世界座標系の三次元座標値を求めるための変換行列のセット(変換行列セット)を計算して記憶部26に記憶する。
The reflection position calculation unit 23 detects a feature point that is a change point in luminance of the light section line detected by the light section line detection unit 22 and calculates a feature point coordinate value on the image plane. Then, in the calibration mode, the reflection position calculation unit 23 obtains the feature point coordinate value, the movement pitch supplied from the measurement control unit 21, and the predetermined attribute data of the calibration block 100 corresponding to the feature point. The associated feature point information is generated and stored in the storage unit 26. This feature point information will be described in detail in the operation description section described later.
The transformation matrix calculation unit 24 sets a transformation matrix for obtaining a three-dimensional coordinate value of the world coordinate system that defines the position of the measurement target object from the two-dimensional coordinate value of the image plane and the movement pitch of the mounting table driving unit 30 ( The transformation matrix set) is calculated and stored in the storage unit 26.

三次元座標変換部25は、キャリブレーションモードにおいては、記憶部26からそれぞれ読み出した特徴点情報および変換行列セットに基づいて、撮像画像データの画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求める。そして、三次元座標変換部25は、二次元座標値から三次元座標値に変換するためのキャリブレーションを行って校正用データを生成し記憶部26に記憶する。また、三次元座標変換部25は、通常計測モードにおいては、キャリブレーションの結果に基づいて計測対象物体の三次元座標を計算した後、記憶部26に記憶された校正用データを読み込んで、計測対象物体の移動ピッチに応じた三次元座標値の補正を行う。   In the calibration mode, the three-dimensional coordinate conversion unit 25 converts the two-dimensional coordinate value of the image plane of the captured image data and the two-dimensional coordinate value based on the feature point information and the conversion matrix set respectively read from the storage unit 26. Find a combination with the corresponding 3D coordinate value of the world coordinate system. Then, the three-dimensional coordinate conversion unit 25 performs calibration for converting the two-dimensional coordinate value to the three-dimensional coordinate value, generates calibration data, and stores it in the storage unit 26. In the normal measurement mode, the three-dimensional coordinate conversion unit 25 calculates the three-dimensional coordinates of the measurement target object based on the result of calibration, and then reads the calibration data stored in the storage unit 26 to perform measurement. The three-dimensional coordinate value is corrected according to the movement pitch of the target object.

記憶部26は、反射位置計算部23が生成した特徴点情報と、変換行列計算部24が計算した変換行列セットと、三次元座標変換部25が生成した校正用データとを記憶する。また、記憶部26は、キャリブレーション用ブロック100の外形寸法とパターンの位置に関する情報とを含むリファレンスデータを予め記憶する。
載置台駆動部30は、計測制御部21から供給される移動方向指示と移動ピッチとの制御情報に基づいて、載置台40をその載置面に平行な面における二次元の方向に移動させる。
The storage unit 26 stores the feature point information generated by the reflection position calculation unit 23, the conversion matrix set calculated by the conversion matrix calculation unit 24, and the calibration data generated by the three-dimensional coordinate conversion unit 25. The storage unit 26 stores in advance reference data including the external dimensions of the calibration block 100 and information related to the pattern position.
The mounting table driving unit 30 moves the mounting table 40 in a two-dimensional direction on a plane parallel to the mounting surface based on the control information of the moving direction instruction and the moving pitch supplied from the measurement control unit 21.

図3は、キャリブレーション用ブロック100の外観の斜視図である。同図に示すように、キャリブレーション用ブロック100は、4段の階段形状部を有して一体的に形成されている。なお、階段は必ずしも4段である必要はなく複数段あればよい。また、キャリブレーション用ブロック100は中空または凹型であってもよい。キャリブレーション用ブロック100は、その底部110を載置台40の載置面に合わせて載置するものであり、底部110は設置の安定性を確保するために、面または少なくとも4箇所の支持部を有している。底部110と反対側の階段形状部には、底部110の載置面と平行であり、且つ垂直方向の寸法がそれぞれ異なる段上平面101−104が設けられている。   FIG. 3 is a perspective view of the appearance of the calibration block 100. As shown in the figure, the calibration block 100 is integrally formed with four steps. Note that the number of steps is not necessarily four, but may be a plurality of steps. The calibration block 100 may be hollow or concave. The calibration block 100 is mounted with its bottom 110 aligned with the mounting surface of the mounting table 40, and the bottom 110 has a surface or at least four support portions in order to ensure the stability of installation. Have. A stepped plane 101-104 that is parallel to the placement surface of the bottom 110 and has different vertical dimensions is provided in the stepped shape portion on the opposite side to the bottom 110.

キャリブレーション用ブロック100には、スリット光SLとして例えばレーザー光が照射されるので、その照射部分の温度は高くなる傾向にある。よって、キャリブレーション用ブロック100は、熱膨張率の小さな材質であることが好ましい。キャリブレーション用ブロック100は、その材質を、例えばカーボンブラック、ガラス、またはステンレス鋼をとすることができる。これらの中で、カーボンブラックは、ガラスやステンレス鋼に比べて質量を小さくできる点において優れており、材質としては好ましい。   Since the calibration block 100 is irradiated with, for example, laser light as the slit light SL, the temperature of the irradiated portion tends to increase. Therefore, the calibration block 100 is preferably made of a material having a small coefficient of thermal expansion. The material of the calibration block 100 can be, for example, carbon black, glass, or stainless steel. Among these, carbon black is excellent in that the mass can be reduced as compared with glass and stainless steel, and is preferable as a material.

キャリブレーション用ブロック100の段上平面101−104それぞれには、所定のパターンPが形成(パターンニング)されている。図4は、キャリブレーション用ブロック100の段上平面101−104それぞれにパターンニングされるパターンの例である。同図に示すように、パターンPは、幾何学的模様であるパターンAPとパターンRPとを含んでいる。同図は、ハッチング模様のパターンAPと模様のない複数のパターンRPとがパターンPに設けられたように表されているが、これらのパターン色は同図で表現された模様および色に限定されるものではない。パターンPとして重要なことは、スリット光SLの照射に対するパターンAPとパターンRPとの光反射率が異なるようにパターンニングされることである。本実施形態では、パターンRPがパターンAPよりも反射率が大きくなるようにパターンニングされている。また、パターンP上に表現される幾何学的模様は、列(4個のパターンRPの組)として一意の模様である。   A predetermined pattern P is formed (patterned) on each of the upper planes 101 to 104 of the calibration block 100. FIG. 4 is an example of a pattern that is patterned on each of the upper planes 101 to 104 of the calibration block 100. As shown in the figure, the pattern P includes a pattern AP and a pattern RP which are geometric patterns. In the figure, a hatched pattern AP and a plurality of unpatterned patterns RP are represented as being provided in the pattern P, but these pattern colors are limited to the patterns and colors expressed in the figure. It is not something. What is important as the pattern P is that the pattern AP and the pattern RP are patterned so as to have different light reflectivities with respect to the irradiation of the slit light SL. In the present embodiment, the pattern RP is patterned so that the reflectance is higher than that of the pattern AP. The geometric pattern expressed on the pattern P is a unique pattern as a row (a set of four patterns RP).

キャリブレーション用ブロック100へのパターンPのパターンニング方法としては、薄膜蒸着法、エッチング法、フォトレジスト法等の細密パターンニング技術を用いるのがよい。   As a patterning method of the pattern P on the calibration block 100, it is preferable to use a fine patterning technique such as a thin film deposition method, an etching method, or a photoresist method.

キャリブレーション用ブロック100は、本実施形態である三次元形状計測装置1以外の形状計測装置によって外形寸法とパターンPの特徴点(各パターンRPの頂点等)の位置とが測定されている。そして、例えば、パターンRPごとに、頂点座標値と底部110から当該パターンRPがパターンニングされた段上平面までの高さ寸法とを、当該パターンRPの識別番号に関連づけたリファレンスデータが作成されている。このリファレンスデータは、前述したとおり記憶部26に予め記憶される。   In the calibration block 100, the external dimensions and the positions of the feature points of the pattern P (vertex of each pattern RP, etc.) are measured by a shape measuring device other than the three-dimensional shape measuring device 1 according to this embodiment. For example, for each pattern RP, reference data in which the vertex coordinate value and the height dimension from the bottom 110 to the stepped plane on which the pattern RP is patterned is associated with the identification number of the pattern RP is created. Yes. This reference data is stored in advance in the storage unit 26 as described above.

次に、三次元形状計測装置1がキャリブレーション用ブロック100を用いてキャリブレーションを行うキャリブレーションモードの動作について説明する。図5は、三次元形状計測装置1が実行する「校正用データの生成処理」の手順を示すフローチャートである。キャリブレーション用ブロック100が、その搬送方向が図3に示す搬送方向Aの向きになるように載置台40に載置されたのち、三次元形状計測装置1が計測制御部21に対してキャリブレーションモードの動作開始指示を与えると、図5に示すフローチャートの処理が開始される。   Next, the operation in the calibration mode in which the three-dimensional shape measurement apparatus 1 performs calibration using the calibration block 100 will be described. FIG. 5 is a flowchart showing a procedure of “calibration data generation processing” executed by the three-dimensional shape measuring apparatus 1. After the calibration block 100 is mounted on the mounting table 40 so that the transport direction is the direction of the transport direction A shown in FIG. 3, the three-dimensional shape measuring apparatus 1 performs calibration with respect to the measurement control unit 21. When a mode operation start instruction is given, the processing of the flowchart shown in FIG. 5 is started.

ステップS501において、計測制御部21は、スリット光源部11に対して照射開始を指示する。そして、この指示を受けたスリット光源部11は、スリット光SLの照射を開始する。次に、ステップS502において、計測制御部21は、撮像部12に対して撮像開始を指示する。そして、この指示を受けた撮像部12は撮像を開始する。次に、ステップS503において、計測制御部21は、載置台駆動部30に対して駆動開始を指示する。そして、この指示を受けた載置台駆動部30は、載置台40の移動を開始する。   In step S501, the measurement control unit 21 instructs the slit light source unit 11 to start irradiation. And the slit light source part 11 which received this instruction | indication starts irradiation of the slit light SL. Next, in step S502, the measurement control unit 21 instructs the imaging unit 12 to start imaging. Upon receiving this instruction, the imaging unit 12 starts imaging. Next, in step S503, the measurement control unit 21 instructs the mounting table driving unit 30 to start driving. Upon receiving this instruction, the mounting table drive unit 30 starts moving the mounting table 40.

次に、ステップS504において、撮像部12は、キャリブレーション用ブロック100の表面に映った輝線LLを撮像して、撮像画像データを光切断線検出部22に供給する。次に、ステップS505において、光切断線検出部22は、撮像画像データを取り込み、前述したように画像から輝度の重心位置を求めることによってその画像から光切断線の位置を検出する。次に、ステップS506において、反射位置計算部23は、光切断線検出部22で検出された光切断線から特徴点を探索する。この「特徴点の探索処理」についてはその詳細を後述する。   Next, in step S <b> 504, the imaging unit 12 captures the bright line LL reflected on the surface of the calibration block 100 and supplies the captured image data to the light section line detection unit 22. Next, in step S505, the light section line detection unit 22 captures captured image data, and determines the position of the center of gravity of the brightness from the image as described above, thereby detecting the position of the light section line from the image. Next, in step S <b> 506, the reflection position calculation unit 23 searches for a feature point from the light section line detected by the light section line detection unit 22. Details of the “feature point search process” will be described later.

次に、ステップS507において、反射位置計算部23は、光切断線から特徴点を検出した場合(ステップS507:YES)は、ステップS508の処理に移る。一方、反射位置計算部23は、光切断線から特徴点を検出しなかった場合(ステップS507:NO)は、ステップS509の処理に移る。ステップS508において、反射位置計算部23は、検出した特徴点の画像平面における特徴点座標値を計算する。次に、反射位置計算部23は、特徴点座標値と、計測制御部21から供給された移動ピッチと、当該特徴点に対応するキャリブレーション用ブロック100の所定の属性データとを関連づけた特徴点情報を生成して記憶部26に記憶する。この「特徴点情報の生成処理」についても、その詳細を後述する。   Next, in step S507, when the reflection position calculation unit 23 detects a feature point from the light section line (step S507: YES), the process proceeds to step S508. On the other hand, if the reflection position calculation unit 23 does not detect a feature point from the light section line (step S507: NO), the process proceeds to step S509. In step S508, the reflection position calculation unit 23 calculates the feature point coordinate value on the image plane of the detected feature point. Next, the reflection position calculation unit 23 associates the feature point coordinate value, the movement pitch supplied from the measurement control unit 21, and predetermined attribute data of the calibration block 100 corresponding to the feature point. Information is generated and stored in the storage unit 26. Details of the “feature point information generation process” will be described later.

次に、ステップS509において、計測制御部21は、キャリブレーション用ブロック100の4つの段上平面101−104にパターンニングされた4つのパターンPが輝線LLによって走査終了したか否かを判定し、走査終了したと判定した場合(S509:YES)はステップS510の処理に移り、走査終了していないと判定した場合(S509:NO)はステップS504の処理に戻る。ステップS510において、反射位置計算部23は、記憶部26に記憶された特徴点情報を読み込んで、データを補間して記憶部26に記憶する。この「特徴点情報の補間処理」についても、その詳細を後述する。   Next, in step S509, the measurement control unit 21 determines whether or not the four patterns P patterned on the four upper planes 101 to 104 of the calibration block 100 have been scanned with the bright lines LL. If it is determined that the scanning is completed (S509: YES), the process proceeds to step S510. If it is determined that the scanning is not completed (S509: NO), the process returns to step S504. In step S <b> 510, the reflection position calculation unit 23 reads the feature point information stored in the storage unit 26, interpolates the data, and stores the data in the storage unit 26. Details of this “feature point information interpolation process” will be described later.

次に、ステップS511において、変換行列計算部24は、画像平面の二次元座標値と載置台駆動部30の移動ピッチとから計測対象物体の位置を規定する世界座標系の三次元座標値を求めるための変換行列セットを計算して記憶部26に記憶する。この「変換行列セットの計算処理」についても、その詳細を後述する。   Next, in step S511, the transformation matrix calculation unit 24 obtains a three-dimensional coordinate value of the world coordinate system that defines the position of the measurement target object from the two-dimensional coordinate value of the image plane and the movement pitch of the mounting table driving unit 30. A transformation matrix set is calculated and stored in the storage unit 26. Details of this “transform matrix set calculation process” will be described later.

次に、ステップS512において、三次元座標変換部25は、記憶部26からそれぞれ読み出した特徴点情報および変換行列セットに基づいて、撮像画像データの画像平面の二次元座標値とそれに対応する世界座標系の三次元座標値との組み合わせを求める。そして、三次元座標変換部25は、二次元座標値から三次元座標値に変換するためのキャリブレーションを行って校正用データを生成し記憶部26に記憶する。この「校正用データの生成処理」についても、その詳細を後述する。   Next, in step S512, the three-dimensional coordinate conversion unit 25, based on the feature point information and the transformation matrix set read from the storage unit 26, respectively, the two-dimensional coordinate values of the image plane of the captured image data and the corresponding world coordinates. The combination with the three-dimensional coordinate value of the system is obtained. Then, the three-dimensional coordinate conversion unit 25 performs calibration for converting the two-dimensional coordinate value to the three-dimensional coordinate value, generates calibration data, and stores it in the storage unit 26. Details of the “calibration data generation process” will be described later.

次に、上述した動作説明における、反射位置計算部23による「特徴点の探索処理」および「特徴点情報の生成処理」について具体的に説明する。図6は、キャリブレーション用ブロック100が搬送方向Aの向きに搬送された場合に、パターンP(同図では、パターンAPおよび1個のパターンRPを拡大して示す。)が輝線LLを通過する様子を模式的に示した図である。なお、同図では、図を分かり易くするために、パターンPを固定して、輝線LLを輝線LL1から輝線LL6まで移動させたときの相対的な位置関係を表している。   Next, the “feature point search process” and the “feature point information generation process” by the reflection position calculation unit 23 in the above-described operation description will be specifically described. FIG. 6 shows that when the calibration block 100 is transported in the transport direction A, the pattern P (in the figure, the pattern AP and one pattern RP are enlarged) passes through the bright line LL. It is the figure which showed the mode typically. In the figure, for easy understanding of the drawing, the relative positional relationship when the pattern P is fixed and the bright line LL is moved from the bright line LL1 to the bright line LL6 is shown.

図6に示すように、撮像部12は、輝線LL1,LL2,LL3,・・・,LL6の各輝線を順次撮像して光切断線検出部22に供給する。まず、同図において、撮像部12が輝線LL1を撮像して撮像画像データを光切断線検出部22に供給すると、光切断線検出部22は、画像から輝度の重心座標置を算出することによって光切断線の位置を検出し反射位置計算部23に供給する。
次に、反射位置計算部23は、輝線LL1から得られた光切断線上で輝度の変化する個所を特徴点C1,C2として検出する。つまり、特徴点C1,C2は、輝線LL1が映っているパターンP上の反射率の変化点に対応する。反射位置計算部23は、特徴点C1,C2を検出すると、画像における特徴点C1,C2に対応する特徴点座標値を計算する。そして、その特徴点座標値と、計測制御部21から供給された移動ピッチと、特徴点C1,C2に対応するキャリブレーション用ブロック100の所定の属性データとを関連づけた特徴点情報を生成して記憶部26に記憶する。
As shown in FIG. 6, the imaging unit 12 sequentially captures the bright lines LL1, LL2, LL3,..., LL6 and supplies them to the light section line detection unit 22. First, in the figure, when the imaging unit 12 captures the bright line LL1 and supplies the captured image data to the optical cutting line detection unit 22, the optical cutting line detection unit 22 calculates the barycentric coordinate position of the luminance from the image. The position of the light cutting line is detected and supplied to the reflection position calculation unit 23.
Next, the reflection position calculation unit 23 detects locations where the luminance changes on the light section line obtained from the bright line LL1 as feature points C1 and C2. That is, the feature points C1 and C2 correspond to the reflectance change points on the pattern P in which the bright line LL1 is reflected. When the reflection position calculation unit 23 detects the feature points C1 and C2, the reflection position calculation unit 23 calculates feature point coordinate values corresponding to the feature points C1 and C2 in the image. Then, feature point information is generated by associating the feature point coordinate values, the movement pitch supplied from the measurement control unit 21, and the predetermined attribute data of the calibration block 100 corresponding to the feature points C1 and C2. Store in the storage unit 26.

所定の属性データとは、キャリブレーション用ブロック100の底部110から、対象特徴点に対応するパターンRPがパターンニングされた段上平面までの高さ寸法と、当該パターンRPの識別番号とを含む情報である。例えば、図6における特徴点C1,C2に対応するパターンRPが、図3における段上平面103にパターンニングされたパターンP中の幾何学的パターンであって、走査開始後の1番目の幾何学的パターンから数えて95番目の幾何学的パターンである場合、その属性データは、底部110から段上平面103までの高さ寸法、および識別番号“95”である。反射位置計算部23は、記憶部26からリファレンスデータを読み込み、輝線LLがキャリブレーション用ブロック100の段上平面104のパターンRPの1行目から段上平面101のパターンRPの4行目(最終行)までを走査しながら幾何学的パターンの個数を計数していくことによってパターンRPを特定し、属性データを求めることができる。   The predetermined attribute data is information including the height dimension from the bottom 110 of the calibration block 100 to the upper plane on which the pattern RP corresponding to the target feature point is patterned, and the identification number of the pattern RP. It is. For example, the pattern RP corresponding to the feature points C1 and C2 in FIG. 6 is a geometric pattern in the pattern P patterned on the stepped plane 103 in FIG. 3, and is the first geometric after the start of scanning. In the case of the 95th geometric pattern counted from the target pattern, the attribute data includes a height dimension from the bottom 110 to the stepped plane 103 and an identification number “95”. The reflection position calculation unit 23 reads the reference data from the storage unit 26, and the bright line LL is from the first line of the pattern RP on the upper plane 104 of the calibration block 100 to the fourth line of the pattern RP on the upper plane 101 (final). The pattern RP can be specified and attribute data can be obtained by counting the number of geometric patterns while scanning up to (row).

上記の特徴点C1,C2の検出の動作、および特徴点情報の記憶部26への記憶の動作と同様に、反射位置計算部23は、同図に図示された特徴点C3−C8を含む特徴点を検出して特徴点情報を生成し記憶部26に記憶する。   Similar to the operation for detecting the feature points C1 and C2 and the operation for storing the feature point information in the storage unit 26, the reflection position calculation unit 23 includes the feature points C3-C8 illustrated in FIG. A point is detected and feature point information is generated and stored in the storage unit 26.

次に、反射位置計算部23による「特徴点情報の補間処理」について具体的に説明する。記憶部26には、輝線LL1−LL6の走査によって検出された特徴点C1−C8に係る特徴点情報が既に記憶されている。反射位置計算部23は、記憶部26からこれらの特徴点情報を読出し、まず、特徴点C1−C4に対応する各特徴点座標値からパターンRPの頂点T1の頂点座標値を計算する。つまり、特徴点C1,C3を通る線分と特徴点C2,C4を通る線分とが交差する点が頂点T1である。そして、同様にして、特徴点C5−C8に対応する各特徴点座標値からパターンRPの頂点T4の頂点座標値を計算する。さらに、同様にして、特徴点C1−C8に対応する各特徴点座標値からパターンRPの頂点T2,T3の各頂点座標値を計算する。
反射位置計算部23は、頂点T1−T4の各頂点座標値と、計測制御部21から供給された移動ピッチと、頂点T1−T4に対応するキャリブレーション用ブロック100の所定の属性データとを関連づけた頂点情報を生成して、記憶部26に記憶された特徴点情報に追加する。これにより、反射位置計算部23は、輝線の移動ピッチよりも細かく且つ画素ピッチの影響を受けることなく特徴点情報を求めることができる。
Next, the “interpolation process of feature point information” by the reflection position calculation unit 23 will be specifically described. In the storage unit 26, feature point information related to the feature points C1-C8 detected by scanning the bright lines LL1-LL6 is already stored. The reflection position calculation unit 23 reads out the feature point information from the storage unit 26, and first calculates the vertex coordinate value of the vertex T1 of the pattern RP from the feature point coordinate values corresponding to the feature points C1-C4. That is, the vertex T1 is a point where a line segment passing through the feature points C1 and C3 and a line segment passing through the feature points C2 and C4 intersect. Similarly, the vertex coordinate value of the vertex T4 of the pattern RP is calculated from the feature point coordinate values corresponding to the feature points C5-C8. Similarly, the vertex coordinate values of the vertices T2 and T3 of the pattern RP are calculated from the feature point coordinate values corresponding to the feature points C1 to C8.
The reflection position calculation unit 23 associates each vertex coordinate value of the vertex T1-T4, the movement pitch supplied from the measurement control unit 21, and predetermined attribute data of the calibration block 100 corresponding to the vertex T1-T4. The generated vertex information is generated and added to the feature point information stored in the storage unit 26. Thereby, the reflection position calculation unit 23 can obtain the feature point information finer than the bright line movement pitch and without being affected by the pixel pitch.

パターンRPを幾何的に単純な形状であって、その輪郭が輝線LLと平行にならないような形状とすることにより、上記のようにパターンRPの頂点の座標値を容易に求めることができる。しかも、検出された特徴点の幾何学的な配列から頂点を算出する方法であるため、撮像部12の解像度、載置台40の移動ピッチに依存せず、高精度に頂点座標を求めることができる。   By setting the pattern RP to a geometrically simple shape that does not have an outline parallel to the bright line LL, the coordinate values of the vertices of the pattern RP can be easily obtained as described above. Moreover, since the vertex is calculated from the geometric arrangement of the detected feature points, the vertex coordinates can be obtained with high accuracy without depending on the resolution of the imaging unit 12 and the moving pitch of the mounting table 40. .

なお、上記の説明はパターンRPのうち1つの幾何学的パターンについての頂点T1−T4の算出の例であるが、このような計算をパターンPの他のパターンRP全て、または1列おきや1行おき等予め定められた規則にしたがって行う。   The above explanation is an example of calculating the vertices T1 to T4 for one geometric pattern of the patterns RP. However, such calculation is applied to all the other patterns RP of the pattern P, every other column or 1 This is done according to a predetermined rule such as every other line.

次に、変換行列計算部24による「変換行列セットの計算処理」および三次元座標変換部25による「校正用データの生成処理」について具体的に説明する。撮像画像データの画像平面の二次元座標値を(x y)とし、計測対象物体の位置を規定する世界座標系の三次元座標値を(X Y Z)とすると、それぞれの同次座標値q(ボールド体),Q(ボールド体)は式(2)で表され、また、座標の変換式は式(3)のように表される。なお、「ボールド体」の記載は、その直前の文字がボールド体で表記されることを示し、当該文字で示されるデータが行列またはベクトルであることを意味する。   Next, the “transformation matrix set calculation process” performed by the transform matrix calculation unit 24 and the “calibration data generation process” performed by the three-dimensional coordinate conversion unit 25 will be specifically described. When the two-dimensional coordinate value of the image plane of the captured image data is (xy) and the three-dimensional coordinate value of the world coordinate system that defines the position of the measurement target object is (XYZ), each homogeneous coordinate value q (Bold body) and Q (bold body) are expressed by Expression (2), and a coordinate conversion expression is expressed by Expression (3). Note that the description of “bold” indicates that the character immediately before it is written in bold, and that the data indicated by the character is a matrix or a vector.

Figure 2011247759
Figure 2011247759

Figure 2011247759
Figure 2011247759

なお、式(3)において、sは、スケールパラメーターである。また、M(ボールド体)は、撮像部12の内部パラメーター行列である。
内部パラメーター行列M(ボールド体)は、以下の要素を含んでいる。
:x軸方向の焦点距離(画素単位での表現)
:y軸方向の焦点距離(画素単位での表現)
:画像中心である主点(x座標)
:画像中心である主点(y座標)
In equation (3), s is a scale parameter. M (bold body) is an internal parameter matrix of the imaging unit 12.
The internal parameter matrix M (bold body) includes the following elements.
f x : Focal length in the x-axis direction (expression in pixel units)
f y : focal length in the y-axis direction (expressed in pixel units)
c x : principal point (x coordinate) that is the center of the image
c y : principal point (y coordinate) that is the center of the image

W(ボールド体)は、撮像部12の外部パラメーター行列であり、以下の要素を含んでいる。
R(ボールド体):世界座標からカメラ座標への変換を表す回転行列
t(ボールド体):世界座標からカメラ座標への変換を表す並進行列
なお、世界座標は、キャリブレーション用ブロック100の最初に配置した位置の座標である。
W (bold body) is an external parameter matrix of the imaging unit 12 and includes the following elements.
R (bold body): rotation matrix representing transformation from world coordinates to camera coordinates t (bold body): parallel progression representing transformation from world coordinates to camera coordinates The world coordinates are at the beginning of the calibration block 100. It is the coordinate of the position.

撮像部12が備える撮像レンズにレンズ歪がある場合は、変換行列計算部24は、画像平面の二次元座標値(x y)を(x)として式(4)を計算してレンズ歪を補正する。なお、式(4)において、k,k,kは、撮像レンズの径方向のレンズ歪を示す係数であり、p,pは、撮像レンズの円周方向のレンズ歪を示す係数である。また、rは撮像レンズの半径である。 When the imaging lens included in the imaging unit 12 has lens distortion, the transformation matrix calculation unit 24 calculates the expression (4) with the two-dimensional coordinate value (xy) of the image plane as (x d y d ) and calculates the lens. Correct distortion. In Equation (4), k 1 , k 2 , and k 3 are coefficients indicating lens distortion in the radial direction of the imaging lens, and p 1 and p 2 indicate lens distortion in the circumferential direction of the imaging lens. It is a coefficient. R is the radius of the imaging lens.

Figure 2011247759
Figure 2011247759

スリット光源部11から射出されるスリット光SLの空間における広がりは平面とみなすことができ、その場合は式(5)のような平面の式で表すことができる。なお、式(5)において、A,B,Cは、平面を規定するためのパラメーターである。 The spread in the space of the slit light SL emitted from the slit light source unit 11 can be regarded as a plane, and in that case, it can be represented by a plane expression such as Expression (5). In Expression (5), A L , B L , and C L are parameters for defining a plane.

Figure 2011247759
Figure 2011247759

また、キャリブレーション用ブロック100の段上平面101−104のそれぞれは平面であるため、式(6)のような平面の式で表すことができる。なお、式(6)において、A,B,Cは、キャリブレーション用ブロック100の段上平面101−104の平面を規定するためのパラメーターである。 Further, since each of the stepped planes 101 to 104 of the calibration block 100 is a plane, it can be represented by a plane expression such as Expression (6). In Equation (6), A C , B C , and C C are parameters for defining the planes of the stepped planes 101 to 104 of the calibration block 100.

Figure 2011247759
Figure 2011247759

ここで、以下の説明を簡単にするために、式(3)のq(ボールド体)=s・M(ボールド体)・W(ボールド体)・Q(ボールド体)を式(7)のように置き換える。   Here, in order to simplify the following description, q (bold body) = s · M (bold body) · W (bold body) · Q (bold body) in Expression (3) is expressed as Expression (7). Replace with

Figure 2011247759
Figure 2011247759

つまり、式(7)において、pij(1≦i≦3,1≦j≦4)の要素で構成される3行4列の行列は、s・M(ボールド体)・W(ボールド体)・Q(ボールド体)に対応する。 That is, in Expression (7), a matrix of 3 rows and 4 columns composed of elements of p ij (1 ≦ i ≦ 3, 1 ≦ j ≦ 4) is expressed as s · M (bold body) · W (bold body). -Corresponds to Q (bold).

三次元座標変換部25がZ(高さ)を計算するためのキャリブレーションについて説明する。式(8)は、式(7)を一部展開した式である。   The calibration for the three-dimensional coordinate conversion unit 25 to calculate Z (height) will be described. Expression (8) is an expression obtained by partially expanding Expression (7).

Figure 2011247759
Figure 2011247759

式(5)および式(8)から式(9)が得られる。   Expression (9) is obtained from Expression (5) and Expression (8).

Figure 2011247759
Figure 2011247759

式(9)は、同一の高さZの反射位置は、画像平面では直線になり、そのy切片の差は高さZに比例することを示している。よって、三次元座標変換部25がキャリブレーション用ブロック100を用いて高さZと画像平面上の位置(y切片)の関係を校正用データとして求めておく。これにより、三次元座標変換部25は任意の高さZを求めることができる。つまり、計測用物体の高さZは、そのy座標値をy、キャリブレーション用ブロック100の高さをZ、y座標値をyとした場合に、式(10)のように表すことができる。 Equation (9) indicates that the reflection position at the same height Z is a straight line on the image plane, and the difference in y-intercept is proportional to the height Z. Therefore, the three-dimensional coordinate conversion unit 25 uses the calibration block 100 to obtain the relationship between the height Z and the position on the image plane (y-intercept) as calibration data. As a result, the three-dimensional coordinate conversion unit 25 can obtain an arbitrary height Z. In other words, the height Z O of the measurement object is expressed by the following equation (10) when the y coordinate value is y O , the height of the calibration block 100 is Z C , and the y coordinate value is y C. Can be represented.

Figure 2011247759
Figure 2011247759

次に、三次元座標変換部25がX,Yを計算するためのキャリブレーションについて説明する。式(8)から式(11)が得られる。   Next, calibration for the three-dimensional coordinate conversion unit 25 to calculate X and Y will be described. Expression (11) is obtained from Expression (8).

Figure 2011247759
Figure 2011247759

次に、三次元座標変換部25が計測対象物体の移動を補正するためのキャリブレーションについて説明する。キャリブレーション用ブロック100が最初に設置された場所において世界座標を規定するが、載置台40の移動によって計測対象物体の移動方向は、世界座標のX,Y,Z軸の各方向に一致するとは限らない。よって、移動量と移動方向とを補正する必要がある。
移動ピッチをMとし、移動方向を示す単位ベクトルを(u,u,u)とすると、式(6)に示すキャリブレーション用ブロック100の平面は平行移動されるため、式(6)の平面の式は式(12)のように表される。
Next, calibration for correcting the movement of the measurement target object by the three-dimensional coordinate conversion unit 25 will be described. Although the world coordinates are defined at the place where the calibration block 100 is first installed, the movement direction of the measurement target object coincides with the X, Y, and Z axis directions of the world coordinates due to the movement of the mounting table 40. Not exclusively. Therefore, it is necessary to correct the movement amount and the movement direction.
Assuming that the movement pitch is M and the unit vector indicating the movement direction is (u X , u Y , u Z ), the plane of the calibration block 100 shown in Expression (6) is translated, so Expression (6) The plane equation is expressed as equation (12).

Figure 2011247759
Figure 2011247759

載置台40は、キャリブレーション用ブロック100の底部110(XY平面)に平行に移動すればよいので、u=0になり、三次元座標変換部25は、u,uを求めることができる。また、式(12)の平面の式は式(13)になる。 Since the mounting table 40 only needs to move parallel to the bottom 110 (XY plane) of the calibration block 100, u Z = 0, and the three-dimensional coordinate conversion unit 25 can obtain u X and u Y. it can. Further, the plane expression of Expression (12) is Expression (13).

Figure 2011247759
Figure 2011247759

式(8)および式(13)から式(14)の関係式が導かれる。   The relational expression of Expression (14) is derived from Expression (8) and Expression (13).

Figure 2011247759
Figure 2011247759

式(14)を、世界座標の三次元座標値(X,Y,Z)を求める式に変換して簡略化すると式(15)のように表すことができる。   When Expression (14) is converted into an expression for obtaining the three-dimensional coordinate values (X, Y, Z) of the world coordinates and simplified, it can be expressed as Expression (15).

Figure 2011247759
Figure 2011247759

式(15)において、kij(1≦i≦3,1≦j≦3)の要素で構成される3行3列の行列である行列k(ボールド体)と、s1,s2,s3を要素とする3行1列の行列s(ボールド体)との組み合わせが変換行列セットである。x,y,M、X,Y,Zは観測量であるので、変換行列計算部24は、変換行列セットを、複数のサンプリングにより統計的に精度よく求めるのが望ましい。例えば、変換行列計算部24は、複数のサンプリングによって複数の変換行列セットを求め、それらの各要素の平均値を計算することにより変換行列セットの最適値を求める。そして、変換行列計算部24は、求めた変換行列セットを記憶部26に記憶する。 In Equation (15), a matrix k (bold body) that is a matrix of 3 rows and 3 columns composed of elements of k ij (1 ≦ i ≦ 3, 1 ≦ j ≦ 3) and elements s1, s2, and s3 A combination with a 3 × 1 matrix s (bold) is a transformation matrix set. Since x, y, M, X, Y, and Z are observables, it is desirable that the transformation matrix calculation unit 24 obtains the transformation matrix set statistically accurately with a plurality of samplings. For example, the transformation matrix calculation unit 24 obtains a plurality of transformation matrix sets by a plurality of samplings, and obtains an optimum value of the transformation matrix set by calculating an average value of each element. Then, the transformation matrix calculation unit 24 stores the obtained transformation matrix set in the storage unit 26.

三次元座標変換部25は、記憶部26に記憶された変換行列セットを読み込んで、任意の観測量x,y,Mからキャリブレーション用ブロック100の世界座標系の三次元座標値(X Y Z)を求めて二次元座標値と三次元座標値との複数の組み合わせを生成する。
次に、三次元座標変換部25は、これら生成した組み合わせを式(9)、式(11)、および式(13)に適用して、画像平面と実空間とのキャリブレーションを行うための校正用データを生成する。
The three-dimensional coordinate conversion unit 25 reads the transformation matrix set stored in the storage unit 26, and calculates the three-dimensional coordinate values (XYZ) of the world coordinate system of the calibration block 100 from arbitrary observation amounts x, y, M. ) To generate a plurality of combinations of two-dimensional coordinate values and three-dimensional coordinate values.
Next, the three-dimensional coordinate conversion unit 25 applies these generated combinations to Equation (9), Equation (11), and Equation (13) to perform calibration for performing calibration between the image plane and the real space. Data is generated.

次に、三次元形状計測装置1が計測対象物体を用いて実際の三次元形状計測を行う通常計測モードの動作について説明する。図7は、三次元形状計測装置1が実行する三次元形状計測の処理手順を示すフローチャートである。計測対象物体が載置台40に載置されたのち、三次元形状計測装置1が計測制御部21に対して通常計測モードの動作開始指示を与えると、図7に示すフローチャートの処理が開始される。   Next, the operation in the normal measurement mode in which the three-dimensional shape measurement apparatus 1 performs actual three-dimensional shape measurement using the measurement target object will be described. FIG. 7 is a flowchart showing a processing procedure of three-dimensional shape measurement executed by the three-dimensional shape measuring apparatus 1. After the measurement target object is placed on the placement table 40, when the three-dimensional shape measurement apparatus 1 gives an operation start instruction for the normal measurement mode to the measurement control unit 21, the process of the flowchart shown in FIG. .

ステップS701からステップS705までの処理は、前述したステップS501からステップS505までの処理と同一であるため、その説明を省略する。   Since the processing from step S701 to step S705 is the same as the processing from step S501 to step S505 described above, description thereof is omitted.

ステップS706において、反射位置計算部23は、光切断線検出部22で検出された光切断線から特徴点を検出する。次に、ステップS707において、三次元座標変換部25は、前述した式(10)の計算を実行して計測対象物体のZを計算する。次に、ステップS708において、三次元座標変換部25は、前述した式(11)の計算を実行して計測対象物体のX,Yを計算する。次に、ステップS709において、三次元座標変換部25は、記憶部26に記憶された校正用データを読み込んで、計測対象物体の移動ピッチMに応じた三次元座標値(X Y Z)の補正を行う。   In step S <b> 706, the reflection position calculation unit 23 detects a feature point from the light section line detected by the light section line detection unit 22. Next, in step S <b> 707, the three-dimensional coordinate conversion unit 25 calculates Z of the measurement target object by executing the calculation of Expression (10) described above. Next, in step S708, the three-dimensional coordinate conversion unit 25 calculates X and Y of the measurement target object by executing the calculation of the above-described equation (11). Next, in step S709, the three-dimensional coordinate conversion unit 25 reads the calibration data stored in the storage unit 26, and corrects the three-dimensional coordinate value (XYZ) according to the movement pitch M of the measurement target object. I do.

次に、ステップS710において、計測制御部21は、計測対象物体が輝線LLによって走査終了したか否かを判定し、走査終了したと判定した場合(S710:YES)はこのフローチャートの処理を終了し、走査終了していないと判定した場合(S710:NO)はステップS704の処理に戻る。   Next, in step S710, the measurement control unit 21 determines whether or not the measurement target object has been scanned with the bright line LL. If it is determined that the scanning has been completed (S710: YES), the process of this flowchart is terminated. If it is determined that scanning has not ended (S710: NO), the process returns to step S704.

以上説明したとおり、本発明の一実施形態である三次元形状計測装置1は、キャリブレーション用ブロックを撮像することにより得られる特徴点の特徴点座標値と移動部の移動ピッチとから世界座標系における特徴点の三次元座標値に変換する変換行列を求め校正用データを生成するため、従来のようにキャリブレーション用ブロック全体を確実に計測する必要がなく、高さ方向のキャリブレーションを効率的に且つ高精度に行うことができる。   As described above, the three-dimensional shape measurement apparatus 1 according to an embodiment of the present invention uses the world coordinate system based on the feature point coordinate values of the feature points obtained by imaging the calibration block and the movement pitch of the moving unit. Since the transformation matrix to convert to the 3D coordinate value of the feature point is generated and the calibration data is generated, there is no need to measure the entire calibration block reliably as in the past, and the calibration in the height direction is efficient. And with high accuracy.

なお、本実施形態では、固定した光学測定部10に対して載置台40を移動させる例について説明したが、これ以外にも、固定した載置台40に対して光学測定部10を搬送方向Aと逆の方向に移動させるようにしてもよい。例えば、質量の大きな計測対象物体を測定する場合、載置台40を移動させるよりもスリット光源部11を移動させる方が駆動部を小型化且つ低コストに実現することができる。
また、載置台40と光学測定部10との両方を移動させるようにしてもよい。
In the present embodiment, the example in which the mounting table 40 is moved with respect to the fixed optical measurement unit 10 has been described. However, in addition to this, the optical measurement unit 10 is moved in the transport direction A with respect to the fixed mounting table 40. You may make it move to a reverse direction. For example, when measuring a measurement target object having a large mass, the drive unit can be reduced in size and cost by moving the slit light source unit 11 rather than moving the mounting table 40.
Further, both the mounting table 40 and the optical measurement unit 10 may be moved.

また、スリット光源部11が射出するスリット光SLは、レーザー光以外にも、例えばハロゲン光とすることができる。ハロゲン光によるスリット光を射出するスリット光源部11は、光量の大きなスリット光を射出することができる。   Further, the slit light SL emitted from the slit light source unit 11 can be, for example, halogen light in addition to the laser light. The slit light source unit 11 that emits the slit light by the halogen light can emit the slit light having a large light amount.

また、三次元形状計測装置1の一部または全部の機能を、例えば、アーム部およびハンド部の伸縮、屈伸、旋回等の動作が可能なロボットに組み込んでもよい。このロボットは、例えば、3軸以上の自由度を有し、アーム部およびハンド部が可動自在な産業用ロボットである。このロボットについて、より具体的な例を説明する。
図8は、三次元形状計測装置1の一部の機能が組み込まれたロボットがキャリブレーションを行っている様子を示した、ロボットおよびキャリブレーション用ブロックならびに載置台の斜視図である。同図に示すように、ロボット8は、地面に固定された支持台81と、旋回および屈伸動作が可能なアーム部82と、回転および首振り動作が可能なハンド部83とを含んで構成される。そして、ハンド部83には、スリット光源部11および撮像部12が固定支持されたフレーム84が取り付けられている。また、キャリブレーション用ブロック100は、地面に固定された載置台40に載置される。
ロボット8は、不図示のロボットコントローラーの制御によって、アーム部82とハンド部83とを複合的に動作させ、スリット光源部11および撮像部12を移動方向Bの方向に移動させる。なお、支持台81は、地面の他に壁や天井等の地面に対して固定された場所に設置してもよい。
In addition, some or all of the functions of the three-dimensional shape measuring apparatus 1 may be incorporated into a robot capable of performing operations such as expansion, contraction, extension, and turning of the arm unit and the hand unit. This robot is, for example, an industrial robot having a degree of freedom of three or more axes and having a movable arm portion and hand portion. A more specific example of this robot will be described.
FIG. 8 is a perspective view of the robot, the calibration block, and the mounting table showing how the robot incorporating a part of the functions of the three-dimensional shape measuring apparatus 1 performs calibration. As shown in the figure, the robot 8 includes a support base 81 fixed to the ground, an arm portion 82 capable of turning and bending, and a hand portion 83 capable of rotating and swinging. The A frame 84 on which the slit light source unit 11 and the imaging unit 12 are fixedly supported is attached to the hand unit 83. The calibration block 100 is mounted on a mounting table 40 fixed to the ground.
The robot 8 operates the arm unit 82 and the hand unit 83 in a complex manner under the control of a robot controller (not shown), and moves the slit light source unit 11 and the imaging unit 12 in the movement direction B. The support base 81 may be installed at a place fixed to the ground such as a wall or ceiling in addition to the ground.

また、本実施形態のようにスリット光源部11と撮像部12とを固定設置するとともに、ロボット8のハンド部83に、載置台40をその載置面が大地に対して水平になるように取り付けて移動方向Bと反対方向に移動させるようにしてもよい。   Further, the slit light source unit 11 and the imaging unit 12 are fixedly installed as in the present embodiment, and the mounting table 40 is attached to the hand unit 83 of the robot 8 so that the mounting surface is horizontal with respect to the ground. Then, it may be moved in the direction opposite to the moving direction B.

また、ロボット8のハンド部83に、撮像部12を取り付けて空間中を自在に移動させるようにしてもよい。このように撮像部12を自在に移動可能にすることにより、計測対象物体の死角をなくして三次元形状計測を行うことができる。   Further, the imaging unit 12 may be attached to the hand unit 83 of the robot 8 so as to freely move in the space. By making the imaging unit 12 freely movable in this manner, it is possible to perform three-dimensional shape measurement without the blind spot of the measurement target object.

また、本実施形態である三次元形状計測装置の一部、例えば制御部の機能をコンピューターで実現するようにしてもよい。この場合、その機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   Moreover, you may make it implement | achieve a part of the three-dimensional shape measuring apparatus which is this embodiment, for example, the function of a control part with a computer. In this case, a program for realizing the function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS (Operating System) and peripheral hardware. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It is also possible to include one that holds a program for a certain period of time, such as a volatile memory inside a computer system that becomes a server or client in that case. In addition, the above program may be for realizing a part of the above-described functions, and further, may be realized by combining the above-described functions with a program already recorded in the computer system. .

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1 三次元形状計測装置
8 ロボット
10 光学測定部
11 スリット光源部
12 撮像部
20 制御部
21 計測制御部
22 光切断線検出部
23 反射位置計算部(特徴点情報生成部)
24 変換行列計算部
25 三次元座標変換部
26 記憶部
30 載置台駆動部
40 載置台
81 支持台
82 アーム部
83 ハンド部
84 フレーム
100 キャリブレーション用ブロック
A 搬送方向
B 移動方向
SL スリット光
LL 輝線
RL 反射光
DESCRIPTION OF SYMBOLS 1 3D shape measuring apparatus 8 Robot 10 Optical measurement part 11 Slit light source part 12 Imaging part 20 Control part 21 Measurement control part 22 Optical cutting line detection part 23 Reflection position calculation part (feature point information generation part)
24 conversion matrix calculation unit 25 three-dimensional coordinate conversion unit 26 storage unit 30 mounting table driving unit 40 mounting table 81 support table 82 arm unit 83 hand unit 84 frame 100 calibration block A transport direction B moving direction SL slit light LL bright line RL reflected light

Claims (6)

スリット光を射出する光源部と、
キャリブレーション用ブロックが載置される載置台と、
前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部と、
前記載置台と前記光源部および前記撮像部の組合せとの少なくとも一方を移動させる移動部と、
前記撮像部が撮像した撮像画像から前記光切断線を検出する光切断線検出部と、
前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成する特徴点情報生成部と、
前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算する変換行列計算部と、
前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成する三次元座標変換部と、
を備えることを特徴とする三次元形状計測装置。
A light source unit that emits slit light;
A mounting table on which a calibration block is mounted;
An imaging unit that captures an optical cutting line of the slit light applied to the calibration block;
A moving unit that moves at least one of the mounting table and the combination of the light source unit and the imaging unit;
An optical cutting line detection unit for detecting the optical cutting line from a captured image captured by the imaging unit;
Feature point information is calculated by detecting a feature point from the light section line, calculating a feature point coordinate value, and associating the feature point coordinate value, the movement pitch of the moving unit, and predetermined attribute data of the calibration block. A feature point information generation unit to generate,
A transformation matrix calculator for calculating a transformation matrix for transforming the feature point coordinate value and the moving pitch into a three-dimensional coordinate value of the feature point in the world coordinate system;
Based on the feature point information and the transformation matrix, calibration data is obtained by obtaining a combination of a two-dimensional coordinate value of the image plane of the captured image and a three-dimensional coordinate value of the world coordinate system corresponding to the two-dimensional coordinate value. A three-dimensional coordinate conversion unit to be generated;
A three-dimensional shape measuring apparatus comprising:
前記光切断線検出部は、前記撮像画像から輝度の重心位置を求めることによって前記光切断線を検出することを特徴とする請求項1記載の三次元形状計測装置。   The three-dimensional shape measurement apparatus according to claim 1, wherein the light section line detection unit detects the light section line by obtaining a barycentric position of luminance from the captured image. 前記キャリブレーション用ブロックは、前記載置台に載置される底部からの高さ寸法が異なる複数の平面部を有し、前記複数の平面部それぞれに、前記スリット光の照射により生じる光切断線と非平行である直線の輪郭を有し、その輪郭を境にして光反射率が異なるパターンが形成される
ことを特徴とする請求項1または2記載の三次元形状計測装置。
The calibration block has a plurality of plane portions having different height dimensions from the bottom portion placed on the mounting table, and a light cutting line generated by irradiation of the slit light on each of the plurality of plane portions. 3. The three-dimensional shape measuring apparatus according to claim 1, wherein the three-dimensional shape measuring apparatus has a non-parallel straight outline, and a pattern having different light reflectivity is formed at the outline.
前記特徴点情報生成部は、複数の前記特徴点座標値に基づいて前記パターンの頂点座標値を計算し、この頂点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた頂点情報を生成して前記特徴点情報に追加する
ことを特徴とする請求項3記載の三次元形状計測装置。
The feature point information generation unit calculates a vertex coordinate value of the pattern based on a plurality of the feature point coordinate values, the vertex coordinate value, the movement pitch of the moving unit, and predetermined attribute data of the calibration block The three-dimensional shape measuring apparatus according to claim 3, wherein vertex information that associates with each other is generated and added to the feature point information.
三次元形状計測装置のキャリブレーション方法において、
キャリブレーション用ブロックが載置された載置台とスリット光を射出する光源部および前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部の組合せとの少なくとも一方を移動させるステップと、
前記撮像部が撮像した撮像画像から前記光切断線を検出するステップと、
前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記移動部の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成するステップと、
前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算するステップと、
前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成するステップと、
を有することを特徴とする三次元形状計測装置のキャリブレーション方法。
In the calibration method of the three-dimensional shape measuring apparatus,
Move at least one of a combination of a mounting table on which a calibration block is mounted, a light source unit that emits slit light, and an imaging unit that captures an optical cutting line of the slit light that is irradiated onto the calibration block. Steps,
Detecting the optical cutting line from a captured image captured by the imaging unit;
Feature point information is calculated by detecting a feature point from the light section line, calculating a feature point coordinate value, and associating the feature point coordinate value, the movement pitch of the moving unit, and predetermined attribute data of the calibration block. Generating step;
Calculating a transformation matrix for converting the feature point coordinate value and the movement pitch into a three-dimensional coordinate value of the feature point in the world coordinate system;
Based on the feature point information and the transformation matrix, calibration data is obtained by obtaining a combination of a two-dimensional coordinate value of the image plane of the captured image and a three-dimensional coordinate value of the world coordinate system corresponding to the two-dimensional coordinate value. Generating step;
A method for calibrating a three-dimensional shape measuring apparatus, comprising:
スリット光を射出する光源部と、
キャリブレーション用ブロックが載置される載置台と、
前記キャリブレーション用ブロックに照射される前記スリット光の光切断線を撮像する撮像部と、
前記載置台と前記光源部および前記撮像部の組合せとのいずれか一方が取り付けられたハンド部と、
前記ハンド部が可動自在に取り付けられたアーム部と、
前記撮像部が撮像した撮像画像から前記光切断線を検出する光切断線検出部と、
前記光切断線から特徴点を検出して特徴点座標値を計算し、この特徴点座標値と前記ハンド部の一方向の移動ピッチと前記キャリブレーション用ブロックの所定の属性データとを関連付けた特徴点情報を生成する特徴点情報生成部と、
前記特徴点座標値と前記移動ピッチとから世界座標系における前記特徴点の三次元座標値に変換する変換行列を計算する変換行列計算部と、
前記特徴点情報と前記変換行列とに基づいて、撮像画像の画像平面の二次元座標値とこの二次元座標値に対応する世界座標系の三次元座標値との組み合わせを求めて校正用データを生成する三次元座標変換部と、
を備えることを特徴とするロボット。
A light source unit that emits slit light;
A mounting table on which a calibration block is mounted;
An imaging unit that captures an optical cutting line of the slit light applied to the calibration block;
A hand unit to which any one of the mounting table and the combination of the light source unit and the imaging unit is attached;
An arm part to which the hand part is movably attached;
An optical cutting line detection unit for detecting the optical cutting line from a captured image captured by the imaging unit;
A feature point is calculated by detecting a feature point from the light section line, and calculating a feature point coordinate value, a movement pitch in one direction of the hand unit, and predetermined attribute data of the calibration block A feature point information generation unit for generating point information;
A transformation matrix calculator for calculating a transformation matrix for transforming the feature point coordinate value and the moving pitch into a three-dimensional coordinate value of the feature point in the world coordinate system;
Based on the feature point information and the transformation matrix, calibration data is obtained by obtaining a combination of a two-dimensional coordinate value of the image plane of the captured image and a three-dimensional coordinate value of the world coordinate system corresponding to the two-dimensional coordinate value. A three-dimensional coordinate conversion unit to be generated;
A robot characterized by comprising:
JP2010121574A 2010-05-27 2010-05-27 Three-dimensional shape measuring apparatus, calibration method, and robot Expired - Fee Related JP5494234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010121574A JP5494234B2 (en) 2010-05-27 2010-05-27 Three-dimensional shape measuring apparatus, calibration method, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010121574A JP5494234B2 (en) 2010-05-27 2010-05-27 Three-dimensional shape measuring apparatus, calibration method, and robot

Publications (2)

Publication Number Publication Date
JP2011247759A true JP2011247759A (en) 2011-12-08
JP5494234B2 JP5494234B2 (en) 2014-05-14

Family

ID=45413195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010121574A Expired - Fee Related JP5494234B2 (en) 2010-05-27 2010-05-27 Three-dimensional shape measuring apparatus, calibration method, and robot

Country Status (1)

Country Link
JP (1) JP5494234B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111562562A (en) * 2020-04-28 2020-08-21 重庆市天实精工科技有限公司 3D imaging module calibration method based on TOF
CN113452988A (en) * 2021-06-10 2021-09-28 江西晶浩光学有限公司 Target, three-dimensional camera module detection system based on target and detection method
JP2022075249A (en) * 2020-11-06 2022-05-18 株式会社デンソーウェーブ Measuring system
CN115139283A (en) * 2022-07-18 2022-10-04 中船重工鹏力(南京)智能装备系统有限公司 Robot hand-eye calibration method based on random mark dot matrix
CN116907368A (en) * 2023-08-26 2023-10-20 广州市西克传感器有限公司 Method for automatically measuring diameter of monocrystalline silicon rod based on height map of multiple 3D cameras

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04172213A (en) * 1990-11-05 1992-06-19 Yunisun:Kk Calibrating method for three-dimensional shape measuring apparatus
JPH08292019A (en) * 1995-04-20 1996-11-05 Mazda Motor Corp Calibration method for article detecting device
JP2001155157A (en) * 1999-11-29 2001-06-08 Anritsu Corp Device for inspecting printed circuit board
JP2002107128A (en) * 2000-10-02 2002-04-10 Sanyo Electric Co Ltd Shape-measuring apparatus
JP2007033039A (en) * 2005-07-22 2007-02-08 Moritex Corp Method and apparatus for calibrating optical head unit in three-dimensional shape measuring apparatus by light cutting method
JP2009014388A (en) * 2007-07-02 2009-01-22 Kobe Steel Ltd Shape detection method and shape detection apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04172213A (en) * 1990-11-05 1992-06-19 Yunisun:Kk Calibrating method for three-dimensional shape measuring apparatus
JPH08292019A (en) * 1995-04-20 1996-11-05 Mazda Motor Corp Calibration method for article detecting device
JP2001155157A (en) * 1999-11-29 2001-06-08 Anritsu Corp Device for inspecting printed circuit board
JP2002107128A (en) * 2000-10-02 2002-04-10 Sanyo Electric Co Ltd Shape-measuring apparatus
JP2007033039A (en) * 2005-07-22 2007-02-08 Moritex Corp Method and apparatus for calibrating optical head unit in three-dimensional shape measuring apparatus by light cutting method
JP2009014388A (en) * 2007-07-02 2009-01-22 Kobe Steel Ltd Shape detection method and shape detection apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111562562A (en) * 2020-04-28 2020-08-21 重庆市天实精工科技有限公司 3D imaging module calibration method based on TOF
CN111562562B (en) * 2020-04-28 2023-04-14 重庆市天实精工科技有限公司 3D imaging module calibration method based on TOF
JP2022075249A (en) * 2020-11-06 2022-05-18 株式会社デンソーウェーブ Measuring system
JP7522347B2 (en) 2020-11-06 2024-07-25 株式会社デンソーウェーブ Measurement System
CN113452988A (en) * 2021-06-10 2021-09-28 江西晶浩光学有限公司 Target, three-dimensional camera module detection system based on target and detection method
CN113452988B (en) * 2021-06-10 2023-03-10 江西晶浩光学有限公司 Target, three-dimensional camera module detection system based on target and detection method
CN115139283A (en) * 2022-07-18 2022-10-04 中船重工鹏力(南京)智能装备系统有限公司 Robot hand-eye calibration method based on random mark dot matrix
CN115139283B (en) * 2022-07-18 2023-10-24 中船重工鹏力(南京)智能装备系统有限公司 Robot hand-eye calibration method based on random marker lattice
CN116907368A (en) * 2023-08-26 2023-10-20 广州市西克传感器有限公司 Method for automatically measuring diameter of monocrystalline silicon rod based on height map of multiple 3D cameras

Also Published As

Publication number Publication date
JP5494234B2 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
JP5943547B2 (en) Apparatus and method for non-contact measurement
JP5140761B2 (en) Method for calibrating a measurement system, computer program, electronic control unit, and measurement system
JP4480488B2 (en) Measuring device, computer numerical control device, and program
JP2011504586A (en) Method for optically measuring the three-dimensional shape of an object
JP5515432B2 (en) 3D shape measuring device
JP4238891B2 (en) 3D shape measurement system, 3D shape measurement method
WO2016171263A1 (en) Shape measuring apparatus and shape measuring method
JP4885584B2 (en) Rangefinder calibration method and apparatus
JP5494234B2 (en) Three-dimensional shape measuring apparatus, calibration method, and robot
CN115761011B (en) Full-automatic calibration method and device for line laser 3D camera system
JPWO2017146202A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
CN113155053B (en) Three-dimensional geometry measuring device and three-dimensional geometry measuring method
JP2009036589A (en) Calibration target, calibration support apparatus, calibration support method, and calibration support program
WO2018168757A1 (en) Image processing device, system, image processing method, article manufacturing method, and program
JP2014145735A (en) Shape measurement device, structure production system, evaluation device, shape measurement method, structure production method, and shape measurement program
JP5494267B2 (en) Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus
JP2007508557A (en) Device for scanning three-dimensional objects
WO2020012707A1 (en) Three-dimensional measurement device and method
JP6921036B2 (en) A laser calibrator, a method for calibrating the laser, and an image input device including the laser calibrator.
JP2004280728A (en) Image compositing device, and marker setting device for camera parametric calibration
JP6880396B2 (en) Shape measuring device and shape measuring method
JP2011220752A (en) Three-dimensional shape measurement apparatus and calibration method for three-dimensional shape measurement apparatus
JP2020159774A (en) Calibration parameter calculation method
JP5786999B2 (en) Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device
JP5206499B2 (en) Measuring method, measuring device, measurement control program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5494234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees