JP2010117182A - Shape measuring apparatus and defect inspecting method - Google Patents
Shape measuring apparatus and defect inspecting method Download PDFInfo
- Publication number
- JP2010117182A JP2010117182A JP2008289088A JP2008289088A JP2010117182A JP 2010117182 A JP2010117182 A JP 2010117182A JP 2008289088 A JP2008289088 A JP 2008289088A JP 2008289088 A JP2008289088 A JP 2008289088A JP 2010117182 A JP2010117182 A JP 2010117182A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- dimensional
- image data
- mask
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】外光の影響を排除し処理時間の短縮も可能な形状計測装置を構成する。
【解決手段】レーザ投光器Aと、デジタルカメラBの光電変換面と、光学レンズとをシャインフリュークの条件に従って配置する。計測対象物Mにレーザ投光器Aからスリット状のレーザ光を照射し、計測対象物MをデジタルカメラBで撮影して画像データを取得する。この画像データをマスク処理手段23の1次元マスクでの処理で外光を排除し、この画像データから表面形状を抽出する。この後、複数の表面形状のデータから3次元形状データ生成手段27が3次元形状データを生成する。
【選択図】図5A shape measuring apparatus capable of eliminating the influence of external light and shortening the processing time is provided.
A laser projector A, a photoelectric conversion surface of a digital camera B, and an optical lens are arranged in accordance with the Shine-Fluk conditions. The measurement object M is irradiated with slit-shaped laser light from the laser projector A, and the measurement object M is photographed with the digital camera B to acquire image data. This image data is processed with a one-dimensional mask by the mask processing means 23 to remove external light, and the surface shape is extracted from the image data. Thereafter, the three-dimensional shape data generating means 27 generates three-dimensional shape data from a plurality of surface shape data.
[Selection] Figure 5
Description
本発明は、形状計測装置及び立体物の欠陥検査方法に関し、詳しくは、スリット状のレーザ光を計測対象物に照射し、この計測対象物を撮像手段で撮影し、撮影された画像データの処理を行うことにより、計測対象物の3次元形状データを生成する技術に関する。 The present invention relates to a shape measuring apparatus and a three-dimensional object defect inspection method, and more specifically, irradiates a measurement target with slit-shaped laser light, images the measurement target with an imaging unit, and processes the captured image data It is related with the technique which produces | generates the three-dimensional shape data of a measurement object by performing.
上記のように構成された形状計測装置と類似するものとして特許文献1には、ビームあるいはスリット光線を対象に照射し、その反射光の位置を光センサで三角測量によって計測することで、対象に関する3次元形状を得る信号処理方法が示されている。 As similar to the shape measuring apparatus configured as described above, Patent Document 1 relates to a target by irradiating a target with a beam or a slit beam and measuring the position of the reflected light by triangulation with an optical sensor. A signal processing method for obtaining a three-dimensional shape is shown.
具体的には、入力信号と、この入力信号を所定時間遅延させた遅延信号との差信号をとることにより、遅延時間に相当する幅の正の信号と、負の信号とを得る。この正の信号と負の信号とは、パルス状の光の反射光に対応して遅延時間だけずれた位置に存在しており、正の信号に対応するもののみが負の信号として存在する。従って、正の信号と負の信号との論理積をとることによりレーザ光源からの光線の反射光のみを分離して得ることになり、背景光等のノイズの影響を除去して対象を認識できるものである。 Specifically, a positive signal having a width corresponding to the delay time and a negative signal are obtained by taking a difference signal between the input signal and a delayed signal obtained by delaying the input signal for a predetermined time. The positive signal and the negative signal exist at positions shifted by a delay time corresponding to the reflected light of the pulsed light, and only the signal corresponding to the positive signal exists as a negative signal. Therefore, by obtaining a logical product of the positive signal and the negative signal, only the reflected light of the light beam from the laser light source is separated, and the object can be recognized by removing the influence of noise such as background light. Is.
また、形状計測装置に類似するものとして、特許文献2には、計測用照明で照射された光が計測対象物で反射し、TOFセンサに到達するまでの時間をタイマーで計測し、光の飛行時間と光の速度とから計測対象物までの距離を計測して映像として出力する距離計測装置が示されている。 In addition, as similar to the shape measuring apparatus, Patent Document 2 discloses that light emitted by measurement illumination is reflected by a measurement object and time until it reaches the TOF sensor is measured by a timer. A distance measuring device that measures the distance from a time and the speed of light to a measurement object and outputs it as an image is shown.
具体的には、計測用照明をパルス発光させ、計測対象物に光を照射していない時のTOFセンサの受光データを背景光情報として記憶し、信号処理回路は計測光情報から背景情報を減じた差を差分として算出し、背景光の影響を排除した距離計測を実現している。 Specifically, the measurement illumination is pulsed, the received light data of the TOF sensor when the measurement object is not irradiated with light is stored as background light information, and the signal processing circuit subtracts the background information from the measurement light information. The distance difference is calculated as a difference, and the influence of background light is eliminated.
計測対象物にレーザ光を照射して3次元形状データを生成する処理として、レーザ光が照射された計測対象物を撮像手段で撮影し、この撮像で撮影された画像データからレーザ光が照射された部位を抽出し、この抽出により得られた情報に基づいて三角測量の原理に基づき計測対象物の表面形状を抽出する処理を想定することができる。 As a process for generating three-dimensional shape data by irradiating a measurement target with laser light, the measurement target irradiated with the laser light is photographed by an imaging means, and laser light is irradiated from the image data photographed by this imaging. It is possible to envisage a process of extracting the surface shape of the measurement object based on the principle of triangulation based on the information obtained by this extraction.
パーツ類の形状を計測する形状計測装置は一般的に屋内に設置されることから、計測対象物の撮影により表面形状を取得する際には、屋内の照明や、窓から射し込む太陽光によって計測対象物の表面の輝度が高まることも多くある。このような理由から、レーザ光が照射された部位を輝度に基づいて抽出する際には外光の影響の除去を行う必要がある。このため、特許文献1に記載されるようにノイズを除去することや、特許文献2に記載されるように背景を撮影した画像データとの比較によりレーザ光以外の光(外光)が照射された部位の情報を除外する処理が行われていた。 Since shape measuring devices that measure the shape of parts are generally installed indoors, when acquiring the surface shape by shooting the measurement object, the object to be measured is either indoor lighting or sunlight shining through a window. Often, the brightness of the surface of an object increases. For this reason, it is necessary to remove the influence of external light when extracting a portion irradiated with laser light based on luminance. For this reason, light (external light) other than laser light is irradiated by removing noise as described in Patent Document 1 or by comparing with image data obtained by capturing a background as described in Patent Document 2. The process of excluding the information of the part that has been performed has been performed.
しかしながら、特許文献1に示されるものでは、背景光の除去を完全に行い難い面があり、特許文献2に示されるものでは光線が照射されないタイミングでの画像データと、光線が照射されたタイミングとの2種の画像データとを撮影する処理を行うため、撮影のための時間が長くなる不都合を招き、しかも、2種の画像データを保存するために比較的大きい記憶領域を必要とするものであった。 However, in the one shown in Patent Document 1, there is a face that it is difficult to completely remove the background light, and in the one shown in Patent Document 2, the image data at the timing when the light beam is not irradiated, the timing when the light beam is irradiated, Since the processing for photographing the two types of image data is performed, the time for photographing is disadvantageously increased, and a relatively large storage area is required to store the two types of image data. there were.
ここで、スリット状のレーザ光を計測対象物に照射し、計測対象物を撮影した画像データからレーザ光が照射された部位を抽出する処理を考えると、現実には撮影された画像データにおける計測対象物の表面に形成された照射領域の一部の輝度が低下する現象が確認されている。つまり、画像データにはレーザ光が計測対象物の外面形状に対応した形状のラインとなって現れるものであるが、このラインの一部に輝度が低下する領域が確認できるのである。 Here, in consideration of the process of irradiating the measurement target with slit-shaped laser light and extracting the portion irradiated with the laser light from the image data obtained by photographing the measurement target, in reality, measurement is performed on the captured image data. It has been confirmed that the luminance of a part of the irradiation area formed on the surface of the object is lowered. That is, in the image data, the laser beam appears as a line having a shape corresponding to the outer surface shape of the measurement object, and a region where the luminance decreases can be confirmed in a part of this line.
この現象は、計測対象物の表面を撮像手段で撮影する際に、撮像手段の光学レンズによって表面の広い領域に対応する合焦を行えない(ピントが合わない)ことに起因する。 This phenomenon is caused by the fact that when the surface of the measurement object is photographed by the imaging means, focusing corresponding to a wide area of the surface cannot be performed (the focus is not achieved) by the optical lens of the imaging means.
このように光学系に起因して画像データ中のレーザ光照射部位の輝度が低下した場合には、レーザ光が照射された部位の抽出を行い難くなり、改善の余地がある。 As described above, when the luminance of the laser light irradiation portion in the image data is reduced due to the optical system, it becomes difficult to extract the portion irradiated with the laser light, and there is room for improvement.
本発明の目的は、外光の影響を排除して形状の確実な抽出が可能な形状計測装置を合理的に構成する点にある。 An object of the present invention is to rationally configure a shape measuring apparatus capable of reliably extracting a shape by eliminating the influence of external light.
本発明の特徴は、スリット状のレーザ光の照射を行うレーザ投光器と、計測対象物を撮影する撮像手段と、この撮像手段で撮影された画像データからレーザ光が照射されたライン照射領域に基づいて前記計測対象物の表面形状を抽出する表面形状抽出手段とを備え、前記レーザ投光器から拡がりを持って送り出される前記レーザ光の光路面に存在する像が、前記撮像手段の光電変換面に結像するように前記光路面と、撮像手段の光電変換面と、前記撮像手段の光学レンズとをシャインフリュークの条件に従って配置している点にある。 A feature of the present invention is based on a laser projector that irradiates a slit-shaped laser beam, an imaging unit that images a measurement object, and a line irradiation area that is irradiated with laser light from image data captured by the imaging unit. Surface shape extracting means for extracting the surface shape of the measurement object, and an image existing on the optical path surface of the laser beam sent out from the laser projector with a spread is connected to the photoelectric conversion surface of the imaging means. The optical path surface, the photoelectric conversion surface of the image pickup means, and the optical lens of the image pickup means are arranged in accordance with the Shine-Fluk condition so as to image.
この構成によると、計測対象物においてレーザ光が照射された部位には計測対象の外面の形状に沿ってライン照射領域が形成される。このライン照射領域は光路面上に存在しており、撮像手段の光電変換面と光学レンズとがシャインフリュークの条件に従って配置されていることから、この光路面に存在する像は、光電変換面に結像する。これにより、撮像手段で撮像した画像データに形成されるライン照射領域の像の全てにピントが合い鮮明で輝度が高い状態にあるため、表面形状抽出手段はライン照射領域の輝度に基づいて計測対象物の外面形状に精度高く抽出できる。その結果、外光の影響を排除して形状の確実な抽出が可能な形状計測装置が構成された。 According to this configuration, a line irradiation region is formed along the shape of the outer surface of the measurement target at a portion of the measurement target that is irradiated with the laser light. Since this line irradiation area exists on the optical path surface, and the photoelectric conversion surface of the image pickup means and the optical lens are arranged according to the Shine-Fluk conditions, the image existing on this optical path surface is the photoelectric conversion surface. To form an image. As a result, since all the images of the line irradiation area formed in the image data captured by the imaging means are in focus and in a state of high brightness, the surface shape extraction means can measure the object based on the luminance of the line irradiation area. It is possible to accurately extract the outer shape of the object. As a result, a shape measuring apparatus capable of reliably extracting the shape by eliminating the influence of external light was constructed.
本発明は、前記表面形状抽出手段での処理を行う以前に、1次元マスクで前記画像データを処理することにより、処理後の画像データにおいて前記ライン照射領域が形成されている画素の輝度を高め、前記ライン照射領域以外の画素の輝度を弱めるマスク処理手段を備えても良い。この構成によると、マスク処理手段が1次元マスクで処理を行うことにより、画像データにおいてレーザ光が照射されたライン照射領域の輝度を高めると同時に、ライン照射領域以外の画素の輝度を弱めることで外光の影響を排除することを可能にする。 The present invention increases the luminance of the pixels in which the line irradiation area is formed in the processed image data by processing the image data with a one-dimensional mask before the processing by the surface shape extraction means. A mask processing means for reducing the luminance of pixels other than the line irradiation region may be provided. According to this configuration, the mask processing means performs processing with the one-dimensional mask, thereby increasing the luminance of the line irradiation region irradiated with the laser light in the image data and simultaneously decreasing the luminance of the pixels other than the line irradiation region. It is possible to eliminate the influence of external light.
本発明は、前記1次元マスクが、対象画素のマスク値が近傍の画素のマスク値より大きい構造のマスクデータが設定され、前記マスク処理手段は、前記画像データにおいてレーザ光が照射されたスリットの方向と直交する方向を処理対象画素列に設定し、この処理対象画素列の個々の画素を対象画素として、その対象画素の輝度値を1次元マスクのマスク値に基づいて変換し、変換後の輝度値が最も大きいものを前記ライン照射領域としても良い。この構成によると、輝度が高い画素の輝度を一層高めると同時にライン照射領域以外の画素の輝度を下げることで、ノイズを除去してライン照射領域を明瞭にすることが可能となる。 In the present invention, the one-dimensional mask is set with mask data having a structure in which a mask value of a target pixel is larger than a mask value of a neighboring pixel, and the mask processing means includes a slit of a slit irradiated with laser light in the image data. A direction orthogonal to the direction is set as a processing target pixel column, and each pixel of the processing target pixel column is set as a target pixel, and the luminance value of the target pixel is converted based on the mask value of the one-dimensional mask. The line with the highest luminance value may be used as the line irradiation region. According to this configuration, it is possible to further increase the luminance of pixels with high luminance and at the same time lower the luminance of pixels other than the line irradiation region, thereby removing noise and clarifying the line irradiation region.
本発明は、前記撮像手段と前記計測対象物との相対移動により異なる位置から計測対象物の撮影を行わせる撮影制御手段を備え、この撮影制御手段の制御により前記撮像手段が複数の画像データを撮影し、この撮像手段で取得した複数の画像データから前記表面形状抽出手段が前記表面形状を抽出すると共に、複数の表面形状から計測対象物の3次元形状データを生成する3次元データ生成手段を備えても良い。この構成によると、3次元データ生成手段が複数の表面形状に基づいて計測対象物の3次元形状データを生成できる。 The present invention includes a photographing control means for photographing a measurement object from different positions by relative movement of the imaging means and the measurement object, and the imaging means obtains a plurality of image data under the control of the photographing control means. The surface shape extraction means extracts the surface shape from a plurality of image data acquired by the imaging means, and generates a three-dimensional data generation means for generating the three-dimensional shape data of the measurement object from the plurality of surface shapes. You may prepare. According to this configuration, the three-dimensional data generation unit can generate three-dimensional shape data of the measurement object based on a plurality of surface shapes.
本発明は、前記レーザ投光器と前記光学レンズと前記撮像手段とで成る撮像ユニットがロボットアームの先端部に備えられ、前記撮影制御手段は前記撮像ユニットを前記計測対象物の外面に沿って移動させても良い。この構成によると、撮影ユニットを計測対象物の外面に沿って移動させながら連続する画像データを取得することが可能となる。 According to the present invention, an imaging unit including the laser projector, the optical lens, and the imaging unit is provided at a distal end portion of a robot arm, and the imaging control unit moves the imaging unit along an outer surface of the measurement object. May be. According to this configuration, it is possible to acquire continuous image data while moving the photographing unit along the outer surface of the measurement target.
本発明は、請求項3の3次元データ生成手段によって生成された3次元形状データを取得した後に、検査処理手段において予め設定されている基準形状データと比較を行い、次に、欠陥判定処理手段において前記比較により形状が異なる部位の寸法誤差が設定値を超えるものを欠陥箇所として特定しても良い。 According to the present invention, after acquiring the three-dimensional shape data generated by the three-dimensional data generating means of claim 3, the inspection processing means compares with the reference shape data set in advance, and then the defect determination processing means In the above comparison, a part having a dimensional error exceeding a set value may be specified as a defective part.
この構成によると、3次元データ生成手段によって取得した3次元形状データと基準形状データとの比較を行い、この後に、設定値を超える寸法誤差の部位を欠陥箇所として特定できる。 According to this configuration, the three-dimensional shape data acquired by the three-dimensional data generating means is compared with the reference shape data, and thereafter, a part having a dimensional error exceeding the set value can be specified as a defective part.
以下、本発明の実施形態を図面に基づいて説明する。
〔全体構成〕
図1〜図4に示すように、スリット状のレーザ光の照射を行うレーザ投光器Aと、計測対象物Mを撮影する撮像手段としてのデジタルカメラBとをケースに収容した撮像ユニットCamが構成されると共に、この撮像ユニットCamを先端に支持する多関節のロボットアームRと、ロボットアームRを制御するロボットアーム制御部2と、撮像ユニットCamで撮影された画像データの画像処理を行うことにより三角測量の原理に基づいて計測対象物Mの3次元形状データを生成する画像処理部3とを備えて形状計測装置が構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
〔overall structure〕
As shown in FIGS. 1 to 4, an imaging unit Cam is configured in which a laser projector A that irradiates a slit-shaped laser beam and a digital camera B as an imaging unit that images the measurement object M are housed in a case. In addition, an articulated robot arm R that supports the imaging unit Cam at the tip, a robot arm control unit 2 that controls the robot arm R, and image processing of the image data captured by the imaging unit Cam are used to perform triangle processing. The shape measuring device is configured to include an image processing unit 3 that generates three-dimensional shape data of the measurement object M based on the principle of surveying.
この形状計測装置は、3次元形状データをモニタ4に表示する機能を有すると共に、画像処理部3で生成した3次元形状データと、基準となる計測対象物Mの3次元形状データとの比較を行い、比較結果に基づいて形状の良否をモニタ4に表示する欠陥検査装置としても機能する。 This shape measuring apparatus has a function of displaying the three-dimensional shape data on the monitor 4 and compares the three-dimensional shape data generated by the image processing unit 3 with the three-dimensional shape data of the reference measurement object M. It also functions as a defect inspection device that displays the quality of the shape on the monitor 4 based on the comparison result.
形状計測装置は、計測台Sに計測対象物Mをセットした後に処理を実行することによりロボットアームRの作動によって撮像ユニットCamを計測対象物Mの周囲を移動させる。この移動経路中に設定された複数の撮影ポイントにおいて撮像ユニットCamから計測対象物Mにスリット状のレーザ光Lを照射して撮影が行われる。 The shape measurement apparatus moves the imaging unit Cam around the measurement object M by the operation of the robot arm R by executing the process after setting the measurement object M on the measurement table S. Imaging is performed by irradiating the measurement target M with the slit-shaped laser light L from the imaging unit Cam at a plurality of imaging points set in the movement path.
この撮影によって画像データが取得され、この画像データからレーザ光Lが照射された部位の表面形状を抽出して保存し、連続的な撮影により保存された複数の表面形状に基づいて計測対象物Mの3次元形状データが生成される。この後、基準となる計測対象物の3次元形状データとの比較により形状の良否が判別される。 Image data is acquired by this imaging, and the surface shape of the part irradiated with the laser light L is extracted from the image data and stored, and the measurement object M is based on a plurality of surface shapes stored by continuous imaging. The three-dimensional shape data is generated. Thereafter, the quality of the shape is determined by comparison with the reference three-dimensional shape data of the measurement object.
特に、欠陥検査装置は、プレス加工の製造ラインや、ダイキャストの製造ライン等において、ラインを流れる製品を取り出し、その製品の3次元形状データを計測し、この3次元形状データと、設計された基準となる3次元形状データとの比較を行うことにより、その製品の形状の良否を判別する検査に使用される。 In particular, the defect inspection apparatus is designed to take out a product flowing through a line in a press production line, a die-cast production line, etc., measure the three-dimensional shape data of the product, and design the three-dimensional shape data. It is used for inspection to determine the quality of the product by comparing with reference three-dimensional shape data.
撮像ユニットCamのレーザ投光器Aは、レーザ光源11と、このレーザ光源11からのレーザ光Lをスリット状で扇形に拡がる形状で送り出すシリンドリカルレンズ12を備えている。また、撮像ユニットCamのデジタルカメラBは、レーザ光Lの波長の光線の選択的に透過させる光学フィルタ14と、光学レンズ15と、光学レンズ15の合焦を行うフォーカシング機構16と、CCDやCMOS等で構成される光電変換部17とを備えている。 The laser projector A of the imaging unit Cam includes a laser light source 11 and a cylindrical lens 12 that sends out the laser light L from the laser light source 11 in a slit-like shape that expands into a fan shape. In addition, the digital camera B of the imaging unit Cam includes an optical filter 14 that selectively transmits light having a wavelength of the laser light L, an optical lens 15, a focusing mechanism 16 that focuses the optical lens 15, and a CCD or CMOS. Etc., and a photoelectric conversion unit 17 composed of the same.
デジタルカメラBとしてレーザ光Lの波長の光線の光電変換を効率的に行う感度特性を有したものあれば良く、必ずしもR(赤)、G(緑)、B(青)の3原色の画像データの出力を行うものは必要としない。また、レーザ光源11からのレーザ光Lをスリット状に送り出すために、ミラーの傾動やミラーの回転により扇状の領域にレーザ光Lを照射できる構成を備えても良い。 The digital camera B only needs to have sensitivity characteristics for efficiently performing photoelectric conversion of the light beam having the wavelength of the laser beam L, and image data of the three primary colors R (red), G (green), and B (blue) are not necessarily required. You don't need anything to do the output. Moreover, in order to send out the laser beam L from the laser light source 11 in a slit shape, a configuration in which the laser beam L can be irradiated onto the fan-shaped region by tilting the mirror or rotating the mirror may be provided.
この撮像ユニットCamでは、レーザ投光器Aから拡がりを持って送り出される前記レーザ光Lの光路面LSに存在する像が、デジタルカメラBの光電変換部17の光電変換面に結像するように光路面LSと、光電変換面と、光学レンズ15とがシャインフリュークの条件に従って配置されている。 In this imaging unit Cam, the optical path surface so that an image existing on the optical path surface LS of the laser light L sent out from the laser projector A with a spread is formed on the photoelectric conversion surface of the photoelectric conversion unit 17 of the digital camera B. The LS, the photoelectric conversion surface, and the optical lens 15 are arranged according to the Shine-Fluk conditions.
具体的には、前記レーザ投光器Aからレーザ光Lを送り出す投光軸Yを反投光方向に延長した第1仮想直線P1と、光学レンズ15の光軸Xと直交する姿勢の第2仮想直線P2と、光電変換部17の光電変換面を延長した第3仮想直線P3とが1つの交点Qで交わるようにシャインフリュークの条件に従って夫々が配置されている。尚、第1仮想直線P1と第2仮想直線P2と第3仮想直線P3とは、レーザ光Lの拡がり方向と直交する姿勢の仮想平面上に存在する。 Specifically, a first imaginary line P1 obtained by extending the projection axis Y that sends out the laser beam L from the laser projector A in the counter-projection direction, and a second imaginary line that is orthogonal to the optical axis X of the optical lens 15. Each is arranged according to the Shine-Fluk condition so that P2 and the third virtual straight line P3 obtained by extending the photoelectric conversion surface of the photoelectric conversion unit 17 intersect at one intersection point Q. The first virtual straight line P1, the second virtual straight line P2, and the third virtual straight line P3 exist on a virtual plane in a posture orthogonal to the spreading direction of the laser light L.
シャインフリュークの条件に従ってレーザ投光器Aと、光学レンズ15と、光電変換部17とが配置されることにより、レーザ光Lの光路面LSに存在する像は必ず光電変換部17の光電変換面にピントがあった状態で結像する。このような理由から、例えば、図4に示すように凹部が存在する形状の計測対象物Mに斜め情報から撮像ユニットCamからレーザ光Lを照射した場合には、計測対象物Mの上面から凹部の底部までレーザ光Lが照射される。 By arranging the laser projector A, the optical lens 15 and the photoelectric conversion unit 17 in accordance with the Shine-Fluk conditions, an image existing on the optical path surface LS of the laser light L is always on the photoelectric conversion surface of the photoelectric conversion unit 17. The image is formed in focus. For this reason, for example, as shown in FIG. 4, when the laser beam L is irradiated from the imaging unit Cam from the oblique information to the measurement object M having a shape with a recess, the recess is formed from the upper surface of the measurement object M. The laser beam L is irradiated to the bottom of the.
このように照射されたレーザ光Lは計測対象物Mの上面から凹部の底面に亘ってライン状に照射されたライン照射領域Lmが形成される。前述したようにレーザ光Lの光路面LSに存在する像は必ず光電変換部17の光電変換面にピントがあった状態で結像することから、このライン照射領域Lmは、凹部が深く形成されていても、どのように複雑な形状であっても、光電変換面にピントがあった状態で結像することになる。 The laser light L irradiated in this way forms a line irradiation region Lm irradiated in a line from the upper surface of the measurement object M to the bottom surface of the recess. As described above, since the image existing on the optical path surface LS of the laser light L is always formed with the photoelectric conversion surface of the photoelectric conversion unit 17 in focus, this line irradiation region Lm has a deep recess. Even if the shape is complicated, the image is formed with the photoelectric conversion surface in focus.
また、計測対象物MをデジタルカメラBで撮影することによって取得した画像データGでは、図4に示すように画像データGにライン照射領域Lmが形成され、このライン照射領域Lmに対応する画素は輝度が高い値となる。 Further, in the image data G acquired by photographing the measurement object M with the digital camera B, a line irradiation region Lm is formed in the image data G as shown in FIG. 4, and the pixels corresponding to the line irradiation region Lm are The brightness is high.
ロボットアームRは、複数のアーム部Raを関節部において連結し、この関節部において夫々のアーム部Raが自由に揺動できる構造を有している。このロボットアームRに備えられた撮像ユニットCamを制御し、画像データを取得するためのケーブル5が、撮像ユニットCamと画像処理部3との間に備えられている。また、ロボットアーム制御部2に制御信号を出力し、撮像ユニットCamが撮影ポイントに到達したことを示す信号を伝えるケーブル6がロボットアーム制御部2と画像処理部3との間に備えられている。 The robot arm R has a structure in which a plurality of arm portions Ra are connected at joints, and each arm portion Ra can freely swing at the joints. A cable 5 for controlling the imaging unit Cam provided in the robot arm R and acquiring image data is provided between the imaging unit Cam and the image processing unit 3. A cable 6 is provided between the robot arm control unit 2 and the image processing unit 3 for outputting a control signal to the robot arm control unit 2 and transmitting a signal indicating that the imaging unit Cam has reached the shooting point. .
〔画像処理部〕
画像処理部3は汎用コンピュータで構成され、この汎用コンピュータには図5に示す処理系を備えている。この処理系はソフトウエアで構成されるものを想定しているが、ハードウエアで構成されるものであって良く、ソフトウエアとハードウエアとの組合わせによって構成されるものでも良い。
(Image processing unit)
The image processing unit 3 is composed of a general-purpose computer, and this general-purpose computer includes a processing system shown in FIG. The processing system is assumed to be configured by software, but may be configured by hardware, or may be configured by a combination of software and hardware.
つまり、画像処理部3は、基準形状データ取得手段20と、撮影制御手段21と、画像データ取得手段22と、マスク処理手段23と、表面形状抽出手段24と、歪補正処理手段25と、表面形状保存手段26と、3次元形状データ生成手段27と、検査処理手段28と、欠陥判定処理手段29とを備えている。 That is, the image processing unit 3 includes the reference shape data acquisition unit 20, the imaging control unit 21, the image data acquisition unit 22, the mask processing unit 23, the surface shape extraction unit 24, the distortion correction processing unit 25, the surface A shape storage unit 26, a three-dimensional shape data generation unit 27, an inspection processing unit 28, and a defect determination processing unit 29 are provided.
基準形状データ取得手段20は、計測対象物Mの理想的な3次元形状データとなる基準形状データを取得する処理を行い、この取得はメディアを介して取得することや、通信回線を介して取得する処理を想定している。 The reference shape data acquisition means 20 performs processing for acquiring reference shape data which is ideal three-dimensional shape data of the measurement object M, and this acquisition is acquired via a medium or via a communication line. Is assumed to be processed.
撮影制御手段21は、基準形状データ取得手段20で取得した基準形状データに基づいて複数の撮影ポイントに設定すると共に、撮影ポイントを示す座標データをロボットアーム制御部2に出力する。また、この撮影制御手段21は、撮像ユニットCamを撮影ポイントに設定した状態で撮像ユニットCamのデジタルカメラBを制御して撮影を行う。 The imaging control unit 21 sets a plurality of imaging points based on the reference shape data acquired by the reference shape data acquisition unit 20 and outputs coordinate data indicating the imaging points to the robot arm control unit 2. In addition, the shooting control unit 21 performs shooting by controlling the digital camera B of the imaging unit Cam in a state where the imaging unit Cam is set as a shooting point.
画像データ取得手段22は、撮像ユニットCamが撮影ポイントに到達し撮影が行われた際に、デジタルカメラBの光電変換部17からの画像データを取得する。 The image data acquisition unit 22 acquires image data from the photoelectric conversion unit 17 of the digital camera B when the imaging unit Cam reaches the shooting point and shooting is performed.
マスク処理手段23は、画像データのマスク処理により画像データにおけるレーザ光Lが照射された領域(ライン照射領域Lm)を特定する処理を行う。この処理では、図6に示す1次元マスク23mを用い、図7(a)に示すように、レーザ光Lが照射されたスリットの方向と直交する方向を処理対象画素列RDに設定し、この処理対象画素列RDの個々画素を対象画素Pxとして、その対象画素Pxの輝度値を1次元マスク23mのマスク値に基づいて変換し、変換後の輝度値が最も大きい画素の位置をライン照射領域Lmとする処理が行われる。 The mask processing unit 23 performs a process of specifying a region (line irradiation region Lm) irradiated with the laser light L in the image data by masking the image data. In this process, the one-dimensional mask 23m shown in FIG. 6 is used, and as shown in FIG. 7A, the direction orthogonal to the direction of the slit irradiated with the laser light L is set in the processing target pixel row RD. The individual pixel of the processing target pixel row RD is set as the target pixel Px, the luminance value of the target pixel Px is converted based on the mask value of the one-dimensional mask 23m, and the position of the pixel having the highest converted luminance value is the line irradiation region. Processing to set Lm is performed.
1次元マスク23mのマスク値は図6に数値で示す如く設定されており、対象画素Pxに対応するマスク値を基準にして、離間する位置の値ほど小さいデータ構造を有している。この1次元マスク23mにより、対象画素Pxの輝度値(濃度値)と、この対象画素Pxに連なる位置の画素の輝度値(濃度値)との積を求め、更に、これらの積の値の積算値を対象画素Pxの輝度値に置き換える積和処理を、連続する画素毎に行う。 The mask value of the one-dimensional mask 23m is set as indicated by a numerical value in FIG. 6, and has a data structure that is smaller as the value of the separated position is based on the mask value corresponding to the target pixel Px. Using this one-dimensional mask 23m, the product of the luminance value (density value) of the target pixel Px and the luminance value (density value) of the pixel located at the position connected to the target pixel Px is obtained, and the integration of these product values is further performed. A product-sum process for replacing the value with the luminance value of the target pixel Px is performed for each successive pixel.
図7(a)に示す1コマ(1フレーム)の画像データGを例に挙げると、処理対象画素列RDにおける各画素の輝度値を図7(b)のように示すことが可能である。この画像データにおいて、各画素の輝度値を1次元マスク23mで変換し、この1次元マスク23mによる処理を処理対象画素列RDに隣接する画素列(図7(a)では上側、あるいは、下側)において方向に順次を行う。これにより1コマの画像データの全画素を対象にした処理が行われる。 Taking the image data G of one frame (one frame) shown in FIG. 7A as an example, the luminance value of each pixel in the processing target pixel row RD can be shown as shown in FIG. 7B. In this image data, the luminance value of each pixel is converted by the one-dimensional mask 23m, and the processing by the one-dimensional mask 23m is performed on the pixel row adjacent to the processing target pixel row RD (in FIG. 7A, on the upper side or the lower side). ) In order. As a result, processing for all the pixels of one frame of image data is performed.
この処理の結果、図8(a)と図8(b)に示す如く、ライン照射領域Lmの輝度が高まり背景に照射していた外光の排除が実現する。 As a result of this processing, as shown in FIGS. 8A and 8B, the luminance of the line irradiation region Lm is increased, and external light that has been irradiated on the background can be eliminated.
表面形状抽出手段24は、マスク処理手段23での処理が終了した画像データにおいて輝度に基づきライン照射領域Lmを特定し、この特定された位置から三角測量の原理に基づいて表面形状を抽出する。この処理では、デジタルカメラBと計測対象物Mとの相対的な距離に対応してレーザ光Lが照射されたライン照射領域Lmが画像データ中において変位することから、この画像データ中におけるレーザ光Lの照射位置を特定すると共に、ロボットアーム制御部2から撮像ユニットCamの位置を取得することにより、表面形状を取得する。 The surface shape extraction means 24 identifies the line irradiation region Lm based on the luminance in the image data that has been processed by the mask processing means 23, and extracts the surface shape based on the triangulation principle from the identified position. In this process, the line irradiation region Lm irradiated with the laser light L is displaced in the image data in accordance with the relative distance between the digital camera B and the measurement object M, and therefore the laser light in the image data. While specifying the irradiation position of L, the surface shape is acquired by acquiring the position of the imaging unit Cam from the robot arm control unit 2.
歪補正処理手段25では、光電変換部17の光電変換面と光学レンズ15とがシャインフリュークの条件に従って配置されたことに起因する歪みを補正する処理が行われる。つまり、光学レンズ15の光軸Xが計測対象物Mの表面に対して直交していない条件で撮影されたことに起因する変形を適正にする補正が行われる。 In the distortion correction processing means 25, a process for correcting distortion caused by the photoelectric conversion surface of the photoelectric conversion unit 17 and the optical lens 15 being arranged according to the Shine-Fluk conditions is performed. In other words, correction is made to correct the deformation caused by photographing under the condition that the optical axis X of the optical lens 15 is not orthogonal to the surface of the measurement object M.
表面形状保存手段26は、半導体メモリ等のストレージにデータのアクセスを行うものであり、ストレージに表面形状を保存する際には、ロボットアーム制御部2から撮像ユニットCamの位置を取得することで、表面形状のデータと撮影位置データとが関連付けて保存される。 The surface shape storage unit 26 accesses data in a storage such as a semiconductor memory. When storing the surface shape in the storage, the surface shape storage unit 26 acquires the position of the imaging unit Cam from the robot arm control unit 2. The surface shape data and the photographing position data are stored in association with each other.
3次元形状データ生成手段27は、表面形状保存手段26に保存されて複数の表面形状のデータから計測対象物Mの形状に対応した3次元形状データを生成する。この生成の際には、表面形状のデータに関連付けて保存されている撮影位置データに基づいて表面形状のデータを3次元空間に連続的に配置する形態の処理が行われる。このように生成された3次元形状データはモニタ4に表示される。 The three-dimensional shape data generation unit 27 generates three-dimensional shape data corresponding to the shape of the measurement object M from the plurality of surface shape data stored in the surface shape storage unit 26. At the time of generation, processing in a form in which surface shape data is continuously arranged in a three-dimensional space is performed based on imaging position data stored in association with the surface shape data. The three-dimensional shape data generated in this way is displayed on the monitor 4.
検査処理手段28は、基準形状データ取得手段20において取得されている基準形状データと、3次元形状データ生成手段27で生成された3次元形状データとを比較することにより、外面の形状が異なる部位の有無の検査処理を行う。 The inspection processing unit 28 compares the reference shape data acquired by the reference shape data acquisition unit 20 with the three-dimensional shape data generated by the three-dimensional shape data generation unit 27, so that parts having different outer surface shapes are obtained. Inspect for presence / absence.
欠陥判定処理手段29は、検査処理手段28での検査処理により形状が異なる部位の寸法誤差が設定値を超えるものを欠陥箇所として特定し、その欠陥箇所の色相を異ならせることや、ブリンクさせる等の表示形態でモニタ4に表示する。 The defect determination processing means 29 identifies a part having a dimensional error that exceeds the set value as a defective part by the inspection process in the inspection processing part 28, makes the hue of the defective part different, blinks, etc. Is displayed on the monitor 4.
〔処理形態〕
画像処理部3での処理の概要を図9のフローチャートに示している。つまり、計測対象物Mを計測台Sに対してセットした状態で、この計測対象物Mの基準形状データを画像処理部3の基準形状データ取得手段20が取得してメモリ等のストレージに保存する(#01ステップ)。
[Process type]
An outline of processing in the image processing unit 3 is shown in a flowchart of FIG. That is, with the measurement object M set on the measurement table S, the reference shape data acquisition unit 20 of the image processing unit 3 acquires the reference shape data of the measurement object M and stores it in a storage such as a memory. (Step # 01).
次に、ロボットアームRを制御して撮像ユニットCamを撮影ポイントに移動し、撮影を行い1コマの画像データを取得し、マスク処理、表面形状のデータの取得、歪の補正、表面形状のデータの保存を行う(#02〜#06ステップ)。 Next, the robot arm R is controlled to move the image pickup unit Cam to the shooting point, and shooting is performed to acquire one frame of image data, mask processing, acquisition of surface shape data, distortion correction, surface shape data. Is stored (steps # 02 to # 06).
撮影ポイントは基準形状データに基づいて撮影制御手段21が設定するものであり、撮像ユニットCamを計測対象物Mの外面に沿って移動させるように撮影制御手段21がロボットアーム制御部2に対して制御データを与える。 The shooting point is set by the shooting control unit 21 based on the reference shape data, and the shooting control unit 21 moves the imaging unit Cam along the outer surface of the measurement object M with respect to the robot arm control unit 2. Give control data.
撮影ポイントに撮像ユニットCamが到達すると、撮影制御手段21がデジタルカメラBを制御して撮影を行い、画像データ取得手段22が1コマの画像データを取得する。 When the imaging unit Cam reaches the shooting point, the shooting control unit 21 controls the digital camera B to perform shooting, and the image data acquisition unit 22 acquires one frame of image data.
また、取得した1コマの画像データについてマスク処理手段23が処理対象画素列RDを設定し、1次元マスク23mに基づいて処理を行うことで、画像データの外光の排除が行われる。また、外光が排除された画像データから表面形状抽出手段24が表面形状を抽出し、歪補正処理手段25が歪の補正を行い、表面形状保存手段26がストレージに対して表面形状のデータと撮影位置データとが関連付けて保存される。 In addition, the mask processing unit 23 sets the processing target pixel row RD for the acquired image data of one frame, and performs processing based on the one-dimensional mask 23m, thereby eliminating external light of the image data. Further, the surface shape extraction unit 24 extracts the surface shape from the image data from which the external light is excluded, the distortion correction processing unit 25 corrects the distortion, and the surface shape storage unit 26 stores the surface shape data on the storage. The shooting position data is stored in association with each other.
この一連の処理は次の画像データが取得される(撮影される)以前に行われるものであり、この一連の処理の後に、全ての撮影ポイントでの撮影が完了していないことが判別された場合には撮像ユニットCamを次の撮影ポイントに移動し、前述した#02〜#06の処理を行い、完了していることが判別された場合には、次のステップに移行する(#07ステップ)。 This series of processing is performed before the next image data is acquired (captured), and after this series of processing, it is determined that shooting at all shooting points has not been completed. In this case, the imaging unit Cam is moved to the next shooting point, and the processes of # 02 to # 06 described above are performed. If it is determined that the process is completed, the process proceeds to the next step (# 07 step). ).
撮影が完了していることが判別された場合には、ロボットアームRをホームポジションまで移動させ、複数の表面形状のデータに基づいて3次元形状データ生成手段27が3次元形状データを生成し、生成された3次元画像データをモニタ4に表示する(#09ステップ)。 When it is determined that the photographing is completed, the robot arm R is moved to the home position, and the three-dimensional shape data generation unit 27 generates the three-dimensional shape data based on the data of the plurality of surface shapes, The generated three-dimensional image data is displayed on the monitor 4 (Step # 09).
この3次元形状データを生成する際には、3次元形状データに関連付けて保存されている撮影位置データに基づいて、複数の表面形状のデータを、メモリ上の3次元空間に連続的に配列する形態となる処理が行われる。 When generating the three-dimensional shape data, a plurality of surface shape data are continuously arranged in the three-dimensional space on the memory based on the photographing position data stored in association with the three-dimensional shape data. Form processing is performed.
このように3次元形状データが生成された後には、検査処理手段28において基準形状データと3次元形状データとが比較により検査され、欠陥判定処理手段において欠陥の有無の判定が行われる(#10、#11ステップ)。 After the three-dimensional shape data is generated in this manner, the inspection processing unit 28 inspects the reference shape data and the three-dimensional shape data by comparison, and the defect determination processing unit determines whether there is a defect (# 10). , # 11 step).
検査処理手段28では形状が異なる部位の存否の判別を行う。この検査処理手段28において形状が異なる部位が存在することが判別された場合には、形状の異なる部位における寸法の差異が設定値を超える場合には、その部位の識別性を高めるため形状が異なる部位の色相を異ならせることや、ブリンクさせる等の表示形態でモニタ4に表示する。 The inspection processing unit 28 determines whether or not there is a part having a different shape. When it is determined in the inspection processing means 28 that there is a part having a different shape, if the difference in dimensions in the part having a different shape exceeds a set value, the shape is different in order to improve the distinguishability of the part. The display is displayed on the monitor 4 in a display form such as making the hues of the parts different or blinking.
〔実施例効果〕
このように本発明によると、レーザ投光器Aと、デジタルカメラBの光電変換部17の光電変換面と、光学レンズ15とがシャインフリュークの条件に従って配置されているので、レーザ光Lの光路面LSに存在する像は必ず光電変換部17の光電変換面にピントがあった状態で結像する。従って、撮影された画像データでは、計測対象物Mに照射されたレーザ光Lによるライン照射領域Lmが鮮明で輝度も高いものとなる。更に、マスク処理手段23が1次元マスク23mでの処理を行うことにより、外光の影響を排除して画像データからレーザ光Lが照射された部位の輝度を更に高めることができる。
[Example effects]
As described above, according to the present invention, the laser projector A, the photoelectric conversion surface of the photoelectric conversion unit 17 of the digital camera B, and the optical lens 15 are arranged in accordance with the Shine-Flux conditions. The image existing in the LS is always formed in a state where the photoelectric conversion surface of the photoelectric conversion unit 17 is in focus. Accordingly, in the captured image data, the line irradiation region Lm by the laser light L irradiated to the measurement object M is clear and has high brightness. Furthermore, the mask processing means 23 performs processing with the one-dimensional mask 23m, so that the influence of external light can be eliminated and the brightness of the portion irradiated with the laser light L from the image data can be further increased.
これにより、画像データから画素の輝度に基づいてレーザ光Lが照射された部位を単純に抽出する処理を行うものと比較して、屋内の照明や窓から射す太陽光等の外光の影響を排除して、レーザ光Lが照射されたライン照射領域Lmを的確に抽出し、三角測量の原理によって表面形状のデータを求めることが可能となる。また、このように求めた表面形状のデータはシャインフリュークの条件に従う光学系によって撮影されたものであるため、歪を含むものである。このような理由から歪補正処理手段25での補正処理によって歪が補正された表面形状のデータとして取得できる。 As a result, the effect of outside light such as indoor lighting or sunlight shining from a window is compared with that for simply extracting a portion irradiated with laser light L from image data based on the luminance of the pixel. It is possible to accurately extract the line irradiation region Lm irradiated with the laser light L and obtain the surface shape data by the principle of triangulation. Further, the surface shape data obtained in this way is taken by an optical system that complies with the Shine-Fluk conditions, and therefore includes distortion. For this reason, it can be acquired as surface shape data whose distortion has been corrected by the correction processing in the distortion correction processing means 25.
更に、補正された表面形状のデータは、撮影位置データと関連付けてメモリ等のストレージに保存される。また、表面形状のデータを取得するまでの処理において遅延処理や、複数の画像データの差分をとる比較処理等、ウエイトの大きい処理が行われないので、撮影から表面形状のデータの保存までの処理を次のコマの撮影までに完了できるものにしており、画像データの連続的な撮影を実現しており、計測対象物Mの撮影を完了するまでの時間を短縮できるものにしている。 Further, the corrected surface shape data is stored in a storage such as a memory in association with the photographing position data. In addition, since processing with a large weight such as delay processing and comparison processing for obtaining the difference between a plurality of image data is not performed in the processing until acquiring surface shape data, processing from photographing to storage of surface shape data is not performed. Can be completed before the next frame is shot, continuous shooting of the image data is realized, and the time until the shooting of the measurement object M is completed can be shortened.
次に、3次元形状データ生成手段27において複数の表面形状のデータから計測対象物Mの3次元形状データを生成する場合には、複数の表面形状のデータ夫々に関連付けて保存されている撮影位置データに基づいて表面形状のデータを3次元空間に配置する処理形態となる。 Next, when the three-dimensional shape data generation unit 27 generates the three-dimensional shape data of the measurement object M from the plurality of surface shape data, the photographing position stored in association with each of the plurality of surface shape data. Based on the data, the surface shape data is arranged in a three-dimensional space.
検査処理手段28において計測対象物Mの基準データと3次元形状データ生成手段27で生成した3次元形状データとの比較を行い、比較の結果、形状が異なる部位の寸法誤差が設定値を超えるものについて欠陥判定処理手段29が欠陥部位の識別性を高めた状態でモニタ4に表示することから、欠陥箇所の把握を容易に行える。 The inspection processing unit 28 compares the reference data of the measurement object M with the three-dimensional shape data generated by the three-dimensional shape data generation unit 27, and as a result of the comparison, the dimension error of a part having a different shape exceeds the set value. Since the defect determination processing means 29 displays on the monitor 4 in a state where the identification of the defective part is enhanced, the defective part can be easily grasped.
15 光学レンズ
21 撮影制御手段
23 マスク処理手段
23m 1次元マスク
24 表面形状抽出手段
27 3次元データ生成手段
28 検査処理手段
29 欠陥判定処理手段
A レーザ投光器
B 撮像手段(デジタルカメラ)
Cam 撮像ユニット
L レーザ光
LF 光路面
Lm ライン照射領域
M 計測対象物
R ロボットアーム
RD 処理対象画素列
DESCRIPTION OF SYMBOLS 15 Optical lens 21 Imaging | photography control means 23 Mask processing means 23m One-dimensional mask 24 Surface shape extraction means 27 Three-dimensional data generation means 28 Inspection processing means 29 Defect determination processing means A Laser projector B Imaging means (digital camera)
Cam Imaging unit L Laser light LF Optical path surface Lm Line irradiation area M Measurement object R Robot arm RD Processing target pixel row
Claims (6)
前記レーザ投光器から拡がりを持って送り出される前記レーザ光の光路面に存在する像が、前記撮像手段の光電変換面に結像するように前記光路面と、撮像手段の光電変換面と、前記撮像手段の光学レンズとをシャインフリュークの条件に従って配置してある形状計測装置。 A laser projector that irradiates a slit-shaped laser beam, an imaging unit that images the measurement object, and a line irradiation area irradiated with laser light from the image data captured by the imaging unit. A surface shape extracting means for extracting the surface shape,
The optical path surface, the photoelectric conversion surface of the imaging means, and the imaging so that an image existing on the optical path surface of the laser light sent out from the laser projector with spread is formed on the photoelectric conversion surface of the imaging means A shape measuring device in which the optical lens of the means is arranged according to the conditions of Shine Fluke.
前記マスク処理手段は、前記画像データにおいてレーザ光が照射されたスリットの方向と直交する方向を処理対象画素列に設定し、この処理対象画素列の個々の画素を対象画素として、その対象画素の輝度値を1次元マスクのマスク値に基づいて変換し、変換後の輝度値が最も大きいものを前記ライン照射領域とする請求項2記載の形状計測装置。 The one-dimensional mask is set with mask data having a structure in which the mask value of the target pixel is larger than the mask values of neighboring pixels,
The mask processing means sets a direction orthogonal to the direction of the slit irradiated with laser light in the image data as a processing target pixel column, and sets each pixel of the processing target pixel column as a target pixel. The shape measuring apparatus according to claim 2, wherein a luminance value is converted based on a mask value of a one-dimensional mask, and the line irradiation region has a highest luminance value after conversion.
複数の表面形状から計測対象物の3次元形状データを生成する3次元データ生成手段を備えている請求項1〜3のいずれか一項に記載の形状計測装置。 The image pickup means and the measurement object are provided with shooting control means for shooting the measurement object from different positions by relative movement, and the image pickup means takes a plurality of image data under the control of the shooting control means. The surface shape extraction means extracts the surface shape from a plurality of image data acquired by the imaging means,
The shape measuring apparatus according to any one of claims 1 to 3, further comprising a three-dimensional data generation unit that generates three-dimensional shape data of a measurement object from a plurality of surface shapes.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008289088A JP2010117182A (en) | 2008-11-11 | 2008-11-11 | Shape measuring apparatus and defect inspecting method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008289088A JP2010117182A (en) | 2008-11-11 | 2008-11-11 | Shape measuring apparatus and defect inspecting method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010117182A true JP2010117182A (en) | 2010-05-27 |
Family
ID=42304955
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008289088A Pending JP2010117182A (en) | 2008-11-11 | 2008-11-11 | Shape measuring apparatus and defect inspecting method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010117182A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012007950A (en) * | 2010-06-23 | 2012-01-12 | Hitachi High-Technologies Corp | Method and device for measuring vehicle dimension |
| JP2013170841A (en) * | 2012-02-17 | 2013-09-02 | Keyence Corp | Optical displacement meter and measurement method of measuring object |
| FR3014564A1 (en) * | 2013-12-11 | 2015-06-12 | 2Mi Modeles Et Moules Pour L Ind | DEVICE FOR DIMENSIONAL CONTROL AND / OR POSITIONING OF A PIECE |
| CN109187555A (en) * | 2018-09-19 | 2019-01-11 | 苏州傲特欣智能科技有限公司 | External wall crack detection system and method based on machine vision |
-
2008
- 2008-11-11 JP JP2008289088A patent/JP2010117182A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012007950A (en) * | 2010-06-23 | 2012-01-12 | Hitachi High-Technologies Corp | Method and device for measuring vehicle dimension |
| JP2013170841A (en) * | 2012-02-17 | 2013-09-02 | Keyence Corp | Optical displacement meter and measurement method of measuring object |
| FR3014564A1 (en) * | 2013-12-11 | 2015-06-12 | 2Mi Modeles Et Moules Pour L Ind | DEVICE FOR DIMENSIONAL CONTROL AND / OR POSITIONING OF A PIECE |
| EP2884227A1 (en) | 2013-12-11 | 2015-06-17 | 2MI "Modeles et Moules Pour l'Industrie" | Device for controlling the dimensions and/or position of a part |
| CN109187555A (en) * | 2018-09-19 | 2019-01-11 | 苏州傲特欣智能科技有限公司 | External wall crack detection system and method based on machine vision |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102427381B1 (en) | Method for inspecting the mounting state of a component, a printed circuit board inspection apparatus, and a computer-readable recording medium | |
| CN110352346B (en) | Method and apparatus for inspecting assets | |
| JP6478725B2 (en) | Measuring device and robot | |
| JP2015044212A (en) | Laser processing apparatus | |
| KR101659302B1 (en) | Three-dimensional shape measurement apparatus | |
| JP2012028949A (en) | Image processing device and control method of the same | |
| JP2017015396A (en) | Inspection method, inspection apparatus, processing apparatus, program, and recording medium | |
| TWI448681B (en) | A method and an apparatus for simultaneous 2d and 3d optical inspection and acquisition of optical inspection data of an object | |
| JP2020537556A (en) | Flash optimization during continuous retina imaging | |
| JP6315419B2 (en) | Semiconductor inspection method, semiconductor inspection apparatus, and semiconductor manufacturing method | |
| JP2012225807A (en) | Distance image camera and distance image synthesis method | |
| JP2016217833A (en) | Image processing system and image processing method | |
| JP6140255B2 (en) | Image processing apparatus and image processing method | |
| JP2010117182A (en) | Shape measuring apparatus and defect inspecting method | |
| CN108476295A (en) | Out-of-focus image combines | |
| JP2011095131A (en) | Image processing method | |
| CN112815846A (en) | 2D and 3D composite high-precision vision device and measuring method | |
| JP5122729B2 (en) | 3D shape measurement method | |
| US10091404B2 (en) | Illumination apparatus, imaging system, and illumination method | |
| JP2018036203A (en) | Hole internal inspection device and hole internal inspection method | |
| JP7118776B2 (en) | IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM | |
| JP5604967B2 (en) | Defect detection method and defect detection apparatus | |
| JP2015080125A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP7013321B2 (en) | Image processing system for visual inspection and image processing method | |
| JP6939501B2 (en) | Image processing system, image processing program, and image processing method |