[go: up one dir, main page]

JP7524735B2 - Image measurement device and image measurement method - Google Patents

Image measurement device and image measurement method Download PDF

Info

Publication number
JP7524735B2
JP7524735B2 JP2020195057A JP2020195057A JP7524735B2 JP 7524735 B2 JP7524735 B2 JP 7524735B2 JP 2020195057 A JP2020195057 A JP 2020195057A JP 2020195057 A JP2020195057 A JP 2020195057A JP 7524735 B2 JP7524735 B2 JP 7524735B2
Authority
JP
Japan
Prior art keywords
image
light sources
imaging device
calculation unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020195057A
Other languages
Japanese (ja)
Other versions
JP2022083630A (en
Inventor
拓郎 曽根
孝吏 相馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020195057A priority Critical patent/JP7524735B2/en
Publication of JP2022083630A publication Critical patent/JP2022083630A/en
Application granted granted Critical
Publication of JP7524735B2 publication Critical patent/JP7524735B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像計測装置および画像計測方法に関する。 The present invention relates to an image measurement device and an image measurement method.

下記特許文献1には、対象物の表面欠陥を検査する目的で、3つ以上の環状の照明ブロックを用いて、順次点灯させて対象物をカメラで計測し、複数の画像からフォトメトリックステレオ法を用いて法線ベクトルを算出し、表面欠陥を検査する技術が開示されている。 The following Patent Document 1 discloses a technology for inspecting surface defects on an object, in which three or more annular lighting blocks are sequentially lit to measure the object with a camera, and normal vectors are calculated from the multiple images using a photometric stereo method to inspect the surface defects.

しかしながら、特許文献1の技術は、複数の照明角度条件で計測しているが、各照明の仰角がすべて同一、あるいは仰角が小さい光源から大きい光源までの範囲が狭く、人が様々な角度でみたときの品質を評価できる照明構成にはなっていない。また、仰角の変化が小さいため、対象物表面の法線ベクトルの算出精度も制限されてしまう。 However, while the technology in Patent Document 1 measures under multiple lighting angle conditions, the elevation angles of all the lighting are the same, or the range from light sources with small elevation angles to light sources with large elevation angles is narrow, so the lighting configuration does not allow for evaluation of quality when viewed by a person from various angles. In addition, because the change in elevation angle is small, the accuracy of calculating the normal vector of the object surface is also limited.

上記の問題を解決する方法として、ドーム状に複数のLED光源を配置し、法線ベクトルの推定精度を高める方法も考案されているが、非常に多くの光源が必要となること、また照明の制御が複雑化する。また、半円球状のドーム型になるため、計測装置の形状も制約を受ける。 As a method to solve the above problem, a method has been devised in which multiple LED light sources are arranged in a dome shape to improve the accuracy of estimating the normal vector, but this requires a very large number of light sources and complicates the control of the lighting. In addition, the shape of the measurement device is restricted because it is a semi-spherical dome shape.

一実施形態に係る画像計測装置は、対象物の表面に対向して配置された撮像装置と、対象物の表面に対して方位角および仰角の少なくともいずれか一方が連続的に変化するように配置された複数の光源と、複数の光源を順次切り替えて点灯させながら、一の光源が点灯する毎に、撮像装置に対象物の表面の画像を撮像させる制御部とを備える。 An image measurement device according to one embodiment includes an imaging device arranged facing the surface of an object, a plurality of light sources arranged so that at least one of the azimuth angle and the elevation angle with respect to the surface of the object changes continuously, and a control unit that sequentially switches between the plurality of light sources and causes the imaging device to capture an image of the surface of the object each time a light source is turned on.

一実施形態に係る画像計測装置によれば、比較的少ない数の光源を用いて、効率よく光照射角度が多様である複数の画像を取得できる。 According to one embodiment of the image measurement device, multiple images with a variety of light irradiation angles can be efficiently acquired using a relatively small number of light sources.

一実施形態に係る画像計測装置の概略構成を示す図FIG. 1 is a diagram showing a schematic configuration of an image measuring apparatus according to an embodiment; 一実施形態に係る画像計測装置における方位角および仰角の定義を示す図FIG. 1 is a diagram showing definitions of azimuth angles and elevation angles in an image measurement device according to an embodiment; 一実施形態に係る画像計測装置における複数の光源の配置位置の一例を示す図FIG. 1 is a diagram showing an example of the arrangement positions of a plurality of light sources in an image measurement device according to an embodiment; 一実施形態に係る制御装置による処理の手順を示すフローチャート1 is a flowchart showing a procedure of processing by a control device according to an embodiment. 一実施形態に係る制御装置による三次元形状の算出時における、注目画素と周辺画素との対応関係を示す図FIG. 1 is a diagram showing a correspondence relationship between a pixel of interest and peripheral pixels when a three-dimensional shape is calculated by a control device according to an embodiment; 一実施形態に係る制御装置によって算出された、対象物の表面の三次元形状の一例を示す図FIG. 1 is a diagram showing an example of a three-dimensional shape of a surface of an object calculated by a control device according to an embodiment; 一実施形態に係る制御装置によって算出された、光沢画像の一例を示す図FIG. 13 is a diagram showing an example of a gloss image calculated by a control device according to an embodiment; 光源から照射された光の距離の違いを示す図A diagram showing the difference in distance at which light is emitted from a light source 対象物の表面における中心の画素位置(0,0)と右端部の画素位置(500,0)との位置関係と距離の対応関係とを示す図FIG. 1 is a diagram showing the positional relationship and distance correspondence relationship between the pixel position (0,0) at the center of the surface of an object and the pixel position (500,0) at the right end

以下、図面を参照して、本発明の一実施形態について説明する。 One embodiment of the present invention will be described below with reference to the drawings.

(画像計測装置100の概略構成)
図1は、一実施形態に係る画像計測装置100の概略構成を示す図である。図1に示す画像計測装置100は、光照射方向が異なる複数の対象物10の表面10Aの画像を撮像し、当該複数の画像に基づいて、画素毎の法線ベクトルを算出することにより、対象物10の表面10Aの三次元形状を算出および表示可能な装置である。なお、本実施形態では、便宜上、対象物10の表面10Aと平行な方向を、X軸方向およびY軸方向とし、対象物10の表面10Aと直交する方向を、Z軸方向とする。
(Schematic configuration of image measurement device 100)
Fig. 1 is a diagram showing a schematic configuration of an image measuring device 100 according to an embodiment. The image measuring device 100 shown in Fig. 1 is a device that can capture images of the surface 10A of a plurality of objects 10 having different light irradiation directions, and calculate and display a three-dimensional shape of the surface 10A of the object 10 by calculating a normal vector for each pixel based on the plurality of images. Note that, for convenience, in this embodiment, the directions parallel to the surface 10A of the object 10 are defined as the X-axis direction and the Y-axis direction, and the direction perpendicular to the surface 10A of the object 10 is defined as the Z-axis direction.

図1に示すように、画像計測装置100は、撮像装置110、光源ユニット120、および制御装置130、および第1の偏光フィルタ140を備える。 As shown in FIG. 1, the image measurement device 100 includes an imaging device 110, a light source unit 120, a control device 130, and a first polarizing filter 140.

撮像装置110は、対象物10の表面10Aに対向して配置されている。撮像装置110は、対象物10の表面10Aのある下方(図中Z軸負方向)を撮像方向として、対象物10の表面10Aの画像を撮像する。撮像装置110は、撮像された画像に対するA-D変換処理および各種画像処理を施した後、当該画像を制御装置130へ出力する。なお、本実施形態では、撮像装置110の一例として、画素数1920×1200ピクセルの画像を撮像可能な、モノクロカメラ(12bit)を用いている。また、本実施形態では、撮像装置110の光軸と、光源ユニット120がなす螺旋の中心軸とを一致させている。また、本実施形態では、撮像装置110のレンズ面と、対象物10の表面10Aとの距離を、100mmとしている。また、本実施形態では、撮像装置110のレンズとして、画像解像度が0.05mm/pixelとなるレンズを用いている。なお、撮像装置110のレンズ面と、対象物10の表面10Aとの距離は、対象物10の表面10Aのサイズ、撮像装置110のレンズの焦点距離、画像解像度等に応じて、適切に調整され得る。 The imaging device 110 is disposed facing the surface 10A of the object 10. The imaging device 110 captures an image of the surface 10A of the object 10 with the imaging direction being below the surface 10A of the object 10 (negative Z-axis direction in the figure). The imaging device 110 performs A-D conversion processing and various image processing on the captured image, and then outputs the image to the control device 130. In this embodiment, a monochrome camera (12 bit) capable of capturing an image with a pixel count of 1920 x 1200 pixels is used as an example of the imaging device 110. In this embodiment, the optical axis of the imaging device 110 and the central axis of the spiral formed by the light source unit 120 are aligned. In this embodiment, the distance between the lens surface of the imaging device 110 and the surface 10A of the object 10 is 100 mm. In this embodiment, a lens with an image resolution of 0.05 mm/pixel is used as the lens of the imaging device 110. The distance between the lens surface of the imaging device 110 and the surface 10A of the object 10 can be appropriately adjusted depending on the size of the surface 10A of the object 10, the focal length of the lens of the imaging device 110, the image resolution, etc.

光源ユニット120は、対象物10の表面10Aに対向して螺旋状または渦巻状に配置された複数の光源121を有する。複数の光源121は、各々が、対象物10の表面10Aのある方向(図中Z軸負方向)を光照射方向として、対象物10の表面10Aに光を照射する。本時形態では、各光源121として、白色光を発光するLED(Light Emitting Diode)を用いている。複数の光源121は、変形可能な任意の線状部材122(例えば、透明なチューブ)によって直列的に連結されている。これにより、光源ユニット120は、線状部材122を螺旋状または渦巻状に湾曲させることにより、複数の光源121を、螺旋状または渦巻状に配置することができる。なお、光源121の数が多いほど、後述する制御装置130(演算部132)による法線ベクトルの算出精度が向上する。このため、本実施形態では、一例として、10個の光源121を用いている。特に、本実施例では、線状部材122によって連結された複数の光源121を螺旋状に配置することにより、効率よく光の照射方向(方位角および仰角)の異なる複数の光源121を配置することが可能となる。光源ユニット120は、制御装置130の制御により、各光源121を個別に点灯状態および非点灯状態に切り替えることができる。また、光源ユニット120は、光源121毎に設けられた、複数の第2の偏光フィルタ123を有する。各第2の偏光フィルタ123は、「第2の偏光手段」の一例であり、光源121の光照射方向に設けられている平板状の部材である。なお、複数の第2の偏光フィルタ123は、直列的に連結されたものであってもよく、螺旋状または渦巻状を有するものであってもよい。 The light source unit 120 has a plurality of light sources 121 arranged in a spiral or vortex shape facing the surface 10A of the object 10. Each of the plurality of light sources 121 irradiates light onto the surface 10A of the object 10 with the light irradiation direction being a certain direction of the surface 10A of the object 10 (the negative direction of the Z axis in the figure). In this embodiment, an LED (Light Emitting Diode) that emits white light is used as each light source 121. The plurality of light sources 121 are connected in series by any deformable linear member 122 (e.g., a transparent tube). As a result, the light source unit 120 can arrange the plurality of light sources 121 in a spiral or vortex shape by curving the linear member 122 in a spiral or vortex shape. Note that the greater the number of light sources 121, the higher the accuracy of calculation of the normal vector by the control device 130 (calculation unit 132) described later. For this reason, in this embodiment, as an example, ten light sources 121 are used. In particular, in this embodiment, by arranging the multiple light sources 121 connected by the linear member 122 in a spiral shape, it is possible to efficiently arrange the multiple light sources 121 with different light irradiation directions (azimuth angle and elevation angle). The light source unit 120 can switch each light source 121 individually between a light-on state and a light-off state under the control of the control device 130. In addition, the light source unit 120 has multiple second polarizing filters 123 provided for each light source 121. Each second polarizing filter 123 is an example of a "second polarizing means" and is a flat plate-shaped member provided in the light irradiation direction of the light source 121. Note that the multiple second polarizing filters 123 may be connected in series, or may have a spiral or vortex shape.

なお、図1に示す例では、10個の光源121は、半径が一定であり、且つ高さ位置が徐々に変化する螺旋状に配置されている。これに限らず、複数の光源121は、半径および高さ位置が徐々に変化する螺旋状に配置されてもよい。また、複数の光源121は、高さ位置が一定であり、且つ半径が徐々に変化する渦巻状に配置されてもよい。また、光源121の数は、10個に限らず、9個以下であってもよく、11個以上であってもよい。また、本実施形態では、光源ユニット120がなす螺旋の直径を、100mmとしている。但し、これに限らず、光源ユニット120がなす螺旋の直径は、対象物10の表面10Aのサイズに応じて、適切に調整され得る。 In the example shown in FIG. 1, the ten light sources 121 are arranged in a spiral shape with a constant radius and a gradually changing height position. Without being limited to this, the multiple light sources 121 may be arranged in a spiral shape with a gradually changing radius and height position. Furthermore, the multiple light sources 121 may be arranged in a spiral shape with a constant height position and a gradually changing radius. Furthermore, the number of light sources 121 is not limited to ten, and may be nine or less, or eleven or more. Furthermore, in this embodiment, the diameter of the spiral formed by the light source unit 120 is 100 mm. However, without being limited to this, the diameter of the spiral formed by the light source unit 120 may be appropriately adjusted according to the size of the surface 10A of the object 10.

制御装置130は、画像計測装置100を制御する。制御装置130は、制御部131、演算部132、および表示部133を備える。 The control device 130 controls the image measurement device 100. The control device 130 includes a control unit 131, a calculation unit 132, and a display unit 133.

制御部131は、撮像装置110および光源ユニット120を制御する。例えば、制御部131は、複数の光源121を順次切り替えて点灯させながら、一の光源121が点灯する毎に、撮像装置110に対象物10の表面10Aの画像を撮像させる。例えば、図10に示す例では、光源ユニット120は、10個の光源121を備える。この場合、制御部131は、10個の光源121を順次切り替えて点灯させながら、一の光源121が点灯する毎に、撮像装置110に対象物10の表面10Aの画像を撮像させる。これにより、撮像装置110は、光の照射方向が異なる10枚の表面10Aの画像を撮像することができる。 The control unit 131 controls the imaging device 110 and the light source unit 120. For example, the control unit 131 sequentially switches between the multiple light sources 121 and causes the imaging device 110 to capture an image of the surface 10A of the object 10 each time a light source 121 is turned on while sequentially switching between the multiple light sources 121. For example, in the example shown in FIG. 10, the light source unit 120 includes 10 light sources 121. In this case, the control unit 131 sequentially switches between the 10 light sources 121 and causes the imaging device 110 to capture an image of the surface 10A of the object 10 each time a light source 121 is turned on. This allows the imaging device 110 to capture images of 10 surfaces 10A with different light irradiation directions.

演算部132は、撮像装置110によって撮像された複数の画像(すなわち、光の照射方向が異なる複数の表面10Aの画像)に基づいて、フォトメトリックステレオ法を用いて、対象物10の表面10Aの法線ベクトルを算出することができる。そして、演算部132は、算出された法線ベクトルに基づいて、表面10Aの三次元形状を算出することができる。 The calculation unit 132 can calculate the normal vector of the surface 10A of the object 10 using a photometric stereo method based on multiple images captured by the imaging device 110 (i.e., multiple images of the surface 10A with different light irradiation directions). The calculation unit 132 can then calculate the three-dimensional shape of the surface 10A based on the calculated normal vector.

表示部133は、演算部132によって算出された、対象物10の表面10Aの三次元形状を表示する。例えば、表示部133としては、液晶ディスプレイ、有機ELディスプレイ等を用いることができる。 The display unit 133 displays the three-dimensional shape of the surface 10A of the object 10 calculated by the calculation unit 132. For example, a liquid crystal display, an organic EL display, etc. can be used as the display unit 133.

なお、制御装置130の各機能部は、例えば、制御装置130において、コンピュータがプログラムを実行することによって実現することが可能である。また、制御装置130の各機能部は、例えば、制御装置130において、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、制御装置130の各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each functional unit of the control device 130 can be realized, for example, by a computer executing a program in the control device 130. Each functional unit of the control device 130 can be realized, for example, by one or more processing circuits in the control device 130. Here, the term "processing circuit" in this specification includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, and devices such as an ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array), and conventional circuit modules designed to execute each function of the control device 130.

第1の偏光フィルタ140は、「第1の偏光手段」の一例であり、撮像装置110の撮像方向に設けられている平板状の部材である。本実施形態では、第1の偏光フィルタ140の偏光方向を、各光源121に設けられた第2の偏光フィルタ123の偏光方向と直交させている。これにより、第1の偏光フィルタ140は、偏光特性を有する表面反射成分を、反射することができる。すなわち、第1の偏光フィルタ140は、撮像装置110のレンズ内に入射する表面反射成分を抑制することができる。その結果、一実施形態に係る画像計測装置100は、撮像装置110によって撮像された対象物10の表面10Aの画像に基づく、法線ベクトルの算出精度の低下を抑制することができる。 The first polarizing filter 140 is an example of a "first polarizing means" and is a flat plate-shaped member provided in the imaging direction of the imaging device 110. In this embodiment, the polarization direction of the first polarizing filter 140 is perpendicular to the polarization direction of the second polarizing filter 123 provided in each light source 121. This allows the first polarizing filter 140 to reflect surface reflection components having polarization characteristics. In other words, the first polarizing filter 140 can suppress surface reflection components that enter the lens of the imaging device 110. As a result, the image measuring device 100 according to one embodiment can suppress a decrease in the calculation accuracy of the normal vector based on the image of the surface 10A of the object 10 captured by the imaging device 110.

(複数の光源121の配置位置の一例)
図2は、一実施形態に係る画像計測装置100における方位角および仰角の定義を示す図である。図2に示すように、本実施形態では、XY平面において、光源121の配置位置がなす角度を、方位角θと定義する。但し、X正軸を0度とする。また、図2に示すように、本実施形態では、XY平面に対して、光源121の配置位置がなす角度を、仰角Φと定義する。
(One example of arrangement positions of the multiple light sources 121)
2 is a diagram showing the definitions of the azimuth angle and the elevation angle in the image measurement device 100 according to one embodiment. As shown in Fig. 2, in this embodiment, the angle formed by the arrangement position of the light source 121 on the XY plane is defined as the azimuth angle θ. However, the positive X axis is set to 0 degrees. Also, as shown in Fig. 2, in this embodiment, the angle formed by the arrangement position of the light source 121 with respect to the XY plane is defined as the elevation angle Φ.

図3は、一実施形態に係る画像計測装置100における複数の光源121の配置位置の一例を示す図である。図1に示すように、本実施形態では、10個の光源121が、z軸を中心とし、半径が一定であり、且つ高さ位置が徐々に変化する螺旋状に配置されている。 Figure 3 is a diagram showing an example of the arrangement of multiple light sources 121 in an image measurement device 100 according to one embodiment. As shown in Figure 1, in this embodiment, ten light sources 121 are arranged in a spiral shape with a constant radius centered on the z axis and with a gradually changing height position.

本実施形態では、図3に示すように、各光源121の配置位置を、(x,y,z)で表すことができる。但し、対象物10の表面10Aの中心点を(0,0,0)とする。また、仰角Φが最も小さい1番目の光源121の配置位置を、(50mm,0mm,18.6mm)としている。なお、各光源121の配置位置x,y,zは、以下の式(1)で表現できる。 In this embodiment, as shown in FIG. 3, the position of each light source 121 can be expressed as (x, y, z). However, the center point of the surface 10A of the object 10 is (0, 0, 0). The position of the first light source 121, which has the smallest elevation angle Φ, is (50 mm, 0 mm, 18.6 mm). The positions x, y, and z of each light source 121 can be expressed by the following formula (1).

x=a・cosθ,y=a・sinθ,z=b・θ・・・(1) x=a・cosθ,y=a・sinθ,z=b・θ...(1)

上記式(1)において、aは、光源ユニット120がなす螺旋の半径である。本実施形態では、半径aを「50mm」としている。また、上記式(1)において、bは、定数である。本実施形態では、定数bとして「5」を用いている。 In the above formula (1), a is the radius of the spiral formed by the light source unit 120. In this embodiment, the radius a is set to "50 mm." Also, in the above formula (1), b is a constant. In this embodiment, the constant b is set to "5."

また、本実施形態では、図3に示すように、各光源121を配置したことにより、仰角Φが最も小さい1番目の光源121の、方位角θが0度となっており、仰角Φが20度となっている。そして、本実施形態では、10個の光源121が、番号順に、方位角θが72度ずつ高められたものとなっており、且つ、仰角Φが5度ずつ高められたものとなっている。 In this embodiment, by arranging the light sources 121 as shown in FIG. 3, the first light source 121, which has the smallest elevation angle Φ, has an azimuth angle θ of 0 degrees and an elevation angle Φ of 20 degrees. In this embodiment, the 10 light sources 121 are arranged in numerical order with the azimuth angle θ increased by 72 degrees each and the elevation angle Φ increased by 5 degrees each.

(制御装置130による処理の手順)
図4は、一実施形態に係る制御装置130による処理の手順を示すフローチャートである。図4に示すフローチャートは、画像計測装置100が備える制御装置130による、対象物10の表面10Aの画像を撮像してから、対象物10の表面10Aの三次元形状を表示するまでの、一連の制御の手順を示す。
(Processing procedure by the control device 130)
Fig. 4 is a flowchart showing a procedure of processing by the control device 130 according to an embodiment. The flowchart shown in Fig. 4 shows a series of control procedures from capturing an image of the surface 10A of the object 10 to displaying the three-dimensional shape of the surface 10A of the object 10 by the control device 130 included in the image measurement device 100.

まず、作業者が、撮像装置110による撮像位置に対し、対象物10の代わりに、白色拡散板を配置する。 First, the operator places a white diffusion plate in place of the object 10 at the imaging position of the imaging device 110.

そして、制御部131が、10個の光源121のうち、最も仰角Φが小さい1番目の光源121を点灯させる(ステップS401)。 Then, the control unit 131 turns on the first light source 121 among the ten light sources 121, which has the smallest elevation angle Φ (step S401).

次に、制御部131が、一の光源121によって光が照射された状態の、白色拡散板の画像を撮像する(ステップS402)。 Next, the control unit 131 captures an image of the white diffusion plate when illuminated by one of the light sources 121 (step S402).

次に、制御部131が、光照射方向が異なる10枚の白色拡散板の画像を撮像したか否かを判断する(ステップS403)。 Next, the control unit 131 determines whether images of 10 white diffusion plates with different light irradiation directions have been captured (step S403).

ステップS403において、光照射方向が異なる10枚の白色拡散板の画像を撮像していないと判断された場合(ステップS403:No)、制御部131が、10個の光源121のうち、次に仰角Φが小さい一の光源121を点灯させる(ステップS404)。そして、制御部131は、ステップS402へ処理を戻す。 If it is determined in step S403 that images of ten white diffusion plates with different light irradiation directions have not been captured (step S403: No), the control unit 131 turns on one of the ten light sources 121 that has the next smallest elevation angle Φ (step S404). Then, the control unit 131 returns the process to step S402.

一方、ステップS403において、光照射方向が異なる10枚の白色拡散板の画像を撮像したと判断された場合(ステップS403:Yes)、作業者が、撮像装置110による撮像位置に対し、白色拡散板に変えて、対象物10を配置する。 On the other hand, if it is determined in step S403 that images of 10 white diffusion plates with different light irradiation directions have been captured (step S403: Yes), the operator places the target object 10 in place of the white diffusion plate relative to the imaging position of the imaging device 110.

そして、制御部131が、10個の光源121のうち、最も仰角Φが小さい1番目の光源121を点灯させる(ステップS405)。 Then, the control unit 131 turns on the first light source 121 among the ten light sources 121, which has the smallest elevation angle Φ (step S405).

次に、制御部131が、一の光源121によって光が照射された状態の、対象物10の表面10Aの画像を撮像する(ステップS406)。 Next, the control unit 131 captures an image of the surface 10A of the object 10 when light is irradiated by one of the light sources 121 (step S406).

次に、制御部131が、光照射方向が異なる10枚の対象物10の表面10Aの画像を撮像したか否かを判断する(ステップS407)。 Next, the control unit 131 determines whether or not 10 images of the surface 10A of the object 10 with different light irradiation directions have been captured (step S407).

ステップS407において、光照射方向が異なる10枚の対象物10の表面10Aの画像を撮像していないと判断された場合(ステップS407:No)、制御部131が、10個の光源121のうち、次に仰角Φが小さい一の光源121一の光源121を点灯させる(ステップS408)。そして、制御部131は、ステップS406へ処理を戻す。 If it is determined in step S407 that 10 images of the surface 10A of the object 10 with different light irradiation directions have not been captured (step S407: No), the control unit 131 turns on the light source 121 with the next smallest elevation angle Φ among the 10 light sources 121 (step S408). Then, the control unit 131 returns the process to step S406.

一方、ステップS407において、光照射方向が異なる10枚の対象物10の表面10Aの画像を撮像したと判断された場合(ステップS407:Yes)、演算部132が、対象物10の表面10Aの画像に対して、所定の照度補正処理を行うことにより、補正画像(照度補正処理後の、対象物10の表面10Aの画像)を生成する(ステップS409)。 On the other hand, if it is determined in step S407 that ten images of the surface 10A of the object 10 with different light irradiation directions have been captured (step S407: Yes), the calculation unit 132 performs a predetermined illuminance correction process on the images of the surface 10A of the object 10 to generate a corrected image (an image of the surface 10A of the object 10 after the illuminance correction process) (step S409).

次に、演算部132が、ステップS409で生成された補正画像に基づいて、フォトメトリックステレオ法を用いて、対象物10の表面10Aの法線ベクトルを算出する(ステップS410)。なお、演算部132による法線ベクトルの算出方法の一例については、後述する。 Next, the calculation unit 132 calculates the normal vector of the surface 10A of the object 10 using the photometric stereo method based on the corrected image generated in step S409 (step S410). Note that an example of a method for calculating the normal vector by the calculation unit 132 will be described later.

次に、演算部132が、ステップS410で得られた法線ベクトルに基づいて、対象物10の表面10Aの三次元形状を算出する(ステップS411)。ここで、演算部132は、公知の技術を用いて、対象物10の表面10Aの三次元形状を算出することができる。なお、演算部132による三次元形状の算出方法の一例については、図5を用いて後述する。 Next, the calculation unit 132 calculates the three-dimensional shape of the surface 10A of the object 10 based on the normal vector obtained in step S410 (step S411). Here, the calculation unit 132 can calculate the three-dimensional shape of the surface 10A of the object 10 using a known technique. An example of a method for calculating the three-dimensional shape by the calculation unit 132 will be described later with reference to FIG. 5.

次に、表示部133が、ステップS412で算出された、対象物10の表面10Aの三次元形状を表示する(ステップS412)。その後、制御装置130は、図4に示す一連の処理を終了する。 Next, the display unit 133 displays the three-dimensional shape of the surface 10A of the object 10 calculated in step S412 (step S412). After that, the control device 130 ends the series of processes shown in FIG. 4.

(照度補正処理の一例)
ここで、照度補正処理の一例について具体的に説明する。本実施形態では、複数の光源121の各々が、拡散光を照射するものであり、且つ、配光特性を持つ。このため、光源121毎に、対象物10の表面10Aにおける照度が異なる。そこで、本実施形態では、白色拡散板の画像を撮像し、当該白色拡散板の画像を用いて、照度補正を行う。そのため、本実施形態では、光源121毎に、白色拡散板の画像と、対象物10の表面10Aの画像とを撮像しているのである。
(An example of illuminance correction processing)
Here, an example of the illuminance correction process will be specifically described. In this embodiment, each of the multiple light sources 121 emits diffused light and has light distribution characteristics. Therefore, the illuminance on the surface 10A of the object 10 differs for each light source 121. Therefore, in this embodiment, an image of the white diffuser plate is captured, and illuminance correction is performed using the image of the white diffuser plate. Therefore, in this embodiment, an image of the white diffuser plate and an image of the surface 10A of the object 10 are captured for each light source 121.

例えば、演算部132は、白色拡散板の画像における輝度分布をWn(i,j)とし、対象物10の表面10Aの画像における輝度分布をMn(i,j)として、下記式(2)により、補正画像の輝度分布Ln(i,j)算出することができる。 For example, the calculation unit 132 can calculate the luminance distribution Ln(i,j) of the corrected image by the following formula (2), assuming that the luminance distribution in the image of the white diffuser is Wn(i,j) and the luminance distribution in the image of the surface 10A of the object 10 is Mn(i,j).

Ln(i,j)=Mn(i,j)/Wn(i,j)×(T/Sn)・・・(2) Ln(i,j)=Mn(i,j)/Wn(i,j)×(T/Sn)...(2)

なお、(i,j)は各画素の画素位置を示す。iは、水平方向の画素位置を示す。jは、垂直方向の画素位置を示す。 Note that (i, j) indicates the pixel position of each pixel. i indicates the pixel position in the horizontal direction. j indicates the pixel position in the vertical direction.

また、白色拡散板の画像を撮像したときの撮像装置110の露光時間をTとし、対象物10の表面10Aの画像を撮像したときの撮像装置110の露光時間をSnとする。また、光源121の番号をnとする。本実施形態では、n=1~10である。 The exposure time of the imaging device 110 when capturing an image of the white diffusion plate is T, and the exposure time of the imaging device 110 when capturing an image of the surface 10A of the object 10 is Sn. The number of the light source 121 is n. In this embodiment, n = 1 to 10.

なお、本実施形態では、複数の光源121の間で、白色拡散板の画像を撮像するときの露光時間をTを、画素が飽和しない適切な値で同一としている。一方、本実施形態では、複数の光源121の間で、対象物10の表面10Aの画像を撮像するときの露光時間Snを異ならせている。但し、これに限らず、複数の光源121の間で、白色拡散板の画像を撮像するときの露光時間をTを異ならせてもよい。また、複数の光源121の間で、対象物10の表面10Aの画像を撮像するときの露光時間Snを同一としてもよい。 In this embodiment, the exposure time T when capturing an image of the white diffusion plate is set to the same value among the multiple light sources 121 at an appropriate value that does not saturate the pixels. On the other hand, in this embodiment, the exposure time Sn when capturing an image of the surface 10A of the object 10 is set to be different among the multiple light sources 121. However, this is not limited to this, and the exposure time T when capturing an image of the white diffusion plate may be set to be different among the multiple light sources 121. Also, the exposure time Sn when capturing an image of the surface 10A of the object 10 may be set to be the same among the multiple light sources 121.

上記式(2)によれば、対象物10の表面10Aの画像における輝度分布Mn(i,j)を、白色拡散板の画像における輝度分布Wn(i,j)で除算することにより、光源121の配光特性、および、対象物10の表面10Aと光源121との距離の変化による照度ムラを抑制することができる。 According to the above formula (2), by dividing the luminance distribution Mn(i,j) in the image of the surface 10A of the object 10 by the luminance distribution Wn(i,j) in the image of the white diffuser, it is possible to suppress the light distribution characteristics of the light source 121 and the uneven illuminance caused by changes in the distance between the surface 10A of the object 10 and the light source 121.

また、上記式(2)によれば、白色拡散板の画像を撮像したときの撮像装置110の露光時間Tと、対象物10の表面10Aの画像を撮像したときの撮像装置110の露光時間Snとの比を乗算することにより、露光時間の違いによる輝度変化を補正することができる。 Furthermore, according to the above formula (2), the brightness change due to the difference in exposure time can be corrected by multiplying the ratio between the exposure time T of the imaging device 110 when capturing an image of the white diffuser plate and the exposure time Sn of the imaging device 110 when capturing an image of the surface 10A of the object 10.

(法線ベクトルの算出方法の一例)
次に、法線ベクトルの算出方法の一例について具体的に説明する。
(An example of a method for calculating a normal vector)
Next, an example of a method for calculating a normal vector will be specifically described.

まず、演算部132は、法線ベクトルの必要となる、各光源方向のベクトルを算出する。具体的には、演算部132は、各光源121の3次元位置から、各光源121の方位角θおよび仰角φを求める。そして、演算部132は、各光源121の方位角θおよび仰角φから、下記式(3)~(5)により、各光源方向のベクトル(Sx,Sy,Sz)を算出する。 First, the calculation unit 132 calculates the vectors of each light source direction, which require normal vectors. Specifically, the calculation unit 132 determines the azimuth angle θ and elevation angle φ of each light source 121 from the three-dimensional position of each light source 121. Then, the calculation unit 132 calculates the vectors (Sx, Sy, Sz) of each light source direction from the azimuth angle θ and elevation angle φ of each light source 121 using the following formulas (3) to (5).

Sx=-cosθ・cosφ・・・(3)
Sy=-sinθ・cosφ・・・(4)
Sz=-sinφ・・・(5)
Sx=-cosθ・cosφ...(3)
Sy=-sinθ・cosφ...(4)
Sz=-sinφ...(5)

演算部132は、上記式(3)~(5)により、10個の光源121(図3参照)の各々について、光源方向のベクトル(Sxn,Syn,Szn)を算出する。但し、nは、光源番号である。 The calculation unit 132 calculates the light source direction vector (Sxn, Syn, Szn) for each of the 10 light sources 121 (see FIG. 3) using the above formulas (3) to (5). Here, n is the light source number.

次に、演算部132は、対象物10の表面10Aの法線ベクトルを算出する。フォトメトリックステレオ法では、各光源方向のベクトル(Sx,Sy,Sz)と、対象物10の表面10Aの法線ベクトル(Nx,Ny,Nz)と、対象物10の表面10Aの画像の輝度値との関係を、下記式(6)で表わすことができる。よって、演算部132は、下記式(6)により、法線ベクトル(Nx,Ny,Nz)を算出することができる。 Next, the calculation unit 132 calculates the normal vector of the surface 10A of the object 10. In the photometric stereo method, the relationship between the vectors (Sx, Sy, Sz) in the directions of the light sources, the normal vector (Nx, Ny, Nz) of the surface 10A of the object 10, and the luminance value of the image of the surface 10A of the object 10 can be expressed by the following formula (6). Therefore, the calculation unit 132 can calculate the normal vector (Nx, Ny, Nz) by the following formula (6).

Figure 0007524735000001
Figure 0007524735000001

例えば、制御装置130の表示部133は、ここで得られた法線ベクトル(Nx,Ny,Nz)の各値をRGB値に置換することによって、表面10Aの三次元形状をカラー画像化することができる。そして、表示部133は、生成された三次元形状のカラー画像を、CG(コンピューターグラフィックス)レンダリングソフトを用いて、表面10Aの三次元形状を表示することができる。 For example, the display unit 133 of the control device 130 can convert each value of the normal vector (Nx, Ny, Nz) obtained here into an RGB value, thereby generating a color image of the three-dimensional shape of the surface 10A. The display unit 133 can then use CG (computer graphics) rendering software to display the three-dimensional shape of the surface 10A as a color image of the generated three-dimensional shape.

(三次元形状の算出方法の一例)
次に、図5を参照して、演算部132による三次元形状の算出方法の一例について具体的に説明する。図5は、一実施形態に係る制御装置130による三次元形状の算出時における、注目画素と周辺画素との対応関係を示す図である。
(An example of a method for calculating a three-dimensional shape)
Next, an example of a method for calculating a three-dimensional shape by the calculation unit 132 will be specifically described with reference to Fig. 5. Fig. 5 is a diagram showing a correspondence relationship between a pixel of interest and peripheral pixels when a three-dimensional shape is calculated by the control device 130 according to an embodiment.

例えば、演算部132は、ステップS410で得られた法線ベクトル(Nx,Ny,Nz)から、各画素のx軸方向およびy軸方向の傾きを算出し、それらの傾きから、各画素の高さを算出する。具体的には、演算部132は、各画素のx軸方向の傾きpを、-(Nx/Nz)によって算出し、y軸方向の傾きqを、-(Ny/Nz)によって算出できる。そして、演算部132は、注目画素の画素位置を(m,n)とする場合、画素位置(m,n)の高さhを、下記式(7)および式(8)によって算出できる。但し、h(m-1,n)およびh(m,n-1)は、注目画素の周辺の周辺画素の高さを示す。 For example, the calculation unit 132 calculates the inclination of each pixel in the x-axis direction and the y-axis direction from the normal vector (Nx, Ny, Nz) obtained in step S410, and calculates the height of each pixel from these inclinations. Specifically, the calculation unit 132 can calculate the inclination p of each pixel in the x-axis direction by -(Nx/Nz), and the inclination q of each pixel in the y-axis direction by -(Ny/Nz). Then, when the pixel position of the pixel of interest is (m, n), the calculation unit 132 can calculate the height h of the pixel position (m, n) by the following formulas (7) and (8). Here, h(m-1, n) and h(m, n-1) indicate the heights of the surrounding pixels around the pixel of interest.

h1(m,n)=h(m-1,n)+p(m-1,n)・・・(7)
h2(m,n)=h(m,n-1)+q(m,n-1)・・・(8)
h1(m,n)=h(m-1,n)+p(m-1,n)...(7)
h2 (m, n) = h (m, n-1) + q (m, n-1) (8)

さらに、演算部132は、ノイズの影響を抑制するため、下記式(9)により、上記式(7)によって算出されたh1と、上記式(8)によって算出されたh2との平均値を、注目画素の高さh(m,n)として算出できる。 Furthermore, in order to suppress the influence of noise, the calculation unit 132 can calculate the height h(m, n) of the pixel of interest as the average value of h1 calculated by the above formula (7) and h2 calculated by the above formula (8) using the following formula (9).

h(m,n)={h1(m,n)+h2(m,n)}/2・・・(9) h(m,n)={h1(m,n)+h2(m,n)}/2...(9)

演算部132は、複数の画素の各々について、上記のとおり高さhを算出することにより、対象物10の表面10Aの三次元形状を算出することができる。 The calculation unit 132 can calculate the three-dimensional shape of the surface 10A of the object 10 by calculating the height h for each of the multiple pixels as described above.

(対象物10の表面10Aの三次元形状の一例)
図6は、一実施形態に係る制御装置130によって算出された、対象物10の表面10Aの三次元形状の一例を示す図である。図6に示す三次元形状は、凹凸がある合皮の表面10Aの三次元形状である。図6に示す三次元形状は、上記したとおり、光照射方向が異なる複数の画像に基づいて、制御装置130の演算部132によって算出されたものである。このため、図6に示す三次元形状は、実際の表面10Aの三次元形状が、高精度に再現されたものとなっている。
(One example of a three-dimensional shape of the surface 10A of the object 10)
Fig. 6 is a diagram showing an example of a three-dimensional shape of the surface 10A of the object 10 calculated by the control device 130 according to an embodiment. The three-dimensional shape shown in Fig. 6 is the three-dimensional shape of the surface 10A of the synthetic leather having projections and recesses. As described above, the three-dimensional shape shown in Fig. 6 is calculated by the calculation unit 132 of the control device 130 based on a plurality of images with different light irradiation directions. Therefore, the three-dimensional shape shown in Fig. 6 is a highly accurate reproduction of the three-dimensional shape of the actual surface 10A.

以上説明したように、一実施形態に係る画像計測装置100は、対象物10の表面10Aに対向して配置された撮像装置110と、対象物10の表面10Aに対向して螺旋状に配置された複数の光源121と、複数の光源121を順次切り替えて点灯させながら、一の光源121が点灯する毎に、撮像装置110に対象物10の表面10Aの画像を撮像させる制御部131と、撮像装置110によって撮像された複数の画像に基づいて、対象物10の表面10Aの法線ベクトルを算出する演算部132とを備える。 As described above, the image measuring device 100 according to one embodiment includes an imaging device 110 arranged facing the surface 10A of the object 10, a plurality of light sources 121 arranged in a spiral shape facing the surface 10A of the object 10, a control unit 131 that sequentially switches between the light sources 121 and causes the imaging device 110 to capture an image of the surface 10A of the object 10 each time one light source 121 is turned on, and a calculation unit 132 that calculates the normal vector of the surface 10A of the object 10 based on the plurality of images captured by the imaging device 110.

これにより、一実施形態に係る画像計測装置100は、複数の光源121の方位角および仰角を連続的に変化するものとすることができるため、比較的少ない数の光源121を用いて、効率よく光照射角度が多様である複数の画像を取得できる。また、一実施形態に係る画像計測装置100は、複数の光源121における仰角の範囲(すなわち、仰角が最も小さい光源121の仰角と、仰角が最も大きい光源121の仰角との差)を大きくすることができる。このため、一実施形態に係る画像計測装置100は、対象物10の表面10Aの法線ベクトルを、より高精度に算出することができる。 As a result, the image measurement device 100 according to one embodiment can continuously change the azimuth and elevation angles of the multiple light sources 121, and can efficiently acquire multiple images with a variety of light irradiation angles using a relatively small number of light sources 121. Furthermore, the image measurement device 100 according to one embodiment can increase the range of elevation angles of the multiple light sources 121 (i.e., the difference between the elevation angle of the light source 121 with the smallest elevation angle and the elevation angle of the light source 121 with the largest elevation angle). Therefore, the image measurement device 100 according to one embodiment can calculate the normal vector of the surface 10A of the object 10 with higher accuracy.

また、一実施形態に係る画像計測装置100は、光源ユニット120がなす螺旋の径および高さを任意の調整することにより、複数の光源121の配置位置を容易に多様化することができる。 In addition, the image measurement device 100 according to one embodiment can easily diversify the arrangement positions of the multiple light sources 121 by arbitrarily adjusting the diameter and height of the spiral formed by the light source unit 120.

したがって、一実施形態に係る画像計測装置100によれば、対象物10の表面10Aの法線ベクトルを、より簡易な装置構成で、より高精度に算出することができる。 Therefore, according to one embodiment of the image measurement device 100, the normal vector of the surface 10A of the object 10 can be calculated with higher accuracy using a simpler device configuration.

(光沢画像の生成方法)
一実施形態に係る制御装置130の演算部132は、さらに、対象物10の表面10Aの表面反射成分を表す光沢画像を生成することができる。以下、演算部132による光沢画像の生成方法について具体的に説明する。
(Method of generating glossy image)
The calculation unit 132 of the control device 130 according to the embodiment can further generate a gloss image that represents the surface reflection component of the surface 10A of the object 10. Hereinafter, a method for generating a gloss image by the calculation unit 132 will be specifically described.

(手順1)まず、演算部132は、これまでに説明したのと同様の方法により、白色拡散板の画像を撮像する。 (Step 1) First, the calculation unit 132 captures an image of the white diffuser using the same method as described above.

(手順2)次に、演算部132は、これまでに説明したのと同様の方法により、対象物10の表面10Aの画像を撮像する。 (Step 2) Next, the calculation unit 132 captures an image of the surface 10A of the object 10 using a method similar to that described above.

(手順3)次に、演算部132は、撮像装置110側の第1の偏光フィルタ140を90度回転させることで、表面反射成分が強調された、対象物10の表面10Aの画像を撮像する。具体的には、演算部132は、撮像装置110側の第1の偏光フィルタ140を90度回転させることで、第1の偏光フィルタ140の偏光方向を、各光源121に設けられた第2の偏光フィルタ123の偏光方向と平行にする。これにより、対象物10の表面10Aからの反射光のうち、表面反射成分は、第1の偏光フィルタ140を透過して撮像装置110のレンズ内に入射され、それ以外の成分は、第1の偏光フィルタ140を透過せずに撮像装置110のレンズ内に殆ど入射されなくなる。これにより、演算部132は、表面反射成分が強調された状態で、対象物10の表面10Aの画像を撮像することができる。 (Step 3) Next, the calculation unit 132 rotates the first polarizing filter 140 on the imaging device 110 side by 90 degrees to capture an image of the surface 10A of the object 10 with the surface reflection component emphasized. Specifically, the calculation unit 132 rotates the first polarizing filter 140 on the imaging device 110 side by 90 degrees to make the polarization direction of the first polarizing filter 140 parallel to the polarization direction of the second polarizing filter 123 provided on each light source 121. As a result, of the reflected light from the surface 10A of the object 10, the surface reflection component passes through the first polarizing filter 140 and enters the lens of the imaging device 110, and the other components do not pass through the first polarizing filter 140 and are hardly entered into the lens of the imaging device 110. As a result, the calculation unit 132 can capture an image of the surface 10A of the object 10 with the surface reflection component emphasized.

(手順4)次に、演算部132は、上記(手順2)で得られた画像(すなわち、表面反射成分が抑制された画像)と、上記(手順3)で得られた画像(すなわち、表面反射成分が強調された画像)との各々について、これまでに説明したのと同様の方法により、補正画像を生成する。例えば、演算部132は、上記式(2)によって、上記(手順2)で得られた画像の補正画像Ln(i,j)を算出する。また、例えば、演算部132は、下記式(10)によって、上記(手順3)で得られた画像の補正画像L'n(i,j)を算出する。
L'n(i,j)=M'n(i,j)/Wn(i,j)×(T/S'n)・・・(10)
(Step 4) Next, the calculation unit 132 generates a corrected image for each of the image obtained in (Step 2) above (i.e., an image in which the surface reflection component is suppressed) and the image obtained in (Step 3) above (i.e., an image in which the surface reflection component is emphasized) by the same method as described above. For example, the calculation unit 132 calculates a corrected image Ln(i,j) of the image obtained in (Step 2) above by the above formula (2). Also, for example, the calculation unit 132 calculates a corrected image L'n(i,j) of the image obtained in (Step 3) above by the following formula (10).
L'n(i,j)=M'n(i,j)/Wn(i,j)×(T/S'n)...(10)

但し、Wn(i,j)は、白色拡散板の画像における輝度分布を示す。また、M'n(i,j)は、上記(手順3)で得られた画像における輝度分布を示す。また、白色拡散板の画像を撮像したときの撮像装置110の露光時間をTとし、上記(手順3)で得られた画像を撮像したときの撮像装置110の露光時間をS'nとする。また、光源121の番号をnとする。本実施形態では、n=1~10である。 Where, Wn(i,j) indicates the luminance distribution in the image of the white diffuser. Furthermore, M'n(i,j) indicates the luminance distribution in the image obtained in the above (step 3). Furthermore, the exposure time of the imaging device 110 when capturing the image of the white diffuser is T, and the exposure time of the imaging device 110 when capturing the image obtained in the above (step 3) is S'n. Furthermore, the number of the light source 121 is n. In this embodiment, n = 1 to 10.

(手順5)次に、演算部132は、上記(手順4)で得られた補正画像L'n(i,j)と補正画像Ln(i,j)との差分を、対象物10の表面10Aの表面反射成分を表す光沢画像として算出する。例えば、演算部132は、光沢画像G(i,j)を、下記式(11)によって算出することができる。
G(i,j)=L'n(i,j)-Ln(i,j)・・・(11)
(Step 5) Next, the calculation unit 132 calculates the difference between the corrected image L'n(i,j) obtained in the above (Step 4) and the corrected image Ln(i,j) as a gloss image representing the surface reflection component of the surface 10A of the object 10. For example, the calculation unit 132 can calculate the gloss image G(i,j) by the following formula (11).
G(i,j)=L'n(i,j)-Ln(i,j)...(11)

(手順6)演算部132は、上記(手順1)~(手順5)を、光源121毎に行うことにより、光源121毎(すなわち、光照射方向毎)の、複数の光沢画像を得ることができる。 (Step 6) The calculation unit 132 performs the above steps 1 to 5 for each light source 121, thereby obtaining multiple gloss images for each light source 121 (i.e., for each light irradiation direction).

(光沢画像の一例)
図7は、一実施形態に係る制御装置130によって算出された、光沢画像の一例を示す図である。図7に示す光沢画像は、制御装置130の演算部132によって算出された、図6に示す表面10A(すなわち、凹凸がある合皮の表面)の光沢画像である。特に、図7に示す光沢画像は、仰角が60度である光源121から光を照射したときの光沢を表す光沢画像である。
(Example of a glossy image)
Fig. 7 is a diagram showing an example of a gloss image calculated by the control device 130 according to an embodiment. The gloss image shown in Fig. 7 is a gloss image of the surface 10A shown in Fig. 6 (i.e., the surface of the synthetic leather having projections and recesses) calculated by the calculation unit 132 of the control device 130. In particular, the gloss image shown in Fig. 7 is a gloss image that represents gloss when light is irradiated from the light source 121 with an elevation angle of 60 degrees.

このように、一実施形態に係る画像計測装置100では、演算部132は、撮像装置110によって撮像された複数の対象物10の表面10Aの画像に基づいて、対象物10の表面10Aの光沢をさらに算出することができる。 In this way, in the image measurement device 100 according to one embodiment, the calculation unit 132 can further calculate the gloss of the surface 10A of the object 10 based on the images of the surface 10A of the object 10 captured by the imaging device 110.

これにより、一実施形態に係る画像計測装置100は、多様な光照射方向からの表面10Aの光沢特性を効率的に取得することができる。特に、一実施形態に係る画像計測装置100は、法線ベクトルの算出に使用した光源121および撮像装置110を利用して、表面10Aの光沢特性を取得することができるため、比較的簡易な装置構成とすることができる。 As a result, the image measuring device 100 according to one embodiment can efficiently obtain the gloss characteristics of the surface 10A from various light irradiation directions. In particular, the image measuring device 100 according to one embodiment can obtain the gloss characteristics of the surface 10A by utilizing the light source 121 and the imaging device 110 used to calculate the normal vector, and therefore can have a relatively simple device configuration.

(照度補正処理の変形例)
演算部132は、これまでに説明した照度補正処理(すなわち、白色拡散板の画像を用いた簡易的な照度補正処理)に代えて、より高精度な照度補正処理を行うことにより、対象物10の表面10Aの画像の照度を補正して、補正画像を生成してもよい。これにより、演算部132は、より高精度に法線ベクトルを算出することができる。以下、図8および図9を参照して、より高精度な照度補正処理について具体的に説明する。
(Modification of Illuminance Correction Processing)
Instead of the illuminance correction process described above (i.e., a simple illuminance correction process using an image of a white diffusion plate), the calculation unit 132 may perform a more accurate illuminance correction process to correct the illuminance of the image of the surface 10A of the object 10 and generate a corrected image. This allows the calculation unit 132 to calculate the normal vector with higher accuracy. Hereinafter, the more accurate illuminance correction process will be specifically described with reference to Figs. 8 and 9.

図8は、光源121から照射された光の距離の違いを示す図である。図9は、対象物10の表面10Aにおける中心の画素位置(0,0)と右端部の画素位置(500,0)との位置関係と距離の対応関係とを示す図である。 Figure 8 is a diagram showing the difference in distance of light emitted from light source 121. Figure 9 is a diagram showing the positional relationship and distance correspondence between the central pixel position (0,0) and the right end pixel position (500,0) on surface 10A of object 10.

図8に示すように、光源121から照射される光が拡散光である場合、表面10Aにおける照射位置に応じて、光源121からの距離が異なる。そして、光源121からの距離が長くなるほど、照射位置における輝度は低くなる。たとえば、図8に示す例では、光源121から表面10Aの中央部P1までの距離L1よりも、光源121から表面10Aの左端部P2までの距離L2のほうが長い。このため、左端部P2の輝度は、中央部P1の輝度よりも低くなる。特に、輝度は、光源121からの距離の2乗に反比例する法則がある。そこで、ここで説明するより高精度な照度補正処理は、この法則に基づいた照度補正を行う。 As shown in FIG. 8, when the light emitted from the light source 121 is diffuse light, the distance from the light source 121 varies depending on the irradiation position on the surface 10A. The longer the distance from the light source 121, the lower the luminance at the irradiation position. For example, in the example shown in FIG. 8, the distance L2 from the light source 121 to the left end P2 of the surface 10A is longer than the distance L1 from the light source 121 to the center P1 of the surface 10A. Therefore, the luminance of the left end P2 is lower than the luminance of the center P1. In particular, there is a law that luminance is inversely proportional to the square of the distance from the light source 121. Therefore, the more accurate illuminance correction process described here performs illuminance correction based on this law.

(手順1)まず、演算部132は、基準となる光源121(例えば、仰角が最も小さい光源121)と、表面10Aにおける基準となる画素位置(例えば、表面10Aにおける中心の画素位置)との距離D(すなわち、基準距離)を算出する。 (Step 1) First, the calculation unit 132 calculates the distance D (i.e., the reference distance) between the reference light source 121 (e.g., the light source 121 with the smallest elevation angle) and the reference pixel position on the surface 10A (e.g., the central pixel position on the surface 10A).

(手順2)次に、演算部132は、表面10Aにおける全ての画素について、光源121からの距離d(i,j)を算出する。例えば、演算部132は、表面10Aの画像が1000×1000ピクセルである場合、1個の光源121に対し、距離d(i,j)を、1000×1000個の画素の各々について算出する。なお、演算部132は、距離d(i,j)として、各画素の位置と光源121の三次元的位置との2点間の距離を算出する。 (Step 2) Next, the calculation unit 132 calculates the distance d(i, j) from the light source 121 for all pixels on the surface 10A. For example, if the image of the surface 10A is 1000 x 1000 pixels, the calculation unit 132 calculates the distance d(i, j) for each of the 1000 x 1000 pixels for one light source 121. Note that the calculation unit 132 calculates the distance d(i, j) as the distance between two points, the position of each pixel and the three-dimensional position of the light source 121.

例えば、表面10Aの中心の画素位置を(i,j)=(0,0)として、方位角が0度であり、且つ、仰角が45度である光源121の三次元的位置が(x,y,z)=(50mm,0mm,50mm)である場合、画素位置(0,0)と光源121との距離d(0,0)は、下記式(12)により、図9に示すように、「70.7mm」となる。 For example, if the pixel position at the center of surface 10A is (i, j) = (0, 0), and the three-dimensional position of light source 121 with an azimuth angle of 0 degrees and an elevation angle of 45 degrees is (x, y, z) = (50 mm, 0 mm, 50 mm), the distance d (0, 0) between pixel position (0, 0) and light source 121 is "70.7 mm" according to the following formula (12), as shown in Figure 9.

Figure 0007524735000002
Figure 0007524735000002

また、例えば、表面10Aの画像の右端部の画素位置を(i,j)=(500,0)として、且つ、撮像時の画像の解像度が1pixel=0.05mmである場合、画素位置(500,0)と光源121との距離d(500,0)は、下記式(13)により、図9に示すように、「55.9mm」となる。 For example, if the pixel position at the right end of the image of surface 10A is (i, j) = (500, 0) and the resolution of the image at the time of capture is 1 pixel = 0.05 mm, the distance d (500, 0) between pixel position (500, 0) and light source 121 is "55.9 mm" according to the following formula (13), as shown in Figure 9.

Figure 0007524735000003
Figure 0007524735000003

(手順3)次に、演算部132は、下記式(14)によって、輝度L(i,j)を補正することで、輝度画像L'(i,j)を算出する。 (Step 3) Next, the calculation unit 132 calculates the luminance image L'(i,j) by correcting the luminance L(i,j) using the following formula (14):

Figure 0007524735000004
Figure 0007524735000004

上記式(14)は、各画素位置の照度が、上記(手順1)で求めた距離Dのときの照度と等しくなるように、各画素位置の照度を補正するものである。 The above formula (14) corrects the illuminance at each pixel position so that it is equal to the illuminance at the distance D determined above (step 1).

(手順4)次に、演算部132は、各画素位置に対し、光源方向ベクトルを算出する。具体的には、演算部132は、各画素位置の光源方向ベクトルを、各画素位置と光源121の三次元的位置との2点に基づいて算出する。演算部132は、このように算出された各画素位置の光源方向ベクトルを用いて、上記式(4)により、各画素位置の法線ベクトルを算出することができる。 (Step 4) Next, the calculation unit 132 calculates a light source direction vector for each pixel position. Specifically, the calculation unit 132 calculates the light source direction vector for each pixel position based on two points: each pixel position and the three-dimensional position of the light source 121. Using the light source direction vector for each pixel position calculated in this way, the calculation unit 132 can calculate the normal vector for each pixel position according to the above formula (4).

なお、演算部132は、さらに、予め測定しておいた光源121の配光特性を考慮して、各画素位置の照度を補正してもよい。例えば、演算部132は、光源121の配光特性に基づいて、各画素位置と光源121との角度に応じた重み付けを、各画素位置毎に行うことにより、各画素位置の照度を補正してもよい。 The calculation unit 132 may further correct the illuminance at each pixel position, taking into account the light distribution characteristics of the light source 121 that have been measured in advance. For example, the calculation unit 132 may correct the illuminance at each pixel position by weighting each pixel position according to the angle between the pixel position and the light source 121, based on the light distribution characteristics of the light source 121.

以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the present invention as described in the claims.

10 対象物
10A 表面
100 画像計測装置
110 撮像装置
120 光源ユニット
121 光源
122 線状部材
123 第2の偏光フィルタ
130 制御装置
131 制御部
132 演算部
133 表示部
140 第1の偏光フィルタ
REFERENCE SIGNS LIST 10 Object 10A Surface 100 Image measuring device 110 Imaging device 120 Light source unit 121 Light source 122 Linear member 123 Second polarizing filter 130 Control device 131 Control unit 132 Calculation unit 133 Display unit 140 First polarizing filter

特許第6650986号公報Patent No. 6650986

Claims (9)

対象物の表面に対向して配置された撮像装置と、
前記対象物の表面に対して方位角および仰角の少なくともいずれか一方が連続的に変化するように配置された複数の光源と、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に前記対象物の表面の画像を撮像させる制御部と
を備え
前記複数の光源は、
螺旋状または渦巻状に配置されている
ことを特徴とする画像計測装置。
An imaging device disposed opposite to a surface of the object;
A plurality of light sources arranged such that at least one of an azimuth angle and an elevation angle with respect to a surface of the object changes continuously;
a control unit that sequentially switches the plurality of light sources on and causes the imaging device to capture an image of the surface of the object each time one of the light sources is turned on ,
The plurality of light sources include
Arranged in a spiral or whorl
1. An image measuring device comprising:
対象物の表面に対向して配置された撮像装置と、
前記対象物の表面に対して方位角および仰角の少なくともいずれか一方が連続的に変化するように配置された複数の光源と、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に前記対象物の表面の画像を撮像させる制御部と
を備え
前記撮像装置によって撮像された複数の前記画像に基づいて、前記対象物の表面の法線ベクトルを算出する演算部をさらに備え、
前記制御部は、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に白色拡散板の画像をさらに撮像させ、
複数の前記白色拡散板の画像に基づいて、複数の前記対象物の表面の画像の照度を補正し、
照度の補正後の複数の前記対象物の表面の画像に基づいて、前記対象物の表面の法線ベクトルを算出する
ことを特徴とする画像計測装置。
An imaging device disposed opposite to a surface of the object;
A plurality of light sources arranged such that at least one of an azimuth angle and an elevation angle with respect to a surface of the object changes continuously;
a control unit that sequentially switches the plurality of light sources on and causes the imaging device to capture an image of the surface of the object each time one of the light sources is turned on ,
A calculation unit that calculates a normal vector of a surface of the object based on a plurality of the images captured by the imaging device,
The control unit is
while sequentially switching and lighting the plurality of light sources, each time one of the light sources is turned on, the imaging device is caused to further capture an image of a white diffusion plate;
correcting illuminances of the images of the surfaces of the plurality of objects based on the images of the plurality of white diffusers;
Calculating a normal vector of the surface of the object based on a plurality of images of the surface of the object after the illuminance correction
1. An image measuring device comprising:
前記演算部は、
前記撮像装置によって撮像された複数の前記画像に基づいて、前記対象物の表面の光沢をさらに算出する
ことを特徴とする請求項に記載の画像計測装置。
The calculation unit is
The image measuring device according to claim 2 , further comprising: a calculation unit that calculates a glossiness of the surface of the object based on a plurality of the images captured by the imaging device.
前記撮像装置の撮像方向に設けられた第1の偏光手段と、
前記光源の光照射方向に設けられた第2の偏光手段と
をさらに備え、
前記第1の偏光手段および前記第2の偏光手段は、
互いに偏光方向が直交する状態と、互いに偏光方向が平行する状態とに切り替え可能である
ことを特徴とする請求項に記載の画像計測装置。
a first polarizing means provided in an imaging direction of the imaging device;
and a second polarizing means provided in a light irradiation direction of the light source,
The first polarizing means and the second polarizing means
4. The image measuring device according to claim 3 , wherein the image measuring device is switchable between a state in which the polarization directions are orthogonal to each other and a state in which the polarization directions are parallel to each other.
前記演算部は、
前記第1の偏光手段および前記第2の偏光手段が互いに偏光方向が直交する状態にあるときに前記撮像装置によって撮像された前記対象物の表面の画像に基づいて、前記対象物の表面の法線ベクトルを算出する
ことを特徴とする請求項に記載の画像計測装置。
The calculation unit is
The image measuring device according to claim 4, characterized in that a normal vector of the surface of the object is calculated based on an image of the surface of the object captured by the imaging device when the polarization directions of the first polarization means and the second polarization means are perpendicular to each other.
前記演算部は、
前記第1の偏光手段および前記第2の偏光手段が互いに偏光方向が直交する状態にあるときに前記撮像装置によって撮像された前記対象物の表面の画像と、前記第1の偏光手段および前記第2の偏光手段が互いに偏光方向が平行する状態にあるときに前記撮像装置によって撮像された前記対象物の表面の画像とに基づいて、前記対象物の表面の光沢を算出する
ことを特徴とする請求項またはに記載の画像計測装置。
The calculation unit is
The image measuring device according to claim 4 or 5, characterized in that the gloss of the surface of the object is calculated based on an image of the surface of the object captured by the imaging device when the polarization directions of the first polarization means and the second polarization means are perpendicular to each other , and an image of the surface of the object captured by the imaging device when the polarization directions of the first polarization means and the second polarization means are parallel to each other .
前記複数の光源は、
変形可能な線状部材によって直列的に連結されている
ことを特徴とする請求項1からのいずれか一項に記載の画像計測装置。
The plurality of light sources include
7. The image measuring device according to claim 1, wherein the measuring elements are connected in series by a deformable linear member.
対象物の表面に対向して配置された撮像装置と、前記対象物の表面に対して方位角および仰角の少なくともいずれか一方が連続的に変化するように配置された複数の光源と、を備える画像計測装置を用いた画像計測方法であって、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に前記対象物の表面の画像を撮像させる制御工程を含み、
前記複数の光源は、
螺旋状または渦巻状に配置されている
ことを特徴とする画像計測方法。
1. An image measurement method using an image measurement device including an imaging device arranged to face a surface of an object, and a plurality of light sources arranged such that at least one of an azimuth angle and an elevation angle with respect to the surface of the object changes continuously, comprising:
a control step of sequentially switching and lighting the plurality of light sources and causing the imaging device to capture an image of the surface of the object each time one of the light sources is turned on ;
The plurality of light sources include
Arranged in a spiral or whorl
13. An image measuring method comprising:
対象物の表面に対向して配置された撮像装置と、前記対象物の表面に対して方位角および仰角の少なくともいずれか一方が連続的に変化するように配置された複数の光源と、を備える画像計測装置を用いた画像計測方法であって、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に前記対象物の表面の画像を撮像させる制御工程を含み、
前記撮像装置によって撮像された複数の前記画像に基づいて、前記対象物の表面の法線ベクトルを算出する演算工程をさらに含み、
前記制御工程は、
前記複数の光源を順次切り替えて点灯させながら、一の前記光源が点灯する毎に、前記撮像装置に白色拡散板の画像をさらに撮像させ、
複数の前記白色拡散板の画像に基づいて、複数の前記対象物の表面の画像の照度を補正し、
照度の補正後の複数の前記対象物の表面の画像に基づいて、前記対象物の表面の法線ベクトルを算出する
ことを特徴とする画像計測方法。
1. An image measurement method using an image measurement device including an imaging device arranged to face a surface of an object, and a plurality of light sources arranged such that at least one of an azimuth angle and an elevation angle with respect to the surface of the object changes continuously, comprising:
a control step of sequentially switching and lighting the plurality of light sources and causing the imaging device to capture an image of the surface of the object each time one of the light sources is turned on ;
The method further includes a calculation step of calculating a normal vector of the surface of the object based on a plurality of the images captured by the imaging device,
The control step includes:
while sequentially switching and lighting the plurality of light sources, each time one of the light sources is turned on, the imaging device is caused to further capture an image of a white diffusion plate;
correcting illuminances of the images of the surfaces of the plurality of objects based on the images of the plurality of white diffusers;
Calculating a normal vector of the surface of the object based on a plurality of images of the surface of the object after the illuminance correction
13. An image measuring method comprising:
JP2020195057A 2020-11-25 2020-11-25 Image measurement device and image measurement method Active JP7524735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195057A JP7524735B2 (en) 2020-11-25 2020-11-25 Image measurement device and image measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195057A JP7524735B2 (en) 2020-11-25 2020-11-25 Image measurement device and image measurement method

Publications (2)

Publication Number Publication Date
JP2022083630A JP2022083630A (en) 2022-06-06
JP7524735B2 true JP7524735B2 (en) 2024-07-30

Family

ID=81855391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195057A Active JP7524735B2 (en) 2020-11-25 2020-11-25 Image measurement device and image measurement method

Country Status (1)

Country Link
JP (1) JP7524735B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016918A (en) 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd Image processing apparatus, image processing system, and image processing method
WO2011005110A1 (en) 2009-07-08 2011-01-13 Norsk Hydro Asa Method and apparatus for inspection of surfaces
JP2018189565A (en) 2017-05-09 2018-11-29 株式会社キーエンス Image inspection device
JP2019191105A (en) 2018-04-27 2019-10-31 株式会社Ihi Inspection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016918A (en) 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd Image processing apparatus, image processing system, and image processing method
WO2011005110A1 (en) 2009-07-08 2011-01-13 Norsk Hydro Asa Method and apparatus for inspection of surfaces
JP2018189565A (en) 2017-05-09 2018-11-29 株式会社キーエンス Image inspection device
JP2019191105A (en) 2018-04-27 2019-10-31 株式会社Ihi Inspection system

Also Published As

Publication number Publication date
JP2022083630A (en) 2022-06-06

Similar Documents

Publication Publication Date Title
US8363929B2 (en) Shape measurement apparatus and calibration method
US10931924B2 (en) Method for the generation of a correction model of a camera for the correction of an aberration
US10415958B2 (en) Measuring device
JP5648749B2 (en) Shape measuring apparatus and shape measuring method
US10262431B2 (en) Three-dimensional measurement device
JP6532325B2 (en) Measuring device for measuring the shape of the object to be measured
US10739130B2 (en) Optical measuring device generating point cloud data
US11619591B2 (en) Image inspection apparatus and image inspection method
US20140198185A1 (en) Multi-camera sensor for three-dimensional imaging of a circuit board
CN109767425B (en) Machine vision light source uniformity evaluation device and method
JP2007524808A (en) Scanning system with stereoscopic camera set
JP2012047673A (en) Inspection device and inspection method
JP2007322162A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
CN108010071B (en) System and method for measuring brightness distribution by using 3D depth measurement
TW201925746A (en) Defect inspection device and defect inspection method
JP2020128931A (en) Inspection equipment
JP7524735B2 (en) Image measurement device and image measurement method
CN110186927A (en) Image testing device and image checking method
JP5867123B2 (en) Three-dimensional shape measuring apparatus and calibration method
JP2011021970A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
US20170307366A1 (en) Projection device, measuring apparatus, and article manufacturing method
JP2011002401A (en) Correction coefficient calculating method in luminance measuring apparatus, and luminance measuring apparatus
JP2012150018A (en) Method for measuring shape
JP6897291B2 (en) Image evaluation device and image evaluation method
JP2008170282A (en) Shape measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240701

R150 Certificate of patent or registration of utility model

Ref document number: 7524735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150