JP2018017611A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2018017611A JP2018017611A JP2016148212A JP2016148212A JP2018017611A JP 2018017611 A JP2018017611 A JP 2018017611A JP 2016148212 A JP2016148212 A JP 2016148212A JP 2016148212 A JP2016148212 A JP 2016148212A JP 2018017611 A JP2018017611 A JP 2018017611A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- reflection intensity
- value
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
【課題】 基準板を用いることなく、対象物の光沢を表す画像における光沢のムラを補正するための画像処理技術を提供することを目的とする。【解決手段】 物体からの反射光の反射強度を表す第1画像データを取得する第1取得手段と、前記第1画像データを所定サイズの領域に分割する分割手段と、前記分割手段によって分割された各領域内の前記反射強度の平均値を算出する算出手段と、前記平均値の中から1つの値を抽出する抽出手段と、前記各領域内の前記反射強度の平均値が前記1つの値と同じ値となるように前記各領域内の前記反射強度を補正して得られる補正画像データを出力する出力手段と、を有することを特徴とする画像処理装置。【選択図】 図5PROBLEM TO BE SOLVED: To provide an image processing technique for correcting uneven gloss in an image representing the gloss of an object without using a reference plate. A first acquisition unit that acquires first image data representing the reflection intensity of reflected light from an object, a division unit that divides the first image data into regions of a predetermined size, and a division unit that divides the first image data. The calculation means for calculating the average value of the reflection intensity in each area, the extraction means for extracting one value from the average value, and the average value of the reflection intensity in each area is the one value. And an output means for outputting corrected image data obtained by correcting the reflection intensity in each of the regions so as to have the same value. [Selection] Figure 5
Description
本発明は、画像からの反射光における光沢ムラに対する画像処理技術に関する。 The present invention relates to an image processing technique for uneven gloss in reflected light from an image.
近年、絵画などの美術品の複製や保存などを目的として、対象物の色や光沢を取得する技術が求められている。対象物の光沢を取得する技術として、照明系の偏光子の偏光方向と受光系の偏光子の偏光方向とを直交させる条件と、平行にする条件とを切り替えて光沢強度の分布を示す画像を取得する方法がある。しかしながら、上述した方法では、照明光の入射角度や反射光の出射角度といった幾何条件が対象物の位置ごとに変化するため、画像が示す光沢にムラが発生する。一方で、特許文献1は、基準板を撮像することによって補正係数を算出し、基準板に載せた対象物の撮像によって得られる画像が示す光沢を補正係数によって補正する技術を開示している。 In recent years, there has been a demand for a technique for acquiring the color and gloss of an object for the purpose of reproducing and storing art such as paintings. As a technique for obtaining the gloss of an object, an image showing the distribution of gloss intensity by switching between the condition of making the polarization direction of the polarizer of the illumination system and the direction of polarization of the polarizer of the light receiving system orthogonal and the condition of making it parallel is used. There is a way to get. However, in the method described above, since the geometric conditions such as the incident angle of illumination light and the emission angle of reflected light change for each position of the object, unevenness occurs in the gloss indicated by the image. On the other hand, Patent Document 1 discloses a technique for calculating a correction coefficient by capturing an image of a reference plate and correcting the gloss indicated by an image obtained by capturing an object placed on the reference plate using the correction coefficient.
しかしながら、例えば油彩画のように表面に微細な凹凸を有する対象物の場合、対象物の位置毎に光の反射方向が変化する。従って、同様の凹凸を有する基準板を用いなければ、基準板を用いて得られた補正係数を表すデータの各画素と、対象物の画像の各画素とで上述したように撮像時の幾何条件が異なってしまい、精度良く光沢ムラを補正できないという課題がある。 However, in the case of an object having fine irregularities on its surface, such as an oil painting, the light reflection direction changes for each position of the object. Therefore, if a reference plate having similar unevenness is not used, the geometric condition at the time of imaging as described above for each pixel of the data representing the correction coefficient obtained using the reference plate and each pixel of the image of the object is used. However, the gloss unevenness cannot be corrected with high accuracy.
そこで本発明は、基準板を用いることなく、対象物の光沢を表す画像における光沢のムラを補正するための画像処理技術を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image processing technique for correcting uneven gloss in an image representing the gloss of an object without using a reference plate.
上記課題を解決するために、本発明に係る画像処理装置は、物体からの反射光の反射強度を表す第1画像データを取得する第1取得手段と、前記第1画像データを所定サイズの領域に分割する分割手段と、前記分割手段によって分割された各領域内の前記反射強度の平均値を算出する算出手段と、前記平均値の中から1つの値を抽出する抽出手段と、前記各領域内の前記反射強度の平均値が前記1つの値と同じ値となるように前記各領域内の前記反射強度を補正して得られる補正画像データを出力する出力手段と、を有することを特徴とする。 In order to solve the above-described problem, an image processing apparatus according to the present invention includes first acquisition means for acquiring first image data representing the reflection intensity of reflected light from an object, and the first image data in an area of a predetermined size. A dividing unit that divides the average value of the reflection intensity in each region divided by the dividing unit, an extracting unit that extracts one value from the average value, and each region. Output means for outputting corrected image data obtained by correcting the reflection intensity in each of the regions so that an average value of the reflection intensity is the same as the one value. To do.
本発明によれば、基準板を用いることなく、対象物の光沢を表す画像における光沢のムラを補正することができる。 According to the present invention, it is possible to correct uneven gloss in an image representing the gloss of an object without using a reference plate.
以下、本発明の実施例について、図面を参照して説明する。尚、以下の実施例は本発明を限定するものではない。また、本実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。尚、同一の構成については、同じ符号を付して説明する。 Embodiments of the present invention will be described below with reference to the drawings. The following examples do not limit the present invention. In addition, not all the combinations of features described in the present embodiment are essential for the solving means of the present invention. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.
[実施例1]
図1は、本実施例における画像処理装置1のハードウェア構成例である。画像処理装置1は、例えばコンピュータであり、CPU101、ROM102、RAM103を備える。CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)15などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス107を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD15などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。汎用I/F(インターフェース)104には、シリアルバス11を介して、マウスやキーボードなどの入力デバイス12やプリンタ13が接続される。SATA(シリアルATA)I/F105には、シリアルバス14を介して、HDD15や各種記録メディアの読み書きを行う汎用ドライブ16が接続される。CPU101は、HDD15や汎用ドライブ16にマウントされた各種記録メディアを各種データの格納場所として使用する。ビデオI/F106には、ディスプレイ17が接続される。CPU101は、プログラムによって提供されるUI(ユーザインターフェース)をディスプレイ17に表示し、入力デバイス12を介して受け付けるユーザ指示などの入力を受信する。
[Example 1]
FIG. 1 is a hardware configuration example of an image processing apparatus 1 in the present embodiment. The image processing apparatus 1 is a computer, for example, and includes a CPU 101, a ROM 102, and a RAM 103. The CPU 101 executes an OS (operating system) and various programs stored in the ROM 102, HDD (hard disk drive) 15 and the like using the RAM 103 as a work memory. The CPU 101 controls each component via the system bus 107. Note that the processing according to the flowchart to be described later is executed by the CPU 101 after the program code stored in the ROM 102, the HDD 15, or the like is expanded in the RAM 103. An input device 12 such as a mouse and a keyboard and a printer 13 are connected to the general-purpose I / F (interface) 104 via the serial bus 11. The SATA (serial ATA) I / F 105 is connected to a general-purpose drive 16 that reads and writes the HDD 15 and various recording media via the serial bus 14. The CPU 101 uses various recording media mounted on the HDD 15 or the general-purpose drive 16 as a storage location for various data. A display 17 is connected to the video I / F 106. The CPU 101 displays a UI (user interface) provided by the program on the display 17 and receives an input such as a user instruction received via the input device 12.
図2は、本実施例における画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、第1取得部201、第2取得部202、画像保持部203、生成部204、補正部205、連結部206、出力部207、座標保持部208を有する。第1取得部201は、対象物を撮像することによって得られた対象物の光沢を表す第1の光沢画像データを画像保持部203より取得する。尚、本実施例では、対象物を、重複を含むように領域ごとに分けて撮像した画像を表す複数の画像データを取得する。第2取得部202は、第1の光沢画像データを得たときと異なる撮像の条件で、対象物を撮像することによって得られた対象物の光沢を表す第2の光沢画像データを画像保持部203より取得する。尚、本実施例では、第1取得部201で取得した各第1の光沢画像データが含んでいる対象物の領域と同じ領域を異なる条件で撮像した複数の画像データを取得する。生成部204は、第1取得部201及び第2取得部202で取得した第1の光沢画像データ及び第2の光沢画像データを用いて、対象物の光沢の正反射成分を表す正反射画像データを生成する。補正部205は、生成部204で生成された正反射画像データに対して光沢ムラの補正を行う。尚、本実施例における光沢ムラは、撮像時の照明光の入射角度や反射光の出射角度といった幾何条件が対象物の位置ごとに変化することによって発生する光沢の変化である。連結部206は、座標保持部208に保持されている座標情報に基づいて、補正部205で補正された複数の各正反射画像データ(補正画像データ)を重複領域で連結し、出力部207にて出力する。 FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes a first acquisition unit 201, a second acquisition unit 202, an image holding unit 203, a generation unit 204, a correction unit 205, a connecting unit 206, an output unit 207, and a coordinate holding unit 208. The first acquisition unit 201 acquires first gloss image data representing the gloss of the object obtained by imaging the object from the image holding unit 203. In the present embodiment, a plurality of pieces of image data representing images obtained by dividing an object into regions so as to include overlap are acquired. The second acquisition unit 202 stores second gloss image data representing the gloss of the object obtained by imaging the object under an imaging condition different from that obtained when the first gloss image data is obtained. 203. In the present embodiment, a plurality of pieces of image data obtained by capturing the same region as the region of the object included in each first gloss image data acquired by the first acquisition unit 201 under different conditions are acquired. The generation unit 204 uses the first gloss image data and the second gloss image data acquired by the first acquisition unit 201 and the second acquisition unit 202 to use regular reflection image data representing the gloss regular reflection component of the object. Is generated. The correction unit 205 corrects the gloss unevenness with respect to the regular reflection image data generated by the generation unit 204. The gloss unevenness in the present embodiment is a change in gloss that occurs when geometric conditions such as the incident angle of illumination light and the exit angle of reflected light during imaging change for each position of the object. The connecting unit 206 connects a plurality of specular image data (corrected image data) corrected by the correcting unit 205 based on the coordinate information held in the coordinate holding unit 208 in the overlapping area, and outputs the data to the output unit 207. Output.
以下、上記構成からなる本実施例で実行される処理について図3のフローチャートを用いて説明する。尚、本実施例で扱う対象物は、例えば油彩画のように同一の素材で構成されており、マクロ的に光沢は略均一であるが、ミクロ的には表面の凹凸により対象物の位置によって光沢強度が異なる物体とする。以下、各ステップ(工程)は符号の前にSをつけて表す。 Hereinafter, processing executed in the present embodiment having the above-described configuration will be described with reference to the flowchart of FIG. Note that the object handled in this embodiment is made of the same material, such as an oil painting, and the gloss is substantially uniform on a macro scale, but microscopically depending on the position of the object due to surface irregularities. The object has different gloss intensity. Hereinafter, each step (process) is represented by adding S before the reference numeral.
S301において、第1取得部201は、対象物における正反射光の反射強度の分布を表す光沢画像データとして、撮像装置の偏光子の偏光方向を照明の偏光子の偏光方向と平行状態にして撮像された第1の光沢画像データを画像保持部203から取得する。本実施例における第1の光沢画像データは各画素に光の反射強度が格納された画像データである。尚、第1の光沢画像データが各画素に格納している反射強度には、正反射光だけではなく偏光子を通過した拡散反射光の反射強度も含まれている。図4(a)は第1の光沢画像データを得るための撮像条件の一例を示した図である。図4(a)において、光源501から照射された光は偏光フィルタ504を通過し、照射光(入射光)として対象物体503に入射する。対象物体503で反射した反射光は、偏光フィルタ505を介して撮像装置の受光部502で受光される。尚、偏光フィルタ504の偏光方向と偏光フィルタ505の偏光方向は同方向、すなわち平行な向きで配置されている。図4(a)のような条件で対象物を撮像して得られた第1の光沢画像データを画像保持部203に予め保持させておく。 In step S <b> 301, the first acquisition unit 201 captures an image with the polarization direction of the polarizer of the imaging device parallel to the polarization direction of the illumination polarizer as glossy image data representing the distribution of the reflection intensity of the regular reflection light on the object. The obtained first glossy image data is acquired from the image holding unit 203. The first glossy image data in this embodiment is image data in which the reflection intensity of light is stored in each pixel. The reflection intensity stored in each pixel by the first glossy image data includes not only the regular reflection light but also the reflection intensity of diffuse reflection light that has passed through the polarizer. FIG. 4A is a diagram illustrating an example of imaging conditions for obtaining first glossy image data. In FIG. 4A, the light emitted from the light source 501 passes through the polarizing filter 504 and enters the target object 503 as irradiated light (incident light). The reflected light reflected by the target object 503 is received by the light receiving unit 502 of the imaging apparatus via the polarizing filter 505. The polarization direction of the polarization filter 504 and the polarization direction of the polarization filter 505 are arranged in the same direction, that is, in parallel. First gloss image data obtained by imaging an object under the conditions as shown in FIG. 4A is held in the image holding unit 203 in advance.
S302において、第2取得部202は、対象物における拡散反射光の反射強度の分布を表す光沢画像データとして、撮像装置の偏光子の偏光方向を照明の偏光子の偏光方向と直交状態にして撮像された第2の光沢画像データを画像保持部203から取得する。図4(b)は第2の光沢画像データを得るための撮像条件の一例を示した図である。図4(b)において、501から504は図4(a)と同様である。受光部502は、偏光フィルタ504の偏光方向と偏光方向が直交するような向きで配置された偏光フィルタ506を介して、対象物の反射光を受光する。図4(b)のような条件で対象物を撮像して得られた第2の光沢画像データを画像保持部203に予め保持させておく。尚、撮像装置の偏光子の偏光方向が照明の偏光子の偏光方向と異なる1方向であれば、2つの方向が直交していなくても良い。 In S <b> 302, the second acquisition unit 202 captures an image with the polarization direction of the polarizer of the imaging device orthogonal to the polarization direction of the illumination polarizer as glossy image data representing the distribution of the reflection intensity of the diffusely reflected light on the object. The second gloss image data thus obtained is acquired from the image holding unit 203. FIG. 4B is a diagram showing an example of imaging conditions for obtaining the second glossy image data. In FIG. 4B, reference numerals 501 to 504 are the same as those in FIG. The light receiving unit 502 receives the reflected light of the object via the polarizing filter 506 arranged in such a direction that the polarization direction of the polarizing filter 504 and the polarization direction are orthogonal to each other. The second gloss image data obtained by imaging the object under the conditions as shown in FIG. 4B is held in the image holding unit 203 in advance. If the polarization direction of the polarizer of the imaging device is one direction different from the polarization direction of the illumination polarizer, the two directions do not have to be orthogonal.
S303において、生成部204は、S301で取得した対象物の各領域における第1の光沢画像データ、及び、S302で取得した第2の光沢画像データに基づいて、式1により対象物の正反射画像データを生成する。第1の光沢画像データが有する画素値をINp、第2の光沢画像データが有する画素値をINc、正反射画像データが有する画素値をINgとし、Nは対象物の領域番号を表す。式1により光の反射強度から拡散反射光の反射強度が取り除かれた正反射光のみの反射強度を画素値とした正反射画像データが得られる。正反射画像データは、画素位置に応じて撮像時の照明の入射/出射角度が異なるため、光沢ムラを有したデータとなる。 In step S303, the generation unit 204 uses the first gloss image data in each region of the target acquired in step S301 and the second gloss image data acquired in step S302 to obtain a specular reflection image of the target using Equation 1. Generate data. The pixel value of the first gloss image data is I N p, the pixel value of the second gloss image data is I N c, the pixel value of the specular reflection image data is I N g, and N is the area of the object Represents a number. The regular reflection image data with the reflection intensity of only the regular reflection light obtained by removing the reflection intensity of the diffuse reflection light from the reflection intensity of light as the pixel value can be obtained by Expression 1. The specular reflection image data is data having uneven glossiness because the incident / exit angles of illumination at the time of imaging differ depending on the pixel position.
INg(x,y)=αINp(x,y)−INc(x,y)・・・(式1)
尚、式1のαは第1の光沢画像データを撮像したときの撮像装置の露出と第2の光沢画像データを撮像したときの撮像装置の露出とを合わせるための定数である。Nごとに、つまり第1の光沢画像データ及び第2の光沢画像データの1組について1つの正反射画像データを生成する。
I N g (x, y) = α I N p (x, y) −I N c (x, y) (Formula 1)
Note that α in Expression 1 is a constant for matching the exposure of the imaging device when the first glossy image data is captured with the exposure of the imaging device when the second glossy image data is captured. One regular reflection image data is generated every N, that is, for one set of the first gloss image data and the second gloss image data.
S304において、補正部205は、S303で生成した複数の正反射画像データについて光沢ムラの補正を行う。尚、S304の詳細については後述する。S305において、連結部206は、S304で光沢ムラを補正した後の複数の正反射画像データを重複領域で連結する。尚、S305の詳細は後述する。S306において、出力部207は、S305で連結した連結画像データを出力し処理を終了する。 In step S304, the correction unit 205 corrects gloss unevenness for the plurality of regular reflection image data generated in step S303. Details of S304 will be described later. In step S305, the connecting unit 206 connects the plurality of specular image data after correcting the gloss unevenness in step S304 with overlapping regions. Details of S305 will be described later. In step S306, the output unit 207 outputs the connected image data connected in step S305 and ends the process.
以下、S304の光沢ムラを補正する処理に関して図5のフローチャートを用いて説明する。尚、S304の処理は各正反射画像データに対して行う。 Hereinafter, the process of correcting the gloss unevenness in S304 will be described with reference to the flowchart of FIG. Note that the process of S304 is performed for each specular image data.
S701において、S303で生成された正反射画像データを、予め設定されたm×nの画素数のブロックに分割する。図6(a)はブロックに分割された正反射画像データであり、図6(b)は図6(a)におけるブロック801で囲まれた領域の光沢強度の分布を表すヒストグラムである。正反射画像データは、対象物の位置ごとに撮像時の入射/出射角度が変化するため、光沢ムラが光沢に表れたデータである。一方、小領域(本実施例ではブロック内の領域)の範囲内であれば、撮像時の幾何条件は隣接画素間で類似しているため、領域内の光沢ムラは無視できるほど小さい。従って、図6(b)のヒストグラムに示すような光沢強度の分布は、撮像時の幾何条件の違いによる分布ではなく、対象物の表面の微細な凹凸に起因する光沢強度の大小関係を表しているといえる。 In S701, the regular reflection image data generated in S303 is divided into blocks having a preset number of pixels of m × n. FIG. 6A is specular image data divided into blocks, and FIG. 6B is a histogram representing the gloss intensity distribution in the area surrounded by the block 801 in FIG. 6A. The regular reflection image data is data in which gloss unevenness appears in gloss because the incident / exit angles at the time of imaging change for each position of the object. On the other hand, if it is within the range of the small area (area in the block in this embodiment), the geometric condition at the time of imaging is similar between adjacent pixels, and therefore the gloss unevenness in the area is negligibly small. Therefore, the gloss intensity distribution as shown in the histogram of FIG. 6B is not a distribution due to a difference in geometric conditions at the time of imaging, but represents a magnitude relationship of the gloss intensity caused by fine irregularities on the surface of the object. It can be said that.
S702において、式2によりブロック内の画素値の平均値 In S702, the average value of the pixel values in the block according to Equation 2
を算出する。
Is calculated.
尚、式2においてMは、正反射画像データの各ブロックを識別するためのブロック番号を表す。
In Expression 2, M represents a block number for identifying each block of regular reflection image data.
S703において、S702で算出したブロック毎の平均画素値 In S703, the average pixel value for each block calculated in S702
の中から、最大値Vmaxを抽出する。略同一の素材で構成された対象物では、正反射光の反射強度が最も大きな値となる。従って、平均画素値の最大値Vmaxは素材の正反射光を最も反映した値であるといえる。
The maximum value V max is extracted from the list . In an object composed of substantially the same material, the reflection intensity of specular reflection light has the highest value. Therefore, it can be said that the maximum value Vmax of the average pixel value is a value that most reflects the regular reflection light of the material.
S704において、S703で抽出したVmaxを用いて、式3により、全てのブロックの平均画素値がVmaxとなるように、各ブロックのブロック内の画素値を補正し、補正された正反射画像データを得る。尚、式3において、(i,j)はブロックMにおける各画素の座標であり、正反射画像データの座標(x,y)に対応した座標である。 In S704, using Vmax extracted in S703, the pixel values in the blocks of each block are corrected by Equation 3 so that the average pixel value of all the blocks becomes Vmax, and the corrected regular reflection image data is obtained. obtain. In Expression 3, (i, j) is the coordinates of each pixel in the block M, and corresponds to the coordinates (x, y) of the regular reflection image data.
本処理により、各ブロックでマクロ的な光沢強度をVmaxに均一化することにより、対象物の位置ごとの光沢強度を保持しながら、光沢ムラを補正することができる。尚、各ブロック内を平均値の最大値ではなく、他のブロックの平均値で全ブロックの光沢強度を均一化しても、光沢ムラを補正することができる。
By this processing, the macroscopic gloss intensity is equalized to Vmax in each block, so that gloss unevenness can be corrected while maintaining the gloss intensity for each position of the object. The gloss unevenness can be corrected even if the gloss intensity of all the blocks is equalized with the average value of other blocks in each block instead of the maximum average value.
以下、S305の正反射画像データの連結処理に関して図7のフローチャートを用いて説明する。尚、本実施例では説明を簡易にするため、図8(a)に示すような横方向に重複領域を持つ正反射画像データD1g’とD2g’とを連結する場合について説明を行う。尚、縦方向に重複領域を持つ場合も同様に、処理を縦方向に対して行うことで連結が可能である。 Hereinafter, the connection process of regular reflection image data in S305 will be described with reference to the flowchart of FIG. In the present embodiment, in order to simplify the description, a case where specular reflection image data D 1g ′ and D 2g ′ having overlapping regions in the horizontal direction as shown in FIG. Similarly, when there are overlapping areas in the vertical direction, connection can be made by performing processing in the vertical direction.
S901において、補正部205で補正された正反射画像データのうち、画像連結における連結先である第1の正反射画像データD1g’を取得する。S902において、補正部205で補正された正反射画像データのうち、S901で取得された正反射画像データとの重複領域が存在する第2の正反射画像データI2g’を連結対象として画像保持部203から取得する。 In step S <b> 901, among the regular reflection image data corrected by the correction unit 205, first regular reflection image data D 1g ′ that is a connection destination in image connection is acquired. In S902, among the regular reflection image data corrected by the correction unit 205, the second regular reflection image data I 2g ′ having an overlapping area with the regular reflection image data acquired in S901 is used as a concatenation target. 203.
S903において、S901で取得した第1の正反射画像データの対象物の表面上の位置を表す座標情報と、S902で取得した第2の正反射画像データの対象物の表面上の位置を表す座標情報とを座標保持部208から取得する。尚、表面上の座標情報は、図9に示すように、画像の4隅(左上、右上、左下、右下)に対応した対象物の全体における相対位置がミリメートルで記載されたデータであり、x10やy10等にはそれぞれ値が入っている。 In S903, coordinate information indicating the position on the surface of the object of the first specular image data acquired in S901, and coordinates indicating the position on the surface of the object of the second specular image data acquired in S902. Information is acquired from the coordinate holding unit 208. Incidentally, the coordinate information on the surface is data in which the relative position in the whole object corresponding to the four corners (upper left, upper right, lower left, lower right) of the image is described in millimeters as shown in FIG. Each of x10, y10, etc. has a value.
S904において、第1の正反射画像データと第2の正反射画像データとのx方向に重複する領域Sxと、y方向に重複する領域Syとを、それぞれ式4、式5により算出する。 In S904, a region Sx overlapping in the x direction and a region Sy overlapping in the y direction of the first regular reflection image data and the second regular reflection image data are calculated by Equations 4 and 5, respectively.
x20≦Sx≦x11・・・(式4)
y21≦Sy≦y10・・・(式5)
算出されたSx及びSyにより、Sx×Syの重複領域が特定できる。
x 20 ≦ S x ≦ x 11 (Formula 4)
y 21 ≦ S y ≦ y 10 (Expression 5)
Based on the calculated Sx and Sy, an overlap area of Sx × Sy can be specified.
S905において、重複領域に含まれる第1の正反射画像データの画素値I1g’(x、y)及び第2の正反射画像データの画素値I2g’(x、y)に対して、式6により評価値Rを算出する。式6において、kは重複領域に含まれる第1の正反射画像データの画素の総数である。尚、重複領域に含まれる画素の総数については、第1の正反射画像データと第2の正反射画像データは同じであるため、kを重複領域に含まれる第2の正反射画像データの画素の総数としても良い。 In S905, for the pixel value I 1g ′ (x, y) of the first specular image data and the pixel value I 2g ′ (x, y) of the second specular image data included in the overlapping area, 6 is used to calculate the evaluation value R. In Equation 6, k is the total number of pixels of the first regular reflection image data included in the overlapping region. As for the total number of pixels included in the overlapping area, the first specular image data and the second specular image data are the same, and therefore k is the pixel of the second specular image data included in the overlapping area. The total number of
S906において、S905で算出した評価値Rに対して、重複領域ごとに算出する評価値Rの最小値を表す変数Rminとの大小関係を比較する。もし、RがRminよりも小さければS907へ進み、そうでなければS908へ進む。S907において、式7により変数Rminの値をRに更新する。
In S906, the magnitude relation between the evaluation value R calculated in S905 and the variable Rmin representing the minimum value of the evaluation value R calculated for each overlapping region is compared. If R is smaller than Rmin, the process proceeds to S907; otherwise, the process proceeds to S908. In S907, the value of the variable Rmin is updated to R using Expression 7.
Rmin=R・・・(式7)
S908において、予め設定された探索範囲について探索が終了したかを判定する。もし全ての探索範囲について処理が完了していればS910に進み、そうでなければS909に進む。尚、本実施例では図8(b)における黒い枠で表した探索範囲を、第2の正反射画像データの長辺と短辺の10%に囲まれた領域に相当する範囲とするがこれに限るものではない。
R min = R (Expression 7)
In step S908, it is determined whether the search has been completed for a preset search range. If the processing has been completed for all the search ranges, the process proceeds to S910; otherwise, the process proceeds to S909. In this embodiment, the search range represented by the black frame in FIG. 8B is a range corresponding to an area surrounded by 10% of the long side and the short side of the second regular reflection image data. It is not limited to.
S909において、探索範囲内で、第2の正反射画像データをx方向又はy方向に1画素分の距離(Δx、Δy)ずつずらして移動させ、式8、式9により重複領域Sx、Syを更新しS905に戻る。 In S909, within the search range, the second specular image data is shifted and moved by one pixel distance (Δx, Δy) in the x direction or the y direction, and the overlapping regions Sx, Sy are expressed by Expressions 8 and 9. Update and return to S905.
x20+Δx≦Sx≦x11・・・(式8)
y21+Δy≦Sy≦y10・・・(式9)
S910において、Rminに対応する重複領域の範囲で第1の正反射画像データと第2の正反射画像データとを連結する。このとき、重複する領域においては公知の補間演算を行う。本実施例における公知の補間方法として、線形濃度変換法を用いることとするが、これに限るものではない。例えば、ヒストグラム一致法や平均濃度差補正法などを用いても良い。S911において、全ての正反射画像データの連結が完了したかを判定する。もし連結が完了していれば処理を終了し、そうでなければS902に戻る。
x 20 + Δx ≦ S x ≦ x 11 (Expression 8)
y 21 + Δy ≦ S y ≦ y 10 (formula 9)
In S910, the first regular reflection image data and the second regular reflection image data are connected within the range of the overlapping region corresponding to Rmin. At this time, a known interpolation operation is performed in the overlapping region. As a known interpolation method in this embodiment, a linear density conversion method is used, but is not limited to this. For example, a histogram matching method or an average density difference correction method may be used. In S911, it is determined whether or not all the regular reflection image data have been connected. If concatenation has been completed, the process is terminated; otherwise, the process returns to S902.
以上により、正反射画像データのブロックごとの平均値が一定となるように各ブロック内の画素値を補正することで、対象物の位置ごとの光沢強度の相対関係を保持しながら、画像が有する光沢のムラを補正することができる。 As described above, by correcting the pixel value in each block so that the average value for each block of the regular reflection image data is constant, the image has the relative relationship of the gloss intensity for each position of the object. Uneven gloss can be corrected.
尚、本実施例では、対象物を複数の領域に分けて撮像を行い、光沢ムラの補正を行ってから連結を行ったが、上記一例に限定されない。対象物を複数の領域に分けて撮像する必要がなければ、1つの第1の光沢画像データと1つの第2の光沢画像データを取得し、1つの正反射画像データに光沢ムラの補正を行った後、S305の連結処理を行わずにS306で正反射画像データを出力しても良い。 In this embodiment, the object is imaged by dividing it into a plurality of regions, and the connection is performed after correcting the uneven glossiness. However, the present invention is not limited to the above example. If it is not necessary to divide the object into a plurality of areas and capture images, one first gloss image data and one second gloss image data are obtained, and gloss unevenness correction is performed on one regular reflection image data. Then, the regular reflection image data may be output in S306 without performing the connection process in S305.
[実施例2]
実施例1では、光沢ムラの補正処理において、光沢画像を予め決められた所定サイズのブロックに分割し処理を行った。しかし、ブロックサイズが大きい場合、幾何条件の違いによる光沢ムラがブロック内に含まれる場合がある。このような場合、光沢画像に応じてブロックサイズを適応的に変えても良い。本実施例では、光沢画像に応じて適切にブロックサイズを決定する方法について、実施例1との差分を主に説明する。
[Example 2]
In the first embodiment, in the gloss unevenness correction process, the gloss image is divided into predetermined blocks of a predetermined size. However, when the block size is large, gloss unevenness due to a difference in geometric conditions may be included in the block. In such a case, the block size may be adaptively changed according to the glossy image. In the present embodiment, a difference from the first embodiment will be mainly described with respect to a method for appropriately determining a block size according to a glossy image.
以下、S304の光沢ムラの補正処理に関して図10のフローチャートを用いて説明する。本処理は、複数種類のブロックサイズから、幾何条件の違いによる光沢ムラの影響が少ないブロックサイズを決定するため、ブロック内における画素値の統計値に基づいてブロックサイズを決定する処理である。 Hereinafter, the gloss unevenness correction processing in S304 will be described with reference to the flowchart of FIG. This process is a process for determining a block size based on a statistical value of pixel values in a block in order to determine a block size with less influence of gloss unevenness due to a difference in geometric conditions from a plurality of types of block sizes.
S1201において、正反射画像データの中心座標を中心として、x方向に−aから+a、y方向に−bから+bの画素範囲(2a×2bの領域)を抽出する。S1202において、S1201で抽出したブロック内の画素値の標準偏差σを式10及び式11により算出する。尚、IcgはS1201で抽出したブロック内の画素値である。 In step S1201, a pixel range (2a × 2b region) from −a to + a in the x direction and −b to + b in the y direction is extracted with the center coordinate of the regular reflection image data as the center. In S1202, the standard deviation σ of the pixel value in the block extracted in S1201 is calculated by Expression 10 and Expression 11. Icg is the pixel value in the block extracted in S1201.
S1203において、S1202で算出したσと、標準偏差の最小値を表す変数σminとの大小関係を比較し、もし式12を満たせばS1204に進み、そうでなければS1205に進む。
In S1203, the magnitude relation between σ calculated in S1202 and the variable σmin representing the minimum value of the standard deviation is compared. If Expression 12 is satisfied, the process proceeds to S1204, and if not, the process proceeds to S1205.
σ<σmin・・・(式12)
S1204において、σminの値をσに更新する。S1205において、ブロックサイズにおけるaとbの全ての組み合わせについて標準偏差σの算出を行ったかを判定する。aとbの組み合わせは、(a,b)=(1,1)から2a×2bの領域が正反射画像データの全領域と等しくなる値の組み合わせまでである。例えば、正反射画像データが6×6画素である場合、aとbとについて、(1,1)、(2,1)、(1,2)、(2,2)、(3,2)、(2,3)、(3,3)が全ての組み合わせである。全ての組み合わせに対して標準偏差の算出が行われていればS1207に進み、そうでなければS1206に進む。
σ <σmin (Formula 12)
In S1204, the value of σmin is updated to σ. In step S1205, it is determined whether the standard deviation σ has been calculated for all combinations of a and b in the block size. The combination of a and b is from (a, b) = (1, 1) to a combination of values in which the 2a × 2b region is equal to the entire region of the regular reflection image data. For example, when the regular reflection image data is 6 × 6 pixels, (1, 1), (2, 1), (1, 2), (2, 2), (3, 2) for a and b , (2, 3), (3, 3) are all combinations. If the standard deviation has been calculated for all the combinations, the process proceeds to S1207, and if not, the process proceeds to S1206.
S1206において、aとbとについて、未処理の組み合わせとなるように、a又はbの値を変えて、S1202に戻る。S1207からS1210は実施例1におけるS701からS704と同様であるため、説明を省略する。 In S1206, the value of a or b is changed so that an unprocessed combination is obtained for a and b, and the process returns to S1202. Since S1207 to S1210 are the same as S701 to S704 in the first embodiment, description thereof is omitted.
以上の処理により、光沢画像のブロック毎の画素値の標準偏差に応じてブロックサイズを適応的に決定することにより、より精度よく画像が有する光沢のムラを補正することができる。 Through the above processing, the uneven glossiness of the image can be corrected more accurately by adaptively determining the block size according to the standard deviation of the pixel value for each block of the glossy image.
[実施例3]
実施例2では、光沢ムラの補正処理において、光沢画像のブロック毎の画素値の標準偏差に応じてブロックサイズを決定した。しかし、ブロックサイズの決定方法はこれに限るものではない。図11は対象物の特性による反射特性の違いを表した図である。図11で横軸は反射角度を表しており、0度方向が正反射方向である。また、縦軸は反射強度を表している。図11(a)に示すように、金属などの角度ごとの反射強度の変化が大きい対象物の場合、正反射方向を示す角度からわずかに外れるだけで反射強度は大きく変化する。一方、図11(b)が示すように油彩画などの角度ごとの反射強度の変化が小さい場合、正反射方向を示す角度から外れても反射強度は大きく変化しない。このような場合、対象物の角度ごとの反射強度の変化に応じてブロックサイズを適応的に決定しても良い。本実施例では、対象物の特性に応じてブロックサイズを決定する方法について、実施例1との差分について主に説明する。
[Example 3]
In the second embodiment, in the gloss unevenness correction process, the block size is determined according to the standard deviation of the pixel value for each block of the glossy image. However, the method for determining the block size is not limited to this. FIG. 11 is a diagram showing a difference in reflection characteristics depending on characteristics of an object. In FIG. 11, the horizontal axis represents the reflection angle, and the 0 degree direction is the regular reflection direction. The vertical axis represents the reflection intensity. As shown in FIG. 11A, in the case of an object having a large change in reflection intensity for each angle, such as metal, the reflection intensity changes greatly only by slightly deviating from the angle indicating the regular reflection direction. On the other hand, as shown in FIG. 11B, when the change in the reflection intensity for each angle such as an oil painting is small, the reflection intensity does not change greatly even if the angle deviates from the angle indicating the regular reflection direction. In such a case, the block size may be adaptively determined according to the change in the reflection intensity for each angle of the object. In the present embodiment, the difference from the first embodiment will be mainly described with respect to the method for determining the block size according to the characteristics of the object.
以下、S304の光沢ムラの補正処理に関して図12のフローチャートを用いて説明する。 Hereinafter, the gloss unevenness correction processing in S304 will be described with reference to the flowchart of FIG.
S1401において、対象物の角度ごとの反射特性を取得する。図13は対象物の特性を取得するためのユーザーインターフェース(UI)である。本実施例では、予め3種類の特性がプリセットされているものとする。1つ目は角度ごとの反射強度の変化が大きい状態として「金属」、2つ目は角度ごとの反射強度の変化が中程度の状態として「油彩画」、3つ目は角度ごとの反射強度の変化が小さい状態として「その他」とする。図13のUIを介した、対象物が上記3つのうちどの状態であるかを示すユーザの指示結果に基づいて、反射特性を取得する。尚、プリセットされている角度ごとの反射特性は3つに限るものではない。 In S1401, the reflection characteristic for each angle of the object is acquired. FIG. 13 shows a user interface (UI) for acquiring characteristics of an object. In this embodiment, it is assumed that three types of characteristics are preset. The first is “metal” with a large change in reflection intensity at each angle, the second is “oil painting” with a medium change in reflection intensity at each angle, and the third is the reflection intensity at each angle. “Others” is a state in which the change in is small. Based on the user instruction result indicating which of the above three states the object is obtained via the UI of FIG. 13, the reflection characteristic is acquired. Note that the reflection characteristics for each preset angle are not limited to three.
S1402において、図14に示す対象物の特性とブロックサイズとの対応関係を表すテーブルを参照し、S1401で取得した特性に応じたブロックサイズを取得する。S1403からS1406は実施例1におけるS701からS704と同様であるため、説明を省略する。 In step S1402, the block size corresponding to the characteristic acquired in step S1401 is acquired by referring to the table representing the correspondence between the characteristic of the object and the block size shown in FIG. Since steps S1403 to S1406 are the same as steps S701 to S704 in the first embodiment, description thereof is omitted.
以上の処理により、対象物の特性に応じて、ブロックサイズを適応的に決定することにより、より精度よく画像が有する光沢のムラを補正することができる。 Through the above processing, the uneven glossiness of the image can be corrected with higher accuracy by adaptively determining the block size according to the characteristics of the object.
尚、本実施例のようにユーザの指示結果に基づいて、対象物の反射特性を取得するのではなく、対象物を撮像することによって得られた反射特性(反射強度)を取得しても良い。この場合、反射強度の値とブロックサイズとが対応付いたテーブルを予め用意しておくことで、対象物の特性に応じたブロックサイズを決定することができる。 Note that, instead of acquiring the reflection characteristic of the object based on the user's instruction result as in the present embodiment, the reflection characteristic (reflection intensity) obtained by imaging the object may be acquired. . In this case, a block size corresponding to the characteristics of the object can be determined by preparing in advance a table in which the value of the reflection intensity is associated with the block size.
[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1 画像処理装置
205 補正部
207 出力部
1 Image Processing Device 205 Correction Unit 207 Output Unit
Claims (14)
前記第1画像データを所定サイズの領域に分割する分割手段と、
前記分割手段によって分割された各領域内の前記反射強度の平均値を算出する算出手段と、
前記平均値の中から1つの値を抽出する抽出手段と、
前記各領域内の前記反射強度の平均値が前記1つの値と同じ値となるように前記各領域内の前記反射強度を補正して得られる補正画像データを出力する出力手段と、
を有することを特徴とする画像処理装置。 First acquisition means for acquiring first image data representing reflection intensity of reflected light from an object;
Dividing means for dividing the first image data into regions of a predetermined size;
Calculating means for calculating an average value of the reflection intensity in each region divided by the dividing means;
Extracting means for extracting one value from the average value;
Output means for outputting corrected image data obtained by correcting the reflection intensity in each region such that an average value of the reflection intensity in each region is the same as the one value;
An image processing apparatus comprising:
前記第1方向に偏光した前記物体への入射光に対する前記反射光を前記所定の1方向とは異なる方向に偏光して得られる光の反射強度を表す第3画像データを取得する第3取得手段と、
前記第2画像データと前記第3画像データとに基づいて、前記第1画像データを生成する生成手段と、をさらに有し、
前記第1取得手段は、前記生成手段によって生成された前記第1画像データを取得することを特徴とする請求項1に記載の画像処理装置。 Second acquisition means for acquiring second image data representing a reflection intensity of light obtained by polarizing the reflected light with respect to the incident light to the object polarized in a predetermined one direction in the same direction as the predetermined one direction; ,
Third acquisition means for acquiring third image data representing a reflection intensity of light obtained by polarizing the reflected light with respect to the incident light to the object polarized in the first direction in a direction different from the predetermined one direction. When,
Generating means for generating the first image data based on the second image data and the third image data;
The image processing apparatus according to claim 1, wherein the first acquisition unit acquires the first image data generated by the generation unit.
前記標準偏差の値が最も小さい値となる領域のサイズを前記分割手段の分割に用いる前記所定サイズに設定する設定手段と、をさらに有し、
前記分割手段は、前記第1画像データを、前記設定手段によって設定された前記所定サイズの領域に分割することを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像処理装置。 A calculation means for calculating a standard deviation of the reflection intensity in each region of a plurality of sizes in the first image data;
Setting means for setting the size of the region where the value of the standard deviation is the smallest value to the predetermined size used for the division of the dividing means;
The image processing apparatus according to claim 1, wherein the dividing unit divides the first image data into regions of the predetermined size set by the setting unit. .
前記反射特性に基づいて、前記分割手段で分割する領域のサイズを決定する決定手段と、をさらに有し、
前記分割手段は、前記第1画像データを、前記決定手段によって決定されたサイズの領域に分割することを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像処理装置。 Fourth acquisition means for acquiring the reflection characteristic of the object;
Determining means for determining the size of the area to be divided by the dividing means based on the reflection characteristics;
The image processing apparatus according to claim 1, wherein the dividing unit divides the first image data into regions having a size determined by the determining unit.
複数の前記補正画像データを連結する連結手段と、をさらに有し、
前記出力手段は、前記連結手段によって連結された前記補正画像データを出力することを特徴とする請求項1乃至請求項10のいずれか一項に記載の画像処理装置。 The first image data is a plurality of image data obtained by imaging the object divided into a plurality of regions,
And a connecting means for connecting a plurality of the corrected image data,
The image processing apparatus according to claim 1, wherein the output unit outputs the corrected image data connected by the connecting unit.
前記座標情報に基づいて、複数の前記補正画像データの中で重複する領域を特定する特定手段と、をさらに有し、
前記連結手段は、前記特定手段によって特定された前記重複する領域で、前記補正画像データを連結することを特徴とする請求項11に記載の画像処理装置。 Fifth acquisition means for acquiring, for each of the correction image data, coordinate information indicating the reflection intensity represented by the correction image data at which position in the object;
A specifying means for specifying an overlapping area in the plurality of corrected image data based on the coordinate information; and
The image processing apparatus according to claim 11, wherein the connecting unit connects the corrected image data in the overlapping area specified by the specifying unit.
前記第1画像データを所定サイズの領域に分割する分割ステップと、
前記分割手段によって分割された各領域内の前記反射強度の平均値を算出する算出ステップと、
前記平均値の中から1つの値を抽出する抽出ステップと、
前記各領域内の前記反射強度の平均値が前記1つの値と同じ値となるように前記各領域内の前記反射強度を補正して得られる補正画像データを出力する出力ステップと、
を有することを特徴とする画像処理装置の画像処理方法。 A first acquisition step of acquiring first image data representing a reflection intensity of reflected light from an object;
A dividing step of dividing the first image data into regions of a predetermined size;
A calculation step of calculating an average value of the reflection intensity in each region divided by the dividing unit;
An extraction step of extracting one value from the average value;
An output step of outputting corrected image data obtained by correcting the reflection intensity in each area so that an average value of the reflection intensity in each area is equal to the one value;
An image processing method for an image processing apparatus, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016148212A JP2018017611A (en) | 2016-07-28 | 2016-07-28 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016148212A JP2018017611A (en) | 2016-07-28 | 2016-07-28 | Image processing apparatus, image processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018017611A true JP2018017611A (en) | 2018-02-01 |
Family
ID=61076116
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016148212A Pending JP2018017611A (en) | 2016-07-28 | 2016-07-28 | Image processing apparatus, image processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018017611A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024237051A1 (en) * | 2023-05-17 | 2024-11-21 | ソニーグループ株式会社 | Information processing device and method |
| WO2025249308A1 (en) * | 2024-05-27 | 2025-12-04 | パナソニックIpマネジメント株式会社 | Image acquisition method, image acquisition device, and image acquisition program |
-
2016
- 2016-07-28 JP JP2016148212A patent/JP2018017611A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024237051A1 (en) * | 2023-05-17 | 2024-11-21 | ソニーグループ株式会社 | Information processing device and method |
| WO2025249308A1 (en) * | 2024-05-27 | 2025-12-04 | パナソニックIpマネジメント株式会社 | Image acquisition method, image acquisition device, and image acquisition program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10726539B2 (en) | Image processing apparatus, image processing method and storage medium | |
| US10699476B2 (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
| US8405742B2 (en) | Processing images having different focus | |
| US10430962B2 (en) | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and storage medium that calculate a three-dimensional shape of an object by capturing images of the object from a plurality of directions | |
| US8805077B2 (en) | Subject region detecting apparatus | |
| JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
| US10455163B2 (en) | Image processing apparatus that generates a combined image, control method, and storage medium | |
| JP2020010146A (en) | Image processing system, image processing method, and program | |
| US10169891B2 (en) | Producing three-dimensional representation based on images of a person | |
| US20160245641A1 (en) | Projection transformations for depth estimation | |
| JP2020008502A (en) | Depth acquisition device by polarization stereo camera, and method of the same | |
| JP2020004085A (en) | Image processing apparatus, image processing method, and program | |
| EP2536123B1 (en) | Image processing method and image processing apparatus | |
| US9756220B2 (en) | Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region | |
| JP2018017611A (en) | Image processing apparatus, image processing method, and program | |
| US20120038785A1 (en) | Method for producing high resolution image | |
| JP6478282B2 (en) | Information terminal device and program | |
| JP2009146150A (en) | Feature position detection method and feature position detection apparatus | |
| JP5955003B2 (en) | Image processing apparatus, image processing method, and program | |
| JP6867766B2 (en) | Information processing device and its control method, program | |
| JP2015170038A (en) | Image processing apparatus, image processing method, and computer program for executing image processing | |
| JP5563390B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP4351090B2 (en) | Image processing apparatus and image processing method | |
| JP5636966B2 (en) | Error detection apparatus and error detection program | |
| JP7643569B2 (en) | Image processing device, method and program |