[go: up one dir, main page]

JP2005151345A - Data processing apparatus, method thereof and imaging apparatus - Google Patents

Data processing apparatus, method thereof and imaging apparatus Download PDF

Info

Publication number
JP2005151345A
JP2005151345A JP2003388261A JP2003388261A JP2005151345A JP 2005151345 A JP2005151345 A JP 2005151345A JP 2003388261 A JP2003388261 A JP 2003388261A JP 2003388261 A JP2003388261 A JP 2003388261A JP 2005151345 A JP2005151345 A JP 2005151345A
Authority
JP
Japan
Prior art keywords
data
image data
correlation
constituting
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003388261A
Other languages
Japanese (ja)
Inventor
Yoichi Nishino
洋一 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003388261A priority Critical patent/JP2005151345A/en
Publication of JP2005151345A publication Critical patent/JP2005151345A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 同じ撮像装置で生成した画像データを基に得られた画像データであるか否かを判定できるデータ処理装置を提供する。
【解決手段】 デジタルカメラ3で生成された参照画像データREFにコンピュータ5で補間処理を施して参照画像データREFaを生成し、これを照合装置6に登録する。そして、照合装置6が、入力した判定用画像データOBJaを構成するR,G,Bの少なくとも一つの要素データと、上記登録した参照画像データREFaを構成するGの要素データとの相関を検出する。そ6あ、上記検出した上記相関を基に、判定用画像データOBJaがデジタルカメラ3が生成した画像データS3を基にして得られたか否かを判定する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a data processing device capable of determining whether or not the image data is obtained based on image data generated by the same imaging device.
Reference image data REF generated by a digital camera 3 is subjected to interpolation processing by a computer 5 to generate reference image data REFa, which is registered in a collation device 6. Then, the collation device 6 detects a correlation between at least one element data of R, G, and B constituting the input determination image data OBJa and element data of G constituting the registered reference image data REFa. . Then, based on the detected correlation, it is determined whether or not the determination image data OBJa is obtained based on the image data S3 generated by the digital camera 3.
[Selection] Figure 1

Description

本発明は、同じ撮像装置で生成した画像データを基に得られた画像データであるか否かを判定するデータ処理装置、その方法および撮像装置に関する。   The present invention relates to a data processing apparatus that determines whether or not image data is obtained based on image data generated by the same imaging apparatus, a method thereof, and an imaging apparatus.

例えば、デジタル方式のカメラで撮像したデジタル形式の画像データが、当該画像データの著作権者の許諾を受けずに、第三者によって不正に使用されることがある。
このようなデジタル方式のカメラで撮像された画像データは、例えば、表示用デコード処理を経た後にサーバ装置などに送信されて公開される。
上記表示デコード処理は、例えば、カメラが生成したオリジナルの画像データからGの要素データを抽出して補間処理を行ってカメラの画素位置の全てのGの要素データを生成する。そして、上記画像データから抽出されたRおよびBの要素データの各々について、当該要素データと当該要素データに対応して上記補間処理により生成されたGの要素データとを基に新たな要素データを生成し、当該新たな要素データを基に補間処理を行って公開用の画像データを生成する。
For example, digital image data captured by a digital camera may be used illegally by a third party without obtaining permission from the copyright holder of the image data.
Image data captured by such a digital camera is, for example, transmitted to a server device or the like after being subjected to a display decoding process and then released.
In the display decoding process, for example, G element data is extracted from original image data generated by the camera, and interpolation processing is performed to generate all G element data at the pixel position of the camera. Then, for each of the R and B element data extracted from the image data, new element data is obtained based on the element data and the G element data generated by the interpolation process corresponding to the element data. The image data for publication is generated by performing interpolation processing based on the new element data.

しかしながら、従来では、上述した表示用デコード処理を経て公開された他人の画像データを不正に改竄して画像データが生成された場合に、その不正を特定できないという問題がある。   However, conventionally, when image data is generated by illegally falsifying another person's image data released through the display decoding process described above, there is a problem that the fraud cannot be specified.

本発明は上述した従来技術の問題点に鑑みてなされ、同じ撮像装置で生成した画像データを基に得られた画像データであるか否かを判定できるデータ処理装置およびその方法を提供することを目的とする。
また、本発明は、上述した判定を高い信頼性で行うことを可能にするために用いられる撮像装置を提供することを目的とする。
The present invention has been made in view of the above-described problems of the prior art, and provides a data processing apparatus and method for determining whether or not the image data is obtained based on image data generated by the same imaging apparatus. Objective.
It is another object of the present invention to provide an imaging apparatus used for enabling the above-described determination to be performed with high reliability.

上述した従来技術の問題点を解決し、上述した目的を達成するために、第1の発明のデータ処理装置は、第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する相関検出手段と、前記相関検出手段が検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する判定手段とを有する。   In order to solve the above-described problems of the prior art and achieve the above-described object, the data processing apparatus according to the first aspect of the present invention provides R (red), G (green), B ( Correlation detection means for detecting a correlation between at least one element data of blue) and G element data constituting the second image data, and the first image based on the correlation detected by the correlation detection means A determination unit configured to determine whether the data and the second image data are obtained based on image data generated by the same imaging device;

第1の発明のデ−タ処理装置の作用は以下のようになる。
先ず、相関検出手段が、第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する。
次に、判定手段が、前記相関検出手段が検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する。
The operation of the data processing apparatus of the first invention is as follows.
First, the correlation detecting means includes at least one element data of R (red), G (green), and B (blue) constituting the first image data and G element data constituting the second image data. Detect correlation.
Next, based on the correlation detected by the correlation detection unit, whether or not the determination unit has obtained the first image data and the second image data based on image data generated by the same imaging device. Determine whether or not.

第2の発明のデータ処理方法は、第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する第1の工程と、前記第1の工程で検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する第2の工程とを有する。   According to a second aspect of the present invention, there is provided a data processing method in which at least one element data of R (red), G (green), and B (blue) constituting the first image data and an element of G constituting the second image data. Image data generated by an imaging device in which the first image data and the second image data are the same based on the first step of detecting a correlation with data and the correlation detected in the first step And a second step of determining whether or not it has been obtained based on the above.

第2の発明のデ−タ処理方法の作用は以下のようになる。
先ず、第1の工程において、第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する。
次に、第2の工程において、前記第1の工程で検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する。
The operation of the data processing method of the second invention is as follows.
First, in the first step, at least one element data of R (red), G (green), and B (blue) constituting the first image data and element data of G constituting the second image data; To detect the correlation.
Next, in the second step, based on the image data generated by the same imaging device, the first image data and the second image data are based on the correlation detected in the first step. It is determined whether or not it has been obtained.

第3の発明の撮像装置は、撮像結果に応じたデジタルの画像データを生成する撮像装置であって、マトリクス状に配設された複数の画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの要素データから構成される第1の画像データを生成する撮像手段と、前記撮像手段が生成した前記第1の画像データを前記撮像装置の外部に出力する第1のインタフェースと、前記撮像手段が生成した前記第1の画像データからGの要素データを抽出して補間処理を行って前記複数の画素位置の全てのGの要素データを生成し、前記画像データから抽出されたRおよびBの要素データの各々について、当該要素データと当該要素データに対応して前記補間処理により生成された前記Gの要素データとを基に新たな要素データを生成し、当該新たな要素データを基に補間処理を行って第2の画像データを生成する処理手段と、前記処理手段が生成した前記第2の画像データを前記撮像装置の外部に出力する第2のインタフェースとを有する。   An image pickup apparatus according to a third aspect of the present invention is an image pickup apparatus that generates digital image data according to an image pickup result, and is any one of R, G, and B at each of a plurality of pixel positions arranged in a matrix. Imaging means for generating first image data composed of R, G, B element data obtained by imaging two lights, and the first image data generated by the imaging means for the imaging device A first interface to be output to the outside, and G element data is extracted from the first image data generated by the imaging means and subjected to interpolation processing to obtain all G element data at the plurality of pixel positions. For each of the R and B element data generated and extracted from the image data, a new element is created based on the element data and the G element data generated by the interpolation process corresponding to the element data. data Generating and generating second image data by performing interpolation processing based on the new element data; and outputting the second image data generated by the processing means to the outside of the imaging device. 2 interfaces.

第3の発明の撮像装置の作用は以下のようになる。
先ず、撮像手段が、マトリクス状に配設された複数の画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの要素データから構成される第1の画像データを生成する。
そして、第1のインタフェースが、前記撮像手段が生成した前記第1の画像データを前記撮像装置の外部に出力する。
また、処理手段が、前記撮像手段が生成した前記第1の画像データからGの要素データを抽出して補間処理を行って前記複数の画素位置の全てのGの要素データを生成し、前記画像データから抽出されたRおよびBの要素データの各々について、当該要素データと当該要素データに対応して前記補間処理により生成された前記Gの要素データとを基に新たな要素データを生成し、当該新たな要素データを基に補間処理を行って第2の画像データを生成する。
そして、第2のインタフェースが、前記処理手段が生成した前記第2の画像データを前記撮像装置の外部に出力する。
The operation of the image pickup apparatus of the third invention is as follows.
First, the imaging means is composed of element data of R, G, B obtained by imaging any one light of R, G, B at each of a plurality of pixel positions arranged in a matrix. First image data is generated.
Then, the first interface outputs the first image data generated by the imaging unit to the outside of the imaging device.
Further, the processing means extracts G element data from the first image data generated by the imaging means and performs an interpolation process to generate all G element data at the plurality of pixel positions. For each of the R and B element data extracted from the data, new element data is generated based on the element data and the G element data generated by the interpolation process corresponding to the element data, Interpolation processing is performed based on the new element data to generate second image data.
Then, the second interface outputs the second image data generated by the processing means to the outside of the imaging device.

第1および第2の発明によれば、同じ撮像装置で生成した画像データを基に得られた画像データであるか否かを判定できるデータ処理装置およびその方法を提供することができる。
また、第2の発明によれば、上述した判定を高い信頼性で行うことを可能にするために用いられる撮像装置を提供することができる。
According to the first and second aspects of the present invention, it is possible to provide a data processing apparatus and method that can determine whether or not the image data is obtained based on image data generated by the same imaging apparatus.
In addition, according to the second invention, it is possible to provide an imaging apparatus that is used to enable the above-described determination to be performed with high reliability.

第1実施形態
以下、本発明の第1実施形態を図1〜図20を参照して説明する。
当該実施形態は、第1および第2の発明に対応している。
先ず、本発明の構成要素と本実施形態の構成要素との対応関係を説明する。
図1等に示す照合装置6が、第1の発明のデータ処理装置に対応している。
図7に示す相関検出部42が第1の発明の相関検出手段に対応し、判定部43が第1の発明の判定手段に対応している。
また、図1等に示す判定用画像データOBJa(OBJ)が第1および第2の発明の第1の画像データに対応し、参照画像データREFaが第1および第2の発明の第2の画像データ、並びに第1の発明の参照画像データに対応している。
First Embodiment Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
This embodiment corresponds to the first and second inventions.
First, the correspondence between the components of the present invention and the components of the present embodiment will be described.
A collation device 6 shown in FIG. 1 and the like corresponds to the data processing device of the first invention.
The correlation detection unit 42 shown in FIG. 7 corresponds to the correlation detection unit of the first invention, and the determination unit 43 corresponds to the determination unit of the first invention.
Further, the determination image data OBJa (OBJ) shown in FIG. 1 and the like correspond to the first image data of the first and second inventions, and the reference image data REFa is the second image of the first and second inventions. It corresponds to the data and the reference image data of the first invention.

以下、本発明の第1実施形態の概要について説明する。
デジタルカメラ3で生成された参照画像データREFにコンピュータ5で補間処理を施して参照画像データREFaを生成し、これを照合装置6に登録する。
そして、図7に示す相関検出部42が、入力した判定用画像データOBJaを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと、上記登録した参照画像データREFaを構成するGの要素データとの相関を検出する。
このとき、相関検出部42は、受光感度に固有のバラツキを持つ受光素子に被写体からの反射光を入射するデジタルカメラ3等によって生成され上記判定用画像データOBJaおよび参照画像データREFaに、これらの画像データを構成する受光素子の受光結果に応じた要素データに生じた上記受光感度のバラツキを上記相関に反映する処理を施す。
そして、判定部43が、相関検出部42が検出した上記相関を基に、判定用画像データOBJaがデジタルカメラ3が生成した画像データS3を基にして得られたか否かを判定する。
The outline of the first embodiment of the present invention will be described below.
The reference image data REF generated by the digital camera 3 is subjected to interpolation processing by the computer 5 to generate reference image data REFa, which is registered in the collation device 6.
Then, the correlation detection unit 42 shown in FIG. 7 includes at least one element data of R (red), G (green), and B (blue) constituting the input determination image data OBJa, and the registered reference image data. Correlation with element data of G constituting REFa is detected.
At this time, the correlation detection unit 42 is generated by the digital camera 3 or the like that makes the reflected light from the subject incident on the light receiving element having a variation unique to the light receiving sensitivity, and the determination image data OBJa and the reference image data REFa A process for reflecting the variation in the light receiving sensitivity generated in the element data corresponding to the light receiving result of the light receiving element constituting the image data in the correlation is performed.
Then, the determination unit 43 determines whether the determination image data OBJa is obtained based on the image data S3 generated by the digital camera 3 based on the correlation detected by the correlation detection unit 42.

以下、第1実施形態のデータ処理システム1について詳細に説明する。
図1は、本実施形態のデータ処理システム1の構成図である。
図1に示すように、データ処理システム1は、例えば、デジタルカメラ3、コンピュータ4、コンピュータ5および照合装置6を有する。
〔デジタルカメラ3〕
デジタルカメラ3は、図1に示すように、レンズ10、受光部11、A/D変換部12およびエンコーダ13を有する。
レンズ10は、被写体からの光を入射し、それを受光部11に出力する。
受光部11は、マトリクス状に配設された複数の受光素子を有する。
レンズ10を介して入力した被写体からの光は、上記受光素子に入射する。
そして、受光部11は、複数の受光素子の受光結果に応じた画像信号をA/D変換部12に出力する。
A/D変換部12は、受光部11から入力した画像信号をA/D変換してデジタルの画像データを生成し、これをエンコーダ13に出力する。
エンコーダ13は、A/D変換部12から入力した参照用の画像データを暗号化して参照画像データREFを生成し、これを記録媒体21に書き込む。
また、エンコーダ13は、同様に、A/D変換部12から入力した公開用の画像データを暗号化して画像データS3を生成し、これを記録媒体20に書き込む。
Hereinafter, the data processing system 1 of the first embodiment will be described in detail.
FIG. 1 is a configuration diagram of a data processing system 1 according to the present embodiment.
As shown in FIG. 1, the data processing system 1 includes, for example, a digital camera 3, a computer 4, a computer 5, and a collation device 6.
[Digital camera 3]
As shown in FIG. 1, the digital camera 3 includes a lens 10, a light receiving unit 11, an A / D conversion unit 12, and an encoder 13.
The lens 10 receives light from the subject and outputs it to the light receiving unit 11.
The light receiving unit 11 has a plurality of light receiving elements arranged in a matrix.
Light from the subject input through the lens 10 enters the light receiving element.
Then, the light receiving unit 11 outputs an image signal corresponding to the light reception results of the plurality of light receiving elements to the A / D conversion unit 12.
The A / D conversion unit 12 A / D converts the image signal input from the light receiving unit 11 to generate digital image data, and outputs the digital image data to the encoder 13.
The encoder 13 encrypts the reference image data input from the A / D conversion unit 12 to generate reference image data REF, and writes this into the recording medium 21.
Similarly, the encoder 13 encrypts the public image data input from the A / D converter 12 to generate image data S3, and writes this into the recording medium 20.

受光部11は、図2に示すように、マトリクス状に配設された各受光素子に対応した位置(画素位置)にR,G,Bのフィルタを配設したカラーフィルタ25を有する。
これにより、図2に示すカラーフィルタ25の「R」の位置にある受光素子には被写体からの光のうちRの成分のみがカラーフィルタ25を透過して入射し、「G」の位置にある受光素子には被写体からの光のうちGの成分のみがカラーフィルタ25を透過して入射し、「B」の位置にある受光素子には被写体からの光のうちBの成分のみがカラーフィルタ25を透過して入射する。
これにより、受光部11は、複数の上記画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの画素信号で構成される画像信号を生成する。
As shown in FIG. 2, the light receiving unit 11 includes a color filter 25 in which R, G, and B filters are arranged at positions (pixel positions) corresponding to the respective light receiving elements arranged in a matrix.
As a result, only the R component of the light from the subject passes through the color filter 25 and enters the light receiving element at the “R” position of the color filter 25 shown in FIG. Only the G component of the light from the subject passes through the color filter 25 and enters the light receiving element, and only the B component of the light from the subject enters the color filter 25 at the light receiving element at the position “B”. Through and incident.
Thereby, the light receiving unit 11 receives an image signal composed of R, G, and B pixel signals obtained by imaging any one of R, G, and B light at each of the plurality of pixel positions. Generate.

受光部11の上記受光素子は、例えば、CCD(Charge Coupled Device) 撮像素子であり、受光感度に製造上の固有のばらつきがある。当該ばらつきは、人為的に再現困難なものである。
図3は、図1に示す受光部11の受光素子の断面を模式的に示す図である。
図3に示すように、受光部11の受光素子は、シリコン基板32、開口部33が設けられた遮光層34、並びに集光レンズ35を有する。
シリコン基板32には、開口部33と対向する位置に光電変換領域が形成されている。 また、集光レンズ35は、遮光層34に対してシリコン基板32と反対側の位置から、遮光層34を介してシリコン基板32に達するように形成されている。
The light receiving element of the light receiving unit 11 is, for example, a CCD (Charge Coupled Device) image pickup element, and the light receiving sensitivity has an inherent variation in manufacturing. This variation is difficult to reproduce artificially.
FIG. 3 is a diagram schematically showing a cross section of the light receiving element of the light receiving unit 11 shown in FIG.
As shown in FIG. 3, the light receiving element of the light receiving unit 11 includes a silicon substrate 32, a light shielding layer 34 provided with an opening 33, and a condenser lens 35.
A photoelectric conversion region is formed in the silicon substrate 32 at a position facing the opening 33. The condensing lens 35 is formed so as to reach the silicon substrate 32 via the light shielding layer 34 from a position opposite to the silicon substrate 32 with respect to the light shielding layer 34.

開口部33は、例えば、紫外線の露光によってエッチングのマスクになるレジストに微細加工を施した後、遮光層34とその下部の絶縁層36をエッチングによって除去して形成される。
集光レンズ35は、ガラス層にフォトリソグラフィーにより微細加工を施した後、高温でガラス層を融解し球状に形成される。
上述した受光素子の製造過程で、開口部33は、なるべく均一な形状が形成されるように制御されるが、様々な要因により形状にはばらつきが生じる。このため、複数の受光素子の各々の開口部33の形状にはばらつきがある。
ここで、各受光素子の開口部33の形状のばらつきによって、受光素子に入射する光(光束)の形状がばらつき、シリコン基板32の光電変換領域に入射する光量がばらつく。従って、各受光素子によって、受光感度のばらつきが生じる。
このような受光感度のばらつきは、人為的なものではなく、しかも、指紋のようにそれぞれの受光素子に固有のものである。また、このような受光素子の受光感度のばらつきの影響が、上記受光素子を用いたデジタルカメラ3によって生成される画像データに生じる。
本実施形態では、上述したように、上記カメラによって生成された画像データに生じる、受光素子の受光感度の製造上のばらつきを利用して、照合を行う。
照合装置6は、予め登録されたデジタルカメラ3の参照画像データREFを基に、被判定用画像データOBJがデジタルカメラ3で生成された画像データを用いて生成されたか否かを判定する。
The opening 33 is formed by, for example, finely processing a resist serving as an etching mask by exposure to ultraviolet rays, and then removing the light shielding layer 34 and the insulating layer 36 therebelow by etching.
The condenser lens 35 is formed in a spherical shape by subjecting the glass layer to fine processing by photolithography and then melting the glass layer at a high temperature.
In the manufacturing process of the light receiving element described above, the opening 33 is controlled so as to form a uniform shape as much as possible, but the shape varies due to various factors. For this reason, the shape of the opening 33 of each of the plurality of light receiving elements varies.
Here, due to the variation in the shape of the opening 33 of each light receiving element, the shape of light (light flux) incident on the light receiving element varies, and the amount of light incident on the photoelectric conversion region of the silicon substrate 32 varies. Accordingly, the light receiving sensitivity varies among the light receiving elements.
Such variation in light receiving sensitivity is not artificial, and is unique to each light receiving element such as a fingerprint. In addition, the influence of the variation in the light receiving sensitivity of the light receiving element occurs in the image data generated by the digital camera 3 using the light receiving element.
In the present embodiment, as described above, collation is performed using the manufacturing variation in the light receiving sensitivity of the light receiving element that occurs in the image data generated by the camera.
The collation device 6 determines whether the image data for determination OBJ is generated using the image data generated by the digital camera 3 based on the reference image data REF of the digital camera 3 registered in advance.

〔コンピュータ4〕
コンピュータ4は、図4に示すように、記録媒体20から読み出した画像データS3から、R,G,Bの要素データをそれぞれ抽出して画像データIM_R,IM_G,IM_B(図示せず)をそれぞれ生成する。
そして、コンピュータ4は、画像データIM_Gを補間処理して全ての画素位置の要素データから構成される画像データIM1_Gを生成する。
このとき、コンピュータ4は、例えば、図5(A)に示すように、要素データGxの周囲の要素データG1,G2,G3,G4の平均(=(G1+G2+G3+G4)/4)を、要素データGxの補間データとする補間処理を行う。
[Computer 4]
As shown in FIG. 4, the computer 4 extracts element data R, G, and B from the image data S3 read from the recording medium 20, and generates image data IM_R, IM_G, and IM_B (not shown), respectively. To do.
Then, the computer 4 interpolates the image data IM_G to generate image data IM1_G composed of element data at all pixel positions.
At this time, for example, as shown in FIG. 5A, the computer 4 calculates the average (= (G1 + G2 + G3 + G4) / 4) of the element data G1, G2, G3, G4 around the element data Gx as the element data Gx. Interpolation processing for interpolation data is performed.

コンピュータ4は、画像データIM_R内のRの要素データを、当該Rの要素データに対応する画像データIM1_G内のGの要素データで除算して画像データIM1_Rを生成する。
コンピュータ4は、例えば、画像データIM1_Rを補間処理して全ての画素位置の要素データHrから構成される画像データIM2_Rを生成する。
このとき、コンピュータ4は、図5(B)に示すように、要素データR1,R2,R3,R4を用いて、その周囲の要素データRx1,Rx2,Rx3を生成する補間処理を行う。
すなわち、要素データRx1を(R1+R2)/2により生成し、要素データRx2を(R1+R3)/2により生成し、要素データRx3を(R1+R2+R3+R4)/4により生成する。
The computer 4 divides the R element data in the image data IM_R by the G element data in the image data IM1_G corresponding to the R element data to generate image data IM1_R.
For example, the computer 4 interpolates the image data IM1_R to generate image data IM2_R including element data Hr at all pixel positions.
At this time, as shown in FIG. 5B, the computer 4 uses the element data R1, R2, R3, and R4 to perform interpolation processing for generating the surrounding element data Rx1, Rx2, and Rx3.
That is, element data Rx1 is generated by (R1 + R2) / 2, element data Rx2 is generated by (R1 + R3) / 2, and element data Rx3 is generated by (R1 + R2 + R3 + R4) / 4.

コンピュータ4は、画像データIM1_GとIM2_Rとの対応する画素位置の要素データHr,Gについて(Hr*G)の演算を行って画像データIM3_Rを生成する。
また、コンピュータ4は、B画像データIM_Bについても、上述したRの画像データIM_Rと同様の処理を行って、画像データIM3_Bを生成する。
そして、コンピュータ4は、画像データIM1_G,IM3_R,IM3_Bから構成される画像データS4を、例えば、ネットワーク上のサーバ装置に送信して公開する。
The computer 4 calculates (Hr * G) on the element data Hr, G at the corresponding pixel positions of the image data IM1_G and IM2_R to generate the image data IM3_R.
Further, the computer 4 also performs the same processing as the above-described R image data IM_R on the B image data IM_B to generate image data IM3_B.
Then, the computer 4 transmits the image data S4 composed of the image data IM1_G, IM3_R, and IM3_B to, for example, a server device on the network and discloses it.

〔コンピュータ5〕
コンピュータ5は、記録媒体20から読み出した参照画像データREFあるいは入力した判定用画像データOBJ内の要素データを、当該R,G,Bの要素データ毎に補間処理して全ての画素位置についてR,G,B全ての要素データを生成する。
具体的には、コンピュータ5は、図6に示すように、参照画像データREFあるいは判定用画像データOBJから、Gの要素データを抽出して画像データIM10_Gを生成し、Rの要素データを抽出して画像データIM10_Rを生成し、Bの要素データを抽出して画像データIM10_Bを生成する。
そして、コンピュータ5は、例えば、図5(A)で説明した補間処理を、画像データIM10_Gに施して画像データIM11_Gを生成する。
また、コンピュータ5は、例えば、図5(B)で説明した補間処理を、画像データIM10_Rに施して画像データIM11_Rを生成する。
また、コンピュータ5は、同様の補間処理を、画像データIM10_Bに施して画像データIM11_Bを生成する。
コンピュータ5は、それぞれ画像データIM11_G,IM11_R,IM11_Bからなる参照画像データREFaあるいは判定用画像データOBJaを照合装置6に出力する。
[Computer 5]
The computer 5 interpolates element data in the reference image data REF read from the recording medium 20 or the input image data for determination OBJ for each element data of R, G, B, and performs R, R for all pixel positions. Generate element data for all G and B.
Specifically, as shown in FIG. 6, the computer 5 extracts G element data from the reference image data REF or the determination image data OBJ to generate image data IM10_G, and extracts R element data. The image data IM10_R is generated, the B element data is extracted, and the image data IM10_B is generated.
Then, for example, the computer 5 performs the interpolation processing described in FIG. 5A on the image data IM10_G to generate the image data IM11_G.
In addition, for example, the computer 5 performs the interpolation processing described in FIG. 5B on the image data IM10_R to generate the image data IM11_R.
In addition, the computer 5 performs similar interpolation processing on the image data IM10_B to generate image data IM11_B.
The computer 5 outputs the reference image data REFa composed of the image data IM11_G, IM11_R, and IM11_B or the determination image data OBJa to the collation device 6, respectively.

〔照合装置6〕
図7は、図1に示す照合装置6の構成図である。
図7に示すように、照合装置6は、例えば、インタフェース41、相関検出部42および判定部43を有する。
インタフェース41は、コンピュータ5から上述した参照画像データREFaおよび判定用画像データOBJaを入力する。
相関検出部42は、インタフェース41を介して入力した参照画像データREFaを構成する図6に示すIM11_G,IM11_R,IM11_Bの各々について、インタフェース41を介して入力した判定用画像データOBJaを構成するG,R,Bの画像データのそれぞれとの相関を検出する。
相関検出部42は、受光感度に固有のバラツキを持つ受光素子に被写体からの反射光を入射するデジタルカメラ3によって生成された画像データに、当該画像データを構成する受光部11の受光素子の受光結果に応じた要素データに生じた上記受光感度のバラツキを前記相関に反映する処理を施す。
[Verification device 6]
FIG. 7 is a configuration diagram of the collation device 6 shown in FIG.
As illustrated in FIG. 7, the collation device 6 includes, for example, an interface 41, a correlation detection unit 42, and a determination unit 43.
The interface 41 inputs the above-described reference image data REFa and determination image data OBJa from the computer 5.
The correlation detection unit 42 includes G, which constitutes the judgment image data OBJa input via the interface 41 for each of IM11_G, IM11_R, and IM11_B shown in FIG. 6 constituting the reference image data REFa input via the interface 41. A correlation with each of the R and B image data is detected.
The correlation detection unit 42 receives the light received by the light receiving element of the light receiving unit 11 constituting the image data from the image data generated by the digital camera 3 in which the reflected light from the subject is incident on the light receiving element having a variation unique to the light receiving sensitivity. A process for reflecting the variation in the light receiving sensitivity generated in the element data corresponding to the result in the correlation is performed.

判定部43は、相関検出部42が検出した相関を基に、被判定用画像データOBJがデジタルカメラ3で生成された画像データを用いて生成されたか否かを判定する。
図8は、判定部43の判定処理を説明するための図である。
ステップST1:
判定部43は、図9に示すように、参照画像データREFaの図6に示すGの画像データIM11_Gと、判定用画像データOBJaを構成するR,G,Bの画像データの各々との相関の結果を基に、これらの全ての相関が所定の第1のレベル以上であるか否かを判断し、所定のレベル以上であると判断するとステップST2に進み、そうでない場合にはステップST3に進む。
The determination unit 43 determines whether or not the determination-target image data OBJ has been generated using the image data generated by the digital camera 3 based on the correlation detected by the correlation detection unit 42.
FIG. 8 is a diagram for explaining the determination process of the determination unit 43.
Step ST1:
As shown in FIG. 9, the determination unit 43 determines the correlation between the G image data IM11_G of the reference image data REFa shown in FIG. 6 and each of the R, G, B image data constituting the determination image data OBJa. Based on the result, it is determined whether or not all these correlations are equal to or higher than a predetermined first level. If it is determined that the correlation is higher than a predetermined level, the process proceeds to step ST2, and if not, the process proceeds to step ST3. .

ステップST2:
判定部43は、デジタルカメラ3で撮像されコンピュータ4の処理を経て公開された画像データS4を基に、判定用画像データOBJaが生成されたと判定する。
例えば、図10に示すように、コンピュータ4が生成して公開された画像データS4がそのまま画像データOBJaとして照合装置6に入力された場合には、図4に示すように、画像データS4の画像データIM3_R,IM3_Bが画像データIM1_Gを基に生成されているため、画像データIM3_R,IM3_Bと図6に示す参照画像データREFaのGの画像データIM11_Gとの相関が高くなる。
なお、画像データS4と参照画像データREFaとは、デジタルカメラ3が異なる撮像対象を撮像して生成したものであっても、上述した受光部11の受光素子の製造感度に生じる製造上のばらつきの固有性により、図9に示す相関が得られる。
Step ST2:
The determination unit 43 determines that the determination image data OBJa has been generated based on the image data S4 captured by the digital camera 3 and released through the processing of the computer 4.
For example, as shown in FIG. 10, when the image data S4 generated and released by the computer 4 is directly input to the collation device 6 as the image data OBJa, the image data S4 is displayed as shown in FIG. Since the data IM3_R and IM3_B are generated based on the image data IM1_G, the correlation between the image data IM3_R and IM3_B and the G image data IM11_G of the reference image data REFa shown in FIG. 6 is high.
Note that, even if the image data S4 and the reference image data REFa are generated by imaging different imaging targets by the digital camera 3, the manufacturing variation that occurs in the manufacturing sensitivity of the light receiving element of the light receiving unit 11 described above. Due to the uniqueness, the correlation shown in FIG. 9 is obtained.

また、図11に示すように、例えば、デジタルカメラ3で撮像した画像データS3を基に得られた画像データS4が多数公開されている場合、これらの画像データS4に平均化処理AVRを施して画像データS52を生成する。これにより、画像データS52には画像パターン情報の一部が消える。
そして、デジタルカメラ3bの撮像結果を基に得られた画像データS3bと画像データS52とを要素データ単位で乗算処理MULして画像データS53を生成する。
この場合に、図1に示す画像データOBJとして画像データS53をコンピュータ5に入力すると、図9に示す相関が得られる。
これにより、照合装置6は、画像データS53がオリジナルの生(RAW) データではなく、デジタルカメラ3で生成した画像データを基に偽造された生データであると判定できる。
なお、本実施形態において、生データとは、デジタルカメラで生成させ、コンピュータ4による補間処理を経ていない画像データである。
As shown in FIG. 11, for example, when a large number of image data S4 obtained based on the image data S3 captured by the digital camera 3 is disclosed, the image data S4 is subjected to an averaging process AVR. Image data S52 is generated. Thereby, a part of the image pattern information disappears in the image data S52.
Then, the image data S53 is generated by multiplying the image data S3b and the image data S52 obtained based on the imaging result of the digital camera 3b in element data units.
In this case, when the image data S53 is input to the computer 5 as the image data OBJ shown in FIG. 1, the correlation shown in FIG. 9 is obtained.
Thereby, the collation apparatus 6 can determine that the image data S53 is not the original raw (RAW) data but the raw data forged based on the image data generated by the digital camera 3.
In the present embodiment, the raw data is image data that is generated by a digital camera and has not undergone interpolation processing by the computer 4.

また、図12に示すように、例えば、デジタルカメラ3で撮像した画像データS3を基に得られた画像データS4が公開されている場合、画像データS4からデジタルカメラ3の図2に示すカラーフィルタ25のR,G,Bの配列に対応したR,G,Bの要素データを抽出し、これを再配列することで他のデジタルカメラの生データを偽造した画像データS58を生成する。
そして、この偽造した画像データS58を、上記他のデジタルカメラの生データと偽ってコンピュータ5に入力して画像データS58aを生成させ、これが照合装置6に入力された場合に、デジタルカメラ3の参照画像データREFaを基に照合装置6で相関を検出した場合には、図13(A)に示すように図9と同じ結果が得られる。
また、画像データS58aを上記他のデジタルカメラの参照画像データREFbを基に照合装置6で相関を検出した場合には、図13(B)に示す結果が得られる。
これにより、照合装置6は、画像データS58が上記他のデジタルカメラの生データではなく、デジタルカメラ3で生成した画像データを基に偽造された生データであると判定できる。
As shown in FIG. 12, for example, when image data S4 obtained based on image data S3 captured by the digital camera 3 is disclosed, the color filter shown in FIG. 2 of the digital camera 3 from the image data S4. The R, G, and B element data corresponding to the 25 R, G, and B arrangements are extracted and rearranged to generate image data S58 forgery of the raw data of the other digital camera.
Then, the forged image data S58 is input as the raw data of the other digital camera to the computer 5 to generate the image data S58a. When the image data S58a is input to the verification device 6, the digital camera 3 is referred to. When the correlation is detected by the collation device 6 based on the image data REFa, the same result as FIG. 9 is obtained as shown in FIG.
When the correlation is detected by the collating device 6 based on the reference image data REFb of the other digital camera for the image data S58a, the result shown in FIG. 13B is obtained.
Thereby, the collation apparatus 6 can determine that the image data S58 is not the raw data of the other digital camera but the raw data forged based on the image data generated by the digital camera 3.

また、図14に示すように、例えば、デジタルカメラ3で撮像した画像データS3を基に得られた画像データS4が公開されている場合、画像データS4からデジタルカメラ3の図2に示すカラーフィルタ25のR,G,Bの配列に対応したR,G,Bの要素データを抽出し、これを再配列して画像データS58を生成する。
そして、デジタルカメラ3bの撮像結果を基に得られた生データである画像データS3bと上記画像データS58との要素データ単位での乗算処理MULを行って、偽造した画像データS59を生成する。
そして、この偽造した画像データS59を、デジタルカメラ3bの生データと偽って照合装置6に入力された場合に、デジタルカメラ3bの参照画像データREFaを基に照合装置6で相関を検出した場合には、図15(A)に示すように図9と同じ結果が得られる。
また、画像データS59をデジタルカメラ3bの参照画像データREFbを基に照合装置6で相関を検出した場合には、図15(B)に示す結果が得られる。
これにより、照合装置6は、画像データS58がデジタルカメラ3の生データではなく、デジタルカメラ3bで生成した画像データを基に偽造された生データであると判定できる。
Further, as shown in FIG. 14, for example, when image data S4 obtained based on image data S3 captured by the digital camera 3 is disclosed, the color filter shown in FIG. R, G, B element data corresponding to 25 R, G, B arrays are extracted and rearranged to generate image data S58.
Then, the image data S3b, which is raw data obtained based on the imaging result of the digital camera 3b, and the image data S58 are subjected to multiplication processing MUL in element data units to generate forged image data S59.
When the forged image data S59 is input to the collation device 6 as false data from the digital camera 3b, the correlation device 6 detects the correlation based on the reference image data REFa of the digital camera 3b. As shown in FIG. 15A, the same result as in FIG. 9 is obtained.
When the correlation is detected by the collation device 6 based on the image data S59 based on the reference image data REFb of the digital camera 3b, the result shown in FIG. 15B is obtained.
Thereby, the collation apparatus 6 can determine that the image data S58 is not the raw data of the digital camera 3 but the raw data forged based on the image data generated by the digital camera 3b.

ステップST3:
判定部43は、図16に示すように、参照画像データREFaの図6に示すRの画像データIM11_Rと判定用画像データOBJaを構成するRの画像データとの相関、図6に示すGの画像データIM11_Gと判定用画像データOBJaを構成するGの画像データとの相関、図6に示すGの画像データIM11_Bと判定用画像データOBJaを構成するBの画像データとの相関の全てが所定のレベルを超えているか否かを判断し、超えていればステップST4に進み、そうでなければステップST5に進む。
Step ST3:
16, the determination unit 43 correlates the reference image data REFa with the R image data IM11_R shown in FIG. 6 and the R image data constituting the determination image data OBJa, and the G image shown in FIG. The correlation between the data IM11_G and the G image data constituting the determination image data OBJa, and the correlation between the G image data IM11_B and the B image data constituting the determination image data OBJa shown in FIG. If it exceeds, the process proceeds to step ST4, and if not, the process proceeds to step ST5.

ステップST4:
判定部43は、参照画像データREFaと判定用画像データOBJaとが同じデジタルカメラ3で撮像された生データであると判定する。
すなわち、参照画像データREFaと判定用画像データOBJaとが同じデジタルカメラ3で撮像された生データである場合には、コンピュータ4による処理を経ていないので、受光部11の受光感度のばらつきパターンに起因して、参照画像データREFaの図6に示すGの画像データIM11_Gは判定用画像データOBJaのGの画像データIM11_Gとの間でのみ第1のレベル以上の相関を生じ、参照画像データREFaの図6に示すRの画像データIM11_Rは判定用画像データOBJaのRの画像データIM11_Rとの間でのみ第1のレベル以上の相関を生じ、参照画像データREFaの図6に示すBの画像データIM11_Bは判定用画像データOBJaのBの画像データIM11_Bとの間でのみ第1のレベル以上の相関を生じる。これにより、図16に示す相関が得られる。
Step ST4:
The determination unit 43 determines that the reference image data REFa and the determination image data OBJa are raw data captured by the same digital camera 3.
That is, when the reference image data REFa and the determination image data OBJa are raw data picked up by the same digital camera 3, the processing by the computer 4 has not been performed, and thus the light reception sensitivity variation pattern of the light receiving unit 11 is caused. Then, the G image data IM11_G shown in FIG. 6 of the reference image data REFa has a correlation of the first level or more only with the G image data IM11_G of the determination image data OBJa, and the diagram of the reference image data REFa. The R image data IM11_R shown in FIG. 6 has a first level or higher correlation only with the R image data IM11_R of the determination image data OBJa. The B image data IM11_B of the reference image data REFa shown in FIG. Only between the image data for determination OBJa and the B image data IM11_B of the image data OBJa is equal to or higher than the first level. Results in the relationship. Thereby, the correlation shown in FIG. 16 is obtained.

ステップST5:
判定部43は、参照画像データREFaと判定用画像データOBJaとが図17に示すように異なるデジタルカメラ3,3bで撮像された生データあるいは当該画像データを処理した画像データであると判定する。
これは、例えば、相関検出部42における相関結果が、例えば、図18のようになった場合である。
Step ST5:
The determination unit 43 determines that the reference image data REFa and the determination image data OBJa are raw data captured by different digital cameras 3 and 3b as shown in FIG. 17 or image data obtained by processing the image data.
This is the case, for example, when the correlation result in the correlation detection unit 42 is as shown in FIG.

以下、SPOMF(Symmetrical Phase Only Matched Filtering)方式を採用した図7に示す相関検出部42の構成について説明する。
SPOMFは、文献”Symmetric Phase-Only Matched Filtering of Fourier-Mellin Transforms for Image Registration and Recognition” IEEE Transaction on Pattern analysis and Machine Intelligence, VOL.16 No.12 December 1994などに記載されている。
図19は、図7に示す相関検出部42の機能ブロック図である。
図19に示すように、相関検出部42は、例えば、FFT回路(Fast Fourier Transforms) 121、ホワイトニング回路122、FFT回路123、ホワイトニング回路124、複素共役化回路125、乗算回路126およびIFFT回路127を有する。
FFT回路121およびFFT回路123が本発明の変換手段に対応し、ホワイトニング回路122およびホワイトニング回路124が本発明の除算手段に対応し、複素共役化回路125が本発明の置換手段に対応し、乗算回路126が本発明の乗算回路に対応し、IFFT回路127が本発明の逆変換回路に対応している。
Hereinafter, the configuration of the correlation detection unit 42 shown in FIG. 7 adopting the SPOMF (Symmetrical Phase Only Matched Filtering) method will be described.
SPOMF is described in the literature “Symmetric Phase-Only Matched Filtering of Fourier-Mellin Transforms for Image Registration and Recognition” IEEE Transaction on Pattern analysis and Machine Intelligence, VOL.16 No.12 December 1994, and the like.
FIG. 19 is a functional block diagram of the correlation detector 42 shown in FIG.
As shown in FIG. 19, the correlation detection unit 42 includes, for example, an FFT circuit (Fast Fourier Transforms) 121, a whitening circuit 122, an FFT circuit 123, a whitening circuit 124, a complex conjugate circuit 125, a multiplication circuit 126, and an IFFT circuit 127. Have.
The FFT circuit 121 and the FFT circuit 123 correspond to the conversion means of the present invention, the whitening circuit 122 and the whitening circuit 124 correspond to the division means of the present invention, and the complex conjugation circuit 125 corresponds to the replacement means of the present invention. The circuit 126 corresponds to the multiplication circuit of the present invention, and the IFFT circuit 127 corresponds to the inverse conversion circuit of the present invention.

FFT回路121は、例えば、デジタルカメラ3からの参照画像データREFaにフーリエ変換を施して第2の周波数成分データS121を生成し、これをホワイトニング回路122に出力する。
ホワイトニング回路122は、第2の周波数成分データS121を構成する各々の複素数データを、各複素数データの絶対値で除算して(すなわち、各要素データの絶対値を等しくする)第2の複素数データS122を生成し、これを乗算回路126に出力する。
The FFT circuit 121 performs, for example, Fourier transform on the reference image data REFa from the digital camera 3 to generate second frequency component data S121, and outputs this to the whitening circuit 122.
The whitening circuit 122 divides each complex number data constituting the second frequency component data S121 by the absolute value of each complex number data (that is, equalizes the absolute value of each element data), and the second complex number data S122. Is output to the multiplication circuit 126.

FFT回路123は、例えば、入力した判定用画像データOBJa(OBJ)にフーリエ変換を施して第1の周波数成分データS123を生成し、これをホワイトニング回路124は、第1の周波数成分データS123を構成する各々の複素数データを、各複素数データの絶対値で除算して第1の複素数データS124を生成し、これを複素共役化回路125に出力する。   For example, the FFT circuit 123 performs Fourier transform on the input determination image data OBJa (OBJ) to generate first frequency component data S123, and the whitening circuit 124 configures the first frequency component data S123. Each complex number data is divided by the absolute value of each complex number data to generate first complex number data S124, which is output to the complex conjugate circuit 125.

複素共役化回路125は、第1の複素数データS124を構成する各々の複素数データを、複素共役な複素数データに置き換えた第3の複素数データS125を生成し、これを乗算回路126に出力する。
乗算回路126は、第2の複素数データS122と第3の複素数データS125とを乗算して第4の複素数データS126を生成し、これをIFFT回路127に出力する。
IFFT回路127は、第4の複素数データS126に逆フーリエ変換を施して相関データS42を生成し、これを図7に示す判定部43に出力する。
The complex conjugate circuit 125 generates third complex number data S125 in which each complex number data constituting the first complex number data S124 is replaced with complex conjugate complex number data, and outputs the third complex number data S125 to the multiplication circuit 126.
The multiplication circuit 126 multiplies the second complex number data S122 and the third complex number data S125 to generate fourth complex number data S126, and outputs this to the IFFT circuit 127.
The IFFT circuit 127 performs inverse Fourier transform on the fourth complex number data S126 to generate correlation data S42, which is output to the determination unit 43 shown in FIG.

以下、図7に示す判定部43による上述した相関のレベルの判定の基準に用いられる値の決定方法について説明する。
相関検出部42は、参照画像データREFaと判定用画像データOBJa(OBJ)との間の相対位置を2次元上循環的にずらして相関をとった値の全ての値を相関データS42とする。
ここで、参照画像データREFaと判定用画像データOBJa(OBJ)とは、絵柄については無相関なので、相関データS42の原点以外の値は、無相関なデータ間の偶発的な相関値を示している。
判定部43は、相関データS42の標準偏差σを求め、相関データS42の原点の値C00が標準偏差の所定数倍を越えるか否かを基準として、上記判定を行う。
値C00を用いたのは、画像全体同士で相関を取る場合、撮像素子の固有パターンが一致するのは原点を一致させた状態なので、その場合に相関器の出力C00にピークが現れるからである。
Hereinafter, a method for determining a value used as the above-described criterion for determining the correlation level by the determination unit 43 illustrated in FIG. 7 will be described.
The correlation detection unit 42 sets all values of correlation values S42 by cyclically shifting the relative position between the reference image data REFa and the determination image data OBJa (OBJ) in two dimensions.
Here, since the reference image data REFa and the determination image data OBJa (OBJ) are uncorrelated with respect to the design, values other than the origin of the correlation data S42 indicate an accidental correlation value between uncorrelated data. Yes.
The determination unit 43 obtains the standard deviation σ of the correlation data S42 and makes the above determination based on whether or not the origin value C00 of the correlation data S42 exceeds a predetermined number of times the standard deviation.
The reason why the value C00 is used is that when the correlation is made between the entire images, the unique pattern of the image sensor matches the origin, so that a peak appears in the output C00 of the correlator in that case. .

相関データS42内の各要素データをCij、また、要素データの数をnとする。
判定部43は、下記式(1)に基づいて、相関データS42内の全要素データが示す値の平均値meanを生成する。
Each element data in the correlation data S42 is Cij, and the number of element data is n.
The determination unit 43 generates an average value mean of the values indicated by all the element data in the correlation data S42 based on the following formula (1).

(数1)
cmean = (Σcij)/n …(1)
(Equation 1)
cmean = (Σcij) / n (1)

また、判定部43は、上記平均値meanを用いて、下記式(2)に基づいて、標準偏差σを生成する。   Moreover, the determination part 43 produces | generates standard deviation (sigma) based on following formula (2) using the said average value mean.

(数2)
σ = √{{Σ(cij−cmean)×(cij−cmean)}/n}
…(2)
(Equation 2)
σ = √ {{Σ (cij-cmean) × (cij-cmean)} / n}
... (2)

そして、判定部43は、下記式(3)を基に、相関データS42内の原点の要素データc00が示す値が、標準偏差σの10倍を超える場合には、相関レベルが前述した第1のレベルを超えると(相関大と)判定する。   Based on the following formula (3), the determination unit 43 determines that the correlation level is the first level described above when the value indicated by the origin element data c00 in the correlation data S42 exceeds 10 times the standard deviation σ. It is determined that the level exceeds (high correlation).

(数3)
c00 > 10×σ …(3)
(Equation 3)
c00> 10 × σ (3)

以下、図1に示すデータ処理システム1の全体動作を説明する。
図20は、当該動作を説明するためのフローチャートである。
ステップST11:
デジタルカメラ3で生成された参照画像データREFにコンピュータ5で補間処理を施して参照画像データREFaを生成し、これを照合装置6に登録する。
ステップST12:
判定用画像データOBJを必要に応じてコンピュータ5で補間処理して判定用画像データOBJaを生成し、これを照合装置6に入力する。
ステップST13:
図7に示す照合装置6の相関検出部42が、入力した判定用画像データOBJaを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと、ステップST11で登録した参照画像データREFaを構成するGの要素データとの相関を検出する。
ステップST14:
図7に示す照合装置6の判定部43が、ステップST13で相関検出部42が検出した上記相関を基に、判定用画像データOBJaがデジタルカメラ3が生成した画像データS3を基にして得られたか否かを判定する。
Hereinafter, the overall operation of the data processing system 1 shown in FIG. 1 will be described.
FIG. 20 is a flowchart for explaining the operation.
Step ST11:
The reference image data REF generated by the digital camera 3 is subjected to interpolation processing by the computer 5 to generate reference image data REFa, which is registered in the collation device 6.
Step ST12:
The image data for determination OBJ is interpolated by the computer 5 as necessary to generate image data for determination OBJa, which is input to the collation device 6.
Step ST13:
The correlation detection unit 42 of the collation device 6 shown in FIG. 7 registers at least one element data of R (red), G (green), and B (blue) that constitutes the input determination image data OBJa in step ST11. The correlation with the G element data constituting the reference image data REFa is detected.
Step ST14:
7 is obtained based on the image data S3 generated by the digital camera 3 based on the correlation detected by the correlation detection unit 42 in step ST13. It is determined whether or not.

以上説明したように、データ処理システム1によれば、照合装置6において、図8に示すステップST1,ST2を用いて説明したように相関検出部42による相関検出および判定部43による判定を行うことで、判定用画像データOBJa(OBJ)がデジタルカメラ3の公開画像データS4、あるいはそれを基にして生成された画像データであるかを判定できる。
また、データ処理システム1によれば、照合装置6において、図8に示すステップST3,ST4,ST5を用いて説明したように相関検出部42による相関検出および判定部43による判定を行うことで、判定用画像データOBJa(OBJ)がデジタルカメラ3の画像データS3(生データ)であるか否かを判定できる。
As described above, according to the data processing system 1, the collation device 6 performs the correlation detection by the correlation detection unit 42 and the determination by the determination unit 43 as described using steps ST1 and ST2 shown in FIG. Thus, it can be determined whether the determination image data OBJa (OBJ) is the public image data S4 of the digital camera 3 or image data generated based on the public image data S4.
Further, according to the data processing system 1, the collation device 6 performs the correlation detection by the correlation detection unit 42 and the determination by the determination unit 43 as described using steps ST3, ST4, and ST5 shown in FIG. It can be determined whether the determination image data OBJa (OBJ) is the image data S3 (raw data) of the digital camera 3 or not.

これにより、判定用画像データOBJa(OBJ)が、他人のデジタルカメラで得られた画像データを不正に利用して得られたものであるか否かを適切に判定できる。このとき、ハッシュ値による電子署名情報や電子透かし情報を画像データに付加する従来の手法ではできなかった、当該他人のデジタルカメラの特定が可能となる。
また、他人の画像データを不正に改竄して得た偽造データを参照画像データREFとして登録することを適切に回避できる。
This makes it possible to appropriately determine whether the determination image data OBJa (OBJ) is obtained by illegally using image data obtained by another person's digital camera. At this time, it becomes possible to identify the other person's digital camera, which was not possible with the conventional method of adding digital signature information or digital watermark information based on a hash value to image data.
Further, it is possible to appropriately avoid registering forged data obtained by illegally tampering with image data of another person as reference image data REF.

また、データ処理システム1によれば、電子透かし情報を画像データに付加しないため、画像データの劣化を防止できる。   Further, according to the data processing system 1, since the digital watermark information is not added to the image data, it is possible to prevent the image data from being deteriorated.

第2実施形態
第2実施形態は、第3の発明に対応した実施形態である。
図21は、本発明の実施形態に係わるデジタルカメラ203の構成図である。
デジタルカメラ203は、図21に示すように、レンズ10、受光部11、A/D変換部12、エンコーダ13、インタフェース211、補間処理部212およびインタフェース213を有する。
ここで、レンズ10および受光部11が本発明の撮像手段に対応し、補間処理部212が本発明の処理手段に対応し、インタフェース211が本発明の第1のインタフェースに対応し、インタフェース213が本発明の第2のインタフェースに対応している。
Second Embodiment The second embodiment is an embodiment corresponding to the third invention.
FIG. 21 is a configuration diagram of the digital camera 203 according to the embodiment of the present invention.
As illustrated in FIG. 21, the digital camera 203 includes a lens 10, a light receiving unit 11, an A / D conversion unit 12, an encoder 13, an interface 211, an interpolation processing unit 212, and an interface 213.
Here, the lens 10 and the light receiving unit 11 correspond to the imaging unit of the present invention, the interpolation processing unit 212 corresponds to the processing unit of the present invention, the interface 211 corresponds to the first interface of the present invention, and the interface 213 This corresponds to the second interface of the present invention.

図21において、図1と同じ符号を付した受光部11、A/D変換部12およびエンコーダ13は、第1実施形態で説明したものと同じである。
インタフェース211は、エンコーダ13が生成した暗号化された参照画像データREFをそのままデジタルカメラ203の外部に出力する。
例えば、インタフェース211は、図1に示すコンピュータ5に接続され、参照画像データREFをコンピュータ5に出力する。
補間処理部212は、エンコーダ13から入力した画像データS3に対して第1実施形態でコンピュータ4の処理として説明した補間処理を施して画像データS4を生成する。
インタフェース213は、補間処理部212が生成した画像データS4をデジタルカメラ203の外部に出力する。
インタフェース213は、例えば、画像データS4を所定のコンピュータに出力し、サーバ装置に送信して公開する。
なお、デジタルカメラ203は、画像データS4をデジタルカメラ203の外部に出力する前に暗号化する処理と、参照画像データREFをデジタルカメラ203の外部に出力する前に暗号化する処理との少なくとも一方を行う暗号化回路を備えてもよい。
In FIG. 21, the light receiving unit 11, the A / D conversion unit 12, and the encoder 13 denoted by the same reference numerals as those in FIG. 1 are the same as those described in the first embodiment.
The interface 211 outputs the encrypted reference image data REF generated by the encoder 13 to the outside of the digital camera 203 as it is.
For example, the interface 211 is connected to the computer 5 shown in FIG. 1 and outputs the reference image data REF to the computer 5.
The interpolation processing unit 212 performs the interpolation processing described as the processing of the computer 4 in the first embodiment on the image data S3 input from the encoder 13 to generate image data S4.
The interface 213 outputs the image data S4 generated by the interpolation processing unit 212 to the outside of the digital camera 203.
For example, the interface 213 outputs the image data S4 to a predetermined computer, transmits the image data S4 to the server device, and publishes it.
The digital camera 203 encrypts at least one of the process of encrypting the image data S4 before output to the outside of the digital camera 203 and the process of encrypting the reference image data REF before output to the outside of the digital camera 203. An encryption circuit may be provided.

デジタルカメラ203によれば、生データである参照画像データREFをインタフェース211を介してデジタルカメラ203の外部に出力してコンピュータ5に登録できる。
また、デジタルカメラ203によれば、生データである画像データS3に補間処理を施して公開可能な画像データS4を生成でき、これをインタフェース213を介してデジタルカメラ203の外部に出力できる。これにより、画像データS4を公開できる。
ここで、参照画像データREFおよび画像データS4の使用形態は、例えば、第1実施形態と同様である。
このように、デジタルカメラ203は、第1実施形態と同様の判定処理を行うために用いることが可能であり、第1実施形態のデータ処理システム1の作用により、信頼性の高い判定を行うことを可能にする。
According to the digital camera 203, reference image data REF that is raw data can be output to the outside of the digital camera 203 via the interface 211 and registered in the computer 5.
Further, according to the digital camera 203, image data S 4 that can be disclosed can be generated by performing interpolation processing on the image data S 3 that is raw data, and can be output to the outside of the digital camera 203 via the interface 213. Thereby, the image data S4 can be disclosed.
Here, the usage pattern of the reference image data REF and the image data S4 is the same as that of the first embodiment, for example.
As described above, the digital camera 203 can be used for performing the same determination process as in the first embodiment, and performs a highly reliable determination by the action of the data processing system 1 of the first embodiment. Enable.

本発明は上述した実施形態には限定されない。
本実施形態では、図8に示すステップST1において、判定部43が図9に示す相関パターンを検出した場合にステップST2に進む場合を例示したが、図7に示す相関検出部42が、入力した判定用画像データOBJaを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと、参照画像データREFaを構成するGの要素データとの相関を検出し、その相関が第1のレベル以上の場合にステップST12に進むようにしてもよい。
The present invention is not limited to the embodiment described above.
In the present embodiment, the case where the determination unit 43 proceeds to step ST2 when the determination unit 43 detects the correlation pattern shown in FIG. 9 in step ST1 shown in FIG. 8 is illustrated, but the correlation detection unit 42 shown in FIG. The correlation between at least one element data of R (red), G (green), and B (blue) constituting the determination image data OBJa and the element data of G constituting the reference image data REFa is detected, and the correlation is detected. If is equal to or higher than the first level, the process may proceed to step ST12.

本発明は、同じ撮像装置で生成した画像データを基に得られた画像データであるか否かを判定するデータ処理システムに適用可能である。   The present invention can be applied to a data processing system that determines whether or not image data is obtained based on image data generated by the same imaging apparatus.

図1は、本発明の実施形態のデータ処理システムの構成図である。FIG. 1 is a configuration diagram of a data processing system according to an embodiment of this invention. 図2は、図1に示す受光部で用いられるカラーフィルタを説明するための図である。FIG. 2 is a diagram for explaining a color filter used in the light receiving unit shown in FIG. 図3は、カメラが備える受光素子の断面を模式的に示す図である。FIG. 3 is a diagram schematically illustrating a cross section of a light receiving element included in the camera. 図4は、図1に示すコンピュータ4における補間処理を説明するための図である。FIG. 4 is a diagram for explaining interpolation processing in the computer 4 shown in FIG. 図5は、図4に示す補間処理を説明するための図である。FIG. 5 is a diagram for explaining the interpolation processing shown in FIG. 図6は、図1に示すコンピュータ5における補間処理を説明するための図である。FIG. 6 is a diagram for explaining interpolation processing in the computer 5 shown in FIG. 図7は、図1に示す照合装置の機能ブロック図である。FIG. 7 is a functional block diagram of the collation apparatus shown in FIG. 図8は、図7に示す照合装置の動作例を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an operation example of the collation device shown in FIG. 図9は、判定用画像データが、所定のデジタルカメラの公開画像データを基に得られた場合の相関パターンを説明するための図である。FIG. 9 is a diagram for explaining a correlation pattern when determination image data is obtained based on public image data of a predetermined digital camera. 図10は、公開された画像データをそのまま判定用画像データとして用いた場合を説明するための図である。FIG. 10 is a diagram for explaining a case where the published image data is used as it is as the determination image data. 図11は、公開された画像データに所定の処理を施して得られた画像データを判定用画像データとして用いた場合を説明するための図である。FIG. 11 is a diagram for explaining a case where image data obtained by performing predetermined processing on published image data is used as determination image data. 図12は、公開された画像データにその他の所定の処理を施して得られた画像データを判定用画像データとして用いた場合を説明するための図である。FIG. 12 is a diagram for explaining a case where image data obtained by performing other predetermined processing on the published image data is used as determination image data. 図13は、図12に示す場合の相関パターンを説明するための図である。FIG. 13 is a diagram for explaining the correlation pattern in the case shown in FIG. 図14は、公開された画像データにその他の所定の処理を施して得られた画像データを判定用画像データとして用いた場合を説明するための図である。FIG. 14 is a diagram for explaining a case where image data obtained by performing other predetermined processing on the published image data is used as determination image data. 図15は、図14に示す場合の相関パターンを説明するための図である。FIG. 15 is a diagram for explaining the correlation pattern in the case shown in FIG. 図16は、判定用画像データが、所定のデジタルカメラの生データである場合の相関パターンを説明するための図である。FIG. 16 is a diagram for explaining a correlation pattern when the determination image data is raw data of a predetermined digital camera. 図17は、異なる2つのデジタルカメラの画像データを基に相関を検出する場合を説明するための図である。FIG. 17 is a diagram for explaining a case where correlation is detected based on image data of two different digital cameras. 図18は、図17に示す場合の相関パターンを説明するための図である。FIG. 18 is a diagram for explaining the correlation pattern in the case shown in FIG. 図19は、図7に示す相関検出部の構成図である。FIG. 19 is a block diagram of the correlation detection unit shown in FIG. 図20は、図1に示すデータ処理システムの全体動作を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining the overall operation of the data processing system shown in FIG. 図21は、本発明の第2実施形態のデジタルカメラの構成図である。FIG. 21 is a block diagram of a digital camera according to the second embodiment of the present invention.

符号の説明Explanation of symbols

1…データ処理システム、3…デジタルカメラ、4…コンピュータ、5…コンピュータ、6…照合装置、25…カラーフィルタ、31…受光素子、32…シリコン基板、33…開口部、34…遮光層、35…集光レンズ、41…インタフェース、42…相関検出部、43…判定部、121…FFT回路、122…ホワイトニング回路、123…FFT回路、124…ホワイトニング回路、125…複素共役化回路、126…乗算回路、127…IFFT回路

DESCRIPTION OF SYMBOLS 1 ... Data processing system, 3 ... Digital camera, 4 ... Computer, 5 ... Computer, 6 ... Collation apparatus, 25 ... Color filter, 31 ... Light receiving element, 32 ... Silicon substrate, 33 ... Opening part, 34 ... Light shielding layer, 35 DESCRIPTION OF SYMBOLS ... Condensing lens, 41 ... Interface, 42 ... Correlation detection part, 43 ... Determination part, 121 ... FFT circuit, 122 ... Whitening circuit, 123 ... FFT circuit, 124 ... Whitening circuit, 125 ... Complex conjugate circuit, 126 ... Multiplication Circuit, 127 ... IFFT circuit

Claims (12)

第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する相関検出手段と、
前記相関検出手段が検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する判定手段と
を有するデ−タ処理装置。
Correlation detecting means for detecting a correlation between at least one element data of R (red), G (green) and B (blue) constituting the first image data and element data of G constituting the second image data When,
Determination means for determining whether or not the first image data and the second image data are obtained based on image data generated by the same imaging device based on the correlation detected by the correlation detection means And a data processing apparatus.
前記相関検出手段は、受光感度に固有のバラツキを持つ受光素子に被写体からの反射光を入射する撮像装置によって生成された画像データに、当該画像データを構成する前記受光素子の受光結果に応じた前記要素データに生じた前記受光感度のバラツキを前記相関に反映する処理を施す
請求項1に記載のデータ処理装置。
The correlation detecting unit corresponds to image data generated by an imaging device that makes reflected light from a subject incident on a light receiving element having a variation inherent in light receiving sensitivity, in accordance with a light reception result of the light receiving element constituting the image data. The data processing apparatus according to claim 1, wherein a process of reflecting a variation in the light receiving sensitivity generated in the element data in the correlation is performed.
前記相関検出手段は、前記第1の画像データを構成するR,G,Bの要素データの各々と、前記第2の画像データを構成するGの要素データとの相関をそれぞれ検出し、
前記判定手段は、前記相関検出手段が検出した前記相関の全てが所定のレベル以上の場合に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたと判定する
請求項1に記載のデータ処理装置。
The correlation detection means detects the correlation between each of the R, G, B element data constituting the first image data and the G element data constituting the second image data,
The determination means is based on image data generated by the same imaging device in which the first image data and the second image data are the same when all of the correlations detected by the correlation detection means are equal to or higher than a predetermined level. The data processing device according to claim 1, wherein the data processing device is determined to be obtained.
前記相関検出手段は、前記第1の画像データを構成するR,G,Bの要素データの各々について、当該要素データと前記第2の画像データを構成するR,G,Bの要素データの各々との合計9個の相関を検出し、
前記判定手段は、前記相関検出手段が検出した前記合計9個の相関のうち、前記第1の画像データを構成するR,G,Bの要素データの各々と前記第2の画像データを構成するGの要素データとの相関以外の相関が、前記所定のレベル未満である場合に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたと判定する
請求項3に記載のデータ処理装置。
The correlation detection unit is configured to detect, for each of the R, G, and B element data constituting the first image data, each of the element data and the R, G, and B element data constituting the second image data. Detect a total of 9 correlations with
The determination means constitutes the second image data with each of the R, G, B element data constituting the first image data out of the total of nine correlations detected by the correlation detection means. When the correlation other than the correlation with the element data of G is less than the predetermined level, the first image data and the second image data are obtained based on the image data generated by the same imaging device. The data processing device according to claim 3, wherein the data processing device is determined to have been.
前記相関検出手段は、前記撮像装置で撮像され当該撮像装置内でマトリクス状に配設された複数の画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの要素データを、当該R,G,Bの要素データ毎に補間処理して生成された前記複数の画素位置の全てのR,G,Bの要素データからなる参照画像データを、前記第1の画像データとして用いて前記相関を検出し、
前記判定手段は、前記相関検出手段が検出した前記相関の全てが所定のレベル以上の場合に、前記第1の画像データが、前記撮像装置が生成した画像データからGの要素データを抽出して補間処理を行って前記複数の画素位置の全てのGの要素データを生成し、前記画像データから抽出されたRおよびBの要素データの各々について、当該要素データと当該要素データに対応して前記補間処理により生成された前記Gの要素データとを基に新たな要素データを生成し、当該新たな要素データを基に補間処理を行って生成された画像データを基に得られた画像データであると判定する
請求項4に記載のデータ処理装置。
The correlation detection means is obtained by imaging any one light of R, G, and B at each of a plurality of pixel positions that are imaged by the imaging device and arranged in a matrix in the imaging device. Reference image data composed of all R, G, B element data at the plurality of pixel positions generated by interpolating R, G, B element data for each R, G, B element data. , Detecting the correlation using as the first image data,
The determination means extracts the element data of G from the image data generated by the imaging device when the correlation detected by the correlation detection means is higher than a predetermined level. Interpolation processing is performed to generate all G element data at the plurality of pixel positions, and for each of the R and B element data extracted from the image data, the element data and the element data correspond to the element data. Image data obtained based on image data generated by generating new element data based on the G element data generated by the interpolation process, and performing interpolation process based on the new element data. The data processing device according to claim 4, wherein the data processing device is determined to be present.
前記相関検出手段は、前記第1の画像データを構成するRの要素データと前記第2の画像データを構成するRの要素データとの第1の相関、前記第1の画像データを構成するGの要素データと前記第2の画像データを構成するGの要素データとの第2の相関、前記第1の画像データを構成するBの要素データと前記第2の画像データを構成するBの要素データとの第3の相関を検出し、
前記判定手段は、前記相関検出手段が検出した前記第1の相関、前記第2の相関および前記第3の相関の全てが所定のレベル以上の場合に、前記第1の画像データが前記第2の画像データと同じ撮像装置で生成され、当該撮像装置内でマトリクス状に配設された複数の画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの要素データから構成される生データであると判定する
請求項1に記載のデータ処理装置。
The correlation detecting means has a first correlation between R element data constituting the first image data and R element data constituting the second image data, and G constituting the first image data. Second element data and G element data constituting the second image data, B element data constituting the first image data and B element constituting the second image data Detecting a third correlation with the data,
The determination means determines that the first image data is the second image when all of the first correlation, the second correlation, and the third correlation detected by the correlation detection means are equal to or higher than a predetermined level. R obtained by imaging any one light of R, G, and B at each of a plurality of pixel positions arranged in a matrix in the imaging device. The data processing apparatus according to claim 1, wherein the data processing apparatus determines that the raw data is composed of element data of G, B, and B.
前記相関検出手段は、
前記第1の画像データおよび前記第2の画像データを直交変換してそれぞれ第1の周波数成分データおよび第2の周波数成分データを生成する変換手段と、
前記第1の周波数成分データを構成する各々の複素数データを、各複素数データの絶対値で除算して第1の複素数データを生成し、前記第2の周波数成分データを構成する各々の複素数データを、各複素数データの絶対値で除算して第2の複素数データを生成する除算手段と、
前記第1の複素数データおよび前記第2の複素数データの一方を構成する各々の複素数データを複素共役な複素数データに置き換えた第3の複素数データを生成する置換手段と、
前記置換手段によって置き換えが行われていない前記第1の複素数データまたは前記第2の複素数データと、前記置換手段で生成された前記第3の複素数データとを乗算して第4の複素数データを生成する乗算手段と、
前記乗算手段が生成した前記第4の複素数データを逆直交変換して前記相関を生成する逆変換回路と
を有する請求項1に記載のデータ処理装置。
The correlation detection means includes
Transform means for orthogonally transforming the first image data and the second image data to generate first frequency component data and second frequency component data, respectively;
Each complex number data constituting the first frequency component data is divided by the absolute value of each complex number data to generate first complex number data, and each complex number data constituting the second frequency component data is converted to each complex number data constituting the second frequency component data. Dividing means for generating the second complex data by dividing by the absolute value of each complex data;
Replacement means for generating third complex number data by replacing each complex number data constituting one of the first complex number data and the second complex number data with complex conjugate complex data;
Multiplying the first complex number data or the second complex number data that has not been replaced by the replacing unit and the third complex number data generated by the replacing unit to generate fourth complex number data Multiplying means to
The data processing apparatus according to claim 1, further comprising: an inverse transform circuit that performs inverse orthogonal transform on the fourth complex data generated by the multiplication unit to generate the correlation.
第1の画像データを構成するR(赤),G(緑),B(青)の少なくとも一つの要素データと第2の画像データを構成するGの要素データとの相関を検出する第1の工程と、
前記第1の工程で検出した前記相関を基に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたか否かを判定する第2の工程と
を有するデ−タ処理方法。
First detecting the correlation between at least one element data of R (red), G (green) and B (blue) constituting the first image data and element data of G constituting the second image data Process,
A first determination is made based on the correlation detected in the first step to determine whether the first image data and the second image data are obtained based on image data generated by the same imaging device. A data processing method comprising two steps.
前記第1の工程は、前記第1の画像データを構成するR,G,Bの要素データの各々と、前記第2の画像データを構成するGの要素データとの相関をそれぞれ検出し、
前記第2の工程は、前記第1の工程で検出した前記相関の全てが所定のレベル以上の場合に、前記第1の画像データと前記第2の画像データとが同じ撮像装置が生成した画像データを基にして得られたと判定する
請求項8に記載のデータ処理方法。
The first step detects the correlation between each of the R, G, B element data constituting the first image data and the G element data constituting the second image data,
In the second step, an image generated by the same imaging device with the first image data and the second image data when all of the correlations detected in the first step are equal to or higher than a predetermined level. The data processing method according to claim 8, wherein it is determined that the data is obtained based on data.
撮像結果に応じたデジタルの画像データを生成する撮像装置であって、
マトリクス状に配設された複数の画素位置のそれぞれにR,G,Bのいずれか一つの光を結像して得られたR,G,Bの要素データから構成される第1の画像データを生成する撮像手段と、
前記撮像手段が生成した前記第1の画像データを前記撮像装置の外部に出力する第1のインタフェースと、
前記撮像手段が生成した前記第1の画像データからGの要素データを抽出して補間処理を行って前記複数の画素位置の全てのGの要素データを生成し、前記画像データから抽出されたRおよびBの要素データの各々について、当該要素データと当該要素データに対応して前記補間処理により生成された前記Gの要素データとを基に新たな要素データを生成し、当該新たな要素データを基に補間処理を行って第2の画像データを生成する処理手段と、
前記処理手段が生成した前記第2の画像データを前記撮像装置の外部に出力する第2のインタフェースと
を有する撮像装置。
An imaging device that generates digital image data according to an imaging result,
First image data composed of element data of R, G, and B obtained by imaging any one light of R, G, and B at each of a plurality of pixel positions arranged in a matrix Imaging means for generating
A first interface for outputting the first image data generated by the imaging means to the outside of the imaging device;
G element data is extracted from the first image data generated by the imaging means, and interpolation processing is performed to generate all G element data at the plurality of pixel positions, and R extracted from the image data. For each of the element data of B and B, new element data is generated based on the element data and the G element data generated by the interpolation processing corresponding to the element data, and the new element data is Processing means for performing interpolation processing based on the second image data,
An imaging apparatus comprising: a second interface that outputs the second image data generated by the processing means to the outside of the imaging apparatus.
前記第1の画像データを前記撮像装置の外部に出力する前に暗号化する処理と、前記第2の画像データを前記撮像装置の外部に出力する前に暗号化する処理との少なくとも一方を行う暗号化手段
をさらに有する請求項10に記載の撮像装置。
At least one of a process of encrypting the first image data before being output to the outside of the imaging apparatus and a process of encrypting the second image data before being output to the outside of the imaging apparatus is performed. The imaging apparatus according to claim 10, further comprising an encryption unit.
前記撮像手段は、前記複数の画素位置のそれぞれに対応して設けられ、受光感度に固有のバラツキを有する受光素子に前記光を結像する
請求項10に記載の撮像装置。
The imaging apparatus according to claim 10, wherein the imaging unit is provided corresponding to each of the plurality of pixel positions, and forms an image of the light on a light receiving element having a variation unique to light receiving sensitivity.
JP2003388261A 2003-11-18 2003-11-18 Data processing apparatus, method thereof and imaging apparatus Pending JP2005151345A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003388261A JP2005151345A (en) 2003-11-18 2003-11-18 Data processing apparatus, method thereof and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003388261A JP2005151345A (en) 2003-11-18 2003-11-18 Data processing apparatus, method thereof and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2005151345A true JP2005151345A (en) 2005-06-09

Family

ID=34695387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003388261A Pending JP2005151345A (en) 2003-11-18 2003-11-18 Data processing apparatus, method thereof and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2005151345A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101034256B1 (en) 2008-06-27 2011-05-12 캐논 가부시끼가이샤 Information processing device and information processing method
JP2015007916A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101034256B1 (en) 2008-06-27 2011-05-12 캐논 가부시끼가이샤 Information processing device and information processing method
JP2015007916A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus and method

Similar Documents

Publication Publication Date Title
Van Lanh et al. A survey on digital camera image forensic methods
TW527518B (en) Method and system for high resolution, ultra fast, 3-D imaging
EP1761072B1 (en) Image processing device for detecting chromatic difference of magnification from raw data, image processing program, and electronic camera
JP6673327B2 (en) Image processing apparatus, image processing method, and imaging device
CN102208098B (en) Image processing device and control method thereof
US8934663B2 (en) Digital watermarking
US6763142B2 (en) System and method for correlated noise removal in complex imaging systems
JP2017184198A (en) Image sensor, imaging device, image sensor identification method, image forgery prevention method, and image modification restriction method
US20160224866A1 (en) Imaging device and phase difference detection method
WO2019146510A1 (en) Image processing device
WO2023286496A1 (en) Image processing device and method, and imaging device
CN111161259A (en) Method and device for detecting whether image is tampered or not and electronic equipment
US20220375197A1 (en) Information processing system, information processing method, image-capturing apparatus, and information processing apparatus
CN112241668A (en) Image processing method, device and equipment
JP4403477B2 (en) Image processing apparatus and image processing method
Mahdian et al. Identification of aliasing-based patterns in re-captured LCD screens
Kumar et al. Identifying photo forgery using lighting elements
JP2005151345A (en) Data processing apparatus, method thereof and imaging apparatus
JP2005236517A (en) Imaging apparatus, data processing apparatus and method thereof
CN112241669B (en) Target identification method, device, system and equipment, storage medium
Gao et al. Camera model identification based on the characteristic of CFA and interpolation
Takamatsu et al. Estimating demosaicing algorithms using image noise variance
JP4062211B2 (en) Data processing apparatus and data processing method
US11977646B2 (en) Secure sensor arrangement
Verma et al. A hybrid model for cfa interpolation detection