[go: up one dir, main page]

JP2013168723A - Image processing device, imaging device, image processing program, and image processing method - Google Patents

Image processing device, imaging device, image processing program, and image processing method Download PDF

Info

Publication number
JP2013168723A
JP2013168723A JP2012029592A JP2012029592A JP2013168723A JP 2013168723 A JP2013168723 A JP 2013168723A JP 2012029592 A JP2012029592 A JP 2012029592A JP 2012029592 A JP2012029592 A JP 2012029592A JP 2013168723 A JP2013168723 A JP 2013168723A
Authority
JP
Japan
Prior art keywords
image
image processing
target image
processing apparatus
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012029592A
Other languages
Japanese (ja)
Inventor
Masayuki Yamazaki
将幸 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012029592A priority Critical patent/JP2013168723A/en
Publication of JP2013168723A publication Critical patent/JP2013168723A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる技術を提供することを目的とする。
【解決手段】 対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める複数の判別手段と、複数の判別手段から取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手段と、を備える。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a technique capable of quickly and accurately discriminating a scene of a subject without increasing a calculation amount or a circuit scale.
SOLUTION: Using a feature amount of a target image, a plurality of determination means for respectively obtaining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image, and obtained from the plurality of determination means Specifying means for specifying a coordinate point on a color space corresponding to a shooting scene in accordance with a correlation between a plurality of similarities.
[Selection] Figure 1

Description

本発明は、画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法に関する。   The present invention relates to an image processing device, an imaging device, an image processing program, and an image processing method.

従来、露光条件やホワイトバランス処理などの画像処理におけるパラメータの値を被写体のシーンに応じて設定するために、被写体のシーンを識別する様々な技術が開発されている。   Conventionally, various techniques for identifying a subject scene have been developed in order to set parameter values in image processing such as exposure conditions and white balance processing according to the subject scene.

例えば、画像データの色平均などの特徴量および絞り値などの撮影情報を、所定のシーンに属するか否かを判断するシーンごとのサポートベクタマシンに入力することにより、画像データにおける被写体のシーンを識別する技術がある(特許文献1など参照)。   For example, by inputting shooting information such as a feature amount such as a color average of image data and an aperture value to a support vector machine for each scene that determines whether or not it belongs to a predetermined scene, the scene of the subject in the image data is determined. There is a technique for identifying (see Patent Document 1).

特開2008−228087号公報JP 2008-228087 A

しかしながら、従来技術では、識別したいシーンごとにサポートベクタマシンおよび判別基準のデータを用意する必要があり、演算量や回路規模が増大してしまう。   However, in the prior art, it is necessary to prepare support vector machines and data for discrimination criteria for each scene to be identified, which increases the amount of calculation and the circuit scale.

上記従来技術が有する問題に鑑み、本発明の目的は、演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる技術を提供することにある。   SUMMARY OF THE INVENTION In view of the above-described problems of the prior art, an object of the present invention is to provide a technique capable of quickly and accurately discriminating a subject scene without increasing the amount of calculation and the circuit scale.

上記課題を解決するために、本発明を例示する画像処理装置の一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める複数の判別手段と、複数の判別手段から取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手段と、を備える。   In order to solve the above-described problem, an aspect of the image processing apparatus illustrating the present invention uses a feature amount of the target image to resemble a preset color gamut of each reference scene and a shooting scene of the target image. A plurality of discriminating means for obtaining the degrees, and a specifying means for identifying the coordinate point on the color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired from the plurality of discriminating means.

また、特定手段は、対象画像の特徴量および複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定してもよい。   Further, the specifying unit may specify a coordinate point on the color space corresponding to the photographic scene according to the feature amount of the target image and the correlation between the plurality of similarities.

また、特定手段は、複数の入力値の相関に応じた分布を色空間上で求め、求めた分布の重心位置または分布において最大値を与える位置に基づいて、座標点を特定してもよい。   The specifying unit may determine a distribution according to the correlation of a plurality of input values on the color space, and specify the coordinate point based on the center of gravity of the calculated distribution or the position giving the maximum value in the distribution.

また、特定手段は、ニューラルネットワークであってもよい。   The specifying means may be a neural network.

また、参照シーンは、所定の光源であり、撮影シーンは、対象画像における照明光源であってもよい。   Further, the reference scene may be a predetermined light source, and the shooting scene may be an illumination light source in the target image.

また、特定された座標点に基づいて、対象画像に対するホワイトバランスの調整量を求める調整手段を備えてもよい。   Further, an adjustment unit that obtains an adjustment amount of white balance for the target image based on the specified coordinate point may be provided.

本発明を例示する撮像装置の一態様は、被写体を撮像して対象画像を生成する撮像部と、本発明の画像処理装置と、を備える。   One aspect of an imaging apparatus illustrating the present invention includes an imaging unit that captures an image of a subject and generates a target image, and the image processing apparatus of the present invention.

本発明を例示する画像処理プログラムの一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める判別手順、判別手順で取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手順、としてコンピュータに実行させる。   An aspect of the image processing program exemplifying the present invention is a determination procedure for determining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image, using the feature amount of the target image. In accordance with the correlation of the plurality of similarities acquired in the procedure, the computer is caused to execute as a specific procedure for specifying coordinate points on the color space corresponding to the shooting scene.

本発明を例示する画像処理方法の一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める判別工程と、判別工程で取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定工程と、を備える。   An aspect of the image processing method illustrating the present invention includes a determination step for obtaining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image using the feature amount of the target image, A specifying step of specifying coordinate points on the color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determination step.

本発明によれば、演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる。   According to the present invention, it is possible to quickly and accurately discriminate a scene of a subject without increasing a calculation amount or a circuit scale.

一の実施形態のデジタルカメラの構成を示すブロック図The block diagram which shows the structure of the digital camera of one Embodiment 判別部21の構成を示す図The figure which shows the structure of the discrimination | determination part 21 各光源の照明色の分布を示す図Diagram showing illumination color distribution of each light source 特定部22の構成を示す図The figure which shows the structure of the specific | specification part 22 一の実施形態のデジタルカメラによる画像処理の動作を示すフローチャート6 is a flowchart illustrating an image processing operation performed by the digital camera according to the embodiment. 他の実施形態のデジタルカメラによる画像処理の動作を示すフローチャートThe flowchart which shows the operation | movement of the image processing by the digital camera of other embodiment.

《一の実施形態》
図1は、一の実施形態に係るデジタルカメラ1の構成の一例を示すブロック図である。
<< One Embodiment >>
FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera 1 according to an embodiment.

本実施形態のデジタルカメラ1は、撮像光学系11、撮像素子12、DFE13、CPU14、メモリ15、操作部16、モニタ17、メディアインタフェース(I/F)18を有する。DFE13、メモリ15、操作部16、モニタ17、メディアI/F18は、それぞれCPU14に接続されている。   The digital camera 1 according to the present embodiment includes an imaging optical system 11, an imaging element 12, a DFE 13, a CPU 14, a memory 15, an operation unit 16, a monitor 17, and a media interface (I / F) 18. The DFE 13, the memory 15, the operation unit 16, the monitor 17, and the media I / F 18 are each connected to the CPU 14.

撮像素子12は、撮像光学系11を通過した光束によって結像される被写体の像を撮像するデバイスである。この撮像素子12の出力はDFE13に接続されている。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCDなど)であってもよく、XYアドレス方式の固体撮像素子(CMOSなど)であってもよい。   The image sensor 12 is a device that captures an image of a subject formed by a light beam that has passed through the imaging optical system 11. The output of the image sensor 12 is connected to the DFE 13. Note that the image sensor 12 of the present embodiment may be a progressive scanning solid-state image sensor (CCD or the like) or an XY address type solid-state image sensor (CMOS or the like).

撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列に従って配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応するRAW画像の画像信号を出力する。これにより、撮像素子12は、撮像時にカラーのRAW画像を取得できる。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the imaging element 12. In each light receiving element of the image sensor 12, red (R), green (G), and blue (B) color filters are arranged according to a known Bayer array. Therefore, each light receiving element of the imaging element 12 outputs an image signal of a RAW image corresponding to each color by color separation with a color filter. Thereby, the image sensor 12 can acquire a color RAW image at the time of imaging.

また、撮像素子12は、デジタルカメラ1の撮影モードにおいて、操作部16に含まれるレリーズ釦の全押し操作に応答し静止画像や動画の本画像を撮像する。また、撮影モードでの撮像素子12は、撮影待機時にも所定間隔で構図確認用画像(スルー画像)を撮像する。このスルー画像のデータは、撮像素子12から間引き読み出しで出力される。   In addition, the image sensor 12 captures a still image or a main image of a moving image in response to a full press operation of a release button included in the operation unit 16 in the shooting mode of the digital camera 1. Further, the imaging element 12 in the shooting mode captures composition confirmation images (through images) at predetermined intervals even during standby for shooting. The through image data is output from the image sensor 12 by thinning-out readout.

DFE13は、撮像素子12から入力される画像信号のA/D変換や、欠陥画素補正などの信号処理を行うデジタルフロントエンド回路である。このDFE13は、本実施形態において撮像素子12とともに撮像部を構成し、撮像素子12より入力される画像信号を画像のデータとしてCPU14に出力する。   The DFE 13 is a digital front-end circuit that performs signal processing such as A / D conversion of image signals input from the image sensor 12 and correction of defective pixels. In this embodiment, the DFE 13 constitutes an image pickup unit together with the image pickup device 12 and outputs an image signal input from the image pickup device 12 to the CPU 14 as image data.

CPU14は、デジタルカメラ1の各部を統括的に制御するプロセッサである。例えば、CPU14は、撮像素子12の出力に基づいて、公知のコントラスト検出によるオートフォーカス(AF)制御や公知の自動露出(AE)演算などをそれぞれ実行する。また、CPU14は、DEF13からのRAW画像の画像データに対して、デジタル処理を施す。デジタル処理には、例えば、補間処理、ホワイトバランス処理、階調変換処理、輪郭強調処理、色変換処理などが含まれる。   The CPU 14 is a processor that comprehensively controls each unit of the digital camera 1. For example, the CPU 14 performs autofocus (AF) control by known contrast detection, known automatic exposure (AE) calculation, and the like based on the output of the image sensor 12. Further, the CPU 14 performs digital processing on the image data of the RAW image from the DEF 13. Digital processing includes, for example, interpolation processing, white balance processing, gradation conversion processing, contour enhancement processing, and color conversion processing.

さらに、本実施形態のCPU14は、画像処理プログラムの実行により、演算部20、判別部21、特定部22、調整部23として動作する。なお、本実施形態では、演算部20、判別部21、特定部22、調整部23の処理は、上記デジタル処理が施される前のRAW画像に対して行われるものとする。CPU14は、その処理結果に基づいて、デジタル処理、特にホワイトバランス処理をRAW画像に対して行う。   Further, the CPU 14 according to the present embodiment operates as a calculation unit 20, a determination unit 21, a specification unit 22, and an adjustment unit 23 by executing the image processing program. In the present embodiment, the processing of the calculation unit 20, the determination unit 21, the specification unit 22, and the adjustment unit 23 is performed on the RAW image before the digital processing is performed. The CPU 14 performs digital processing, particularly white balance processing, on the RAW image based on the processing result.

演算部20は、撮像素子12により撮像されDFE13から出力されるRAW画像(対象画像)から、例えば、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。なお、本実施形態では、上記画像特徴量と対象画像撮影時における撮像光学系11の焦点距離などの撮影特徴量とを合わせて、「特徴量ベクトル」と称する。   The computing unit 20 uses, for example, image feature values such as luminance (BV), R / G, and B / G average values and standard deviation values from a RAW image (target image) captured by the image sensor 12 and output from the DFE 13. Is calculated. In the present embodiment, the image feature quantity and the shooting feature quantity such as the focal length of the imaging optical system 11 at the time of shooting the target image are collectively referred to as a “feature quantity vector”.

判別部21は、図2に示すように、例えば、公知のサポートベクタマシン(SVM)24−1〜24−4の4つの判別手段からなる。各SVM24は、対象画像の被写体のシーン(撮像シーン)を判別するための教師有り学習で予め算出された参照シーンの色域のデータを有し、上記特徴量ベクトルを用いて、対象画像のシーンと参照シーンとの類似する度合い(類似度)を算出する。   As shown in FIG. 2, the determination unit 21 includes, for example, four determination units of known support vector machines (SVM) 24-1 to 24-4. Each SVM 24 has color gamut data of a reference scene calculated in advance by supervised learning for discriminating a subject scene (captured scene) of the target image, and the scene of the target image using the feature quantity vector. The degree of similarity (similarity) between the reference scene and the reference scene is calculated.

なお、本実施形態の判別部21は、対象画像のシーンとして、上記ホワイトバランス処理において重要となる、対象画像における照明光源を判別するものとする。そして、本実施形態の参照シーンとして、例えば、晴天、日陰、電球、蛍光灯の4つの光源とする。したがって、判別部21の各SVM24は、各光源の照明色の色域のデータを有し、対象画像における照明光源と、晴天、日陰、電球、蛍光灯それぞれとの類似度を算出する。   Note that the determination unit 21 of the present embodiment determines an illumination light source in the target image, which is important in the white balance process, as a scene of the target image. Then, as the reference scene of the present embodiment, for example, there are four light sources: clear sky, shade, light bulb, and fluorescent light. Therefore, each SVM 24 of the determination unit 21 has data on the color gamut of the illumination color of each light source, and calculates the similarity between the illumination light source in the target image and each of clear sky, shade, light bulb, and fluorescent lamp.

特定部22は、判別部21による各参照シーンの類似度および特徴量ベクトルの複数の入力値の相関に応じて、対象画像における照明光源を特定する。そのために、本実施形態の特定部22は、例えば、公知のニューラルネットワークを用いて行う。   The specifying unit 22 specifies the illumination light source in the target image according to the similarity between each reference scene and the correlation between a plurality of input values of the feature amount vectors by the determining unit 21. For this purpose, the specifying unit 22 of the present embodiment performs, for example, a known neural network.

ここで、図3に示す各光源の照明色の分布、および図4に示す特定部22のニューラルネットワークにおけるデータの流れ図を用いて、本実施形態における判別部21と特定部22との処理の関係について説明する。   Here, using the distribution of the illumination color of each light source shown in FIG. 3 and the data flow diagram in the neural network of the specifying unit 22 shown in FIG. 4, the relationship between the processing of the determination unit 21 and the specifying unit 22 in this embodiment. Will be described.

図3は、本実施形態において定義した、晴天、日陰、電球、蛍光灯の各光源が有する照明色の分布の一例を、色差CrCbの座標面で示す。図3に示すように、一般的に、各光源の分布は互いに独立した関係ではなく重なって分布する。すなわち、例えば、蛍光灯には、白色光や電球色の光を発する蛍光灯、赤っぽいまたは青っぽい光を発する蛍光灯などがある。また、日陰にも、曇天や晴天時の室内など様々な状況がある。このことは、ホワイトバランス処理などに対して重大な影響を与え、画像の見栄えにも影響を与える。   FIG. 3 shows an example of the illumination color distribution of each light source such as clear sky, shade, light bulb, and fluorescent light defined in this embodiment on the coordinate plane of the color difference CrCb. As shown in FIG. 3, in general, the distribution of the light sources is not an independent relationship but is distributed in an overlapping manner. That is, for example, fluorescent lamps include fluorescent lamps that emit white light or light bulb color, and fluorescent lamps that emit reddish or bluish light. In the shade, there are various situations such as cloudy weather and indoors in fine weather. This seriously affects white balance processing and the like, and also affects the appearance of the image.

しかしながら、従来技術では、例えば、白色光、電球色、赤っぽいまたは青っぽい光などを発する蛍光灯のいずれかを判別するために、それ専用のSVMおよび色域のデータを用意する必要がある。その結果、演算量や記憶容量の増大およびコスト高を招いてしまう。一方、ニューラルネットワークを用いる場合、上記のような蛍光灯に対しても、1つのニューラルネットワークで判別できるが、SVMと比べて汎化性能に劣る。   However, in the prior art, for example, in order to discriminate between fluorescent light emitting white light, light bulb color, reddish or bluish light, it is necessary to prepare dedicated SVM and color gamut data. As a result, the calculation amount and the storage capacity increase and the cost increases. On the other hand, when a neural network is used, the above-described fluorescent lamp can be discriminated with a single neural network, but it is inferior in generalization performance as compared with SVM.

そこで、本実施形態では、まず判別部21のSVM24−1〜24−4が、対象画像における照明光源と晴天、日陰、電球、蛍光灯それぞれとの類似度を算出する。そして、特定部22は、上記類似度および特徴量ベクトルをニューラルネットワークに入力し、蛍光灯でも白色光や電球色の蛍光灯なのか、あるいは日陰でも曇天か室内なのかなどと判別し、対象画像における照明光源を特定する。このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを組み合わせることにより、恰も様々な光源についてのSVMを用意した場合と同様の処理が可能になる。   Therefore, in the present embodiment, first, the SVMs 24-1 to 24-4 of the determination unit 21 calculate the similarity between the illumination light source and the clear sky, shade, light bulb, and fluorescent lamp in the target image. Then, the specifying unit 22 inputs the similarity and the feature amount vector to the neural network, determines whether the fluorescent light is a white light or a light bulb-colored fluorescent light, or whether it is cloudy or indoors in the shade, and the target image. The illumination light source at is specified. As described above, in this embodiment, by combining the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specifying unit 22, it is possible to perform the same processing as when SVMs for various light sources are prepared. become.

ここで、図4に示すニューラルネットワークの出力層のパーセプトロンは、図3に示す色差CrCbの座標面を所定の大きさで分割した領域それぞれに対応する。ただし、図4は、5×5の一部の領域のみ示す。中間層の各パーセプトロンは出力層のパーセプトロンの全ての領域に信号を出力することができ、図4はその出力の一部を示す。なお、領域の大きさは、要求される照明光源の特定の精度などに応じて決定することが好ましい。   Here, the perceptron of the output layer of the neural network shown in FIG. 4 corresponds to each of the areas obtained by dividing the coordinate plane of the color difference CrCb shown in FIG. 3 by a predetermined size. However, FIG. 4 shows only a partial region of 5 × 5. Each perceptron in the intermediate layer can output a signal to all regions of the perceptron in the output layer, and FIG. 4 shows a part of the output. Note that the size of the region is preferably determined according to the specific accuracy of the required illumination light source.

また、図4に示すニューラルネットワークの入力層、中間層、出力層の結合状態や結合係数は、複数の既知の照明光源において撮像された複数の画像における各SVM24による類似度と特徴量ベクトルと用い、既知の照明光源と晴天、日陰、電球、蛍光灯それぞれとの相関関係に基づいて予め決定されるものとする。   In addition, the connection state and the connection coefficient of the input layer, the intermediate layer, and the output layer of the neural network illustrated in FIG. 4 are used as the similarity and the feature amount vector by each SVM 24 in a plurality of images captured by a plurality of known illumination light sources. Suppose that it is determined in advance based on the correlation between the known illumination light source and the clear sky, shade, light bulb, and fluorescent lamp.

特定部22は、図4に示す色差CrCbの座標面上におけるニューラルネットワークから出力される照明色の分布を、例えば加重平均し重心を求める。特定部22は、その重心の座標位置から対象画像における照明光源を特定する。   The specifying unit 22 calculates, for example, a weighted average of the distribution of illumination colors output from the neural network on the coordinate plane of the color difference CrCb shown in FIG. The specifying unit 22 specifies the illumination light source in the target image from the coordinate position of the center of gravity.

調整部23は、特定部22が求めた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。   The adjustment unit 23 obtains the gain value of each color component of RGB by a known method from the value of the color difference CrCb at the coordinate position of the center of gravity obtained by the specifying unit 22, and calculates the correction value in the white balance process.

メモリ15は、RAW画像などの画像データやSVM24−1〜24−4の色域のデータ、CPU14によって実行される画像処理プログラムなどを記憶する不揮発性の半導体メモリである。   The memory 15 is a non-volatile semiconductor memory that stores image data such as a RAW image, color gamut data of the SVMs 24-1 to 24-4, an image processing program executed by the CPU 14, and the like.

操作部16は、例えば、撮像モードの切換設定の入力や、静止画像や動画の撮像指示などをユーザから受け付ける。   For example, the operation unit 16 receives an input of an imaging mode switching setting, an instruction to capture a still image or a moving image, and the like from the user.

モニタ17は、液晶モニタ等のモニタであり、CPU14の制御指示によって各種画像を表示する。例えば、モニタ17は、撮像後や画像処理後、CPU14の制御指示に応じて画像を表示する。   The monitor 17 is a monitor such as a liquid crystal monitor and displays various images according to control instructions from the CPU 14. For example, the monitor 17 displays an image in accordance with a control instruction from the CPU 14 after imaging or image processing.

メディアI/F18には、不揮発性の記憶媒体19を着脱可能に接続できる。そして、メディアI/F18は、記憶媒体19に対してデータの書き込み/読み込みを実行する。上記の記憶媒体19は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体19の一例としてメモリカードを図示する。   A non-volatile storage medium 19 can be detachably connected to the media I / F 18. The media I / F 18 executes data writing / reading with respect to the storage medium 19. The storage medium 19 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 19.

次に、図5のフローチャートを参照しつつ、本実施形態のデジタルカメラ1による処理動作について説明する。なお、以下の説明において、対象画像は静止画像のRAW画像とするが、動画やスルー画像のフレームに対しても同様に処理される。   Next, the processing operation by the digital camera 1 of the present embodiment will be described with reference to the flowchart of FIG. In the following description, the target image is a RAW image of a still image, but the same processing is applied to a frame of a moving image or a through image.

CPU14は、ユーザから、例えば、静止画像の撮像指示(例えば、操作部16に含まれるレリーズ釦の全押し操作など)を受け付けると、撮像素子12に静止画像を撮像させる。CPU14は、撮像された静止画像に対してステップS101からの処理を開始する。   When the CPU 14 receives, for example, an instruction to capture a still image (for example, full pressing operation of a release button included in the operation unit 16) from the user, the CPU 14 causes the image sensor 12 to capture a still image. CPU14 starts the process from step S101 with respect to the captured still image.

ステップS101:CPU14は、DEF13を介して、撮像素子12から出力される静止画像のRAW画像を読み込む。CPU14は、そのRAW画像の露光条件や撮像時の撮像光学系11の焦点距離などを撮影特徴量として取得保持する。   Step S101: The CPU 14 reads a RAW image of a still image output from the image sensor 12 via the DEF 13. The CPU 14 acquires and holds the RAW image exposure conditions, the focal length of the image pickup optical system 11 at the time of image pickup, and the like as shooting feature amounts.

ステップS102:CPU14の演算部20は、読み込んだRAW画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。   Step S102: The calculation unit 20 of the CPU 14 uses the read RAW image as a target image, and calculates image feature amounts such as luminance (BV), R / G, B / G average values and standard deviation values.

ステップS103:CPU14の判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、対象画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。   Step S103: The determination unit 21 of the CPU 14 inputs the feature amount vector to each of the SVMs 24-1 to 24-4, and calculates the similarity between the illumination light source and each of the light sources of the clear sky, shade, light bulb, and fluorescent lamp in the target image. To do.

ステップS104:CPU14の特定部22は、ステップS103で算出された類似度と特徴量ベクトルとをニューラルネットワークに入力し、色差CrCbの座標面における照明色の分布を求める。特定部22は、その分布の重心の位置を求め、対象画像の照明光源を特定する。   Step S104: The specifying unit 22 of the CPU 14 inputs the similarity and the feature amount vector calculated in Step S103 to the neural network, and obtains the illumination color distribution on the coordinate plane of the color difference CrCb. The specifying unit 22 obtains the position of the center of gravity of the distribution and specifies the illumination light source of the target image.

ステップS105:CPU14の調整部23は、ステップS104で求められた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。   Step S105: The adjusting unit 23 of the CPU 14 obtains the gain value of each color component of RGB by a known method from the value of the color difference CrCb at the coordinate position of the center of gravity obtained in step S104, and calculates the correction value in the white balance process. To do.

ステップS106:CPU14は、ステップS105で算出された補正量を用い、ホワイトバランス処理などのデジタル処理を対象画像に対して施す。   Step S106: The CPU 14 performs digital processing such as white balance processing on the target image using the correction amount calculated in step S105.

ステップS107:CPU14は、デジタル処理が施された静止画像を、RAW画像とともにメモリ15や記憶媒体19に記録する。また、CPU14は、デジタル処理が施された静止画像をモニタ17に表示する。CPU14は、一連の処理を終了する。   Step S107: The CPU 14 records the digitally processed still image in the memory 15 and the storage medium 19 together with the RAW image. Further, the CPU 14 displays a still image on which the digital processing has been performed on the monitor 17. The CPU 14 ends a series of processes.

このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。   As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specifying unit 22 together, the illumination light source in the target image can be specified with high accuracy.

また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《一の実施形態の変形例》
本発明の一の実施形態の変形例に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Modification of one embodiment >>
A digital camera according to a modification of the embodiment of the present invention is the same as the digital camera 1 according to the embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.

また、本実施形態のデジタルカメラ1による処理動作は、図5に示す一の実施形態の処理と同じであり詳細な説明は省略する。   Further, the processing operation by the digital camera 1 of the present embodiment is the same as the processing of the first embodiment shown in FIG.

本実施形態に係るデジタルカメラ1と一の実施形態に係るものとの相違点は、特定部22が、ニューラルネットワークによる処理を複数回行う点にある。すなわち、本実施形態の特定部22は、ニューラルネットワークの出力を自身のニューラルネットワークの入力としてフィードバックし、特徴量ベクトルと併せて再度処理を行う。特定部22は、このフィードバック処理を複数回行うことで、対象画像における照明光源を特定する。なお、フィードバックするごとに、特定部22のニューラルネットワークは、例えば、入力層、中間層、出力層のパーセプトロン間の結合の組み合わせや結合係数を変更したり、中間層のパーセプトロン数を増減させたり、出力層のパーセプトロンである領域の大きさを変更したりすることが好ましい。   The difference between the digital camera 1 according to the present embodiment and that according to the first embodiment is that the specifying unit 22 performs the processing by the neural network a plurality of times. That is, the specifying unit 22 of the present embodiment feeds back the output of the neural network as an input of its own neural network, and performs the process again together with the feature amount vector. The specifying unit 22 specifies the illumination light source in the target image by performing this feedback processing a plurality of times. Each time the feedback is performed, the neural network of the specifying unit 22 changes, for example, the combination and coupling coefficient between the perceptrons of the input layer, the intermediate layer, and the output layer, increases or decreases the number of perceptrons of the intermediate layer, It is preferable to change the size of the region that is the perceptron of the output layer.

このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。   As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specifying unit 22 together, the illumination light source in the target image can be specified with high accuracy.

また、ニューラルネットワークからの出力をフィードバックすることにより、より精度よく照明光源を特定することができる。   Further, the illumination light source can be specified with higher accuracy by feeding back the output from the neural network.

また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《他の実施形態》
本発明の他の実施形態に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Other embodiments >>
A digital camera according to another embodiment of the present invention is the same as the digital camera 1 according to one embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.

本実施形態に係るデジタルカメラ1と一の実施形態に係るものとの相違点は、本画像を撮像する前に撮像されたスルー画像における照明光源を特定し、その結果が本画像における照明光源の特定に用いられる点にある。   The difference between the digital camera 1 according to the present embodiment and that according to the first embodiment is that the illumination light source in the through image captured before capturing the main image is specified, and the result is the illumination light source in the main image. It is in the point used for specific.

次に、図6のフローチャートを参照しつつ、本実施形態のデジタルカメラ1による処理動作について説明する。なお、以下の説明において、本画像は静止画像とするが、動画のフレームに対しても同様に処理される。   Next, the processing operation by the digital camera 1 of the present embodiment will be described with reference to the flowchart of FIG. In the following description, the main image is assumed to be a still image, but the same processing is applied to a moving image frame.

CPU14は、ユーザから、例えば、操作部16に含まれる電源釦が押されると、デジタルカメラ1の電源を投入し初期化する。CPU14は、例えば、撮影モードに設定されている場合、ユーザから本画像の撮像指示を受け付けるまでの撮影待機時、撮像素子12に所定間隔で被写体のスルー画像を撮像させる。CPU14は、撮像されたスルー画像に対してステップS201からの処理を開始する。   For example, when the user presses a power button included in the operation unit 16, the CPU 14 turns on and initializes the digital camera 1. For example, when the shooting mode is set, the CPU 14 causes the imaging device 12 to capture a through image of the subject at a predetermined interval during shooting standby until receiving an imaging instruction for the main image from the user. CPU14 starts the process from step S201 with respect to the captured through image.

ステップS201:CPU14は、DEF13を介して、撮像素子12から間引き読み出しされ出力されるスルー画像を読み込む。CPU14は、そのスルー画像の露光条件や撮像時の撮像光学系11の焦点距離などを撮影特徴量として取得保持する。   Step S201: The CPU 14 reads through images that are read out and output from the image sensor 12 via the DEF 13. The CPU 14 acquires and holds the exposure condition of the through image, the focal length of the imaging optical system 11 at the time of imaging, and the like as the imaging feature amount.

ステップS202:演算部20は、読み込んだスルー画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。   Step S202: The calculation unit 20 uses the read through image as a target image, and calculates image feature amounts such as luminance (BV), R / G, B / G average value and standard deviation value.

ステップS203:判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、スルー画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。   Step S203: The determination unit 21 inputs the feature amount vector to each of the SVMs 24-1 to 24-4, and calculates the similarity between the illumination light source in the through image and each of the light sources of clear sky, shade, light bulb, and fluorescent lamp.

ステップS204:特定部22は、ステップS203で算出された類似度と特徴量ベクトルとをニューラルネットワークに入力し、色差CrCbの座標面における照明色の分布を求める。特定部22は、その分布の重心の位置を求め、スルー画像の照明光源を特定する。   Step S204: The specifying unit 22 inputs the similarity and the feature amount vector calculated in Step S203 to the neural network, and obtains the illumination color distribution on the coordinate plane of the color difference CrCb. The specifying unit 22 obtains the position of the center of gravity of the distribution and specifies the illumination light source of the through image.

ステップS205:調整部23は、ステップS204で求められたスルー画像の重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。   Step S205: The adjusting unit 23 obtains the gain value of each color component of RGB by a known method from the value of the color difference CrCb at the coordinate position of the center of gravity of the through image obtained in step S204, and obtains the correction value in the white balance processing. calculate.

ステップS206:CPU14は、ステップS205で算出された補正量を用い、ホワイトバランス処理などのデジタル処理をスルー画像に対して施す。   Step S206: The CPU 14 performs digital processing such as white balance processing on the through image using the correction amount calculated in step S205.

ステップS207:CPU14は、デジタル処理が施されたスルー画像をモニタ17に表示するとともに、ステップS204で求められたスルー画像の照明光源に対する照明色の分布を、不図示の内部メモリに記録する。   Step S207: The CPU 14 displays the digitally processed through image on the monitor 17, and records the illumination color distribution for the illumination light source of the through image obtained in step S204 in an internal memory (not shown).

ステップS208:CPU14は、例えば、ユーザの操作部16に含まれるレリーズ釦の全押し操作などにより、本画像の撮像指示を受け付けたか否かを判定する。CPU14は、撮像指示を受け付けた場合、ステップS209(YES側)へ移行する。一方、CPU14は、撮像指示を受け付けていない場合、ステップS201(NO側)へ移行し、次に撮像されたスルー画像に対して、ステップS201〜ステップS207の処理を施す。   Step S208: The CPU 14 determines whether or not an imaging instruction for the main image has been received, for example, by a full pressing operation of a release button included in the operation unit 16 of the user. When the CPU 14 receives an imaging instruction, the CPU 14 proceeds to step S209 (YES side). On the other hand, when the imaging instruction has not been received, the CPU 14 proceeds to step S201 (NO side), and performs the processing of step S201 to step S207 on the next captured through image.

ステップS209:CPU14は、DEF13を介して、撮像素子12から出力される本画像の静止画像のRAW画像を読み込む。CPU14は、そのRAW画像の露光条件や撮像時の撮像光学系11の焦点距離などの撮影特徴量を取得保持する。   Step S209: The CPU 14 reads the RAW image of the still image of the main image output from the image sensor 12 via the DEF 13. The CPU 14 acquires and holds shooting feature amounts such as the exposure condition of the RAW image and the focal length of the imaging optical system 11 at the time of imaging.

ステップS210:演算部20は、読み込んだRAW画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。   Step S210: The calculation unit 20 uses the read RAW image as a target image, and calculates image feature amounts such as luminance (BV), R / G, B / G average values and standard deviation values.

ステップS211:判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、RAW画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。   Step S211: The determination unit 21 inputs the feature vector into each of the SVMs 24-1 to 24-4, and calculates the similarity between the illumination light source in the RAW image and each of the light sources of the clear sky, shade, light bulb, and fluorescent lamp.

ステップS212:特定部22は、ステップS211で算出された類似度と特徴量ベクトルとともに、ステップS204で算出された直近のスルー画像の照明光源に対する照明色の分布のデータをニューラルネットワークに入力する。特定部22は、RAW画像の照明光源に対する照明色の分布およびその分布の重心の位置を求め、RAW画像の照明光源を特定する。   Step S212: The identifying unit 22 inputs the illumination color distribution data for the illumination light source of the latest through image calculated in step S204, together with the similarity and the feature vector calculated in step S211 to the neural network. The specifying unit 22 determines the illumination color distribution for the illumination light source of the RAW image and the position of the center of gravity of the distribution, and specifies the illumination light source of the RAW image.

ステップS213:調整部23は、ステップS212で求められた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。   Step S213: The adjustment unit 23 obtains a gain value of each color component of RGB by a known method from the value of the color difference CrCb at the coordinate position of the center of gravity obtained in step S212, and calculates a correction value in the white balance process.

ステップS214:CPU14は、ステップS213で算出された補正量を用い、ホワイトバランス処理などのデジタル処理をRAW画像に対して施す。   Step S214: The CPU 14 performs digital processing such as white balance processing on the RAW image using the correction amount calculated in step S213.

ステップS215:CPU14は、デジタル処理が施された静止画像をメモリ15や記憶媒体19に記録する。また、CPU14は、デジタル処理が施された静止画像をモニタ17に表示する。CPU14は、一連の処理を終了する。   Step S215: The CPU 14 records the still image subjected to the digital processing in the memory 15 or the storage medium 19. Further, the CPU 14 displays a still image on which the digital processing has been performed on the monitor 17. The CPU 14 ends a series of processes.

このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。   As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specifying unit 22 together, the illumination light source in the target image can be specified with high accuracy.

また、直近のスルー画像の照明光源に対する照明色の分布を用いることにより、本画像における照明光源をより正確に特定することができる。   Further, by using the illumination color distribution for the illumination light source of the latest through image, the illumination light source in the main image can be specified more accurately.

また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《他の実施形態の変形例》
本発明の他の実施形態の変形例に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Modification of other embodiment >>
A digital camera according to a modification of the other embodiment of the present invention is the same as the digital camera 1 according to the embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.

また、本実施形態のデジタルカメラ1による処理動作は、図6に示す他の実施形態の処理と同じであり詳細な説明は省略する。   The processing operation by the digital camera 1 of the present embodiment is the same as the processing of the other embodiments shown in FIG.

本実施形態に係るデジタルカメラ1と他の実施形態に係るものとの相違点は、一の実施形態の変形例の場合と同様に、特定部22が、ニューラルネットワークによる処理を複数回行う点にある。ただし、フィードバック処理は、スルー画像に対しては行わない、あるいは本画像に対する回数よりも少ないのが好ましい。   The difference between the digital camera 1 according to this embodiment and that according to the other embodiment is that the specifying unit 22 performs processing by the neural network a plurality of times, as in the case of the modification of one embodiment. is there. However, it is preferable that the feedback process is not performed for the through image or is less than the number of times for the main image.

このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。   As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specifying unit 22 together, the illumination light source in the target image can be specified with high accuracy.

また、直近のスルー画像の照明光源に対する照明色の分布を用いることにより、本画像における照明光源をより正確に特定することができる。   Further, by using the illumination color distribution for the illumination light source of the latest through image, the illumination light source in the main image can be specified more accurately.

さらに、ニューラルネットワークからの出力をフィードバックすることにより、より精度よく特定することができる。   Furthermore, it is possible to specify with higher accuracy by feeding back the output from the neural network.

また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《実施形態の補足事項》
(1)上記実施形態では、デジタルカメラ1の演算部20、判別部21、特定部22、補正部23の各処理を、CPU14がソフトウエア的に実現する例を説明したが、ASICを用いてこれらの各処理をハードウエア的に実現しても勿論かまわない。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Additional items of embodiment >>
(1) In the above-described embodiment, an example in which the CPU 14 implements the processing of the calculation unit 20, the determination unit 21, the specification unit 22, and the correction unit 23 of the digital camera 1 by software has been described. Of course, these processes may be realized by hardware.

(2)本発明の画像処理装置は、上記実施形態のデジタルカメラ1の例に限定されない。例えば、記憶媒体などに記憶された画像処理プログラムが予めインストールされたコンピュータに、撮像した画像を、デジタルカメラ1から直接またはインターネットなどを介して読み込ませて、シーン判別処理を実行させることで、コンピュータを本発明の画像処理装置として機能させてもよい。   (2) The image processing apparatus of the present invention is not limited to the example of the digital camera 1 of the above embodiment. For example, a computer in which an image processing program stored in a storage medium or the like is installed in advance causes a captured image to be read directly from the digital camera 1 or via the Internet, and the scene determination process is executed, thereby causing the computer to May function as the image processing apparatus of the present invention.

(3)上記実施形態では、演算部20は対象画像全体の画像特徴量を算出したが、本発明はこれに限定されず、所定の部分画像領域のみの画像特徴量を算出してもよいし、複数の画像領域ごとに画像特徴量を算出してもよい。   (3) In the above embodiment, the calculation unit 20 calculates the image feature amount of the entire target image. However, the present invention is not limited to this, and the image feature amount of only a predetermined partial image region may be calculated. The image feature amount may be calculated for each of a plurality of image regions.

(4)上記実施形態では、判別部21は、晴天、日陰、電球、蛍光灯のSVM24−1〜24−4を有したが、本発明はこれに限定されず、1つ以上の光源のSVMがあればよく、要求される特定精度、処理速度、記憶容量などに応じて、SVMの数を適宜決定することが好ましい。   (4) In the above-described embodiment, the determination unit 21 includes the SVM 24-1 to 24-4 of clear sky, shade, light bulb, and fluorescent lamp, but the present invention is not limited to this, and the SVM of one or more light sources. The number of SVMs is preferably determined as appropriate according to the required specific accuracy, processing speed, storage capacity, and the like.

また、判別部21の判別対象は光源に限定されず、夜景やポートレートなどのシーンであってもよい。   The discrimination target of the discrimination unit 21 is not limited to a light source, and may be a scene such as a night view or a portrait.

(5)上記実施形態では、特定部22は、対象画像における照明光源を、ニューラルネットワークによる照明色の分布の重心の座標位置に基づいて特定したが、本発明はこれに限定されない。例えば、特定部22は、上記照明色の分布のうち最大値を与える座標位置に基づいて対象画像の照明光源を特定してもよい。あるいは、特定部22は、判別部21のSVM24−1〜24−4それぞれの判別の信頼性に基づいた係数を用いて、照明色の分布を加重平均し、対象画像の照明光源を特定してもよい。なお、SVMの判別の信頼性とは、予め照明光源が特定されている複数のサンプル画像を用い、SVMの判別結果の正解率である。   (5) In the above embodiment, the specification unit 22 specifies the illumination light source in the target image based on the coordinate position of the center of gravity of the illumination color distribution by the neural network, but the present invention is not limited to this. For example, the specifying unit 22 may specify the illumination light source of the target image based on the coordinate position that gives the maximum value among the illumination color distributions. Alternatively, the specifying unit 22 uses a coefficient based on the determination reliability of each of the SVMs 24-1 to 24-4 of the determination unit 21 to perform weighted average of the illumination color distribution and specify the illumination light source of the target image. Also good. Note that the reliability of the SVM discrimination is the accuracy rate of the SVM discrimination result using a plurality of sample images in which the illumination light source is specified in advance.

(6)上記実施形態では、判別部21のSVM24−1〜24−4および特定部22のニューラルネットワークに基づいて、対象画像における照明光源を特定したが、本発明はこれに限定されない。例えば、判別部21は、SVMの代わりにブースティングなどの他の教師有り学習の判別方法を用いてもよい。また、特定部22は、ニューラルネットワークの代わりにテンプレートマッチングなどを用いてもよい。   (6) In the above embodiment, the illumination light source in the target image is specified based on the SVMs 24-1 to 24-4 of the determination unit 21 and the neural network of the specification unit 22, but the present invention is not limited to this. For example, the determination unit 21 may use another supervised learning determination method such as boosting instead of SVM. Further, the specifying unit 22 may use template matching or the like instead of the neural network.

(7)上記実施形態では、特定部22には1つのニューラルネットワークが配置されたが、本発明はこれに限定されない。例えば、特定部22は、例えば、入力層、中間層、出力層のパーセプトロン間の結合の組み合わせや結合係数、あるいは中間層のパーセプトロン数などが互いに異なる複数のニューラルネットワークが配置されてもよい。そして、特定部22は、対象画像の特徴量ベクトル、判別部21の類似度、スルー画像の照明光源に対する照明色の分布のデータを、それぞれのニューラルネットワークに入力して照明色の分布を算出する。特定部22は、それらの照明色の分布に基づいて対象画像の照明光源を特定してもよい。   (7) In the above embodiment, one neural network is arranged in the specifying unit 22, but the present invention is not limited to this. For example, the specifying unit 22 may include, for example, a plurality of neural networks having different combinations and coupling coefficients between the perceptrons in the input layer, the intermediate layer, and the output layer, or the number of perceptrons in the intermediate layer. Then, the specification unit 22 calculates the illumination color distribution by inputting the feature vector of the target image, the similarity of the determination unit 21, and the illumination color distribution data with respect to the illumination light source of the through image to each neural network. . The specifying unit 22 may specify the illumination light source of the target image based on the distribution of the illumination colors.

また、特定部22は、ニューラルネットワークとともに、テンプレートマッチングなどの他の複数の手法を併用した構成でもよい。   The specifying unit 22 may have a configuration in which a plurality of other methods such as template matching are used in combination with the neural network.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良及び変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

1…デジタルカメラ、11…撮像光学系、12…撮像素子、13…DEF、14…CPU、15…メモリ、16…操作部、17…モニタ、18…メディアI/F、19…記憶媒体、20…演算部、21…判別部、22…特定部、23…補正部、24−1〜24−4…SVM DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Imaging optical system, 12 ... Imaging device, 13 ... DEF, 14 ... CPU, 15 ... Memory, 16 ... Operation part, 17 ... Monitor, 18 ... Media I / F, 19 ... Storage medium, 20 ... Calculation unit, 21 ... Distinction unit, 22 ... Specification unit, 23 ... Correction unit, 24-1 to 24-4 ... SVM

Claims (9)

対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と前記対象画像の撮影シーンとの類似度をそれぞれ求める複数の判別手段と、
前記複数の判別手段から取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定手段と、
を備えることを特徴とする画像処理装置。
A plurality of discriminating means for determining the similarity between the color gamut of each preset reference scene and the shooting scene of the target image using the feature amount of the target image;
A specifying unit for specifying a coordinate point on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired from the plurality of determining units;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記特定手段は、前記対象画像の特徴量および前記複数の類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus characterized in that the specifying unit specifies a coordinate point on a color space corresponding to the shooting scene, based on a feature amount of the target image and a correlation between the plurality of similarities.
請求項1または請求項2に記載の画像処理装置において、
前記特定手段は、複数の入力値の前記相関に応じた分布を前記色空間上で求め、求めた前記分布の重心位置または前記分布において最大値を与える位置に基づいて、前記座標点を特定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The specifying unit determines a distribution according to the correlation of a plurality of input values on the color space, and specifies the coordinate point based on a position of the center of gravity of the calculated distribution or a position giving a maximum value in the distribution. An image processing apparatus.
請求項1ないし請求項3のいずれか1項に記載の画像処理装置において、
前記特定手段は、ニューラルネットワークであることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus according to claim 1, wherein the specifying means is a neural network.
請求項1ないし請求項4のいずれか1項に記載の画像処理装置において、
前記参照シーンは、所定の光源であり、
前記撮影シーンは、前記対象画像における照明光源である
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The reference scene is a predetermined light source,
The imaging scene is an illumination light source in the target image.
請求項1ないし請求項5のいずれか1項に記載の画像処理装置において、
特定された前記座標点に基づいて、前記対象画像に対するホワイトバランスの調整量を求める調整手段を備える
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus comprising: an adjustment unit that obtains an adjustment amount of white balance for the target image based on the identified coordinate point.
被写体を撮像して対象画像を生成する撮像部と、
請求項1に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates a target image;
An image processing apparatus according to claim 1;
An imaging apparatus comprising:
対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と前記対象画像の撮影シーンとの類似度をそれぞれ求める判別手順、
前記判別手順で取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定手順、
としてコンピュータに実行させることを特徴とする画像処理プログラム。
A determination procedure for determining the similarity between the color gamut of each preset reference scene and the shooting scene of the target image using the feature amount of the target image,
A specifying procedure for specifying a coordinate point on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determination procedure;
An image processing program that is executed by a computer.
対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と前記対象画像の撮影シーンとの類似度をそれぞれ求める判別工程と、
前記判別工程で取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定工程と、
を備えることを特徴とする画像処理方法。
Using the feature amount of the target image, a determination step for obtaining a similarity between the color gamut of each preset reference scene and the shooting scene of the target image,
A specifying step of specifying coordinate points on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determining step;
An image processing method comprising:
JP2012029592A 2012-02-14 2012-02-14 Image processing device, imaging device, image processing program, and image processing method Pending JP2013168723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012029592A JP2013168723A (en) 2012-02-14 2012-02-14 Image processing device, imaging device, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012029592A JP2013168723A (en) 2012-02-14 2012-02-14 Image processing device, imaging device, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2013168723A true JP2013168723A (en) 2013-08-29

Family

ID=49178832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012029592A Pending JP2013168723A (en) 2012-02-14 2012-02-14 Image processing device, imaging device, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2013168723A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148281A (en) * 2017-03-01 2018-09-20 株式会社ブライセン Image processing device
JP2019114176A (en) * 2017-12-26 2019-07-11 株式会社Preferred Networks Information processing apparatus, information processing program, and information processing method
CN113743575A (en) * 2020-05-29 2021-12-03 精工爱普生株式会社 Data acquisition method and apparatus, similarity calculation method and apparatus, and storage medium
EP4138390A1 (en) * 2021-08-20 2023-02-22 Beijing Xiaomi Mobile Software Co., Ltd. Method for camera control, image signal processor and device with temporal control of image acquisition parameters
US11606543B2 (en) 2020-02-26 2023-03-14 Canon Kabushiki Kaisha Image processing apparatus, image capture apparatus, and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148281A (en) * 2017-03-01 2018-09-20 株式会社ブライセン Image processing device
JP2019114176A (en) * 2017-12-26 2019-07-11 株式会社Preferred Networks Information processing apparatus, information processing program, and information processing method
JP7213616B2 (en) 2017-12-26 2023-01-27 株式会社Preferred Networks Information processing device, information processing program, and information processing method.
US11606543B2 (en) 2020-02-26 2023-03-14 Canon Kabushiki Kaisha Image processing apparatus, image capture apparatus, and image processing method
CN113743575A (en) * 2020-05-29 2021-12-03 精工爱普生株式会社 Data acquisition method and apparatus, similarity calculation method and apparatus, and storage medium
CN113743575B (en) * 2020-05-29 2024-05-07 精工爱普生株式会社 Data acquisition method and device, similarity calculation method and device, and storage medium
EP4138390A1 (en) * 2021-08-20 2023-02-22 Beijing Xiaomi Mobile Software Co., Ltd. Method for camera control, image signal processor and device with temporal control of image acquisition parameters
CN115714919A (en) * 2021-08-20 2023-02-24 北京小米移动软件有限公司 Method for camera control, image signal processor and apparatus

Similar Documents

Publication Publication Date Title
CN108024054B (en) Image processing method, device, device and storage medium
JP6455601B2 (en) Control system, imaging apparatus, and program
US20110221920A1 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
CN111028190A (en) Image processing method, device, storage medium and electronic device
CN108833804A (en) Imaging method, device and electronic equipment
CN110381263A (en) Image processing method, image processing device, storage medium and electronic equipment
CN108833802B (en) Exposure control method and device and electronic equipment
JP6946564B2 (en) Image processing methods and image processing equipment, computer-readable storage media and computer equipment
JP5092565B2 (en) Imaging apparatus, image processing apparatus, and program
JP7492344B2 (en) Image processing device and image processing method
CN111434104B (en) Image processing apparatus, image capturing apparatus, image processing method, and recording medium
CN108900785A (en) Exposure control method and device and electronic equipment
JP2014235224A (en) Imaging device and control program
JP2013168723A (en) Image processing device, imaging device, image processing program, and image processing method
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP5532621B2 (en) Electronic camera and image processing program
CN110276730B (en) Image processing method and device and electronic equipment
JP2010041607A (en) Image capturing apparatus, method of controlling the same and program
US20190052803A1 (en) Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
JP4705146B2 (en) Imaging apparatus and imaging method
KR102090273B1 (en) Photographing apparatus and method
CN111226435B (en) Information processing device, imaging system, information processing method, imaging method, and recording medium
JP2013201477A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2015204579A (en) Imaging device
JP2015106791A (en) Imaging device