JP2013168723A - Image processing device, imaging device, image processing program, and image processing method - Google Patents
Image processing device, imaging device, image processing program, and image processing method Download PDFInfo
- Publication number
- JP2013168723A JP2013168723A JP2012029592A JP2012029592A JP2013168723A JP 2013168723 A JP2013168723 A JP 2013168723A JP 2012029592 A JP2012029592 A JP 2012029592A JP 2012029592 A JP2012029592 A JP 2012029592A JP 2013168723 A JP2013168723 A JP 2013168723A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- target image
- processing apparatus
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
【課題】 演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる技術を提供することを目的とする。
【解決手段】 対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める複数の判別手段と、複数の判別手段から取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手段と、を備える。
【選択図】 図1PROBLEM TO BE SOLVED: To provide a technique capable of quickly and accurately discriminating a scene of a subject without increasing a calculation amount or a circuit scale.
SOLUTION: Using a feature amount of a target image, a plurality of determination means for respectively obtaining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image, and obtained from the plurality of determination means Specifying means for specifying a coordinate point on a color space corresponding to a shooting scene in accordance with a correlation between a plurality of similarities.
[Selection] Figure 1
Description
本発明は、画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法に関する。 The present invention relates to an image processing device, an imaging device, an image processing program, and an image processing method.
従来、露光条件やホワイトバランス処理などの画像処理におけるパラメータの値を被写体のシーンに応じて設定するために、被写体のシーンを識別する様々な技術が開発されている。 Conventionally, various techniques for identifying a subject scene have been developed in order to set parameter values in image processing such as exposure conditions and white balance processing according to the subject scene.
例えば、画像データの色平均などの特徴量および絞り値などの撮影情報を、所定のシーンに属するか否かを判断するシーンごとのサポートベクタマシンに入力することにより、画像データにおける被写体のシーンを識別する技術がある(特許文献1など参照)。 For example, by inputting shooting information such as a feature amount such as a color average of image data and an aperture value to a support vector machine for each scene that determines whether or not it belongs to a predetermined scene, the scene of the subject in the image data is determined. There is a technique for identifying (see Patent Document 1).
しかしながら、従来技術では、識別したいシーンごとにサポートベクタマシンおよび判別基準のデータを用意する必要があり、演算量や回路規模が増大してしまう。 However, in the prior art, it is necessary to prepare support vector machines and data for discrimination criteria for each scene to be identified, which increases the amount of calculation and the circuit scale.
上記従来技術が有する問題に鑑み、本発明の目的は、演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる技術を提供することにある。 SUMMARY OF THE INVENTION In view of the above-described problems of the prior art, an object of the present invention is to provide a technique capable of quickly and accurately discriminating a subject scene without increasing the amount of calculation and the circuit scale.
上記課題を解決するために、本発明を例示する画像処理装置の一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める複数の判別手段と、複数の判別手段から取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手段と、を備える。 In order to solve the above-described problem, an aspect of the image processing apparatus illustrating the present invention uses a feature amount of the target image to resemble a preset color gamut of each reference scene and a shooting scene of the target image. A plurality of discriminating means for obtaining the degrees, and a specifying means for identifying the coordinate point on the color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired from the plurality of discriminating means.
また、特定手段は、対象画像の特徴量および複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定してもよい。 Further, the specifying unit may specify a coordinate point on the color space corresponding to the photographic scene according to the feature amount of the target image and the correlation between the plurality of similarities.
また、特定手段は、複数の入力値の相関に応じた分布を色空間上で求め、求めた分布の重心位置または分布において最大値を与える位置に基づいて、座標点を特定してもよい。 The specifying unit may determine a distribution according to the correlation of a plurality of input values on the color space, and specify the coordinate point based on the center of gravity of the calculated distribution or the position giving the maximum value in the distribution.
また、特定手段は、ニューラルネットワークであってもよい。 The specifying means may be a neural network.
また、参照シーンは、所定の光源であり、撮影シーンは、対象画像における照明光源であってもよい。 Further, the reference scene may be a predetermined light source, and the shooting scene may be an illumination light source in the target image.
また、特定された座標点に基づいて、対象画像に対するホワイトバランスの調整量を求める調整手段を備えてもよい。 Further, an adjustment unit that obtains an adjustment amount of white balance for the target image based on the specified coordinate point may be provided.
本発明を例示する撮像装置の一態様は、被写体を撮像して対象画像を生成する撮像部と、本発明の画像処理装置と、を備える。 One aspect of an imaging apparatus illustrating the present invention includes an imaging unit that captures an image of a subject and generates a target image, and the image processing apparatus of the present invention.
本発明を例示する画像処理プログラムの一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める判別手順、判別手順で取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定手順、としてコンピュータに実行させる。 An aspect of the image processing program exemplifying the present invention is a determination procedure for determining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image, using the feature amount of the target image. In accordance with the correlation of the plurality of similarities acquired in the procedure, the computer is caused to execute as a specific procedure for specifying coordinate points on the color space corresponding to the shooting scene.
本発明を例示する画像処理方法の一態様は、対象画像の特徴量を用いて、予め設定された個々の参照シーンの色域と対象画像の撮影シーンとの類似度をそれぞれ求める判別工程と、判別工程で取得した複数の類似度の相関に応じて、撮影シーンに相応する色空間上の座標点を特定する特定工程と、を備える。 An aspect of the image processing method illustrating the present invention includes a determination step for obtaining a similarity between a preset color gamut of each reference scene and a shooting scene of the target image using the feature amount of the target image, A specifying step of specifying coordinate points on the color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determination step.
本発明によれば、演算量や回路規模が増大することなく、被写体のシーンを高速かつ精度よく判別することができる。 According to the present invention, it is possible to quickly and accurately discriminate a scene of a subject without increasing a calculation amount or a circuit scale.
《一の実施形態》
図1は、一の実施形態に係るデジタルカメラ1の構成の一例を示すブロック図である。
<< One Embodiment >>
FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera 1 according to an embodiment.
本実施形態のデジタルカメラ1は、撮像光学系11、撮像素子12、DFE13、CPU14、メモリ15、操作部16、モニタ17、メディアインタフェース(I/F)18を有する。DFE13、メモリ15、操作部16、モニタ17、メディアI/F18は、それぞれCPU14に接続されている。
The digital camera 1 according to the present embodiment includes an imaging optical system 11, an
撮像素子12は、撮像光学系11を通過した光束によって結像される被写体の像を撮像するデバイスである。この撮像素子12の出力はDFE13に接続されている。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCDなど)であってもよく、XYアドレス方式の固体撮像素子(CMOSなど)であってもよい。
The
撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列に従って配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応するRAW画像の画像信号を出力する。これにより、撮像素子12は、撮像時にカラーのRAW画像を取得できる。
A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the
また、撮像素子12は、デジタルカメラ1の撮影モードにおいて、操作部16に含まれるレリーズ釦の全押し操作に応答し静止画像や動画の本画像を撮像する。また、撮影モードでの撮像素子12は、撮影待機時にも所定間隔で構図確認用画像(スルー画像)を撮像する。このスルー画像のデータは、撮像素子12から間引き読み出しで出力される。
In addition, the
DFE13は、撮像素子12から入力される画像信号のA/D変換や、欠陥画素補正などの信号処理を行うデジタルフロントエンド回路である。このDFE13は、本実施形態において撮像素子12とともに撮像部を構成し、撮像素子12より入力される画像信号を画像のデータとしてCPU14に出力する。
The DFE 13 is a digital front-end circuit that performs signal processing such as A / D conversion of image signals input from the
CPU14は、デジタルカメラ1の各部を統括的に制御するプロセッサである。例えば、CPU14は、撮像素子12の出力に基づいて、公知のコントラスト検出によるオートフォーカス(AF)制御や公知の自動露出(AE)演算などをそれぞれ実行する。また、CPU14は、DEF13からのRAW画像の画像データに対して、デジタル処理を施す。デジタル処理には、例えば、補間処理、ホワイトバランス処理、階調変換処理、輪郭強調処理、色変換処理などが含まれる。
The
さらに、本実施形態のCPU14は、画像処理プログラムの実行により、演算部20、判別部21、特定部22、調整部23として動作する。なお、本実施形態では、演算部20、判別部21、特定部22、調整部23の処理は、上記デジタル処理が施される前のRAW画像に対して行われるものとする。CPU14は、その処理結果に基づいて、デジタル処理、特にホワイトバランス処理をRAW画像に対して行う。
Further, the
演算部20は、撮像素子12により撮像されDFE13から出力されるRAW画像(対象画像)から、例えば、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。なお、本実施形態では、上記画像特徴量と対象画像撮影時における撮像光学系11の焦点距離などの撮影特徴量とを合わせて、「特徴量ベクトル」と称する。
The
判別部21は、図2に示すように、例えば、公知のサポートベクタマシン(SVM)24−1〜24−4の4つの判別手段からなる。各SVM24は、対象画像の被写体のシーン(撮像シーン)を判別するための教師有り学習で予め算出された参照シーンの色域のデータを有し、上記特徴量ベクトルを用いて、対象画像のシーンと参照シーンとの類似する度合い(類似度)を算出する。
As shown in FIG. 2, the
なお、本実施形態の判別部21は、対象画像のシーンとして、上記ホワイトバランス処理において重要となる、対象画像における照明光源を判別するものとする。そして、本実施形態の参照シーンとして、例えば、晴天、日陰、電球、蛍光灯の4つの光源とする。したがって、判別部21の各SVM24は、各光源の照明色の色域のデータを有し、対象画像における照明光源と、晴天、日陰、電球、蛍光灯それぞれとの類似度を算出する。
Note that the
特定部22は、判別部21による各参照シーンの類似度および特徴量ベクトルの複数の入力値の相関に応じて、対象画像における照明光源を特定する。そのために、本実施形態の特定部22は、例えば、公知のニューラルネットワークを用いて行う。
The
ここで、図3に示す各光源の照明色の分布、および図4に示す特定部22のニューラルネットワークにおけるデータの流れ図を用いて、本実施形態における判別部21と特定部22との処理の関係について説明する。
Here, using the distribution of the illumination color of each light source shown in FIG. 3 and the data flow diagram in the neural network of the
図3は、本実施形態において定義した、晴天、日陰、電球、蛍光灯の各光源が有する照明色の分布の一例を、色差CrCbの座標面で示す。図3に示すように、一般的に、各光源の分布は互いに独立した関係ではなく重なって分布する。すなわち、例えば、蛍光灯には、白色光や電球色の光を発する蛍光灯、赤っぽいまたは青っぽい光を発する蛍光灯などがある。また、日陰にも、曇天や晴天時の室内など様々な状況がある。このことは、ホワイトバランス処理などに対して重大な影響を与え、画像の見栄えにも影響を与える。 FIG. 3 shows an example of the illumination color distribution of each light source such as clear sky, shade, light bulb, and fluorescent light defined in this embodiment on the coordinate plane of the color difference CrCb. As shown in FIG. 3, in general, the distribution of the light sources is not an independent relationship but is distributed in an overlapping manner. That is, for example, fluorescent lamps include fluorescent lamps that emit white light or light bulb color, and fluorescent lamps that emit reddish or bluish light. In the shade, there are various situations such as cloudy weather and indoors in fine weather. This seriously affects white balance processing and the like, and also affects the appearance of the image.
しかしながら、従来技術では、例えば、白色光、電球色、赤っぽいまたは青っぽい光などを発する蛍光灯のいずれかを判別するために、それ専用のSVMおよび色域のデータを用意する必要がある。その結果、演算量や記憶容量の増大およびコスト高を招いてしまう。一方、ニューラルネットワークを用いる場合、上記のような蛍光灯に対しても、1つのニューラルネットワークで判別できるが、SVMと比べて汎化性能に劣る。 However, in the prior art, for example, in order to discriminate between fluorescent light emitting white light, light bulb color, reddish or bluish light, it is necessary to prepare dedicated SVM and color gamut data. As a result, the calculation amount and the storage capacity increase and the cost increases. On the other hand, when a neural network is used, the above-described fluorescent lamp can be discriminated with a single neural network, but it is inferior in generalization performance as compared with SVM.
そこで、本実施形態では、まず判別部21のSVM24−1〜24−4が、対象画像における照明光源と晴天、日陰、電球、蛍光灯それぞれとの類似度を算出する。そして、特定部22は、上記類似度および特徴量ベクトルをニューラルネットワークに入力し、蛍光灯でも白色光や電球色の蛍光灯なのか、あるいは日陰でも曇天か室内なのかなどと判別し、対象画像における照明光源を特定する。このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを組み合わせることにより、恰も様々な光源についてのSVMを用意した場合と同様の処理が可能になる。
Therefore, in the present embodiment, first, the SVMs 24-1 to 24-4 of the
ここで、図4に示すニューラルネットワークの出力層のパーセプトロンは、図3に示す色差CrCbの座標面を所定の大きさで分割した領域それぞれに対応する。ただし、図4は、5×5の一部の領域のみ示す。中間層の各パーセプトロンは出力層のパーセプトロンの全ての領域に信号を出力することができ、図4はその出力の一部を示す。なお、領域の大きさは、要求される照明光源の特定の精度などに応じて決定することが好ましい。 Here, the perceptron of the output layer of the neural network shown in FIG. 4 corresponds to each of the areas obtained by dividing the coordinate plane of the color difference CrCb shown in FIG. 3 by a predetermined size. However, FIG. 4 shows only a partial region of 5 × 5. Each perceptron in the intermediate layer can output a signal to all regions of the perceptron in the output layer, and FIG. 4 shows a part of the output. Note that the size of the region is preferably determined according to the specific accuracy of the required illumination light source.
また、図4に示すニューラルネットワークの入力層、中間層、出力層の結合状態や結合係数は、複数の既知の照明光源において撮像された複数の画像における各SVM24による類似度と特徴量ベクトルと用い、既知の照明光源と晴天、日陰、電球、蛍光灯それぞれとの相関関係に基づいて予め決定されるものとする。 In addition, the connection state and the connection coefficient of the input layer, the intermediate layer, and the output layer of the neural network illustrated in FIG. 4 are used as the similarity and the feature amount vector by each SVM 24 in a plurality of images captured by a plurality of known illumination light sources. Suppose that it is determined in advance based on the correlation between the known illumination light source and the clear sky, shade, light bulb, and fluorescent lamp.
特定部22は、図4に示す色差CrCbの座標面上におけるニューラルネットワークから出力される照明色の分布を、例えば加重平均し重心を求める。特定部22は、その重心の座標位置から対象画像における照明光源を特定する。
The specifying
調整部23は、特定部22が求めた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。
The
メモリ15は、RAW画像などの画像データやSVM24−1〜24−4の色域のデータ、CPU14によって実行される画像処理プログラムなどを記憶する不揮発性の半導体メモリである。
The
操作部16は、例えば、撮像モードの切換設定の入力や、静止画像や動画の撮像指示などをユーザから受け付ける。
For example, the
モニタ17は、液晶モニタ等のモニタであり、CPU14の制御指示によって各種画像を表示する。例えば、モニタ17は、撮像後や画像処理後、CPU14の制御指示に応じて画像を表示する。
The
メディアI/F18には、不揮発性の記憶媒体19を着脱可能に接続できる。そして、メディアI/F18は、記憶媒体19に対してデータの書き込み/読み込みを実行する。上記の記憶媒体19は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体19の一例としてメモリカードを図示する。
A
次に、図5のフローチャートを参照しつつ、本実施形態のデジタルカメラ1による処理動作について説明する。なお、以下の説明において、対象画像は静止画像のRAW画像とするが、動画やスルー画像のフレームに対しても同様に処理される。 Next, the processing operation by the digital camera 1 of the present embodiment will be described with reference to the flowchart of FIG. In the following description, the target image is a RAW image of a still image, but the same processing is applied to a frame of a moving image or a through image.
CPU14は、ユーザから、例えば、静止画像の撮像指示(例えば、操作部16に含まれるレリーズ釦の全押し操作など)を受け付けると、撮像素子12に静止画像を撮像させる。CPU14は、撮像された静止画像に対してステップS101からの処理を開始する。
When the
ステップS101:CPU14は、DEF13を介して、撮像素子12から出力される静止画像のRAW画像を読み込む。CPU14は、そのRAW画像の露光条件や撮像時の撮像光学系11の焦点距離などを撮影特徴量として取得保持する。
Step S101: The
ステップS102:CPU14の演算部20は、読み込んだRAW画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。
Step S102: The
ステップS103:CPU14の判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、対象画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。
Step S103: The
ステップS104:CPU14の特定部22は、ステップS103で算出された類似度と特徴量ベクトルとをニューラルネットワークに入力し、色差CrCbの座標面における照明色の分布を求める。特定部22は、その分布の重心の位置を求め、対象画像の照明光源を特定する。
Step S104: The specifying
ステップS105:CPU14の調整部23は、ステップS104で求められた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。
Step S105: The adjusting
ステップS106:CPU14は、ステップS105で算出された補正量を用い、ホワイトバランス処理などのデジタル処理を対象画像に対して施す。
Step S106: The
ステップS107:CPU14は、デジタル処理が施された静止画像を、RAW画像とともにメモリ15や記憶媒体19に記録する。また、CPU14は、デジタル処理が施された静止画像をモニタ17に表示する。CPU14は、一連の処理を終了する。
Step S107: The
このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。
As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the
また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《一の実施形態の変形例》
本発明の一の実施形態の変形例に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Modification of one embodiment >>
A digital camera according to a modification of the embodiment of the present invention is the same as the digital camera 1 according to the embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.
また、本実施形態のデジタルカメラ1による処理動作は、図5に示す一の実施形態の処理と同じであり詳細な説明は省略する。 Further, the processing operation by the digital camera 1 of the present embodiment is the same as the processing of the first embodiment shown in FIG.
本実施形態に係るデジタルカメラ1と一の実施形態に係るものとの相違点は、特定部22が、ニューラルネットワークによる処理を複数回行う点にある。すなわち、本実施形態の特定部22は、ニューラルネットワークの出力を自身のニューラルネットワークの入力としてフィードバックし、特徴量ベクトルと併せて再度処理を行う。特定部22は、このフィードバック処理を複数回行うことで、対象画像における照明光源を特定する。なお、フィードバックするごとに、特定部22のニューラルネットワークは、例えば、入力層、中間層、出力層のパーセプトロン間の結合の組み合わせや結合係数を変更したり、中間層のパーセプトロン数を増減させたり、出力層のパーセプトロンである領域の大きさを変更したりすることが好ましい。
The difference between the digital camera 1 according to the present embodiment and that according to the first embodiment is that the specifying
このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。
As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the
また、ニューラルネットワークからの出力をフィードバックすることにより、より精度よく照明光源を特定することができる。 Further, the illumination light source can be specified with higher accuracy by feeding back the output from the neural network.
また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《他の実施形態》
本発明の他の実施形態に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Other embodiments >>
A digital camera according to another embodiment of the present invention is the same as the digital camera 1 according to one embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.
本実施形態に係るデジタルカメラ1と一の実施形態に係るものとの相違点は、本画像を撮像する前に撮像されたスルー画像における照明光源を特定し、その結果が本画像における照明光源の特定に用いられる点にある。 The difference between the digital camera 1 according to the present embodiment and that according to the first embodiment is that the illumination light source in the through image captured before capturing the main image is specified, and the result is the illumination light source in the main image. It is in the point used for specific.
次に、図6のフローチャートを参照しつつ、本実施形態のデジタルカメラ1による処理動作について説明する。なお、以下の説明において、本画像は静止画像とするが、動画のフレームに対しても同様に処理される。 Next, the processing operation by the digital camera 1 of the present embodiment will be described with reference to the flowchart of FIG. In the following description, the main image is assumed to be a still image, but the same processing is applied to a moving image frame.
CPU14は、ユーザから、例えば、操作部16に含まれる電源釦が押されると、デジタルカメラ1の電源を投入し初期化する。CPU14は、例えば、撮影モードに設定されている場合、ユーザから本画像の撮像指示を受け付けるまでの撮影待機時、撮像素子12に所定間隔で被写体のスルー画像を撮像させる。CPU14は、撮像されたスルー画像に対してステップS201からの処理を開始する。
For example, when the user presses a power button included in the
ステップS201:CPU14は、DEF13を介して、撮像素子12から間引き読み出しされ出力されるスルー画像を読み込む。CPU14は、そのスルー画像の露光条件や撮像時の撮像光学系11の焦点距離などを撮影特徴量として取得保持する。
Step S201: The
ステップS202:演算部20は、読み込んだスルー画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。
Step S202: The
ステップS203:判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、スルー画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。
Step S203: The
ステップS204:特定部22は、ステップS203で算出された類似度と特徴量ベクトルとをニューラルネットワークに入力し、色差CrCbの座標面における照明色の分布を求める。特定部22は、その分布の重心の位置を求め、スルー画像の照明光源を特定する。
Step S204: The specifying
ステップS205:調整部23は、ステップS204で求められたスルー画像の重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。
Step S205: The adjusting
ステップS206:CPU14は、ステップS205で算出された補正量を用い、ホワイトバランス処理などのデジタル処理をスルー画像に対して施す。
Step S206: The
ステップS207:CPU14は、デジタル処理が施されたスルー画像をモニタ17に表示するとともに、ステップS204で求められたスルー画像の照明光源に対する照明色の分布を、不図示の内部メモリに記録する。
Step S207: The
ステップS208:CPU14は、例えば、ユーザの操作部16に含まれるレリーズ釦の全押し操作などにより、本画像の撮像指示を受け付けたか否かを判定する。CPU14は、撮像指示を受け付けた場合、ステップS209(YES側)へ移行する。一方、CPU14は、撮像指示を受け付けていない場合、ステップS201(NO側)へ移行し、次に撮像されたスルー画像に対して、ステップS201〜ステップS207の処理を施す。
Step S208: The
ステップS209:CPU14は、DEF13を介して、撮像素子12から出力される本画像の静止画像のRAW画像を読み込む。CPU14は、そのRAW画像の露光条件や撮像時の撮像光学系11の焦点距離などの撮影特徴量を取得保持する。
Step S209: The
ステップS210:演算部20は、読み込んだRAW画像を対象画像とし、輝度(BV)、R/G、B/Gの平均値や標準偏差値などの画像特徴量を算出する。
Step S210: The
ステップS211:判別部21は、特徴量ベクトルをSVM24−1〜24−4のそれぞれに入力し、RAW画像における照明光源と晴天、日陰、電球、蛍光灯の光源それぞれとの類似度を算出する。
Step S211: The
ステップS212:特定部22は、ステップS211で算出された類似度と特徴量ベクトルとともに、ステップS204で算出された直近のスルー画像の照明光源に対する照明色の分布のデータをニューラルネットワークに入力する。特定部22は、RAW画像の照明光源に対する照明色の分布およびその分布の重心の位置を求め、RAW画像の照明光源を特定する。
Step S212: The identifying
ステップS213:調整部23は、ステップS212で求められた重心の座標位置における色差CrCbの値から、公知の手法によりRGBの各色成分のゲインの値を求め、ホワイトバランス処理における補正値を算出する。
Step S213: The
ステップS214:CPU14は、ステップS213で算出された補正量を用い、ホワイトバランス処理などのデジタル処理をRAW画像に対して施す。
Step S214: The
ステップS215:CPU14は、デジタル処理が施された静止画像をメモリ15や記憶媒体19に記録する。また、CPU14は、デジタル処理が施された静止画像をモニタ17に表示する。CPU14は、一連の処理を終了する。
Step S215: The
このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。
As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the
また、直近のスルー画像の照明光源に対する照明色の分布を用いることにより、本画像における照明光源をより正確に特定することができる。 Further, by using the illumination color distribution for the illumination light source of the latest through image, the illumination light source in the main image can be specified more accurately.
また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《他の実施形態の変形例》
本発明の他の実施形態の変形例に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラ1と同一である。したがって、本実施形態のデジタルカメラ1の構成についての詳細な説明は省略する。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Modification of other embodiment >>
A digital camera according to a modification of the other embodiment of the present invention is the same as the digital camera 1 according to the embodiment shown in FIG. Therefore, a detailed description of the configuration of the digital camera 1 of the present embodiment is omitted.
また、本実施形態のデジタルカメラ1による処理動作は、図6に示す他の実施形態の処理と同じであり詳細な説明は省略する。 The processing operation by the digital camera 1 of the present embodiment is the same as the processing of the other embodiments shown in FIG.
本実施形態に係るデジタルカメラ1と他の実施形態に係るものとの相違点は、一の実施形態の変形例の場合と同様に、特定部22が、ニューラルネットワークによる処理を複数回行う点にある。ただし、フィードバック処理は、スルー画像に対しては行わない、あるいは本画像に対する回数よりも少ないのが好ましい。
The difference between the digital camera 1 according to this embodiment and that according to the other embodiment is that the specifying
このように、本実施形態では、判別部21のSVM24−1〜24−4と特定部22のニューラルネットワークとを併せて用いることにより、対象画像における照明光源を精度よく特定することができる。
As described above, in the present embodiment, by using the SVMs 24-1 to 24-4 of the
また、直近のスルー画像の照明光源に対する照明色の分布を用いることにより、本画像における照明光源をより正確に特定することができる。 Further, by using the illumination color distribution for the illumination light source of the latest through image, the illumination light source in the main image can be specified more accurately.
さらに、ニューラルネットワークからの出力をフィードバックすることにより、より精度よく特定することができる。 Furthermore, it is possible to specify with higher accuracy by feeding back the output from the neural network.
また、少ない数のSVM24−1〜24−4を用いることにより、少ない演算量で高速に対象画像の照明光源を特定することができる。さらに、色域のデータが少ないことから、回路規模の増大を回避できコスト削減を図ることができる。
《実施形態の補足事項》
(1)上記実施形態では、デジタルカメラ1の演算部20、判別部21、特定部22、補正部23の各処理を、CPU14がソフトウエア的に実現する例を説明したが、ASICを用いてこれらの各処理をハードウエア的に実現しても勿論かまわない。
Further, by using a small number of SVMs 24-1 to 24-4, it is possible to specify the illumination light source of the target image at high speed with a small amount of calculation. Furthermore, since there is little color gamut data, an increase in circuit scale can be avoided and cost reduction can be achieved.
<< Additional items of embodiment >>
(1) In the above-described embodiment, an example in which the
(2)本発明の画像処理装置は、上記実施形態のデジタルカメラ1の例に限定されない。例えば、記憶媒体などに記憶された画像処理プログラムが予めインストールされたコンピュータに、撮像した画像を、デジタルカメラ1から直接またはインターネットなどを介して読み込ませて、シーン判別処理を実行させることで、コンピュータを本発明の画像処理装置として機能させてもよい。 (2) The image processing apparatus of the present invention is not limited to the example of the digital camera 1 of the above embodiment. For example, a computer in which an image processing program stored in a storage medium or the like is installed in advance causes a captured image to be read directly from the digital camera 1 or via the Internet, and the scene determination process is executed, thereby causing the computer to May function as the image processing apparatus of the present invention.
(3)上記実施形態では、演算部20は対象画像全体の画像特徴量を算出したが、本発明はこれに限定されず、所定の部分画像領域のみの画像特徴量を算出してもよいし、複数の画像領域ごとに画像特徴量を算出してもよい。
(3) In the above embodiment, the
(4)上記実施形態では、判別部21は、晴天、日陰、電球、蛍光灯のSVM24−1〜24−4を有したが、本発明はこれに限定されず、1つ以上の光源のSVMがあればよく、要求される特定精度、処理速度、記憶容量などに応じて、SVMの数を適宜決定することが好ましい。
(4) In the above-described embodiment, the
また、判別部21の判別対象は光源に限定されず、夜景やポートレートなどのシーンであってもよい。
The discrimination target of the
(5)上記実施形態では、特定部22は、対象画像における照明光源を、ニューラルネットワークによる照明色の分布の重心の座標位置に基づいて特定したが、本発明はこれに限定されない。例えば、特定部22は、上記照明色の分布のうち最大値を与える座標位置に基づいて対象画像の照明光源を特定してもよい。あるいは、特定部22は、判別部21のSVM24−1〜24−4それぞれの判別の信頼性に基づいた係数を用いて、照明色の分布を加重平均し、対象画像の照明光源を特定してもよい。なお、SVMの判別の信頼性とは、予め照明光源が特定されている複数のサンプル画像を用い、SVMの判別結果の正解率である。
(5) In the above embodiment, the
(6)上記実施形態では、判別部21のSVM24−1〜24−4および特定部22のニューラルネットワークに基づいて、対象画像における照明光源を特定したが、本発明はこれに限定されない。例えば、判別部21は、SVMの代わりにブースティングなどの他の教師有り学習の判別方法を用いてもよい。また、特定部22は、ニューラルネットワークの代わりにテンプレートマッチングなどを用いてもよい。
(6) In the above embodiment, the illumination light source in the target image is specified based on the SVMs 24-1 to 24-4 of the
(7)上記実施形態では、特定部22には1つのニューラルネットワークが配置されたが、本発明はこれに限定されない。例えば、特定部22は、例えば、入力層、中間層、出力層のパーセプトロン間の結合の組み合わせや結合係数、あるいは中間層のパーセプトロン数などが互いに異なる複数のニューラルネットワークが配置されてもよい。そして、特定部22は、対象画像の特徴量ベクトル、判別部21の類似度、スルー画像の照明光源に対する照明色の分布のデータを、それぞれのニューラルネットワークに入力して照明色の分布を算出する。特定部22は、それらの照明色の分布に基づいて対象画像の照明光源を特定してもよい。
(7) In the above embodiment, one neural network is arranged in the specifying
また、特定部22は、ニューラルネットワークとともに、テンプレートマッチングなどの他の複数の手法を併用した構成でもよい。
The specifying
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良及び変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。 From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.
1…デジタルカメラ、11…撮像光学系、12…撮像素子、13…DEF、14…CPU、15…メモリ、16…操作部、17…モニタ、18…メディアI/F、19…記憶媒体、20…演算部、21…判別部、22…特定部、23…補正部、24−1〜24−4…SVM DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Imaging optical system, 12 ... Imaging device, 13 ... DEF, 14 ... CPU, 15 ... Memory, 16 ... Operation part, 17 ... Monitor, 18 ... Media I / F, 19 ... Storage medium, 20 ... Calculation unit, 21 ... Distinction unit, 22 ... Specification unit, 23 ... Correction unit, 24-1 to 24-4 ... SVM
Claims (9)
前記複数の判別手段から取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定手段と、
を備えることを特徴とする画像処理装置。 A plurality of discriminating means for determining the similarity between the color gamut of each preset reference scene and the shooting scene of the target image using the feature amount of the target image;
A specifying unit for specifying a coordinate point on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired from the plurality of determining units;
An image processing apparatus comprising:
前記特定手段は、前記対象画像の特徴量および前記複数の類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus characterized in that the specifying unit specifies a coordinate point on a color space corresponding to the shooting scene, based on a feature amount of the target image and a correlation between the plurality of similarities.
前記特定手段は、複数の入力値の前記相関に応じた分布を前記色空間上で求め、求めた前記分布の重心位置または前記分布において最大値を与える位置に基づいて、前記座標点を特定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The specifying unit determines a distribution according to the correlation of a plurality of input values on the color space, and specifies the coordinate point based on a position of the center of gravity of the calculated distribution or a position giving a maximum value in the distribution. An image processing apparatus.
前記特定手段は、ニューラルネットワークであることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus according to claim 1, wherein the specifying means is a neural network.
前記参照シーンは、所定の光源であり、
前記撮影シーンは、前記対象画像における照明光源である
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
The reference scene is a predetermined light source,
The imaging scene is an illumination light source in the target image.
特定された前記座標点に基づいて、前記対象画像に対するホワイトバランスの調整量を求める調整手段を備える
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus comprising: an adjustment unit that obtains an adjustment amount of white balance for the target image based on the identified coordinate point.
請求項1に記載の画像処理装置と、
を備えることを特徴とする撮像装置。 An imaging unit that images a subject and generates a target image;
An image processing apparatus according to claim 1;
An imaging apparatus comprising:
前記判別手順で取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定手順、
としてコンピュータに実行させることを特徴とする画像処理プログラム。 A determination procedure for determining the similarity between the color gamut of each preset reference scene and the shooting scene of the target image using the feature amount of the target image,
A specifying procedure for specifying a coordinate point on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determination procedure;
An image processing program that is executed by a computer.
前記判別工程で取得した複数の前記類似度の相関に応じて、前記撮影シーンに相応する色空間上の座標点を特定する特定工程と、
を備えることを特徴とする画像処理方法。 Using the feature amount of the target image, a determination step for obtaining a similarity between the color gamut of each preset reference scene and the shooting scene of the target image,
A specifying step of specifying coordinate points on a color space corresponding to the shooting scene according to the correlation of the plurality of similarities acquired in the determining step;
An image processing method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012029592A JP2013168723A (en) | 2012-02-14 | 2012-02-14 | Image processing device, imaging device, image processing program, and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012029592A JP2013168723A (en) | 2012-02-14 | 2012-02-14 | Image processing device, imaging device, image processing program, and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013168723A true JP2013168723A (en) | 2013-08-29 |
Family
ID=49178832
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012029592A Pending JP2013168723A (en) | 2012-02-14 | 2012-02-14 | Image processing device, imaging device, image processing program, and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013168723A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018148281A (en) * | 2017-03-01 | 2018-09-20 | 株式会社ブライセン | Image processing device |
| JP2019114176A (en) * | 2017-12-26 | 2019-07-11 | 株式会社Preferred Networks | Information processing apparatus, information processing program, and information processing method |
| CN113743575A (en) * | 2020-05-29 | 2021-12-03 | 精工爱普生株式会社 | Data acquisition method and apparatus, similarity calculation method and apparatus, and storage medium |
| EP4138390A1 (en) * | 2021-08-20 | 2023-02-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Method for camera control, image signal processor and device with temporal control of image acquisition parameters |
| US11606543B2 (en) | 2020-02-26 | 2023-03-14 | Canon Kabushiki Kaisha | Image processing apparatus, image capture apparatus, and image processing method |
-
2012
- 2012-02-14 JP JP2012029592A patent/JP2013168723A/en active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018148281A (en) * | 2017-03-01 | 2018-09-20 | 株式会社ブライセン | Image processing device |
| JP2019114176A (en) * | 2017-12-26 | 2019-07-11 | 株式会社Preferred Networks | Information processing apparatus, information processing program, and information processing method |
| JP7213616B2 (en) | 2017-12-26 | 2023-01-27 | 株式会社Preferred Networks | Information processing device, information processing program, and information processing method. |
| US11606543B2 (en) | 2020-02-26 | 2023-03-14 | Canon Kabushiki Kaisha | Image processing apparatus, image capture apparatus, and image processing method |
| CN113743575A (en) * | 2020-05-29 | 2021-12-03 | 精工爱普生株式会社 | Data acquisition method and apparatus, similarity calculation method and apparatus, and storage medium |
| CN113743575B (en) * | 2020-05-29 | 2024-05-07 | 精工爱普生株式会社 | Data acquisition method and device, similarity calculation method and device, and storage medium |
| EP4138390A1 (en) * | 2021-08-20 | 2023-02-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Method for camera control, image signal processor and device with temporal control of image acquisition parameters |
| CN115714919A (en) * | 2021-08-20 | 2023-02-24 | 北京小米移动软件有限公司 | Method for camera control, image signal processor and apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108024054B (en) | Image processing method, device, device and storage medium | |
| JP6455601B2 (en) | Control system, imaging apparatus, and program | |
| US20110221920A1 (en) | Digital photographing apparatus, method of controlling the same, and computer readable storage medium | |
| CN111028190A (en) | Image processing method, device, storage medium and electronic device | |
| CN108833804A (en) | Imaging method, device and electronic equipment | |
| CN110381263A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
| CN108833802B (en) | Exposure control method and device and electronic equipment | |
| JP6946564B2 (en) | Image processing methods and image processing equipment, computer-readable storage media and computer equipment | |
| JP5092565B2 (en) | Imaging apparatus, image processing apparatus, and program | |
| JP7492344B2 (en) | Image processing device and image processing method | |
| CN111434104B (en) | Image processing apparatus, image capturing apparatus, image processing method, and recording medium | |
| CN108900785A (en) | Exposure control method and device and electronic equipment | |
| JP2014235224A (en) | Imaging device and control program | |
| JP2013168723A (en) | Image processing device, imaging device, image processing program, and image processing method | |
| US8571404B2 (en) | Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method | |
| JP5532621B2 (en) | Electronic camera and image processing program | |
| CN110276730B (en) | Image processing method and device and electronic equipment | |
| JP2010041607A (en) | Image capturing apparatus, method of controlling the same and program | |
| US20190052803A1 (en) | Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium | |
| JP4705146B2 (en) | Imaging apparatus and imaging method | |
| KR102090273B1 (en) | Photographing apparatus and method | |
| CN111226435B (en) | Information processing device, imaging system, information processing method, imaging method, and recording medium | |
| JP2013201477A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
| JP2015204579A (en) | Imaging device | |
| JP2015106791A (en) | Imaging device |