JP2010041682A - Image processing apparatus, and image processing method - Google Patents
Image processing apparatus, and image processing method Download PDFInfo
- Publication number
- JP2010041682A JP2010041682A JP2008205746A JP2008205746A JP2010041682A JP 2010041682 A JP2010041682 A JP 2010041682A JP 2008205746 A JP2008205746 A JP 2008205746A JP 2008205746 A JP2008205746 A JP 2008205746A JP 2010041682 A JP2010041682 A JP 2010041682A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- feature amount
- image data
- correction coefficient
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
Abstract
【課題】 光学収差の補正を画像処理で行なうとき、光学補正処理と並行して、ホワイトバランス補正やコントラスト補正などの画像処理を行なうことで、メモリ量を削減しつつ、連続撮影性能を落とさずに画像処理も適切に行なうことを目的とする。
【解決手段】 収差補正データを用いて前記特徴量の検出又は補正係数の算出を行い、算出された補正係数に基づき、収差補正後の画像データに対して、ホワイトバランス補正やコントラスト補正等の補正処理を行う。
【選択図】 図1PROBLEM TO BE SOLVED: To perform image processing such as white balance correction and contrast correction in parallel with optical correction processing when optical aberration correction is performed by image processing, thereby reducing the amount of memory and without degrading continuous shooting performance. In addition, an object is to appropriately perform image processing.
A feature amount is detected or a correction coefficient is calculated using aberration correction data, and correction such as white balance correction and contrast correction is performed on image data after aberration correction based on the calculated correction coefficient. Process.
[Selection] Figure 1
Description
本発明は、光学レンズを通して得られた被写体像を光電変換機能を持つ撮像素子から読み出した画像データに対して補正処理を行なう技術に関するものである。 The present invention relates to a technique for performing correction processing on image data obtained by reading a subject image obtained through an optical lens from an image sensor having a photoelectric conversion function.
従来の一眼レフデジタルカメラのブロック構成を図15に示す。この構成では、まず、レンズ制御部303により制御され撮影レンズ302を通じて被写体像が結像される。そして、撮像素子312は光電変換を用いて結像した被写体像を撮像し、A/D変換313が撮像素子から出力された画像データをA/D変換してデジタル画像データを出力する。次に、収差補正部315は、撮影レンズの収差を補正する処理を行ない、撮影レンズの光学的な収差を補正した画像データを出力する。撮影レンズの収差補正を行った後、現像処理部316は、ホワイトバランス補正、色変換処理、コントラスト変換(ガンマ変換)、シャープネス処理等の各種画像補正処理を行う。図15の例では、カメラ本体部300は、ホワイトバランス補正処理のためのWB補正検出部333及びWB補正係数算出部334を備えている。現像処理部316により画像補正処理された画像データは、記録制御部320により記録媒体321にされる。または、出力制御部322により、ディスプレイやカラープリンター等の表示媒体によって鑑賞するに最適な画像データとなるように画像処理され、これら表示媒体323に出力される。
FIG. 15 shows a block configuration of a conventional single-lens reflex digital camera. In this configuration, first, a subject image is formed through the photographing lens 302 under the control of the
上記収差補正部315における撮影レンズの光学的な収差補正を行なうには、カメラメモリ311にあらかじめ光学的な収差補正を行うための補正テーブルを保存しておき、これを利用する方法がある。この方法では、撮影時にカメラ制御部310がカメラメモリ311から補正テーブルが読み出し、収差補正部315に補正テーブルを送り、収差補正部315が撮影した画像データに対して収差補正処理を行う。特に、撮影した画像のシェーディング特性を補正する処理として、特許文献1のような方法が開示されている。本文献では、原稿をスキャニングして画像データを取り込む際、取り込み装置の光学的特性や撮像素子の特性を含めたシェーディング特性を補正する。そのとき、あらかじめスキャンして取り込んであるデータからシェーディング特性を補正するデータを作成してメモリに保存する。そして、スキャニング時に保存された補正データを読み出して、スキャンした画像のシェーディングを補正する。
従来は、撮影された画像データに対して収差補正を行なってから、各種画像処理のための画像を解析するための検出処理と、その検出結果に応じた画像補正処理を行なうための画像補正係数を求める処理が行なわれていた。図15の例では、収差補正処理部315で処理された画像データに対してWB補正検出部333での検出処理と、WB補正係数算出部334による算出処理がされる。その一方で、収差補正後の画像データはバッファメモリ314に一時的に記憶されていた。 Conventionally, after performing aberration correction on captured image data, detection processing for analyzing images for various image processing, and image correction coefficient for performing image correction processing according to the detection results The process to ask for was performed. In the example of FIG. 15, detection processing by the WB correction detection unit 333 and calculation processing by the WB correction coefficient calculation unit 334 are performed on the image data processed by the aberration correction processing unit 315. On the other hand, the image data after the aberration correction has been temporarily stored in the buffer memory 314.
しかしながら、上記構成では、連写性能や連続撮影枚数の性能等が収差補正部315の処理性能に大きく依存してしまうことになる。すなわち、撮影レンズの収差補正処理を行う時間が大きいとき、その処理時間だけ後段の現像処理や記録処理等は遅れが生じる。また、収差補正をしている間は次の撮影した画像データを入力することもできず、連続撮影を行なう際の次のカットを撮影できるまでの時間がかかってしまう。連写性能や連続撮影枚数の性能を維持するために、収差補正部315の前にバッファメモリを設けることもできるが、コストやハードウェアの規模を増大させてしまう恐れがある。 However, in the above configuration, the continuous shooting performance, the continuous shooting performance, and the like greatly depend on the processing performance of the aberration correction unit 315. That is, when the time for performing the aberration correction processing of the photographic lens is long, the subsequent development processing, recording processing, and the like are delayed by the processing time. Further, during the aberration correction, it is not possible to input the next shot image data, and it takes time until the next cut in continuous shooting can be shot. In order to maintain the continuous shooting performance and the continuous shooting performance, a buffer memory can be provided in front of the aberration correction unit 315, but the cost and the scale of hardware may be increased.
本発明は、上述した問題点を解決するためのものであり、連写性能や連続撮影枚数の性能を維持しながら、収差補正処理によって画質の向上も図ることを目的としている。 An object of the present invention is to solve the above-described problems, and an object thereof is to improve image quality by aberration correction processing while maintaining continuous shooting performance and continuous shooting performance.
上述した課題を解決するために、本発明の画像処理装置は、光学レンズを通して結像された画像を撮像素子を用いて撮像し、得られた画像データを出力する撮像手段と、前記光学レンズの収差を補正するための第1の補正係数を記憶する記憶手段と、前記第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正手段と、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正する第2の補正手段と、前記第1の補正係数を特徴量の検出又は前記第2の補正係数の算出のために変換する変換手段と、を有し、前記特徴量検出手段又は前記係数算出手段は前記変換手段により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正手段は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正することを特徴とする。 In order to solve the above-described problems, an image processing apparatus according to the present invention captures an image formed through an optical lens using an image sensor, and outputs image data obtained, and the optical lens. Storage means for storing a first correction coefficient for correcting aberration, first correction means for correcting image data output from the imaging means based on the first correction coefficient, and the first correction A feature amount detecting means for detecting a feature amount from the image data output from the imaging means not corrected by the means, and a coefficient calculation for calculating a second correction coefficient based on the feature amount detected by the feature amount detecting means Means, second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient, and the first correction coefficient as feature quantity detection or the second correction. Person in charge Conversion means for conversion for calculation of the feature quantity, wherein the feature quantity detection means or the coefficient calculation means uses the correction data converted by the conversion means to detect the feature quantity or the second correction coefficient. The second correction means corrects the image data corrected by the first correction means based on the second correction coefficient obtained by using the converted correction data. Features.
また、本発明の画像処理装置は、光学レンズを通して結像された画像を撮像素子を用いて撮像し、得られた画像データを出力する撮像手段と、前記光学レンズの収差を補正するための第1の補正係数を記憶する記憶手段と、前記第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正手段と、前記第1の補正係数に応じて特徴量の検出条件を指定する指定手段と、前記指定手段により指定された検出条件に基づき、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、前記係数算出手段により算出された第2の補正係数に基づき、前記第1の補正手段により補正された画像データを補正する第2の補正手段と、を有することを特徴とする。 The image processing apparatus according to the present invention includes an image pickup unit that picks up an image formed through an optical lens using an image pickup device and outputs the obtained image data, and a first unit for correcting aberration of the optical lens. Storage means for storing one correction coefficient, first correction means for correcting image data output from the imaging means based on the first correction coefficient, and a feature amount according to the first correction coefficient. A designation unit that designates a detection condition, and a feature amount detection that detects a feature amount from image data output from the imaging unit that has not been corrected by the first correction unit, based on the detection condition designated by the designation unit Means, a coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the feature quantity detection means, and the first correction coefficient based on the second correction coefficient calculated by the coefficient calculation means. And having a second correcting means for correcting the image data corrected by the correction means.
本発明によれば、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができるという効果がある。 According to the present invention, it is possible to maintain the continuous shooting performance and the performance of the number of continuous shots and improve the image quality by the aberration correction processing.
以下、図面を参照して、本発明に係る実施形態について詳細に説明する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
図1は、本発明の画像処理装置を適用可能な一眼レフデジタルカメラの構成を示すブロック図である。このカメラは、被写体像を結像するためのレンズユニット101、及び撮影した画像を画像データとして、記録媒体121に記録したり、ディスプレーやプリンターなどの表示媒体123に出力したりするカメラ本体部100より構成される。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a single-lens reflex digital camera to which the image processing apparatus of the present invention can be applied. This camera has a
被写体像は撮影レンズ102によって結像され、結像された被写体像は撮像素子112によって撮影される。撮像素子112は撮影された被写体像を光電変換して電気的なデータとして出力し、A/D変換113はこのデータをデジタル画像データに変換する。このように被写体像をデジタル画像データとして出力するために、撮影レンズ102においては、レンズ制御部103によって、ズーム操作、ピント合焦、絞り制御などが制御される。ここでは、ズーム操作は、使用者がレンズに備わっている不図示のズーム機構を用いて焦点距離を調節し、ピント合焦は、不図示の自動焦点機構によって行なう。また、絞りについては、カメラ制御部110が、カメラ本体部100の不図示の操作部材で使用者が設定した絞り条件を信号線106を介してレンズ制御部103に送る。レンズ制御部103は、その情報に従って撮影レンズ102に付属した絞りを制御する。
The subject image is formed by the photographing
撮像素子112により撮影され、A/D変換113された状態のデジタル画像データは、一旦バッファメモリ114に記憶される。ここまでの画像データは、撮影レンズの収差、ここでは周辺光量落ちの歪を持ったデータである。収差補正部115はこの画像データに対して周辺光量落ち補正(第1の補正)を行う。収差補正部115は、画像データ中の各画素の画面内での位置に基づき、画面中心からの距離によって変化するゲイン(第1の補正係数)を各画像データに掛けることによって周辺光量落ち補正を行なう。各ゲインのデータは、カメラ制御部110から信号線152を通じて収差補正部115に送られる。
Digital image data captured by the image sensor 112 and subjected to A /
ここでのゲインのデータの一例を図2に示す。画面内における画面中心からの距離(像高)に対して、10点のドットで表されているゲインのデータで構成されている。10点の各像高の間に位置する画素データに対しては、該当する画素データが位置する2点間の像高の各2点のゲインで補間したゲインを使用する。 An example of gain data here is shown in FIG. It consists of gain data represented by 10 dots with respect to the distance (image height) from the center of the screen. For pixel data located between 10 image heights, a gain interpolated with gains at 2 points of image height between 2 points where the corresponding pixel data is located is used.
本実施形態においてレンズユニット101は交換可能であり、収差の特性はレンズユニット毎に異なる。したがって、この10点のゲインのテーブルは、交換できるレンズユニット101ごとにIDを持たせて、予めその特性を求めておく。
In the present embodiment, the
この特性は前記のように、レンズの焦点距離、ピントの合焦した位置までの撮影距離、絞りによって変化し、図3で示すような四次元のテーブルで構成される。これらの各補正係数は、実際に撮影した画像または設計値から実際に撮影した画像を光線追跡によってシミュレートしたものから求めたものが主に用いられる。
図3は、11の像高に対応した11点のゲインのデータが示されているが、画面中心すなわち像高0のときは、必ずゲイン=1.0となるので、省略して10点のゲインのデータを与えることで対応可能である。例えば、絞りF4.0のときは、絞りF2.8の像高に対するテーブルと絞りF8の像高に対するテーブルの間で、1:2補間したときのデータを使用する。同様に、撮影距離2.0mのときは、前記絞りのときに求めた像高に対するテーブルの1.0m時と3.0m時とのテーブル間で1:1補間をする。さらに、焦点距離50mmのときは、前記で求めた絞りと撮影距離の条件の像高に対するテーブルの50mmのときのものを用いる。これによって、像高に対する10点のゲインは決定される。
As described above, this characteristic varies depending on the focal length of the lens, the shooting distance to the in-focus position, and the stop, and is constituted by a four-dimensional table as shown in FIG. Each of these correction coefficients is mainly obtained from an actually captured image or a value obtained by simulating an actually captured image by ray tracing from a design value.
FIG. 3 shows 11 points of gain data corresponding to 11 image heights, but the gain is always 1.0 at the center of the screen, that is, when the image height is 0. This can be dealt with by giving gain data. For example, when the aperture is F4.0, data obtained by performing 1: 2 interpolation between the table for the image height of the aperture F2.8 and the table for the image height of the aperture F8 is used. Similarly, when the shooting distance is 2.0 m, 1: 1 interpolation is performed between the tables at 1.0 m and 3.0 m for the image height obtained at the time of the aperture stop. Further, when the focal length is 50 mm, the table at 50 mm is used with respect to the image height under the conditions of the aperture and shooting distance obtained above. Thereby, the gain of 10 points with respect to the image height is determined.
図3のテーブルは、カメラメモリ111に記憶しておき、カメラ本体部100に装着可能な全撮影レンズ101に対応する必要があるので、レンズID情報に対応するテーブルを持つ必要がある。図3のテーブルを、不図示のレンズ101内のメモリに記憶する場合、各撮影レンズ101ごとに図3のテーブルを持つので、レンズID情報に対応する必要はない。以上のようにして準備された周辺光量落ち補正テーブルを用いて、収差補正部115において、周辺光量落ち補正処理が行なわれる。
The table in FIG. 3 is stored in the camera memory 111 and needs to correspond to all the photographing
周辺光量落ち補正は、画面全体の各画素に対して、その画素の位置に対応した図2に示された像高に対するゲインを掛ける。10点の間に位置する画素に対しては、その画素を挟む2点のゲインで補間されたゲインを用いる。その結果、図4に示されるように、均一輝度面を撮影したときの元のデジタル画像データ401は、像高に対して402のように均一な画面になるように補正される。 In the peripheral light amount drop correction, each pixel on the entire screen is multiplied by a gain for the image height shown in FIG. 2 corresponding to the position of the pixel. For a pixel located between 10 points, a gain interpolated with gains of 2 points sandwiching the pixel is used. As a result, as shown in FIG. 4, the original digital image data 401 when the uniform luminance surface is photographed is corrected so as to have a uniform screen as 402 with respect to the image height.
本実施形態では、現像処理部116において、各画像処理である、ホワイトバランス処理、明るさ及びコントラスト補正処理、顔の明るさ補正処理、暗部補正処理の4つの処理を行なう。これらの処理のために、本体部100は、撮影した画像データから各種の特徴量を検出する特徴量検出ブロック130と、このブロックで得られた特徴量に基づいて各画像処理のための補正係数を算出する補正係数算出ブロック131を有している。ここで、特徴量検出ブロック130は、WB(ホワイトバランス)検出部133、ヒストグラム検出部135、顔検出部137、及び暗部補正検出部139を有している。また、補正係数算出ブロック131は、WB補正係数算出部134,明るさ・コントラスト補正係数算出部136、顔明るさ補正係数算出部138、及び暗部補正係数算出部140を有している。
In the present embodiment, the
次に本実施形態の特徴である、収差補正部115による収差補正処理と、特徴量検出ブロック130及び補正係数算出ブロック131による検出処理及び算出処理との平行処理について説明する。
Next, the parallel processing of the aberration correction processing by the aberration correction unit 115 and the detection processing and calculation processing by the feature
まず、WB検出部133、WB補正係数算出部134、及び現像処理部116で行われるホワイトバランス処理について説明する。
First, white balance processing performed by the
WB検出部133においては、撮影した画像よりホワイトバランスを自動的に行なうために、撮影した画像を複数画素ごとに2次元ブロックに分割する。そして、図5に示されるような、R画素501、G1画素502、G2画素503、及びB画素504ごとにブロック内で積分し、ブロック内の積分結果よりR:G1:G2:Bの色比を求める。また、例えば、色比R:(G1+G2)とB:(G1+G2)の2次元座標上で、あらかじめ撮像素子のR:(G1+G2):Bの黒体輻射軌跡特性を示す線を調べておく。そして、その線の近傍に位置する座標となる色比のブロックを無彩色ブロックと判定し、無彩色と判定されたブロックのみのブロック内のR、G1+G2、Bをさらに積分し、その色比R:(G1+G2):Bを求めて、画面全体の白色成分の色比とする。WB補正係数算出部134は、ここで求められた画像の色比より、この色比を1:1:1にするためのホワイトバランス係数を求め、その係数を現像処理部116に送り、現像処理部116においてホワイトバランス補正処理が行なわれる。
In the
本実施形態では、撮影されたデジタル画像データを、ホワイトバランス検出処理、ホワイトバランス係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、ホワイトバランス検出処理及びホワイトバランス係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。 In this embodiment, while the white balance detection process and the white balance coefficient calculation process are performed on the captured digital image data, the peripheral light amount drop correction process is performed in the aberration correction processing unit 115 via the buffer memory 114 in parallel. . As a result, the processing time until all of the aberration correction process, the white balance detection process, and the white balance coefficient calculation process are completed can be shortened. Therefore, it is possible to improve the shooting performance such that the continuous shooting interval can be increased and the number of continuous shots can be increased.
しかしながら、WB検出部133に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、ホワイトバランス処理時には、周辺光量落ちの歪の分を反映させる必要がある。
However, since the captured image input to the
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等によりWB検出に利用できる周辺光量落ち補正ゲインに変換する。そして、WB検出部133が変換された周辺光量落ち補正ゲインを用いて検出処理を行なう。
In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 into a peripheral light amount drop correction gain that can be used for WB detection by level bit number conversion, dimension change, or the like. To do. The
図6はその一例を説明する図であり、撮影画像の画面全体と処理対象の分割ブロックの関係を示している。図6において、WB検出部133が、例えば602の位置のブロックのホワイトバランス検出のための色比を算出して、602は無彩色のブロックであると判定したとする。このとき、無彩色ブロックを集めてR、G1、G2、Bごとに積分する際、画面中心601から602ブロック中心603までの距離を求め、その長さと同じ像高の周辺光量落ち補正ゲインをブロック内のR、G1、G2、Bの各積分値に掛ける。これによって、ホワイトバランス補正のための検出結果に周辺光量落ちの歪みの分を反映させたことになる。
FIG. 6 is a diagram for explaining an example thereof, and shows the relationship between the entire screen of the captured image and the division block to be processed. In FIG. 6, it is assumed that the
次に、ヒストグラム検出部135、明るさ・コントラスト補正係数算出部136、及び現像処理部116で行われる明るさ及びコントラスト補正処理について説明する。
Next, brightness and contrast correction processing performed by the histogram detection unit 135, the brightness / contrast correction coefficient calculation unit 136, and the
まず、ヒストグラム検出部135は、撮影されたデジタル画像データの画像全体に各画素値に対する頻度を積算することでヒストグラムを求める。そのヒストグラムを元に、明るさ・コントラスト補正係数算出部136において、画像全体の明るさやコントラストを調整する。 First, the histogram detection unit 135 obtains a histogram by integrating the frequency for each pixel value over the entire image of the captured digital image data. Based on the histogram, the brightness / contrast correction coefficient calculation unit 136 adjusts the brightness and contrast of the entire image.
例えば、図7(a)のように、ヒストグラムの分布が低輝度寄りであり、全体に暗い画像になっているものを、図7(b)のようにヒストグラムが高輝度寄りの明るい画像にしたいとする。この場合は、図8のように、補正前の入力画像データに対して、補正後の出力画像データが大きくなるような特性の補正を行なう必要がある。 For example, as shown in FIG. 7 (a), a histogram with a low luminance distribution and a dark image as a whole is desired to be a bright image with a high luminance distribution as shown in FIG. 7 (b). And In this case, as shown in FIG. 8, it is necessary to correct the characteristics so that the output image data after correction becomes larger than the input image data before correction.
また、図9(a)のように、逆光シーンなどであり、ヒストグラムが低輝度寄りと高輝度寄りの2箇所に主に分布していて、この画像の低輝度寄りの分布に補正を掛けて図9(b)のように低輝度寄りの部分を明るくしたいとする。このようなコントラスト補正を行なう場合、図10のような入出力関係になるような特性のゲインを掛ける補正を行なう必要がある。 Further, as shown in FIG. 9A, the scene is a backlight scene, and the histogram is mainly distributed in two places near the low luminance and the high luminance, and the distribution near the low luminance of the image is corrected. Assume that it is desired to brighten a portion near low luminance as shown in FIG. When such contrast correction is performed, it is necessary to perform correction by multiplying a gain having a characteristic such that an input / output relationship as shown in FIG. 10 is obtained.
本実施形態では、撮影されたデジタル画像データを、ヒストグラム検出処理、明るさ・コントラスト補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、ヒストグラム検出処理、明るさ・コントラスト補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。 In this embodiment, while the histogram detection process and the brightness / contrast correction coefficient calculation process are performed on the photographed digital image data, the aberration correction processing unit 115 passes the buffer memory 114 in parallel and performs the peripheral light amount drop correction process. To do. As a result, the processing time until all of the aberration correction processing, histogram detection processing, and brightness / contrast correction coefficient calculation processing are completed can be shortened. Therefore, it is possible to improve the shooting performance such that the continuous shooting interval can be increased and the number of continuous shots can be increased.
しかしながら、ヒストグラム検出部135に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、明るさ・コントラスト補正時には、周辺光量落ちの歪の分を反映させる必要がある。 However, since the captured image input to the histogram detection unit 135 is image data before aberration correction, it still has distortion due to a decrease in peripheral light amount. Therefore, at the time of brightness / contrast correction, it is necessary to reflect the amount of distortion caused by a decrease in the amount of peripheral light.
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等によりヒストグラム検出に利用できる周辺光量落ち補正ゲインに変換する。そして、ヒストグラム検出部135が変換された周辺光量落ち補正ゲインを用いて検出処理を行なう。 In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 into a peripheral light amount drop correction gain that can be used for histogram detection by converting the number of bits of a level, changing a dimension, or the like. To do. Then, the histogram detection unit 135 performs detection processing using the converted peripheral light amount drop correction gain.
ヒストグラム検出部136は、図7(a)や図9(a)の補正前の画像の頻度分布を求めるときに、補正係数変換部141により変換された周辺光量落ち補正ゲインを入力する。そして、ヒストグラム検出部135は、入力される画像データの各画素値の位置によって、周辺光量落ち補正ゲインを掛けてから画素値の頻度分布を求めるようにする。このようにしてヒストグラムを求めることで、周辺光量落ち補正を反映した明るさ・コントラスト補正処理を行なうことができる。 The histogram detection unit 136 inputs the peripheral light amount drop correction gain converted by the correction coefficient conversion unit 141 when obtaining the frequency distribution of the uncorrected images in FIGS. 7A and 9A. Then, the histogram detection unit 135 obtains the frequency distribution of the pixel values after multiplying the peripheral light amount drop correction gain according to the position of each pixel value of the input image data. By obtaining the histogram in this way, it is possible to perform brightness / contrast correction processing reflecting the peripheral light amount drop correction.
次に、顔検出部137、顔明るさ補正係数算出部138,及び現像処理部116で行われる顔明るさ補正処理について説明をする。
まず、顔検出部137は、撮影された画像データより顔の位置や明るさを検出する。そして、顔明るさ補正係数算出部138は、ここで得た顔の位置情報及び顔の明るさ情報を元に、顔の明るさを適正な好ましい明るさに補正をするための係数を算出する。
Next, the face brightness correction process performed by the
First, the
本実施形態では、撮影されたデジタル画像データを、顔検出処理、顔明るさ補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、顔検出処理、顔明るさ補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。 In this embodiment, while the face detection process and the face brightness correction coefficient calculation process are performed on the captured digital image data, the peripheral light amount drop correction process is performed in the aberration correction processing unit 115 via the buffer memory 114 in parallel. Do. As a result, the processing time until all of the aberration correction processing, face detection processing, and face brightness correction coefficient calculation processing are completed can be shortened. Therefore, it is possible to improve the shooting performance such that the continuous shooting interval can be increased and the number of continuous shots can be increased.
しかしながら、顔検出部137に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、顔明るさ補正時には、周辺光量落ちの歪の分を反映させる必要がある。
However, since the captured image input to the
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等により変換する。すなわち、補正データを顔検出に利用できる周辺光量落ち補正ゲイン及び顔明るさ補正係数算出に利用できる周辺光量落ち補正ゲインに変換する。 In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 by level bit number conversion, dimension change, or the like. That is, the correction data is converted into a peripheral light amount drop correction gain that can be used for face detection and a peripheral light amount drop correction gain that can be used to calculate a face brightness correction coefficient.
顔検出部137は、周辺光量落ち補正のゲインを補正係数変換部141より得て、画面周辺の明るさを補正してから顔検出を行なう。これにより、画像の周辺部に写っている低輝度の顔の情報も正確に得ることができる。
The
また顔明るさ補正係数算出部138は、検出された顔の明るさの値に対して、顔の位置情報を使って像高位置を求めて、周辺光量落ち補正のゲインを掛けることによって、周辺光量落ち補正後の顔の明るさを補正する係数を求める。 Further, the face brightness correction coefficient calculation unit 138 obtains the image height position using the face position information with respect to the detected face brightness value, and multiplies the peripheral light amount drop correction gain to thereby calculate the peripheral brightness. A coefficient for correcting the brightness of the face after correcting the light loss is obtained.
現像処理部116は、以上の処理の結果得られた係数を用いて、目標となる顔の明るさに到達するためのゲイン補正を行なうことによって、周辺光量落ち補正を反映させた顔の明るさ補正処理を適正に行なうことができる。
The
次に、暗部補正検出部139、暗部補正係数算出部140、及び現像処理部116で行われる暗部補正処理について説明をする。
Next, the dark part correction processing performed by the dark part correction detection unit 139, the dark part correction coefficient calculation unit 140, and the
例えば、撮影した画像の一部分がその周辺部よりも大きく暗い場合、その暗い部分を明るく補正して画像のコントラストを平坦な方に補正する処理が必要なシーンが存在する。例えば、主被写体が逆光で撮影されたシーンなどがそれにあたる。本実施形態の暗部補正処理はこの様なシーンを全体として適正な明るさにするための処理処理であり、以下その処理の詳細を説明する。 For example, when a part of a photographed image is larger and darker than its peripheral part, there are scenes that need to be corrected to brighten the dark part and correct the contrast of the image to be flat. For example, a scene in which the main subject is photographed with backlight is an example. The dark portion correction processing of the present embodiment is processing processing for setting such a scene to appropriate brightness as a whole, and details of the processing will be described below.
図11は、暗部補正検出部139が処理対象とする画像の画面全体を示しており、画面内を大きいブロック1104、小さいブロック1102に分割される。そして、大きいブロック内の各画素値の平均値AveL、小さいブロック内の各画素値の平均値AveSを求める。暗部補正係数算出部140は、各画素値とAveL、AveSとの関係から各画素ごとにおいて、画素値Pに掛けるゲインを算出する。そして、現像処理部116がこのゲイン値に基づく補正を行うことで、暗部のコントラスト補正を行なうことができる。
FIG. 11 shows the entire screen of an image to be processed by the dark portion correction detection unit 139, and the screen is divided into a
ここで、大ブロック内の平均値に対するゲインGL、小ブロック内の平均値に対するゲインGS、各画素値に対するゲインGpとする。各ゲインGL、GS、GpをそれぞれAveL、AveS、Pに対して、図12に示されるように、大きい値ほど小さく、小さい値ほど大きくなるようなゲイン値を与えると、求める補正結果の各画素値Ypは次式で表される。 Here, a gain GL for the average value in the large block, a gain GS for the average value in the small block, and a gain Gp for each pixel value are used. As shown in FIG. 12, when each gain GL, GS, Gp is given to AveL, AveS, P, a gain value that decreases as the value increases and increases as the value decreases, each pixel of the correction result to be obtained. The value Yp is expressed by the following equation.
Yp=(GL*KL+GS*KS+Gp*Kp)*P
ここで、KL、KS、Kpは、各ゲインGL、GS、Gpによって生成される画像データを見栄えが好ましくなるように最適化するための固定の設計チューニング値で、色々なシーンの撮影画像より求めるものある。
Yp = (GL * KL + GS * KS + Gp * Kp) * P
Here, KL, KS, and Kp are fixed design tuning values for optimizing the image data generated by the gains GL, GS, and Gp so that the appearance is favorable, and are obtained from captured images of various scenes. There are things.
以上のような補正を行なうことで、逆光シーンのような主被写体が暗く、その周辺が明るいときに、暗部である主被写体の明るさを補正するようにコントラスト調整を行なうことができる。 By performing the correction as described above, it is possible to perform contrast adjustment so as to correct the brightness of the main subject which is a dark portion when the main subject such as a backlight scene is dark and the periphery thereof is bright.
本実施形態では、撮影されたデジタル画像データを、暗部補正検出処理、暗部補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、暗部補正検出処理、及び暗部補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。 In this embodiment, while the dark portion correction detection processing and dark portion correction coefficient calculation processing are performed on the captured digital image data, the peripheral light amount drop correction processing is performed in the aberration correction processing portion 115 via the buffer memory 114 in parallel. . As a result, the processing time until all of the aberration correction processing, dark portion correction detection processing, and dark portion correction coefficient calculation processing are completed can be shortened. Therefore, it is possible to improve the shooting performance such that the continuous shooting interval can be increased and the number of continuous shots can be increased.
しかしながら、暗部補正検出部139に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、暗部補正時には、周辺光量落ちの歪の分を反映させる必要がある。 However, since the photographed image input to the dark part correction detection unit 139 is image data before aberration correction, it still has distortion due to a decrease in peripheral light amount. Therefore, it is necessary to reflect the amount of distortion due to the decrease in the amount of peripheral light when correcting the dark part.
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等により暗部補正係数算出に利用できる周辺光量落ち補正ゲインに変換する。そして、暗部補正係数算出部140が変換された周辺光量落ち補正ゲインを用いて算出処理を行なう。 In the present embodiment, the peripheral light amount drop correction gain that the correction coefficient conversion unit 141 can use for the dark portion correction coefficient calculation by converting the peripheral light amount drop correction data read from the camera control unit 110 by, for example, level bit number conversion or dimension change. Convert to Then, the dark portion correction coefficient calculation unit 140 performs a calculation process using the converted peripheral light amount drop correction gain.
暗部補正係数算出部140が、上式のゲインGL、GS、Gpを求める際に反映させる。すなわち、各ブロックや画素の値AveL、AveS、Pに対して、それらの位置(ブロックの場合はブロックの中心座標)によって、周辺光量落ち補正の像高位置に対応するゲインを掛ける。これにより、各ゲイン値に、この暗部補正における周辺光量落ち補正処理を反映させることができる。このようにして周辺光量落ち補正が反映された各画像処理補正係数が求められた各処理を現像処理部116において行なう。
The dark portion correction coefficient calculation unit 140 reflects the gains GL, GS, and Gp in the above equations. That is, the gain corresponding to the image height position of the peripheral light amount drop correction is applied to the values AveL, AveS, and P of the respective blocks and pixels by their positions (in the case of blocks, the center coordinates of the blocks). As a result, the peripheral light amount drop correction process in the dark part correction can be reflected in each gain value. In this way, each processing for obtaining each image processing correction coefficient reflecting the peripheral light amount drop correction is performed in the
以上のようにして、撮影レンズの光学的収差補正処理を行なうときに、撮影レンズの収差補正をホワイトバランス補正処理などの画像補正処理と平行に行なうようにした。また、この補正処理に基づき各種の画像処理における補正係数等を変更するようにした。これにより、メモリ量を節約しつつ、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができる。 As described above, when the optical aberration correction process of the photographing lens is performed, the aberration correction of the photographing lens is performed in parallel with the image correction process such as the white balance correction process. Further, based on this correction process, correction coefficients and the like in various image processes are changed. Accordingly, it is possible to save the memory amount, maintain the continuous shooting performance and the continuous shooting performance, and improve the image quality by the aberration correction processing.
本実施形態では、撮影レンズの収差として周辺光量落ちの歪を補正するときを例に述べたが、倍率色収差、軸上色収差、及び歪曲収差などの他の収差の補正のときも同様な処理を行なうことで、同様の効果を得ることができる。 In this embodiment, the case of correcting the distortion of the peripheral light amount as an aberration of the photographing lens has been described as an example, but the same processing is performed when correcting other aberrations such as lateral chromatic aberration, axial chromatic aberration, and distortion aberration. By doing so, the same effect can be obtained.
(第2の実施形態)
本実施形態は、第1の実施形態と同様に、周辺光量落ち補正と平行に各種画像処理のための検出処理、及び画像補正係数算出処理を行なう方法であるが、検出処理の処理条件に周辺光量落ちの影響を受けない範囲で行なうことを特徴としている。
(Second Embodiment)
As in the first embodiment, the present embodiment is a method for performing detection processing and image correction coefficient calculation processing for various types of image processing in parallel with peripheral light amount drop correction. It is characterized in that it is performed within a range that is not affected by the drop in the amount of light.
図13は、第2の実施形態のデジタルカメラのブロック構成を示す図である。本実施形態のブロック構成のうち、第1の実施形態と同様の機能を有するものには、同じ符号が付されている。本実施形態では、第1の実施形態の補正係数変換部141に代り、検出条件指示部242を有する。また、基本的な機能は第1の実施形態の特徴量検出ブロック130及び補正係数算出ブロック131同じであるが検出条件指示部242の条件指定に応じた処理を行う特徴量検出ブロック230及び補正係数算出ブロック231を有している。
FIG. 13 is a diagram illustrating a block configuration of a digital camera according to the second embodiment. Of the block configurations of the present embodiment, those having the same functions as those of the first embodiment are denoted by the same reference numerals. In the present embodiment, a detection condition instruction unit 242 is provided instead of the correction coefficient conversion unit 141 of the first embodiment. The basic functions are the same as the feature
次に本実施形態の特徴である、収差補正部115による収差補正処理と、特徴量検出ブロック230及び補正係数算出ブロック231による検出処理及び算出処理との平行処理について説明する。本実施形態では、第1の実施形態と同様に、特徴量検出ブロック230での検出処理及び補正係数算出ブロック231での算出処理を行なうのに平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。しかしながら、第1の実施形態と同様に、特徴量検出ブロック230に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。 Next, the aberration correction processing by the aberration correction unit 115 and the parallel processing of the detection processing and calculation processing by the feature amount detection block 230 and the correction coefficient calculation block 231 will be described, which are features of the present embodiment. In the present embodiment, as in the first embodiment, the aberration correction processing unit passes through the buffer memory 114 in parallel with the detection processing in the feature amount detection block 230 and the calculation processing in the correction coefficient calculation block 231. In 115, peripheral light amount drop correction processing is performed. Thereby, it is possible to improve the shooting performance, such as increasing the continuous shooting interval or increasing the number of continuous shots. However, as in the first embodiment, the captured image input to the feature amount detection block 230 is image data before aberration correction, and therefore still has distortion due to a decrease in peripheral light amount.
本実施形態において、検出条件指示部242は、特徴量検出ブロック230の各画像処理の検出部で撮影した画像データの解析を行なうとき、周辺光量落ちの歪の影響を大きく受ける範囲を定義する。 In this embodiment, the detection condition instructing unit 242 defines a range that is greatly affected by the distortion of the peripheral light amount when analyzing the image data captured by the detection unit of each image processing of the feature amount detection block 230.
また、検出条件指示部242は、カメラ制御部110から出力された周辺光量落ち補正データを入力し、その像高に対応するデータのゲインを解析する。ここで、例えば、ゲイン1.2倍以上である像高を周辺光量落ちの歪の影響を受ける範囲を定義すると、ゲイン1.2倍以上となる像高に相当する画面内の座標を含む検出位置を検出範囲から除外するように特徴量検出ブロック230に指示する。 Further, the detection condition instruction unit 242 receives the peripheral light amount drop correction data output from the camera control unit 110, and analyzes the gain of the data corresponding to the image height. Here, for example, if a range in which an image height having a gain of 1.2 times or more is affected by the distortion of the peripheral light amount drop, detection including coordinates in the screen corresponding to the image height having a gain of 1.2 times or more is performed. The feature amount detection block 230 is instructed to exclude the position from the detection range.
図14に影響範囲を定義づけた1画面の画像の例を示す。図に示すように、全画面1401の中心座標1404から像高1.2倍未満の周辺光量落ち補正ゲインとなる範囲を矢印1405とすると、各画像処理の検出処理に用いるブロックは、太枠1403で囲まれた範囲内となる。
FIG. 14 shows an example of a one-screen image in which the influence range is defined. As shown in the figure, assuming that the range from the center coordinates 1404 of the
特徴量検出ブロック230の各検出部は、検出条件指示部242からの指示に応じて検出処理範囲を制限するように構成されている。したがって、検出条件指示部242は、すべての画像処理の検出処理をこの範囲内に限定する。補正係数算出ブロック231は第1の実施形態と異なり収差補正処理の条件をなんら考慮することなく特徴量検出ブロック230からの検出結果に基づき係数算出を行う。このように構成することで、各画像処理が周辺光量落ちにの歪によって受ける影響を低減することができる。 Each detection unit of the feature amount detection block 230 is configured to limit the detection processing range in accordance with an instruction from the detection condition instruction unit 242. Therefore, the detection condition instruction unit 242 limits the detection processing of all image processing within this range. Unlike the first embodiment, the correction coefficient calculation block 231 calculates a coefficient based on the detection result from the feature amount detection block 230 without considering any aberration correction processing conditions. By configuring in this way, it is possible to reduce the influence of each image processing due to distortion due to a decrease in peripheral light amount.
以上のように、本実施形態では、撮影レンズの光学的収差補正処理を行なうときに、撮影レンズの収差補正をホワイトバランス補正処理などの画像補正処理と平行に行なった。そして、それら補正処理のための検出処理の動作範囲を収差補正処理の影響の少ない範囲に限定するようにした。これにより、メモリ量を節約しつつ、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができる。また、第1の実施形態と比較して特徴量検出ブロック及び補正係数算出ブロックにおける処理を複雑にすることなく収差補正処理に係る補正を行うことができる。 As described above, in the present embodiment, when the optical aberration correction process of the photographing lens is performed, the aberration correction of the photographing lens is performed in parallel with the image correction process such as the white balance correction process. The operation range of the detection process for the correction process is limited to a range where the influence of the aberration correction process is small. Accordingly, it is possible to save the memory amount, maintain the continuous shooting performance and the continuous shooting performance, and improve the image quality by the aberration correction processing. Further, the correction related to the aberration correction process can be performed without complicating the process in the feature amount detection block and the correction coefficient calculation block as compared with the first embodiment.
なお、本実施形態では、検出条件指示部242は、すべての画像処理の検出処理を図14に示す範囲内に限定したが、各処理個別に制限するようにしてもよい。例えば、WB検出に対して顔検出のほうが収差による誤検出を受けやすいのであれば、顔検出についての検出範囲をWB検出範囲より狭いものにすることができる。 In the present embodiment, the detection condition instructing unit 242 limits the detection processing of all image processing to the range shown in FIG. 14, but may limit each processing individually. For example, if face detection is more susceptible to erroneous detection due to aberration than WB detection, the detection range for face detection can be narrower than the WB detection range.
100 カメラ本体
110 カメラ制御部
115 収差補正部
116 現像処理部
130 特徴量検出ブロック
131 補正係数算出ブロック
DESCRIPTION OF
Claims (11)
前記光学レンズの収差を補正するための第1の補正係数を記憶する記憶手段と、
前記第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正手段と、
前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、
前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、
前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正する第2の補正手段と、
前記第1の補正係数を特徴量の検出又は前記第2の補正係数の算出のために変換する変換手段と、を有し、
前記特徴量検出手段又は前記係数算出手段は前記変換手段により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正手段は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正することを特徴とする画像処理装置。 An image pickup means for picking up an image formed through an optical lens using an image pickup device and outputting the obtained image data;
Storage means for storing a first correction coefficient for correcting the aberration of the optical lens;
First correction means for correcting image data output from the imaging means based on the first correction coefficient;
A feature amount detection means for detecting a feature amount from image data output from the imaging means that has not been corrected by the first correction means;
Coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the feature quantity detection means;
Second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient;
Conversion means for converting the first correction coefficient for detection of a feature amount or calculation of the second correction coefficient;
The feature amount detection unit or the coefficient calculation unit detects the feature amount or calculates the second correction coefficient using the correction data converted by the conversion unit, and the second correction unit performs the conversion. An image processing apparatus for correcting the image data corrected by the first correction unit based on the second correction coefficient obtained by using the correction data.
前記光学レンズの収差を補正するための第1の補正係数を記憶する記憶手段と、
前記第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正手段と、
前記第1の補正係数に応じて特徴量の検出条件を指示する指示手段と
前記指示手段により指示された検出条件に基づき、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、
前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、
前記係数算出手段により算出された第2の補正係数に基づき、前記第1の補正手段により補正された画像データを補正する第2の補正手段と、
を有することを特徴とする画像処理装置。 An image pickup means for picking up an image formed through an optical lens using an image pickup device and outputting the obtained image data;
Storage means for storing a first correction coefficient for correcting the aberration of the optical lens;
First correction means for correcting image data output from the imaging means based on the first correction coefficient;
Instructing means for instructing a detection condition of a feature amount according to the first correction coefficient, and output from the imaging means not corrected by the first correcting means based on the detection condition instructed by the instructing means Feature amount detection means for detecting feature amounts from image data;
Coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the feature quantity detection means;
Second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient calculated by the coefficient calculation means;
An image processing apparatus comprising:
前記光学レンズの収差を補正するための第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正工程と、
前記第1の補正工程により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出工程と、
前記特徴量検出工程により検出された特徴量に基づき第2の補正係数を算出する係数算出工程と、
前記第2の補正係数に基づき前記第1の補正工程により補正された画像データを補正する第2の補正工程と、
前記第1の補正係数を特徴量の検出又は前記第2の補正係数の算出のために変換する変換工程と、を有し、
前記特徴量検出工程又は前記係数算出工程は前記変換工程により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正工程は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正工程により補正された画像データを補正することを特徴とする画像処理装置の画像処理方法。 An image processing method of an image processing apparatus having an image pickup unit that picks up an image formed through an optical lens using an image pickup device and outputs the obtained image data,
A first correction step of correcting image data output from the imaging means based on a first correction coefficient for correcting aberration of the optical lens;
A feature amount detection step of detecting a feature amount from the image data output from the imaging means that has not been corrected by the first correction step;
A coefficient calculation step of calculating a second correction coefficient based on the feature amount detected by the feature amount detection step;
A second correction step of correcting the image data corrected by the first correction step based on the second correction coefficient;
A conversion step of converting the first correction coefficient for feature quantity detection or calculation of the second correction coefficient,
The feature amount detection step or the coefficient calculation step detects the feature amount or calculates the second correction coefficient using the correction data converted by the conversion step, and the second correction step performs the conversion. An image processing method for an image processing apparatus, wherein the image data corrected in the first correction step is corrected based on the second correction coefficient obtained by using the corrected data.
前記光学レンズの収差を補正するための第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正工程と、
前記第1の補正係数に応じて特徴量の検出条件を指示する指示工程と、
前記指示工程により指示された検出条件に基づき、前記第1の補正工程により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出工程と、
前記特徴量検出工程により検出された特徴量に基づき第2の補正係数を算出する係数算出工程と、
前記係数算出工程により算出された第2の補正係数に基づき、前記第1の補正工程により補正された画像データを補正する第2の補正工程と、
を有することを特徴とする画像処理装置の画像処理方法。 An image processing method of an image processing apparatus having an image pickup unit that picks up an image formed through an optical lens using an image pickup device and outputs the obtained image data,
A first correction step of correcting image data output from the imaging means based on a first correction coefficient for correcting aberration of the optical lens;
An instruction step of instructing a detection condition of the feature amount according to the first correction coefficient;
A feature amount detection step of detecting a feature amount from the image data output from the imaging means that has not been corrected by the first correction step based on the detection condition instructed by the instruction step;
A coefficient calculation step of calculating a second correction coefficient based on the feature amount detected by the feature amount detection step;
A second correction step of correcting the image data corrected in the first correction step based on the second correction coefficient calculated in the coefficient calculation step;
An image processing method for an image processing apparatus, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008205746A JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008205746A JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010041682A true JP2010041682A (en) | 2010-02-18 |
| JP5173664B2 JP5173664B2 (en) | 2013-04-03 |
Family
ID=42013685
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008205746A Expired - Fee Related JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5173664B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102955330A (en) * | 2011-08-18 | 2013-03-06 | 株式会社尼康 | Exchangeable lens and camera system |
| JP2013219627A (en) * | 2012-04-10 | 2013-10-24 | Canon Inc | Imaging apparatus and control method of imaging apparatus |
| US9143707B2 (en) | 2010-09-30 | 2015-09-22 | Nikon Corporation | Interchangeable lens, camera body and camera system |
| JP2015226149A (en) * | 2014-05-27 | 2015-12-14 | 三菱電機株式会社 | Image processing system, imaging apparatus, and recording apparatus |
| JP2023120003A (en) * | 2022-02-17 | 2023-08-29 | 日本電信電話株式会社 | Image processing device, method and program |
| US12430721B2 (en) * | 2022-03-22 | 2025-09-30 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003255424A (en) * | 2002-03-05 | 2003-09-10 | Sony Corp | Image capturing apparatus and chromatic aberration correction method |
| JP2004266768A (en) * | 2003-03-04 | 2004-09-24 | Mega Chips Corp | Image processing system and digital camera |
| JP2008040710A (en) * | 2006-08-04 | 2008-02-21 | Sony Corp | Face detection device, imaging device, and face detection method |
-
2008
- 2008-08-08 JP JP2008205746A patent/JP5173664B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003255424A (en) * | 2002-03-05 | 2003-09-10 | Sony Corp | Image capturing apparatus and chromatic aberration correction method |
| JP2004266768A (en) * | 2003-03-04 | 2004-09-24 | Mega Chips Corp | Image processing system and digital camera |
| JP2008040710A (en) * | 2006-08-04 | 2008-02-21 | Sony Corp | Face detection device, imaging device, and face detection method |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9143707B2 (en) | 2010-09-30 | 2015-09-22 | Nikon Corporation | Interchangeable lens, camera body and camera system |
| CN102955330A (en) * | 2011-08-18 | 2013-03-06 | 株式会社尼康 | Exchangeable lens and camera system |
| US9025076B2 (en) | 2011-08-18 | 2015-05-05 | Nikon Corporation | Exchangeable lens and camera system |
| JP2013219627A (en) * | 2012-04-10 | 2013-10-24 | Canon Inc | Imaging apparatus and control method of imaging apparatus |
| JP2015226149A (en) * | 2014-05-27 | 2015-12-14 | 三菱電機株式会社 | Image processing system, imaging apparatus, and recording apparatus |
| JP2023120003A (en) * | 2022-02-17 | 2023-08-29 | 日本電信電話株式会社 | Image processing device, method and program |
| JP7754423B2 (en) | 2022-02-17 | 2025-10-15 | Ntt株式会社 | Image processing device, method and program |
| US12430721B2 (en) * | 2022-03-22 | 2025-09-30 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5173664B2 (en) | 2013-04-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8767103B2 (en) | Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium | |
| US8106976B2 (en) | Peripheral light amount correction apparatus, peripheral light amount correction method, electronic information device, control program and readable recording medium | |
| US20040041919A1 (en) | Digital camera | |
| US20090284618A1 (en) | Image processing device and method, and computer-readable recording medium containing program | |
| KR101639664B1 (en) | Photographing apparatus and photographing method | |
| US8154629B2 (en) | Noise canceling circuit, noise canceling method, and solid-state imaging device | |
| US9699387B2 (en) | Image processing device for processing pupil-divided images obtained through different pupil regions of an imaging optical system, control method thereof, and program | |
| JP2009244858A (en) | Image capturing apparatus and image processing method | |
| JP2008167361A (en) | CAMERA MODULE, ELECTRONIC DEVICE HAVING THE SAME, CAMERA MODULE MANUFACTURING METHOD, AND ELECTRONIC DEVICE MANUFACTURING METHOD USING THE SAME | |
| JP5457845B2 (en) | Color characteristic correction apparatus and camera | |
| JPWO2005043891A1 (en) | Image correction method and imaging apparatus | |
| US9892497B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| JP5173664B2 (en) | Image processing apparatus and image processing method | |
| JP4513205B2 (en) | Electronic camera and recording medium for image processing program | |
| JP4955235B2 (en) | Digital camera and gain calculation method | |
| JP5183348B2 (en) | Imaging device | |
| JP6736279B2 (en) | Imaging device, image processing device, and image processing method | |
| JPH11113018A (en) | Image pickup device | |
| JP5560766B2 (en) | Image processing apparatus, imaging apparatus, and program | |
| JP2021097347A (en) | Imaging apparatus, control method of the same, and program | |
| JP2007329620A (en) | Imaging device and video signal processing program | |
| US20050219404A1 (en) | Apparatus for compensating for color shading on a picture picked up by a solid-state image sensor over a broad dynamic range | |
| JP5284183B2 (en) | Image processing apparatus and method | |
| JP2008219230A (en) | Imaging apparatus, and image processing method | |
| JP2009055442A (en) | Image correction device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110804 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120824 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121109 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121227 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5173664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |