[go: up one dir, main page]

JP2016001782A - Image processing apparatus, imaging apparatus, image processing method, program, and storage medium - Google Patents

Image processing apparatus, imaging apparatus, image processing method, program, and storage medium Download PDF

Info

Publication number
JP2016001782A
JP2016001782A JP2014120450A JP2014120450A JP2016001782A JP 2016001782 A JP2016001782 A JP 2016001782A JP 2014120450 A JP2014120450 A JP 2014120450A JP 2014120450 A JP2014120450 A JP 2014120450A JP 2016001782 A JP2016001782 A JP 2016001782A
Authority
JP
Japan
Prior art keywords
image
image data
exposure amount
image processing
signal value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014120450A
Other languages
Japanese (ja)
Inventor
隆平 今野
Ryuhei Konno
隆平 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014120450A priority Critical patent/JP2016001782A/en
Publication of JP2016001782A publication Critical patent/JP2016001782A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that is advantageous to image restoration processing to an image including an overexposed area.SOLUTION: The image processing system includes a generation means (132) that generates an image restoration filter based on an imaging condition of an imaging means that outputs first image data imaged with first exposure, a detection means (133) that detects a region that satisfies a certain condition of the first image data based on the shape of the image restoration filter, a combination means (134) that generates combined image data so as to replace a signal value of the pixel of the region detected by the detection means with a value based on the signal value of second image data imaged with second exposure that is smaller than the first exposure by the imaging means, and a processing means (135) that executes image restoration processing for the combined image data by the image restoration filter.

Description

本発明は、劣化画像に対し画像回復処理を施す画像処理装置に関する。   The present invention relates to an image processing apparatus that performs image restoration processing on a deteriorated image.

特許文献1には、撮像光学系の特性を予めデータ化して、この特性データに基づき、劣化した画像を補正する方法が提案されている。このような劣化画像を補正する方法として、例えば、撮像光学系の光学伝達関数(OTF)から生成された画像回復フィルタを用いて劣化画像を補正する方法(以下、画像回復処理)が知られている。   Patent Document 1 proposes a method of converting characteristics of an imaging optical system into data in advance and correcting a deteriorated image based on the characteristics data. As a method for correcting such a deteriorated image, for example, a method for correcting a deteriorated image using an image restoration filter generated from an optical transfer function (OTF) of an imaging optical system (hereinafter, image restoration processing) is known. Yes.

OTFを用いる画像回復処理は、サイズの大きな空間フィルタ(画像回復フィルタ)を適用することが多い。画像回復フィルタの適用による画像回復処理では、白とび領域が問題になる。白とび領域とは、撮像センサの飽和によって本来得られるべき信号値が得られず、階調が白色に飛んだ画像領域である。従って、画像回復フィルタを適用しても、白とび領域の周辺では像を正しく復元することはできない。その結果、白とび領域の周辺に画像の折り返しが発生したり、被写体には存在しない色が発生する(以下、色着き)などの現象が生じる。   In image restoration processing using OTF, a large spatial filter (image restoration filter) is often applied. In the image restoration process by applying the image restoration filter, the overexposed region becomes a problem. The whiteout region is an image region in which the signal value that should originally be obtained cannot be obtained due to saturation of the image sensor, and the gradation is white. Therefore, even if the image restoration filter is applied, the image cannot be correctly restored around the overexposed region. As a result, a phenomenon occurs such that an image is folded around a whiteout region, or a color that does not exist in the subject (hereinafter referred to as “coloring”) occurs.

この問題に対して、特許文献2には、白とび領域付近での補正の度合いを下げ、不具合の発生を抑制する方法が提案されている。   In order to solve this problem, Patent Document 2 proposes a method of reducing the degree of correction in the vicinity of a whiteout region and suppressing the occurrence of defects.

特開平4−088765号公報JP-A-4-087655 特開2007−181170号公報JP 2007-181170 A

しかしながら、上記特許文献に開示された従来技術では、白とび領域とその周辺領域について補正効果を抑制するなどするため、効果的に像を復元することができない。   However, in the prior art disclosed in the above-mentioned patent document, the correction effect is suppressed for the overexposed region and its peripheral region, and thus the image cannot be restored effectively.

本発明は、上記課題を鑑み、白とび領域を含む画像への画像回復処理に有利な画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体を提供する。   In view of the above problems, the present invention provides an image processing device, an imaging device, an image processing method, a program, and a storage medium that are advantageous for image restoration processing for an image including an overexposed region.

本発明の一側面としての画像処理装置は、第1の露出量で撮像した第1の画像データを出力する撮像手段の撮影条件に基づいて、画像回復フィルタを生成する生成手段と、前記第1の画像データの所定の条件を満たす領域を検出する検出手段と、前記検出手段により検出した前記領域の画素の信号値を、前記撮像手段により前記第1の露出量よりも小さい第2の露出量で撮像した第2の画像データの信号値に基づく値で置換するように、合成画像データを生成する合成手段と、前記合成画像データに対して前記画像回復フィルタにより画像回復処理を施す処理手段と、を有することを特徴とする。   An image processing apparatus according to one aspect of the present invention includes: a generation unit that generates an image restoration filter based on a shooting condition of an imaging unit that outputs first image data captured with a first exposure amount; Detecting means for detecting a region satisfying a predetermined condition of the image data, and a signal value of a pixel in the region detected by the detecting means is set to a second exposure amount smaller than the first exposure amount by the imaging means. Combining means for generating composite image data so as to replace the value based on the signal value of the second image data imaged in step 1, and processing means for performing image recovery processing on the composite image data by the image recovery filter It is characterized by having.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、白とび領域を含む画像への画像回復処理に有利な画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体を提供することができる。   According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, a program, and a storage medium that are advantageous for image restoration processing to an image including a whiteout region.

本発明の実施例に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on the Example of this invention. 本発明の実施例に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the Example of this invention. 本発明の第一の実施形態に係る画像処理方法の流れを示すフロー図である。It is a flowchart which shows the flow of the image processing method which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る飽和領域の検出処理の流れを示すフロー図である。It is a flowchart which shows the flow of a detection process of the saturation area | region which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る飽和領域の合成処理の流れを示すフロー図である。It is a flowchart which shows the flow of the synthetic | combination process of the saturation area | region which concerns on 1st embodiment of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、本発明の撮像装置により得られた画像のボケ(劣化)を撮像光学系の光学伝達関数(OTF:Optic Transfer Function)の情報を用いて補正する方法について以下に説明する。この方法は画像回復や画像復元という言葉で呼ばれており、以降、この撮像光学系(撮像系)の光学伝達関数の情報を用いて画像の劣化を補正する処理を画像回復処理と記す。   First, a method for correcting blur (deterioration) of an image obtained by the imaging apparatus of the present invention using information on an optical transfer function (OTF) of the imaging optical system will be described below. This method is called “image restoration” or “image restoration”. Hereinafter, processing for correcting image degradation using information on the optical transfer function of the imaging optical system (imaging system) will be referred to as image restoration processing.

撮像光学系は、光の波長によって屈折率が異なり、光の波長によって結像にずれ(ボケ)が生じ画像が劣化する。この画像劣化は収差と呼ばれる。この収差は、撮像光学系の球面収差、コマ収差、像面湾曲および非点収差等である。これらの収差は、点像分布関数(PSF:Point Spread Function)により表すことができる。点像分布関数(以下、PSF)は、被写体の一点が、どのような広がりをもつ像として写像されるかを示す。例えば、暗黒下で体積が非常に小さい発光体を撮影した場合の撮像センサ面における光の二次元分布が、撮像に使用した撮像光学系のPSFに相当する。PSFを得るには、必ずしも、点光源のような被写体を撮影する必要はなく、例えば白黒のエッジを有するチャートを撮影し、撮影画像からチャートに対応した計算方法によってPSFを求める方法が知られている。また、撮像光学系の設計データからPSFを算出することも可能である。点像分布関数をフーリエ変換することにより得ることができる光学伝達関数(以下、OTF)は、収差の周波数空間における情報である。このOTFは複素数で表すことができ、OTFの絶対値、即ち、振幅成分はMTF(Modulation Transfer Function)、位相成分はPTF(Phase Transfer Function)と呼ばれる。   The imaging optical system has a different refractive index depending on the wavelength of light, and the image is shifted (blurred) depending on the wavelength of light, resulting in deterioration of the image. This image degradation is called aberration. This aberration includes spherical aberration, coma aberration, field curvature, astigmatism, and the like of the imaging optical system. These aberrations can be expressed by a point spread function (PSF). The point spread function (hereinafter referred to as PSF) indicates how wide a point of the subject is mapped. For example, the two-dimensional distribution of light on the imaging sensor surface when a light emitter having a very small volume is photographed in the dark corresponds to the PSF of the imaging optical system used for imaging. In order to obtain the PSF, it is not always necessary to photograph a subject such as a point light source. For example, a method is known in which a chart having black and white edges is photographed and the PSF is obtained from the photographed image by a calculation method corresponding to the chart. Yes. It is also possible to calculate the PSF from the design data of the imaging optical system. An optical transfer function (hereinafter referred to as OTF) that can be obtained by Fourier transforming a point spread function is information in the frequency space of aberration. This OTF can be expressed by a complex number, and the absolute value of the OTF, that is, the amplitude component is called MTF (Modulation Transfer Function) and the phase component is called PTF (Phase Transfer Function).

撮像光学系のOTFは画像の振幅成分(以下、MTF)と位相成分(以下、PTF)に影響(劣化)を与えるため、撮像光学系を介して取得された被写体の画像は、各点がコマ収差のように非対称にボケた画像(劣化画像)になる。さらに、画像が有する色成分(例えば、赤、青、緑など)ごとにPSFが異なるため、色成分ごとに異なるボケが発生し、色がにじんだような画像(劣化画像)になる。   Since the OTF of the imaging optical system affects (deteriorates) the amplitude component (hereinafter referred to as MTF) and phase component (hereinafter referred to as PTF) of the image, each point of the image of the subject acquired via the imaging optical system is coma. It becomes an asymmetrically blurred image (degraded image) like aberration. Furthermore, since the PSF is different for each color component (for example, red, blue, green, etc.) included in the image, different blur occurs for each color component, resulting in an image (degraded image) in which the color is blurred.

以下に画像回復処理の概要を示す。   The outline of the image restoration process is shown below.

劣化した画像をg(x,y)、元の画像をf(x,y)、g(x、y)を取得するために用いた撮像系の点像分布関数(PSF)をh(x,y)としたとき、以下の式が成り立つ。ただし、*はコンボリューション(畳み込み積分、積和)を示し、(x,y)は実空間における画像の座標を示す。
g(x,y)=h(x,y)*f(x,y) (式1)
式1をフーリエ変換して周波数空間での表示形式に変換すると、式2のように表すことができる。
G(u,v)=H(u,v)・F(u,v) (式2)
ここで、H(u,v)は点像分布関数h(x,y)をフーリエ変換した光学伝達関数(OTF)である。G(u,v)、F(u,v)はそれぞれg(x,y)、f(x,y)をフーリエ変換したものである。(u,v)は2次元周波数空間での周波数(座標)を示す。
The point spread function (PSF) of the imaging system used to acquire the degraded image g (x, y), the original image f (x, y), and g (x, y) is represented by h (x, y). When y), the following equation holds. Here, * indicates convolution (convolution integration, sum of products), and (x, y) indicates image coordinates in real space.
g (x, y) = h (x, y) * f (x, y) (Formula 1)
When Formula 1 is Fourier-transformed and converted into a display format in the frequency space, it can be expressed as Formula 2.
G (u, v) = H (u, v) .F (u, v) (Formula 2)
Here, H (u, v) is an optical transfer function (OTF) obtained by Fourier transform of the point spread function h (x, y). G (u, v) and F (u, v) are obtained by Fourier transform of g (x, y) and f (x, y), respectively. (U, v) indicates a frequency (coordinate) in a two-dimensional frequency space.

劣化画像から元の画像(元画像)を得るためには、式2の両辺をH(u,v)で除算すればよい。
G(u,v)/H(u,v)=F(u,v) (式3)
このF(u,v)、即ちG(u,v)/H(u,v)を逆フーリエ変換して実空間に戻すことで元画像f(x,y)を回復画像として得ることができる。
In order to obtain the original image (original image) from the deteriorated image, both sides of Equation 2 may be divided by H (u, v).
G (u, v) / H (u, v) = F (u, v) (Formula 3)
This F (u, v), that is, G (u, v) / H (u, v) is inverse Fourier transformed and returned to the real space, whereby the original image f (x, y) can be obtained as a restored image. .

式3の両辺を逆フーリエ変換すると式3は式4で表される。
g(x,y)*R(x,y)=f(x,y) (式4)
ここで、1/H(u,v)を逆フーリエ変換したものをR(x,y)と表す。このR(x,y)が画像回復フィルタである。
When both sides of Equation 3 are inverse Fourier transformed, Equation 3 is expressed by Equation 4.
g (x, y) * R (x, y) = f (x, y) (Formula 4)
Here, the inverse Fourier transform of 1 / H (u, v) is represented as R (x, y). This R (x, y) is an image restoration filter.

この画像回復フィルタは光学伝達関数(OTF)に基づいているため、振幅成分および位相成分の劣化を補正することができる。   Since this image restoration filter is based on the optical transfer function (OTF), it is possible to correct the deterioration of the amplitude component and the phase component.

つぎに、本発明の実施例に係る撮像装置の構成について図1を用いて説明する。   Next, the configuration of the image pickup apparatus according to the embodiment of the present invention will be described with reference to FIG.

図1において、100はデジタルカメラ(撮像装置)である。400は撮影レンズ(撮像光学系)、410は撮影レンズの絞り、110は光学像を電気信号に変換する撮像デバイス、120は撮像デバイス110のアナログ信号出力をディジタル信号に変換するA/D変換器である。130は画像処理部であり、A/D変換器120からのデータ或いはRAM190に記録されているデータに対して所定のデモザイク処理や色変換処理を行う。   In FIG. 1, reference numeral 100 denotes a digital camera (imaging device). 400 is a photographing lens (imaging optical system), 410 is a diaphragm of the photographing lens, 110 is an imaging device that converts an optical image into an electrical signal, and 120 is an A / D converter that converts an analog signal output of the imaging device 110 into a digital signal. It is. An image processing unit 130 performs predetermined demosaic processing and color conversion processing on the data from the A / D converter 120 or the data recorded in the RAM 190.

本発明の撮像装置は、このように被写体からの光を撮影レンズなどで構成される撮像光学系によって電荷結合素子(CCD)やCMOSセンサなどの撮像デバイスに導いて、被写体画像に対応する電気信号を取得している。撮像光学系と撮像デバイスとにより撮像手段が構成される。そして、この電気信号をアナログ-ディジタル(AD)変換し、デモザイキング処理することで被写体の画像データを得ている。   The image pickup apparatus of the present invention guides light from a subject to an image pickup device such as a charge coupled device (CCD) or a CMOS sensor by an image pickup optical system including a photographic lens and the like, and an electric signal corresponding to the subject image. Is getting. An imaging unit is configured by the imaging optical system and the imaging device. The electrical signal is converted from analog to digital (AD) and demosaiced to obtain image data of the subject.

140は、撮像デバイス110における欠落画素や信頼性の低い画素の信号値に対し、周辺画素の信号値を用いて修復対象の画素の信号値を補間したり、画像データに対してノイズ除去や輪郭強調等の信号処理を施すカメラ信号処理部である。   Reference numeral 140 denotes a signal value of a pixel to be repaired by using a signal value of a peripheral pixel with respect to a signal value of a missing pixel or a pixel having low reliability in the imaging device 110, or noise removal or contouring of image data. It is a camera signal processing unit that performs signal processing such as enhancement.

A/D変換器120のデータが画像処理部130、カメラ信号処理部140を介して、或いはA/D変換器120のデータが直接カメラ信号処理部140を介して、RAM190に書き込まれる。   Data from the A / D converter 120 is written into the RAM 190 via the image processing unit 130 and the camera signal processing unit 140, or data from the A / D converter 120 is directly written through the camera signal processing unit 140.

220はTFT LCD等から成る画像表示部であり、RAM190に書き込まれた表示用の画像データを表示する。   Reference numeral 220 denotes an image display unit composed of a TFT LCD or the like, which displays display image data written in the RAM 190.

画像表示部220を用いて撮像した画像データを逐次表示すれば、ライブビュー機能を実現することが可能である。   A live view function can be realized by sequentially displaying image data captured using the image display unit 220.

RAM190は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。   The RAM 190 is a memory for storing captured still images and moving images, and has a sufficient storage capacity for storing a predetermined number of still images and moving images for a predetermined time.

これにより、複数枚の静止画像を連続して撮影する連写撮影の場合にも、高速かつ大量の画像書き込みをRAM190に対して行うことが可能となる。   This makes it possible to write a large amount of images to the RAM 190 at high speed even in continuous shooting where a plurality of still images are continuously shot.

また、RAM190はカメラ信号処理部140の作業領域としても使用することが可能である。   The RAM 190 can also be used as a work area for the camera signal processing unit 140.

170は、例えばCPUからなる制御部であり、デジタルカメラ100が備える各ブロックの動作プログラムをROM180より読み出し、RAM190に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。ROM180は、書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。   Reference numeral 170 denotes a control unit composed of, for example, a CPU, which reads the operation program for each block included in the digital camera 100 from the ROM 180, develops it in the RAM 190, and executes it to control the operation of each block included in the digital camera 100. The ROM 180 is a rewritable nonvolatile memory, and stores parameters necessary for the operation of each block in addition to the operation program for each block provided in the digital camera 100.

210はシャッタースイッチなどの操作部材である。不図示のシャッターボタンの操作途中でSW1がONとなり、撮像系制御部200を介して、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。また、不図示のシャッターボタンの完全な押下でSW2がONとなり、撮像デバイス110から読み出した信号をA/D変換器120、画像処理部130やカメラ信号処理部140での演算を用いた現像処理の動作開始を指示する。また、現像処理の後に、RAM190から画像データを読み出し、圧縮処理を行い、メディアインタフェース150によって記録媒体であるコンパクトフラッシュ(登録商標)カードやその他メディア160に画像データを書き込む記録処理の動作開始を指示する。   Reference numeral 210 denotes an operation member such as a shutter switch. During the operation of a shutter button (not shown), SW1 is turned ON, and AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) are performed via the imaging system control unit 200. ) Instruct the start of operations such as processing. Further, when the shutter button (not shown) is completely pressed, SW2 is turned ON, and a signal read from the imaging device 110 is used for development processing using arithmetic operations in the A / D converter 120, the image processing unit 130, and the camera signal processing unit 140. Instruct the start of operation. Further, after the development process, the image data is read from the RAM 190, the compression process is performed, and an instruction to start the recording process for writing the image data to the compact flash (registered trademark) card or other medium 160 as a recording medium by the media interface 150 is given. To do.

300は被写体の照度を測る測光部(測光手段)である。測光部300は、撮影シーンを領域ごとに分割して測光し、全領域についての測光結果の平均あるいは、重みづけ平均などをして被写体を適正な露出で撮影するための露出量を算出する。この適正露出の算出方法は測光モードによって指定できる。   Reference numeral 300 denotes a photometric unit (photometric means) that measures the illuminance of the subject. The light metering unit 300 divides the photographing scene into regions and measures the light, and calculates an exposure amount for photographing the subject with an appropriate exposure by performing an average or a weighted average of the photometric results for all regions. The method for calculating the appropriate exposure can be specified by the photometry mode.

310は測光部300が決定した露出量(適正露出量、第1の露出量)で撮像した場合の画像データに含まれる白とび領域を抑制するための補正露出量を算出するための補正露出算出部である。   Reference numeral 310 denotes a corrected exposure calculation for calculating a corrected exposure amount for suppressing an overexposure area included in image data when an image is captured with an exposure amount (appropriate exposure amount, first exposure amount) determined by the photometric unit 300. Part.

以下、図2を参照して、本発明の第1の実施例による、画像処理部130の内部を概略的に示す。   Hereinafter, with reference to FIG. 2, the inside of the image processing unit 130 according to the first embodiment of the present invention is schematically shown.

図2は、画像処理部130内で処理される本発明の第1の実装形態に係る画像処理装置の構成例を示す構成図である。本実施形態における画像処理装置は、入力部131、回復フィルタ生成処理部132、飽和領域検出処理部133、飽和領域合成処理部134、画像回復処理部135、出力部136を有する。   FIG. 2 is a block diagram showing a configuration example of the image processing apparatus according to the first implementation form of the present invention processed in the image processing unit 130. The image processing apparatus according to the present embodiment includes an input unit 131, a recovery filter generation processing unit 132, a saturated region detection processing unit 133, a saturated region synthesis processing unit 134, an image recovery processing unit 135, and an output unit 136.

図3は、本発明の第1の実施形態に係る画像処理方法を示すフローチャートである。図3においてまず、S301で入力部131は、撮像デバイス110で撮像した被写体像の信号をA/D変換器120を介してディジタル信号に変換した撮像データ(画像データ)と撮影時情報(撮影条件)とを入力する。なお、撮影時情報は、画像が撮影された際に撮像装置に装着されていたレンズを識別するレンズ識別情報、ズーム位置を特定するための撮影時焦点距離情報、絞り値などの情報のことである。S301では、入力部(取得手段)は、設定された条件(第1の露出量)で撮像手段が撮像した第1の画像データと該第1の画像データを撮像した際の撮影条件(設定された条件)とを取得する。   FIG. 3 is a flowchart showing an image processing method according to the first embodiment of the present invention. In FIG. 3, first, in step S <b> 301, the input unit 131 captures imaging data (image data) obtained by converting a signal of a subject image captured by the imaging device 110 into a digital signal via the A / D converter 120 and imaging time information (imaging conditions). ). Note that the shooting time information includes information such as lens identification information for identifying a lens attached to the imaging apparatus when the image was shot, shooting focal length information for specifying a zoom position, aperture value, and the like. is there. In S301, the input unit (acquisition unit) sets the first image data captured by the imaging unit under the set condition (first exposure amount) and the shooting condition (set) when the first image data is captured. Condition).

S303では、S301で入力した画像データに対して、撮像光学系の特性に起因する画像劣化を復元するための画像回復フィルタを生成する準備として、S301で入力した撮影条件からOTFデータを読み込む。OTFデータは点像分布関数(PSF)をフーリエ変換して得られる光学伝達関数(OTF)に基づいて光学系に起因する画像劣化成分を復元するための画像回復フィルタを生成するためのデータである。   In S303, OTF data is read from the imaging conditions input in S301 as preparation for generating an image restoration filter for restoring image degradation caused by the characteristics of the imaging optical system for the image data input in S301. The OTF data is data for generating an image restoration filter for restoring an image degradation component caused by the optical system based on an optical transfer function (OTF) obtained by Fourier transforming the point spread function (PSF). .

S305では、回復フィルタ生成処理部132がS303で読み込んだOTFデータに基づいて画像回復フィルタを生成する。すなわち、回復フィルタ生成処理部(生成手段)は、S301で取得した撮影条件に基づいてOTFデータから画像回復フィルタを生成する。画像回復フィルタとは、従来のシャープネスやメディアンフィルタ等の一般的なフィルタ処理と同様に、対象画素と、その周囲の画素に適用するフィルタである。画像回復フィルタは、対象画素1つにつき、幅と高さを持つ二次元のデータ配列になっており、対象画素を含む領域に対して、フィルタの各値をそれぞれの画素ごとに求める。フィルタは、画像の領域ごとに異なるパラメータをもち、場合によってはサイズが異なるため、フィルタのサイズも対象画素によって異なる。   In S305, the recovery filter generation processing unit 132 generates an image recovery filter based on the OTF data read in S303. That is, the recovery filter generation processing unit (generation unit) generates an image recovery filter from the OTF data based on the imaging condition acquired in S301. The image restoration filter is a filter that is applied to the target pixel and surrounding pixels, as in a general filter process such as a conventional sharpness or median filter. The image restoration filter has a two-dimensional data array having a width and a height for each target pixel, and obtains each value of the filter for each pixel in a region including the target pixel. The filter has different parameters for each region of the image, and the size varies depending on the case. Therefore, the size of the filter also varies depending on the target pixel.

S307では、撮像装置100に設定された条件で撮像された第1の画像データをRAM190から読み出す。本実施例ではこの第1の画像データに含まれる飽和領域の影響を抑制して画像データ全域に対して効果的に回復処理を行うことを目的としている。   In step S <b> 307, first image data captured under the conditions set in the imaging apparatus 100 is read from the RAM 190. The object of the present embodiment is to effectively restore the entire image data while suppressing the influence of the saturated region included in the first image data.

S309では、飽和領域検出処理部(検出手段)133がS305で生成した画像回復フィルタの形状に基づいて第1の画像データに含まれる所定の条件を満たす領域(飽和領域)とその影響範囲を検出し、分布情報としてRAM190に記録する。飽和領域検出処理の詳細については後述する。   In S309, the saturated region detection processing unit (detection unit) 133 detects a region (saturated region) that satisfies a predetermined condition included in the first image data and its affected range based on the shape of the image restoration filter generated in S305. Then, it is recorded in the RAM 190 as distribution information. Details of the saturation region detection processing will be described later.

S311では、補正露出算出部310が第1の画像データに含まれる白とびを抑制するために算出した補正露出量で第1の画像データに次いで連続して撮像した第2の画像データを読み込む。この第2の画像データを得る際の露出量(第2の露出量)は補正露出算出部310で算出する。補正露出算出部310における第2の露出量の算出方法としては、予め設定された補正量で補正露出を決定する方法が考えられる。例えば、第1の画像データを得る際の露出量(第1の露出量)に対して−1段補正した場合、RAWデータとして得られる画素の信号値は、適正露光時の半分の値になる。すなわち、第2の画像データを得る際の第2の露出量は、第1の画像データを得る際の第1の露出量を所定の倍率で(例えば、1/2に)小さくした露出量にする。言い換えれば、通常の撮影に比べて最大二倍の輝度レンジが記録可能になり、白とびを効果的に抑えることが出来る。なお、第2の露出量は、第1の露出量とは異なり、第1の露出量よりも小さい露出量である。また、補正露出算出部310における第2の露出量の算出方法としては、測光部300の測定結果を用いて動的に補正量を決定する方法が考えられる。デジタルカメラの一般的な測光センサは複数の領域に分割されており、個々の領域で測定した結果を得ることが可能である。このうち被写体の最も明るい部分として測定された結果から算出される露出量と第1の画像データを得る際の露出量との差分露出を補正量としてもいい。すなわち、第2の画像データを得る際の第2の露出量は、第1の画像データを得る際の第1の露出量と測光部300の測光結果に基づいて算出される露出量である。なお、像を正しく復元するためには白とびを抑えることが重要であり、白とびを抑えるためには常に露出を下げて撮影する方法も考えられるが、その場合は適正露出に戻すためのゲイン調整によるノイズの増加が目立つ等の問題がある。   In step S311, the corrected exposure calculation unit 310 reads the second image data captured successively after the first image data with the corrected exposure amount calculated to suppress overexposure included in the first image data. The exposure amount (second exposure amount) when obtaining the second image data is calculated by the corrected exposure calculation unit 310. As a second exposure amount calculation method in the corrected exposure calculation unit 310, a method of determining the corrected exposure with a preset correction amount is conceivable. For example, when the exposure amount (first exposure amount) at the time of obtaining the first image data is corrected by −1 step, the signal value of the pixel obtained as the RAW data is a half value at the time of proper exposure. . That is, the second exposure amount at the time of obtaining the second image data is an exposure amount obtained by reducing the first exposure amount at the time of obtaining the first image data by a predetermined magnification (for example, 1/2). To do. In other words, it is possible to record up to twice the luminance range as compared with normal shooting, and it is possible to effectively suppress overexposure. Note that, unlike the first exposure amount, the second exposure amount is an exposure amount that is smaller than the first exposure amount. Further, as a method for calculating the second exposure amount in the corrected exposure calculation unit 310, a method of dynamically determining the correction amount using the measurement result of the photometry unit 300 is conceivable. A general photometric sensor of a digital camera is divided into a plurality of regions, and it is possible to obtain measurement results in individual regions. Of these, the difference exposure between the exposure amount calculated from the result measured as the brightest part of the subject and the exposure amount when obtaining the first image data may be used as the correction amount. That is, the second exposure amount at the time of obtaining the second image data is an exposure amount calculated based on the first exposure amount at the time of obtaining the first image data and the photometric result of the photometry unit 300. In order to restore the image correctly, it is important to suppress overexposure, and in order to suppress overexposure, it is possible to always shoot with a lower exposure. There is a problem that noise increase due to adjustment is conspicuous.

S313では、飽和領域合成処理部134がS309で生成した第1の画像データに含まれる飽和領域の分布情報に基づいて、第1の画像データに含まれる飽和領域の画素の信号値を白とびが抑制された第2の画像データの画素の信号値で置き換えて合成する。すなわち、飽和領域合成処理部(合成手段)は、検出した飽和領域を、撮像デバイス110により第1の露出量よりも小さい第2の露出量で撮像した第2の画像データの信号値に基づく値で置換するように、合成画像データを生成する。そして、第1の画像データの白とびが抑制された合成画像データを出力する。飽和領域合成処理の詳細については後述する。   In S313, based on the distribution information of the saturation region included in the first image data generated by the saturation region synthesis processing unit 134 in S309, the signal value of the pixel in the saturation region included in the first image data is overexposed. It is replaced with the signal value of the pixel of the second image data that has been suppressed and synthesized. That is, the saturation region composition processing unit (combining means) is a value based on the signal value of the second image data obtained by capturing the detected saturation region with the second exposure amount smaller than the first exposure amount by the imaging device 110. The composite image data is generated so as to be replaced by. Then, composite image data in which overexposure of the first image data is suppressed is output. Details of the saturation region synthesis processing will be described later.

S315では、画像回復処理部135がS313で出力した合成画像データに対して、撮影光学系に起因する劣化を回復する画像回復処理を施す。すわなち、画像回復処理部(処理手段)は、合成画像データに対してS305で生成した画像回復フィルタにより画像回復処理を施す。そして、出力部136がその結果をカメラ信号処理部140に出力する。   In S315, the image recovery processing unit 135 performs image recovery processing for recovering the deterioration caused by the photographing optical system on the composite image data output in S313. In other words, the image restoration processing unit (processing unit) performs image restoration processing on the composite image data using the image restoration filter generated in S305. Then, the output unit 136 outputs the result to the camera signal processing unit 140.

次いで、図4を用いてS309で行われる飽和領域検出処理の流れを説明する。図4においてまず、S401で画像回復処理を行う対象である第1の画像データに含まれる飽和画素とその影響範囲を検出した結果である分布情報を保持するためのメモリ領域をRAM190に確保する。   Next, the flow of the saturation region detection process performed in S309 will be described using FIG. In FIG. 4, first, a memory area for holding distribution information, which is a result of detecting saturated pixels included in the first image data to be subjected to image restoration processing and its affected range in S401, is secured in the RAM 190.

S403で、分布情報を記録するための準備としてS401で確保したメモリ領域を0で初期化しておく。   In S403, the memory area secured in S401 is initialized with 0 as a preparation for recording distribution information.

S405で、飽和領域を検出する対象となる第1の画像データをRAM190から読み込む。   In step S <b> 405, first image data that is a target for detecting a saturated region is read from the RAM 190.

S407で、第1の画像データの全画素を走査するための制御変数を初期化する。変数Mには、全画素数値を代入し、ループ変数mには0を代入しておく。   In step S407, control variables for scanning all the pixels of the first image data are initialized. All pixel values are substituted for the variable M, and 0 is substituted for the loop variable m.

S409からS415までが飽和領域を検出するためのループ処理となる。   S409 to S415 are a loop process for detecting a saturation region.

S409では、画像データのm番目の画素を取得する。   In step S409, the mth pixel of the image data is acquired.

S411では、S409で取得した画素の信号値が飽和しているかを判定する。飽和しているか否かは、信号値が所定の値に達しているか否かで判定する。具体的には、飽和の判定は、画像データの量子化ビット精度の最大値と同値が記録されている場合には飽和画素として判定し分布情報の該当画素に1を設定する。S411で注目画素が飽和画素として判定された場合には、S413からS415まで処理し飽和領域の分布情報を更新する。   In S411, it is determined whether the signal value of the pixel acquired in S409 is saturated. Whether or not it is saturated is determined by whether or not the signal value has reached a predetermined value. Specifically, the saturation is determined as a saturated pixel when the same value as the maximum quantization bit precision of the image data is recorded, and 1 is set to the corresponding pixel of the distribution information. If the target pixel is determined as a saturated pixel in S411, the processing from S413 to S415 is performed to update the distribution information of the saturated region.

S413では、m番目の画素の像高に対応する画像回復フィルタを読み込む。画像回復フィルタは、PSFに基づくOTFデータから生成されるが、このPSFは一般的には像高が高いほど点広がり量が大きくなる性質があるため、それに基づく画像回復フィルタの形状も像高毎に異なる。   In S413, an image restoration filter corresponding to the image height of the mth pixel is read. The image restoration filter is generated from OTF data based on the PSF. Since the PSF generally has a property that the amount of point spread increases as the image height increases, the shape of the image restoration filter based on the PSF is also different for each image height. Different.

S415では、飽和画素と判定されたm番目の画素が原因となって回復結果に折り返しや色つきなどの不具合が生じる影響範囲の分布は、S413で読み込んだ画像回復フィルタのタップの大きさに基づいて検出することができる。そのため、この範囲に含まれる画素ついて1を設定することで飽和領域と記録する。このように、本実施例の飽和領域は、第1の画像データの画素の信号値とS413で読み込んだ画像回復フィルタの特性(形状)に基づいて、その範囲が検出される。具体的には、S411で第1の画像データの画素の信号値が飽和しているか否かを判定し、S415で飽和している画素を中心とした画像回復フィルタの面積分の範囲を、飽和領域として検出する。ここでは、m番目の画素が飽和画素であるとして、m番目の画素を中心に画像回復フィルタの面積分の画素に1を設定してこれを飽和領域とする。   In S415, the distribution of the influence range in which a failure such as aliasing or coloring occurs in the recovery result due to the mth pixel determined to be a saturated pixel is based on the tap size of the image recovery filter read in S413. Can be detected. Therefore, a saturated area is recorded by setting 1 for the pixels included in this range. As described above, the saturation region of this embodiment is detected based on the signal value of the pixel of the first image data and the characteristics (shape) of the image restoration filter read in S413. Specifically, in S411, it is determined whether or not the signal value of the pixel of the first image data is saturated. In S415, the range corresponding to the area of the image restoration filter centering on the saturated pixel is saturated. Detect as a region. Here, assuming that the mth pixel is a saturated pixel, 1 is set to the pixels corresponding to the area of the image restoration filter with the mth pixel as the center, and this is set as the saturated region.

S411で注目画素が飽和画素ではないと判定された場合には、S417でループ変数mと全画素数を表す変数Mを比較する。S417の比較結果から、全画素について処理が行われた場合には処理を終了する。残りの画素がある場合にはS419でループ変数を1増やし、S409からS415の処理を画像全域において処理するまで繰り返す。   If it is determined in S411 that the target pixel is not a saturated pixel, the loop variable m and the variable M representing the total number of pixels are compared in S417. From the comparison result of S417, when the process is performed for all the pixels, the process ends. If there are remaining pixels, the loop variable is incremented by 1 in S419, and the processing from S409 to S415 is repeated until the entire image is processed.

次いで、飽和領域合成処理部134が行う合成処理の流れについて図5を用いて説明する。   Next, the flow of synthesis processing performed by the saturated region synthesis processing unit 134 will be described with reference to FIG.

S501では、飽和領域検出処理部133で作成した第1の画像データに含まれる飽和領域の分布情報を読み込む。   In S501, the distribution information of the saturated region included in the first image data created by the saturated region detection processing unit 133 is read.

S503、S505では、第1の画像データと補正露出量で白とびを抑制して撮影された第2の画像データとを読み込む。   In S503 and S505, the first image data and the second image data photographed with the overexposure suppressed by the corrected exposure amount are read.

合成処理の準備処理として第2の画像データに対して、第1の画像データとの露出量の差分だけゲイン処理を行う必要がある。   As preparatory processing for composition processing, it is necessary to perform gain processing for the second image data by the difference in exposure amount from the first image data.

S507では、補正露出算出部310が算出した補正露出量を取得する。   In S507, the corrected exposure amount calculated by the corrected exposure calculation unit 310 is acquired.

S509では、補正露出分のゲイン処理を第2の画像データに適用する。すなわち、第1の露出量と第2の露出量との差分に基づいて第2の画像データに対してゲイン処理を施す。この時、ゲイン処理された第2の画像データのなかに量子化ビット精度の最大値を超える信号値となる画素が生じるが、ここではクリップしない。量子化ビット精度の最大値を超える信号値は、飽和画素の本来の信号値とみなすことができるため、これらの画素の信号値を使用して、第1の画像データで白とびし階調情報が記録されなかった部分の画素の信号値を続く合成処理で補っていく。   In step S509, the gain processing for the corrected exposure is applied to the second image data. That is, gain processing is performed on the second image data based on the difference between the first exposure amount and the second exposure amount. At this time, a pixel having a signal value exceeding the maximum value of quantization bit accuracy is generated in the gain-processed second image data, but is not clipped here. Since the signal value exceeding the maximum value of the quantization bit accuracy can be regarded as the original signal value of the saturated pixel, the signal value of these pixels is used to perform overexposed gradation information in the first image data. The signal value of the pixel in the portion where no is recorded is supplemented by subsequent synthesis processing.

S511で、第1の画像データの全画素を走査するための制御変数を初期化する。変数Mには、全画素数値を代入し、ループ変数mには0を代入しておく。   In step S511, a control variable for scanning all the pixels of the first image data is initialized. All pixel values are substituted for the variable M, and 0 is substituted for the loop variable m.

S513からS517までが飽和領域を検出するためのループ処理となる。   S513 to S517 are a loop process for detecting the saturation region.

S513では、飽和領域の分布情報のm番目の画素を取得する。   In S513, the m-th pixel of the distribution information of the saturation region is acquired.

S515では、S513で取得した値が飽和領域を意味する1であった場合には、S517で第1の画像データの該当画素を第2の画像データの画素の信号値で置換する。   In S515, if the value acquired in S513 is 1, which means a saturation region, the corresponding pixel of the first image data is replaced with the signal value of the pixel of the second image data in S517.

S515で、S513で取得した値が飽和領域ではないことを意味する0であった場合には、S519でループ変数mと全画素数を表す変数Mを比較する。S519の比較結果から、全画素について処理が行われた場合には処理を終了する。残りの画素がある場合にはS521でループ変数を1増やし、S513からS517の処理を画像全域について処理するまで繰り返して結果の合成画像データを画像回復処理部135に出力する。   In S515, if the value acquired in S513 is 0, which means that it is not the saturation region, the loop variable m is compared with the variable M representing the total number of pixels in S519. From the comparison result of S519, when the process is performed for all the pixels, the process ends. If there are remaining pixels, the loop variable is incremented by 1 in S521, and the processing of S513 to S517 is repeated until the entire image is processed, and the resultant synthesized image data is output to the image restoration processing unit 135.

画像回復処理部135では、飽和領域合成処理部134が出力した合成画像データに対して、回復フィルタ生成処理部132で生成した画像回復フィルタを適用し、光学系に起因する画質の劣化を復元する。ここで行う復元処理は、画像回復フィルタを用いる一般的な復元処理である。しかし、本実施例では、復元処理の前段において画像データの白とびして真の画素の信号値が得られない飽和画素及びその影響領域において、異なる露出で撮影された画像に対してゲイン処理して画素の信号値を置き換えている。該置き換えた部分については、出力ビットの最大レベルを超えているので画像回復処理後に出力の最大レベルでクリップする。   In the image restoration processing unit 135, the image restoration filter generated by the restoration filter generation processing unit 132 is applied to the composite image data output from the saturated region synthesis processing unit 134, and image quality degradation caused by the optical system is restored. . The restoration process performed here is a general restoration process using an image restoration filter. However, in this embodiment, gain processing is performed on images captured with different exposures in saturated pixels in which the image data is overexposure and the true pixel signal value cannot be obtained in the previous stage of the restoration processing and in the affected area. The pixel signal value is replaced. Since the replaced portion exceeds the maximum output bit level, it is clipped at the maximum output level after the image restoration processing.

以上、説明したように本実施形態によれば、従来は白とび画素とその周辺領域に対して画像回復フィルタを適用することによる不具合が生じるために効果を抑制し、劣化したままとなっていた領域についても劣化を復元することが出来る。つまり、白とび領域とその周辺領域についても復元効果を抑制することなく撮像光学系に起因する画質劣化を低減することができる。   As described above, according to the present embodiment as described above, since the problem caused by applying the image restoration filter to the overexposed pixel and its peripheral region occurs, the effect is suppressed and the deterioration remains. Degradation can also be restored for the region. That is, it is possible to reduce image quality deterioration caused by the imaging optical system without suppressing the restoration effect for the overexposed region and the surrounding region.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included.

上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。   The present invention is also applicable to a case where a software program that realizes the functions of the above-described embodiments is supplied directly from a recording medium to a system or apparatus having a computer that can execute the program using wired / wireless communication, and the program is executed. Included in the invention.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するための手順が記述されたコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the present invention includes a computer program itself in which a procedure for realizing the functional processing of the present invention is described.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS. As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used.

また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。   As a program supply method, a computer program that forms the present invention is stored in a server on a computer network, and a connected client computer downloads and programs the computer program.

本発明は、コンパクトデジタルカメラ、一眼レフカメラ、ビデオカメラなどの撮像装置に好適に利用できる。   The present invention can be suitably used for an imaging apparatus such as a compact digital camera, a single-lens reflex camera, and a video camera.

132 回復フィルタ生成処理部
133 飽和領域の検出処理部
134 飽和領域合成処理部
135 画像回復処理部
132 Recovery filter generation processing unit 133 Saturation region detection processing unit 134 Saturation region synthesis processing unit 135 Image recovery processing unit

Claims (14)

第1の露出量で撮像した第1の画像データを出力する撮像手段の撮影条件に基づいて、画像回復フィルタを生成する生成手段と、
前記第1の画像データの所定の条件を満たす領域を検出する検出手段と、
前記検出手段により検出した前記領域の画素の信号値を、前記撮像手段により前記第1の露出量よりも小さい第2の露出量で撮像した第2の画像データの信号値に基づく値で置換するように、合成画像データを生成する合成手段と、
前記合成画像データに対して前記画像回復フィルタにより画像回復処理を施す処理手段と、
を有することを特徴とする画像処理装置。
Generating means for generating an image restoration filter based on imaging conditions of an imaging means for outputting first image data imaged with a first exposure amount;
Detecting means for detecting a region satisfying a predetermined condition of the first image data;
The signal value of the pixel in the region detected by the detection unit is replaced with a value based on the signal value of the second image data captured by the imaging unit with a second exposure amount smaller than the first exposure amount. A compositing means for generating composite image data,
Processing means for performing image restoration processing on the composite image data by the image restoration filter;
An image processing apparatus comprising:
前記第2の露出量は、前記第1の露出量と所定の倍率に基づいて算出される露出量であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second exposure amount is an exposure amount calculated based on the first exposure amount and a predetermined magnification. 被写体の照度を測る測光手段を有し、
前記第2の露出量は、前記第1の露出量と前記測光手段の測光結果に基づいて算出される露出量であることを特徴とする請求項1に記載の画像処理装置。
A photometric means for measuring the illuminance of the subject,
The image processing apparatus according to claim 1, wherein the second exposure amount is an exposure amount calculated based on the first exposure amount and a photometric result of the photometric unit.
前記検出手段は、前記画像回復フィルタの形状と前記第1の画像データの信号値に基づいて、前記領域を検出することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。   4. The image processing according to claim 1, wherein the detection unit detects the region based on a shape of the image restoration filter and a signal value of the first image data. 5. apparatus. 前記検出手段は、前記第1の画像データの信号値が飽和しているか否かを判定し、該飽和している信号値の画素を中心とした前記画像回復フィルタの面積分の範囲を、前記領域として検出することを特徴とする請求項4に記載の画像処理装置。   The detection means determines whether or not the signal value of the first image data is saturated, and a range corresponding to the area of the image restoration filter centering on a pixel of the saturated signal value, The image processing apparatus according to claim 4, wherein the image processing apparatus is detected as a region. 前記検出手段は、前記第1の画像データにおける飽和している信号値の画素を前記領域に含めることを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit includes a pixel having a saturated signal value in the first image data in the region. 前記検出手段は、前記第1の画像データにおける前記飽和している信号値の画素、および、該画素の位置に対応する前記画像回復フィルタの形状に基づいて、前記領域を検出することを特徴とする請求項6に記載の画像処理装置。   The detection means detects the region based on a pixel of the saturated signal value in the first image data and a shape of the image restoration filter corresponding to the position of the pixel. The image processing apparatus according to claim 6. 前記検出手段は、信号値が所定の値に達している画素を、前記飽和している信号値の画素と判定することを特徴とする請求項5ないし7のいずれか1項に記載の画像処理装置。   The image processing according to any one of claims 5 to 7, wherein the detection unit determines that a pixel having a signal value reaching a predetermined value is a pixel having the saturated signal value. apparatus. 前記合成手段は、前記第1の露出量と前記第2の露出量との差分に基づいて前記第2の画像データに対してゲイン処理を行うことを特徴とする請求項1ないし8のいずれか1項に記載の画像処理装置。   9. The method according to claim 1, wherein the synthesizing unit performs a gain process on the second image data based on a difference between the first exposure amount and the second exposure amount. The image processing apparatus according to item 1. 前記撮像手段が撮像した画像データと前記画像データを撮像した際の撮影条件とを取得する取得手段を有することを特徴とする請求項1ないし9のいずれか1項に記載の画像処理装置。   10. The image processing apparatus according to claim 1, further comprising an acquisition unit configured to acquire image data captured by the imaging unit and a shooting condition when the image data is captured. 撮像手段と、
請求項1ないし10のいずれか1項に記載の画像処理装置と、を備えることを特徴とする撮像装置。
Imaging means;
An image processing apparatus comprising: the image processing apparatus according to claim 1.
第1の露出量で撮像した第1の画像データを出力する撮像手段の撮影条件に基づいて、画像回復フィルタを生成する生成ステップと、
前記第1の画像データの所定の条件を満たす領域を検出する検出ステップと、
前記検出ステップにより検出した前記領域の画素の信号値を、前記撮像手段により前記第1の露出量よりも小さい第2の露出量で撮像した第2の画像データの信号値に基づく値で置換するように、合成画像データを生成する合成ステップと、
前記合成画像データに対して前記画像回復フィルタにより画像回復処理を施す処理ステップと、
を有することを特徴とする画像処理方法。
A generation step of generating an image restoration filter based on the imaging condition of the imaging means for outputting the first image data captured with the first exposure amount;
A detection step of detecting a region satisfying a predetermined condition of the first image data;
The signal value of the pixel in the region detected by the detection step is replaced with a value based on the signal value of the second image data captured by the imaging unit with the second exposure amount smaller than the first exposure amount. A compositing step for generating composite image data,
A processing step of applying an image restoration process to the composite image data by the image restoration filter;
An image processing method comprising:
請求項12に記載の画像処理方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which the procedure of the image processing method according to claim 12 is described. コンピュータに、請求項12に記載の画像処理方法の各ステップを実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the image processing method according to claim 12.
JP2014120450A 2014-06-11 2014-06-11 Image processing apparatus, imaging apparatus, image processing method, program, and storage medium Pending JP2016001782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014120450A JP2016001782A (en) 2014-06-11 2014-06-11 Image processing apparatus, imaging apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014120450A JP2016001782A (en) 2014-06-11 2014-06-11 Image processing apparatus, imaging apparatus, image processing method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2016001782A true JP2016001782A (en) 2016-01-07

Family

ID=55077188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120450A Pending JP2016001782A (en) 2014-06-11 2014-06-11 Image processing apparatus, imaging apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2016001782A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020119454A1 (en) * 2018-12-12 2020-06-18 华为技术有限公司 Method and apparatus for color reproduction of image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020119454A1 (en) * 2018-12-12 2020-06-18 华为技术有限公司 Method and apparatus for color reproduction of image

Similar Documents

Publication Publication Date Title
JP7145208B2 (en) Method and Apparatus and Storage Medium for Dual Camera Based Imaging
JP5445363B2 (en) Image processing apparatus, image processing method, and image processing program
JP5719418B2 (en) High dynamic range image exposure time control method
US20110128422A1 (en) Image capturing apparatus and image processing method
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
CN108024054A (en) Image processing method, device and equipment
JP6587380B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
US20140218384A1 (en) Image processing apparatus and control method thereof
US9071766B2 (en) Image capturing apparatus and control method thereof
US10244155B2 (en) Image capturing apparatus
JP5411786B2 (en) Image capturing apparatus and image integration program
JP2017011327A (en) Image processing apparatus, image processing method, and program
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
WO2019124289A1 (en) Device, control method, and storage medium
JP6316043B2 (en) Apparatus, method, and program
JP7051365B2 (en) Image processing equipment, image processing methods, and programs
JP2016001782A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2016127505A (en) Image processing apparatus and image processing method
JP6333076B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7709482B2 (en) Image processing device and method, imaging device, program, and storage medium
JP2016010080A (en) Image processing apparatus, image processing method, and program
JP2016005246A (en) Image processing apparatus, image display apparatus, image processing method, program, and storage medium
JP2015109562A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6468791B2 (en) Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program
JP6849351B2 (en) Image processing equipment, image processing methods, and programs