JP2017010093A - Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium - Google Patents
Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium Download PDFInfo
- Publication number
- JP2017010093A JP2017010093A JP2015121678A JP2015121678A JP2017010093A JP 2017010093 A JP2017010093 A JP 2017010093A JP 2015121678 A JP2015121678 A JP 2015121678A JP 2015121678 A JP2015121678 A JP 2015121678A JP 2017010093 A JP2017010093 A JP 2017010093A
- Authority
- JP
- Japan
- Prior art keywords
- blur
- estimation
- estimated
- blurs
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、単一のぼけ画像から、ぼけ画像に作用している劣化成分であるぼけを推定する画像処理方法に関する。 The present invention relates to an image processing method for estimating blur, which is a degradation component acting on a blurred image, from a single blurred image.
近年、表示装置の高精細化に伴い、撮影画像の高画質化が望まれている。撮影画像においては、撮影に用いられる光学系の収差や回折、または、撮影時の手ぶれなどの劣化要因により、被写体空間の情報が失われている。このため従来から、これらの要因に基づく撮影画像の劣化を補正し、より高画質な画像を得る手法が提案されている。そのような手法として、例えば、WienerフィルタやRichardson−Lucy法などが挙げられる。しかし、これらの手法では、画像に作用している劣化成分(ぼけ)が既知でない場合、高い補正効果を得ることができない。 In recent years, with higher definition of display devices, higher quality of captured images is desired. In the photographed image, information on the subject space is lost due to deterioration factors such as aberration and diffraction of an optical system used for photographing or camera shake during photographing. For this reason, conventionally, a method has been proposed in which deterioration of a captured image based on these factors is corrected to obtain a higher quality image. Examples of such a method include a Wiener filter and a Richardson-Lucy method. However, with these methods, when the deterioration component (blur) acting on the image is not known, a high correction effect cannot be obtained.
一方、従来から、手ぶれ(ぼけの一種)により劣化した一枚の画像から手ぶれ成分を推定する手法が提案されている。特許文献1には、手ぶれにより劣化した一枚の画像から、既知である自然画像の強度勾配分布に関する統計情報を用いることにより、手ぶれ成分を推定する手法が開示されている。ここで自然画像とは、近代の人間が生活する上で自然と目にするような画像という意味である。このため自然画像は、樹木や動物などが写った画像に限定されるものではなく、人間、建築物、電子機器などが写った画像も含まれる。自然画像の性質として、信号の強度勾配に関するヒストグラム(強度勾配ヒストグラム)は、勾配の強さに応じて裾の重い分布(Heavy Tailed Distribution)に従うことが知られている。特許文献1には、手ぶれが補正された画像の強度勾配ヒストグラムが、裾の重い分布に従うように制約をかけることにより、手ぶれ画像のみから手ぶれ補正画像を推定する手法が開示されている。そして、その手ぶれ補正画像と手ぶれ画像との比較結果に基づいて、ぶれ成分が推定される。このときのぶれ成分の推定精度は、手ぶれ画像内にエッジが多く含まれているほど上昇する。 On the other hand, a method for estimating a camera shake component from a single image deteriorated due to camera shake (a type of blur) has been proposed. Patent Document 1 discloses a method for estimating a camera shake component by using statistical information related to a known intensity gradient distribution of a natural image from a single image deteriorated by camera shake. Here, the natural image means an image that is seen naturally by a modern human being. For this reason, the natural image is not limited to an image showing a tree or an animal, but includes an image showing a person, a building, an electronic device, or the like. As a nature of a natural image, it is known that a histogram related to the intensity gradient of a signal (intensity gradient histogram) follows a heavy tailed distribution according to the intensity of the gradient. Patent Document 1 discloses a method for estimating a camera shake correction image from only a camera shake image by constraining the intensity gradient histogram of the image with the camera shake corrected to follow a heavy distribution. Then, a shake component is estimated based on a comparison result between the camera shake correction image and the camera shake image. At this time, the blur component estimation accuracy increases as more edges are included in the hand shake image.
特許文献2には、ノイズを含む手ぶれ画像から、高精度に手ぶれを推定する手法が開示されている。この手法では、手ぶれ画像に1次元方向のデノイジングフィルタを作用させ、その方向のノイズを低減してから手ぶれを推定する。そして、推定した手ぶれをデノイジングフィルタと平行な方向に積分(Radon変換)して、1次元の手ぶれを生成する。この作業を様々な方向に関して行って1次元の手ぶれを複数取得し、それらを逆Radon変換することにより、ノイズの少ない2次元の手ぶれを推定することができる。 Patent Document 2 discloses a technique for estimating camera shake with high accuracy from a camera shake image including noise. In this method, a denoising filter in a one-dimensional direction is applied to a camera shake image, noise in that direction is reduced, and camera shake is estimated. Then, the estimated camera shake is integrated (Radon transform) in a direction parallel to the denoising filter to generate a one-dimensional camera shake. By performing this operation in various directions to obtain a plurality of one-dimensional camera shakes and performing inverse Radon transform on them, it is possible to estimate two-dimensional camera shakes with less noise.
しかしながら、従来の手法では、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して行うことができない。ぼけ画像にはノイズが含まれているため、そこから推定されたぼけにもノイズが混じってしまう。高精度なぼけの推定のためには、推定したぼけのノイズを如何に低減するかが重要となる。 However, with the conventional method, it is impossible to perform highly accurate denoising of the estimated blur while suppressing an increase in the amount of calculation. Since the blurred image includes noise, the noise estimated from the blurred image is also mixed with noise. In order to estimate blur with high accuracy, it is important how to reduce the noise of the estimated blur.
特許文献1では、推定した手ぶれのデノイジングにハード閾値法(Hard Thresholding)が用いられている。この手法では、所定の強度(閾値)以下である成分の強度を0とするため、ノイズとともに手ぶれ本来の弱い成分も同時に消してしまうという問題がある。特許文献2の手法では、推定した1次元の手ぶれから2次元の手ぶれを再構成する必要がある。このため、1次元の手ぶれを非常に多く(落とした次元に含まれる成分と同程度、またはそれ以上)生成しなければならない。少数の1次元手ぶれでは、再構成の精度が大きく低下し、または、アーティファクトが発生してしまう。このため、デノイジングされた手ぶれ推定のための計算量が大きくなるという問題がある。 In Patent Document 1, a hard threshold method is used for denoising of estimated camera shake. In this method, since the intensity of a component that is equal to or lower than a predetermined intensity (threshold) is set to 0, there is a problem that a weak component that is inherent to camera shake is erased simultaneously with noise. In the method of Patent Document 2, it is necessary to reconstruct a two-dimensional camera shake from the estimated one-dimensional camera shake. For this reason, a very large amount of one-dimensional camera shake (similar to or more than the components included in the dropped dimension) must be generated. With a small number of one-dimensional camera shake, the accuracy of reconstruction is greatly reduced, or artifacts are generated. For this reason, there is a problem that the amount of calculation for estimating the denominated camera shake becomes large.
そこで本発明は、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して実行可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供する。 Therefore, the present invention provides an image processing device, an imaging device, an image processing method, an image processing program, and a storage medium that can execute denoising with high accuracy that is estimated blurring while suppressing an increase in calculation amount.
本発明の一側面としての画像処理装置は、ぼけ画像における少なくとも一部のぼけ推定領域を取得し、該ぼけ推定領域から複数の2次元の推定ぼけを生成する生成手段と、前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するデノイジング手段とを有し、前記生成手段は、前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、前記ぼけ推定領域として決定された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する。 An image processing apparatus according to one aspect of the present invention includes: a generation unit that acquires at least a part of a blur estimation region in a blur image, and generates a plurality of two-dimensional estimation blurs from the blur estimation region; Denoising means for generating a two-dimensional noise reduction estimated blur by performing a denoising process using the estimated blur of the image while maintaining the number of dimensions of the estimated blur, and the generating means includes a signal in the blur estimation area. Iterating to repeat correction processing for correcting blur included in information related to generating correction signal information, and estimation processing for estimating two-dimensional blur based on the signal information and the correction signal information Performing arithmetic processing to generate the plurality of two-dimensional estimated blurs, using a plurality of regions determined as the blur estimation regions, or in the iterative arithmetic processing Using different multiple arithmetic expression to have to generate the plurality of two-dimensional estimation blurring, respectively.
本発明の他の側面としての撮像装置は、光学系を介して形成された光学像を光電変換して画像信号を出力する撮像素子と、前記画像信号に基づいて生成されたぼけ画像における少なくとも一部のぼけ推定領域を取得し、該ぼけ推定領域から複数の2次元の推定ぼけを生成する生成手段と、前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するデノイジング手段とを有し、前記生成手段は、前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、前記ぼけ推定領域として決定された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する。 An imaging device according to another aspect of the present invention includes an imaging device that photoelectrically converts an optical image formed through an optical system and outputs an image signal, and at least one of a blurred image generated based on the image signal. Generating a plurality of two-dimensional estimation blurs from the blur estimation region, and maintaining the number of dimensions of the estimation blur using the plurality of two-dimensional estimation blurs. Denoising means for performing a denoising process and generating a two-dimensional noise reduction estimation blur, and the generation means corrects the blur included in the information about the signal in the blur estimation area and generates information about the correction signal. The plurality of two-dimensional processes are performed by performing an iterative calculation process that repeats a correction process, an estimation process for estimating a two-dimensional blur based on information on the signal and information on the correction signal. Generate an estimated blur, and generate each of the plurality of two-dimensional estimated blurs using a plurality of regions determined as the blur estimation region, or using a plurality of arithmetic expressions different from each other in the iterative calculation process. .
本発明の他の側面としての画像処理方法は、ぼけ画像における少なくとも一部のぼけ推定領域を取得し、該ぼけ推定領域から複数の2次元の推定ぼけを生成するステップと、前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するステップとを有し、前記複数の2次元の推定ぼけを生成するステップにおいて、前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、前記ぼけ推定領域として決定された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する。 According to another aspect of the present invention, there is provided an image processing method, comprising: obtaining at least a part of a blur estimation region in a blur image; generating a plurality of two-dimensional estimation blurs from the blur estimation region; Generating a two-dimensional noise reduction estimated blur by performing a denoising process using the estimated blur of the image while maintaining the number of dimensions of the estimated blur, and generating the plurality of two-dimensional estimated blurs. The correction processing for correcting the blur included in the information on the signal in the blur estimation region to generate information on the correction signal, and estimating the two-dimensional blur based on the information on the signal and the information on the correction signal Generating a plurality of two-dimensional estimated blurs by performing an iterative calculation process that repeats the estimation process, and using the plurality of regions determined as the blur estimation regions, Other uses the iterative processing a plurality of different calculation formula to generate the plurality of two-dimensional estimation blurring, respectively.
本発明の他の側面としてのプログラムは、ぼけ画像における少なくとも一部のぼけ推定領域を取得し、該ぼけ推定領域から複数の2次元の推定ぼけを生成するステップと、前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するステップと、をコンピュータに実行させるように構成された画像処理プログラムであって、前記複数の2次元の推定ぼけを生成するステップにおいて、前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、前記ぼけ推定領域として決定された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する。 According to another aspect of the present invention, there is provided a program for acquiring at least a part of a blur estimation region in a blur image, generating a plurality of two-dimensional estimation blurs from the blur estimation region, and the plurality of two-dimensional estimations. An image processing program configured to cause a computer to perform a denoising process using blur to maintain a number of dimensions of the estimated blur and generate a two-dimensional noise reduction estimated blur, In the step of generating the plurality of two-dimensional estimated blurs, a correction process for correcting blur included in the information related to the signal in the blur estimation region to generate information related to the correction signal, the information related to the signal, and the correction signal An estimation process for estimating a two-dimensional blur based on the information, and an iterative calculation process for repeating the plurality of two-dimensional estimation blurs Generated by using a plurality of regions determined as the blur estimation region, or, using the iterative processing a plurality of different calculation formula to generate the plurality of two-dimensional estimation blurring, respectively.
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。 A storage medium according to another aspect of the present invention stores the program.
本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the present invention are illustrated in the following examples.
本発明によれば、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して実行可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。 According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, an image processing program, and a storage medium capable of executing highly accurate denoising of estimated blur while suppressing an increase in calculation amount. Can do.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.
本実施形態において、被写体空間の情報を劣化させる要因を「ぼけ」と総称するが、ぼけの要因としては、回折、収差、デフォーカス、ぶれ、および、擾乱が含まれる。本実施形態を説明する前に、これらのぼけの要因について詳述する。 In the present embodiment, the factors that degrade the information of the subject space are collectively referred to as “blur”, but the factors of blur include diffraction, aberration, defocus, blurring, and disturbance. Before describing the present embodiment, these blurring factors will be described in detail.
回折とは、画像を撮影した撮像装置の光学系で発生する、回折に起因する劣化である。これは、光学系の開口径が有限であるために生じる。 Diffraction is degradation caused by diffraction, which occurs in the optical system of the imaging device that captured the image. This occurs because the aperture diameter of the optical system is finite.
収差とは、光学系で発生する理想波面からのずれに起因する劣化である。光学系の設計値により発生する収差を設計収差、光学系の製造誤差や環境変化により発生する収差を誤差収差と呼ぶ。環境変化とは、温度、湿度、気圧などの変化を示し、これらの変化に応じて光学系の性能も変化する。単に収差という場合、設計収差および誤差収差の両方が含まれる。 Aberration is deterioration caused by deviation from an ideal wavefront generated in an optical system. Aberrations that occur due to design values of the optical system are called design aberrations, and aberrations that occur due to optical system manufacturing errors and environmental changes are called error aberrations. The environmental change indicates changes in temperature, humidity, atmospheric pressure, etc., and the performance of the optical system also changes in accordance with these changes. When referring simply to aberrations, both design aberrations and error aberrations are included.
デフォーカスとは、光学系の焦点と被写体とが合致しないことに起因する劣化である。デフォーカスが画像の全体に及ぶものをピントずれ、デフォーカスが画像の一部のみであるものをデフォーカスぼけと呼ぶ。具体的は、デフォーカスぼけとは、画像内に異なる距離の主要被写体と背景とが存在し、主要被写体に合焦していた場合において、背景の情報を劣化させている成分をいう。この劣化の大きさは、背景がどれだけ主要被写体から奥行き方向に離れているかに依存して変化する。デフォーカスぼけは、例えば、画像内の主要被写体を際立たせる表現方法として用いられる。単にデフォーカスという場合、ピントずれとデフォーカスぼけとの両方が含まれる。 Defocus is deterioration caused by the fact that the focus of the optical system and the subject do not match. A case where defocusing extends over the entire image is called out-of-focus, and a case where defocusing is only part of the image is called defocusing blur. Specifically, defocus blur refers to a component that degrades background information when the main subject and background at different distances exist in the image and the main subject is in focus. The magnitude of this degradation varies depending on how far the background is from the main subject in the depth direction. Defocus blur is used, for example, as an expression method that makes a main subject in an image stand out. In the case of simply defocusing, both defocusing and defocus blur are included.
ぶれとは、撮影の際、露光中に被写体と撮像装置との間の相対関係(位置および角度)が変化することにより生じる劣化である。ぶれのうち、画像の全体を劣化させるものを手ぶれ、画像の一部が劣化するものを被写体ぶれと呼ぶ。単にぶれという場合、手ぶれおよび被写体ぶれの両方が含まれる。 The blur is deterioration caused by a change in the relative relationship (position and angle) between the subject and the imaging apparatus during exposure during shooting. Among the blurs, those that degrade the entire image are called camera shakes, and those that partially degrade the image are called subject blurs. In the case of simply blurring, both camera shake and subject blur are included.
擾乱とは、撮影中に被写体と撮像装置との間に存在する物質が揺らぐことにより生じる劣化である。例えば、大気の揺らぎや水中撮影における水の揺らぎが挙げられる。短秒露光中に擾乱が発生している場合、ぼけ画像では被写体空間の直線が揺らめいた曲線になる。この曲がりを補正するため、擾乱成分の異なる複数のフレーム(または連写)画像を合成することがある。しかし、このような合成処理では、エッジの曲がりを補正することができても、周波数成分の劣化は残存する。ここで取り扱うぼけ画像は、1回の露光中に擾乱に伴う周波数成分の劣化が起きた画像(長秒露光画像)だけでなく、前述のような複数フレーム(または連写)の画像を合成した画像を含む。 Disturbance is deterioration caused by fluctuation of a substance existing between a subject and an imaging device during photographing. For example, atmospheric fluctuations and water fluctuations in underwater photography can be mentioned. When disturbance occurs during short-second exposure, the straight line in the subject space becomes a curved curve in the blurred image. In order to correct this bending, a plurality of frame (or continuous shooting) images having different disturbance components may be synthesized. However, in such a synthesis process, even if the edge curvature can be corrected, the deterioration of the frequency component remains. The blurred image handled here is not only an image (long-second exposure image) in which the degradation of the frequency component due to the disturbance occurred during one exposure, but also a composite of multiple frames (or continuous shots) as described above. Includes images.
本実施形態において、点像強度分布はPSF(Point Spread Function)と記す。また本実施形態において、モノクロ画像に対する処理について説明するが、多次元(例えばRGB)画像にも同様に適用可能であり、RGBの各チャンネルで処理を行えばよい。チャンネル間における差がない、または無視できる程度のぼけでは、チャンネル数を減らして(RGBをモノクロ化するなど)、処理しても構わない。各チャンネルが異なる波長を取得している場合、チャンネル間における差がないぼけとしては、ぶれが挙げられる。 In the present embodiment, the point image intensity distribution is referred to as PSF (Point Spread Function). In this embodiment, processing for a monochrome image will be described. However, the present invention can be similarly applied to a multidimensional (for example, RGB) image, and processing may be performed for each of RGB channels. If there is no difference between channels or the blur is negligible, the number of channels may be reduced (eg, RGB is converted into monochrome) and processed. When each channel acquires a different wavelength, blurring is an example of a blur that has no difference between channels.
一方、収差、回折、デフォーカス、および、擾乱は、波長に依存してぼけが変化する。ここでデフォーカスに関しては、ピント位置から大きく離れていても、軸上色収差の影響で波長によってぼけの広がりが変わる。しかし、これらの波長依存性を有するぼけに対しても、撮影に用いる撮像素子のサンプリング周波数に対して、チャンネル間の性能差が充分に小さければ、チャンネル間の差が無視できると考えてよい。ただし、これらチャンネル間における差が無視できるぼけを推定する場合、前述のチャンネル数を減らす処理を行うよりも、複数のチャンネルのままで1つのぼけを推定することが望ましい。ぼけの推定は、画像の信号勾配に関する情報を用いて行うため、その情報が多いほど推定精度が向上する。すなわち、チャンネル数を減らさずに複数の画像で推定したほうが、信号勾配の情報が増加する(ただし、各チャンネルの画像がそれぞれの比例倍に一致する場合、信号勾配の情報は増加しない)ため、ぼけをより高精度に推定することができる。また本実施形態では、チャンネルが異なる波長を撮影する例を挙げているが、それ以外のパラメータ(偏光など)でも同様に考えればよい。 On the other hand, the aberration, diffraction, defocus, and disturbance change in blur depending on the wavelength. Here, with regard to defocusing, even if it is far away from the focus position, the spread of blur varies depending on the wavelength due to the influence of axial chromatic aberration. However, even for these blurs having wavelength dependency, if the performance difference between channels is sufficiently small with respect to the sampling frequency of the image sensor used for imaging, it may be considered that the difference between channels can be ignored. However, when estimating blur where the difference between these channels can be ignored, it is preferable to estimate one blur with a plurality of channels, rather than performing the above-described process of reducing the number of channels. Since blur estimation is performed using information related to the signal gradient of the image, the estimation accuracy improves as the information increases. In other words, signal gradient information increases when estimating with multiple images without reducing the number of channels (however, if the images of each channel match their proportional multiples, the signal gradient information does not increase) The blur can be estimated with higher accuracy. In the present embodiment, an example in which wavelengths with different channels are photographed is given, but other parameters (polarized light, etc.) may be considered in the same manner.
ここで、具体的な実施例を説明する前に、本実施形態の簡単な概要について説明する。ぼけ画像から、ぼけを推定するためのぼけ推定領域を取得し、ぼけ推定領域内における信号勾配と、信号勾配のぼけが補正された補正信号勾配とを比較することにより、推定ぼけを生成する。このとき、ぼけ推定領域内にノイズが含まれると、その影響により推定ぼけにもノイズが発生する。そこで本実施形態では、略同じ位置に存在する複数のぼけ推定領域を取得して、複数の推定ぼけを生成する。または、1つのぼけ推定領域に対して、互いに異なる演算式(互いに異なる処理または互いに異なるパラメータ)を用いて複数の推定ぼけを生成する。ただし、複数のぼけ推定領域を取得し、さらに異なる処理またはパラメータを用いることで、複数の推定ぼけを生成しても構わない。 Here, before describing specific examples, a brief overview of the present embodiment will be described. A blur estimation area for estimating blur is obtained from the blur image, and an estimated blur is generated by comparing a signal gradient in the blur estimation area with a corrected signal gradient in which the blur of the signal gradient is corrected. At this time, if noise is included in the blur estimation area, noise is also generated in the estimated blur due to the influence. Therefore, in the present embodiment, a plurality of blur estimation regions existing at substantially the same position are acquired, and a plurality of estimated blurs are generated. Alternatively, a plurality of estimated blurs are generated using different arithmetic expressions (different processes or different parameters) for one blur estimation region. However, a plurality of estimated blurs may be generated by acquiring a plurality of blur estimation regions and using different processes or parameters.
このように生成された推定ぼけに関して、ぼけの成分は略同じ値を有するが、互いにノイズの出方が異なる。このため、複数の推定ぼけを用いる(例えば、複数の推定ぼけを平均化する)ことにより、デノイジングされたノイズ低減推定ぼけを取得することができる。この手法では、次元数を低下させる処理を含まない(同一の次元数で処理を行う)ため、少ない数(例えば、2つや3つ)の推定ぼけからでも、ノイズ低減推定ぼけを取得することができる。このため、従来の手法と比べて、計算量の増大を抑制する(または、計算量を低減する)ことができる。 Regarding the estimated blur generated in this way, the blur components have substantially the same value, but the noises are different from each other. Therefore, by using a plurality of estimated blurs (for example, averaging a plurality of estimated blurs), it is possible to obtain a denoising noise reduction estimated blur. Since this method does not include processing for reducing the number of dimensions (processing is performed with the same number of dimensions), noise reduction estimated blur can be obtained even from a small number (for example, two or three) of estimated blurs. it can. For this reason, compared with the conventional method, the increase in calculation amount can be suppressed (or the calculation amount can be reduced).
まず、図2および図3を参照して、本発明の実施例1における画像処理システムについて説明する。図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。本実施例の画像処理システム100は、複数のぼけ推定領域を取得して、複数の推定ぼけを生成する。 First, the image processing system according to the first embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a block diagram of the image processing system 100 in the present embodiment. FIG. 3 is an external view of the image processing system 100. The image processing system 100 according to the present embodiment acquires a plurality of blur estimation regions and generates a plurality of estimated blurs.
画像処理システム100は、撮像装置101、記録媒体102、表示装置103、出力装置104、および、画像処理装置105を備えて構成される。画像処理装置105は、通信部106、記憶部107、および、ぼけ補正部108(画像処理部)を有する。ぼけ補正部108は、取得部1081(取得手段)、生成部1082(生成手段)、デノイジング部1083(デノイジング手段)、および、補正部1084(補正手段)を有する。ぼけ補正部108の各部は、後述のように本実施例の画像処理方法を実行する。なお、撮像装置101の内部に画像処理装置105(ぼけ補正部108)を備えるように構成してもよい。 The image processing system 100 includes an imaging device 101, a recording medium 102, a display device 103, an output device 104, and an image processing device 105. The image processing apparatus 105 includes a communication unit 106, a storage unit 107, and a blur correction unit 108 (image processing unit). The blur correction unit 108 includes an acquisition unit 1081 (acquisition unit), a generation unit 1082 (generation unit), a denoising unit 1083 (denoising unit), and a correction unit 1084 (correction unit). Each unit of the blur correction unit 108 executes the image processing method of the present embodiment as will be described later. Note that the image processing apparatus 105 (blur correction unit 108) may be provided inside the imaging apparatus 101.
撮像装置101は、光学系1011(撮像光学系)および撮像素子1012を有する。光学系1011は、被写体空間からの光線を撮像素子1012上に結像させる。撮像素子1012は、複数の画素を有し、光学系1011を介して形成された光学像(被写体像)を光電変換して画像信号を出力する。撮像装置101は、撮像素子1012から出力された画像信号に基づいて撮影画像(ぼけ画像)を生成する。撮像装置101により得られたぼけ画像は、通信部106を介して画像処理装置105へ出力される。ぼけ画像に関しては、前述のような複数の種類のぼけの少なくとも一つが作用することにより、被写体空間の情報が劣化している。 The imaging apparatus 101 includes an optical system 1011 (imaging optical system) and an imaging element 1012. The optical system 1011 forms an image of light rays from the subject space on the image sensor 1012. The image sensor 1012 has a plurality of pixels, photoelectrically converts an optical image (subject image) formed via the optical system 1011, and outputs an image signal. The imaging device 101 generates a captured image (blurred image) based on the image signal output from the image sensor 1012. The blurred image obtained by the imaging device 101 is output to the image processing device 105 via the communication unit 106. Regarding the blurred image, information on the subject space is deteriorated by the action of at least one of a plurality of types of blur as described above.
記憶部107は、画像処理装置105に入力されたぼけ画像、および、ぼけ画像を撮影した際の撮影条件に関する情報を記憶する。ここで撮影条件とは、撮影時における撮像装置101の焦点距離、絞り、シャッタースピード、ISO感度などである。ぼけ補正部108は、ぼけ画像に基づいて特定のぼけ成分を推定して補正し、ぼけ補正画像を生成する。ぼけ補正画像は、通信部106を介して、表示装置103、記録媒体102、および、出力装置104のいずれか一つまたは複数に出力される。表示装置103は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置103を介して、処理途中の画像を確認しながら作業を行うことができる。記録媒体102は、半導体メモリ、ハードディスク、ネットワーク上のサーバなどである。出力装置104は、プリンタなどである。画像処理装置105は、必要に応じて、現像処理やその他の画像処理を行う機能を有してもよい。 The storage unit 107 stores a blurred image input to the image processing apparatus 105 and information regarding shooting conditions when the blurred image is shot. Here, the shooting conditions are the focal length, aperture, shutter speed, ISO sensitivity, and the like of the imaging apparatus 101 at the time of shooting. The blur correction unit 108 estimates and corrects a specific blur component based on the blur image, and generates a blur correction image. The blur correction image is output to any one or more of the display device 103, the recording medium 102, and the output device 104 via the communication unit 106. The display device 103 is, for example, a liquid crystal display or a projector. The user can perform work while confirming an image being processed via the display device 103. The recording medium 102 is a semiconductor memory, a hard disk, a server on a network, or the like. The output device 104 is a printer or the like. The image processing apparatus 105 may have a function of performing development processing and other image processing as necessary.
本実施例の画像処理方法を実現するため、ソフトウエア(画像処理プログラム)を、ネットワークまたはCD−ROMなどの記憶媒体を介して、画像処理装置105に供給することもできる。この際、画像処理プログラムは、画像処理装置105のコンピュータ(又は、CPUやMPUなど)によって読み出され、ぼけ補正部108の機能を実行する。 In order to implement the image processing method of the present embodiment, software (image processing program) can be supplied to the image processing apparatus 105 via a network or a storage medium such as a CD-ROM. At this time, the image processing program is read by the computer (or CPU, MPU, etc.) of the image processing apparatus 105 and executes the function of the blur correction unit 108.
ぼけ補正部108は、図1および図4のフローチャートで示される画像処理を実行する。その画像処理に関する説明を行う前に、ぼけ推定領域(ぼけ画像の少なくとも一部)における信号勾配のぼけを補正する方法(補正処理)、および、ぼけを推定する方法(推定処理)に関して説明する。なお本実施例において、信号勾配とは、ぼけ推定領域における信号に関する情報であり、画像そのもの(画像の輝度分布)に関する情報またはそのn次微分(nは0を含む自然数)に関する情報(微分値に関する情報)を含む。 The blur correction unit 108 performs image processing shown in the flowcharts of FIGS. 1 and 4. Before explaining the image processing, a method for correcting the blur of the signal gradient in the blur estimation region (at least a part of the blur image) (correction processing) and a method for estimating the blur (estimation processing) will be described. In the present embodiment, the signal gradient is information related to the signal in the blur estimation region, and information related to the image itself (the luminance distribution of the image) or information related to the nth derivative (n is a natural number including 0) (related to the differential value). Information).
本実施例において、ぼけ(劣化成分)はPSFの形で表現されるが、これに限定されるものではなく、例えばOTF(Optical Transfer Function)の形で表現しても構わない。まず、適当なPSFの初期値(Gauss分布や1次元のラインなど)を与え、そのPSFでぼけ推定領域における信号勾配のぼけを補正し、補正信号勾配を生成する。続いて、信号勾配と補正信号勾配とに基づいてPSFを推定する。推定されたPSFを用いて、再度、ぼけ推定領域の信号勾配を補正して新たな補正信号勾配を生成し、PSFを推定する。これを反復すること(ループ処理)により、ぼけ画像(ぼけ推定領域)のみからぼけを推定することができる。 In this embodiment, the blur (deterioration component) is expressed in the form of PSF, but is not limited to this, and may be expressed in the form of, for example, OTF (Optical Transfer Function). First, an appropriate initial value of PSF (Gaussian distribution, one-dimensional line, etc.) is given, and the signal gradient in the blur estimation region is corrected with the PSF to generate a corrected signal gradient. Subsequently, the PSF is estimated based on the signal gradient and the correction signal gradient. Using the estimated PSF, the signal gradient in the blur estimation area is corrected again to generate a new corrected signal gradient, and the PSF is estimated. By repeating this (loop processing), blur can be estimated only from the blur image (blur estimation region).
次に、信号勾配のぼけ補正方法(補正処理)について、具体的に説明する。ぼけ推定領域とぼけの関係は、以下の式(1)のように表される。 Next, the signal gradient blur correction method (correction process) will be specifically described. The relationship between the blur estimation area and the blur is expressed as the following formula (1).
式(1)において、b-iはi番目のループ処理におけるぼけ推定領域の信号分布、kiはぼけ、aiはぼけkiによる劣化がない信号分布、niはノイズである。「*」はコンボリューション演算を表す。 In equation (1), b- i is the signal distribution in the blur estimation region in the i-th loop processing, k i is blur, a i is a signal distribution that is not deteriorated by blur k i , and n i is noise. “*” Represents a convolution operation.
以下の式(2)のように表される最適化問題を解くことにより、i番目のループ処理におけるaiの推定値d-i(補正信号分布に相当)を推定する。 By solving the optimization problem is represented by the following equation (2), (corresponding to a correction signal distribution) estimate d-i of a i in the i-th loop process to estimate.
式(2)において、Lは損失関数、Φ(di)はdiに対する正則化項であり、それぞれの具体的な例については後述する。損失関数Lは、解をモデル(ここでは式(1)を指す)へフィッティングさせる効果を持つ。正則化項Φは、解を尤もらしい値へ収束させる効果を有する。正則化項には、事前知識と呼ばれる解(ai)が持つべき性質を用いる。また、正則化項は損失関数のみを考えた際に起こる過剰なフィッティング(ノイズniの影響をdiへ反映させてしまうこと)を防ぐ役割を有する。なお、ぼけ推定領域を複数のチャンネル(例えばRGB)から取得している場合、各チャンネルに対して式(2)を解く。 In Expression (2), L is a loss function, and Φ (d i ) is a regularization term for d i , and specific examples of each will be described later. The loss function L has an effect of fitting the solution to a model (here, the equation (1) is indicated). The regularization term Φ has the effect of converging the solution to a plausible value. For the regularization term, a property that the solution (a i ) called prior knowledge should have is used. Moreover, regularization term has a role of preventing excessive fitting experience when considering only loss function (to the influence of noise n i will be reflected to d i). When the blur estimation area is acquired from a plurality of channels (for example, RGB), Equation (2) is solved for each channel.
本実施例では、式(2)を解くことにより、補正信号勾配を求めるが、その他の手法を用いてもよい。例えば、Wienerフィルタなどの逆フィルタを用いた手法、または、Richardson−Lucy法などの超解像手法を用いることができる。さらに、逆フィルタや超解像手法と合わせて、ショックフィルタなどの先鋭化フィルタを適用して補正信号勾配を生成してもよい。さらに、先鋭化フィルタを併用する際には、バイラテラルフィルタやガイデッドフィルタなどのエッジの解像感を保つ平滑化フィルタを用いて、ノイズやリンギングを抑制することが好ましい。複数の補正信号勾配を生成する際には、それぞれ異なる手法(例えば、式(2)の最適化と逆フィルタ)を用いて生成してもよい。 In this embodiment, the correction signal gradient is obtained by solving Equation (2), but other methods may be used. For example, a method using an inverse filter such as a Wiener filter or a super-resolution method such as a Richardson-Lucy method can be used. Further, a correction signal gradient may be generated by applying a sharpening filter such as a shock filter in combination with an inverse filter or a super-resolution technique. Furthermore, when a sharpening filter is used in combination, it is preferable to suppress noise and ringing by using a smoothing filter that maintains edge resolution such as a bilateral filter or a guided filter. When a plurality of correction signal gradients are generated, they may be generated using different methods (for example, optimization of expression (2) and inverse filter).
次に、式(2)中の損失関数Lおよび正則化項Φの具体例について説明する。損失関数Lとしては、以下の式(3)のように示される関数が考えられる。 Next, specific examples of the loss function L and the regularization term Φ in Expression (2) will be described. As the loss function L, a function represented by the following equation (3) is conceivable.
式(3)において、以下の式(4)のように表される記号はp次平均ノルムを表し、p=2の場合にはユークリッドノルムを示す。 In the expression (3), a symbol represented as the following expression (4) represents a p-order average norm, and in the case of p = 2, represents a Euclidean norm.
正則化項Φの例としては、以下の式(5)のように示される1次平均ノルムがある。 As an example of the regularization term Φ, there is a first-order average norm represented by the following equation (5).
式(5)において、λは正則化項Φの重みを表すパラメータ、Ψは画像に対する基底変換を表す関数であり、その例としてウェーブレット変換や離散コサイン変換などがある。式(5)の正則化項Φは、画像がウェーブレット変換や離散コサイン変換などの基底変換を施されることで、信号成分がスパース(疎)になる、すなわち、より少ない数の信号で表すことができるという性質に基づく。これに関しては、例えば、「Richard G.Baraniuk,“Compressive Sensing”,IEEE SIGNAL PROCESSING MAGAZINE [118] JULY 2007」に説明されている。また、その他の正則化項の例として、Tikhonov正則化項やTV(Total Variation)ノルム正則化項などを用いてもよい。 In Equation (5), λ is a parameter that represents the weight of the regularization term Φ, and ψ is a function that represents a basis transformation for the image, examples of which include wavelet transformation and discrete cosine transformation. The regularization term Φ in equation (5) is expressed by a smaller number of signals because the image component is subjected to base transformation such as wavelet transformation or discrete cosine transformation, so that the signal component becomes sparse. Based on the nature of being able to. This is described, for example, in “Richard G. Baraniuk,“ Compressive Sensing ”, IEEE SIGNAL PROCESSING MAGAZINE [118] JULY 2007”. In addition, as examples of other regularization terms, a Tikhonov regularization term, a TV (Total Variation) norm regularization term, or the like may be used.
最適化問題である式(2)で表される推定式を解くには、繰り返し演算を用いた手法を利用し、例えばTikhonov正則化項を採用した場合は、共役勾配法などを使用すればよい。また、式(5)またはTVノルム正則化項を採用する場合、TwIST(Two−step Iterative Shrinkage/Thresholding)などを用いるとよい。TwISTに関しては、「J.M.Bioucas−Dias,et al.,“A new TwIST:two−step iterative shrinkage/thresholding algorithms for image restoration”,IEEE Trans.on Image Processing,vol.16,Dec.2007」に説明されている。 In order to solve the estimation equation represented by Expression (2), which is an optimization problem, a technique using an iterative operation is used. For example, when a Tikhonov regularization term is employed, a conjugate gradient method or the like may be used. . In addition, when adopting the formula (5) or the TV norm regularization term, TwIST (Two-step Iterative Shrinkage / Thresholding) or the like may be used. Regarding TwIST, “J. M. Bioucas-Dias, et al.,“ A new TwIST: two-step iterative shrinkage / thresholding algorithms for image restoration ”, IEEE Trave. Explained.
また、これらの繰り返し演算を行う際、繰り返しの度に正則化の重みなどのパラメータを更新してもよい。なお、式(1)、(2)は、画像(信号分布)に対して記載されているが、画像の微分に関しても同様に成り立つ。このため、画像に代えて、画像の微分(両者を含めて信号勾配と表現する)に対してぼけ補正を行ってもよい。 In addition, when performing these repetitive calculations, parameters such as regularization weights may be updated each time it is repeated. The expressions (1) and (2) are described for the image (signal distribution), but the same holds true for the differentiation of the image. Therefore, in place of the image, blur correction may be performed on the differentiation of the image (which is expressed as a signal gradient including both).
次に、ぼけの推定方法(推定処理)について具体的に説明する。PSFに関しても、式(2)と同様に、以下の式(6)を用いて推定することができる。 Next, the blur estimation method (estimation process) will be specifically described. PSF can also be estimated using the following equation (6), as in equation (2).
なお、ぼけ推定領域を複数のチャンネルから取得している(チャンネルによるぼけの変化がない、または無視できる)場合、式(6)は以下の式(6a)に示されるように変形される。 When the blur estimation area is acquired from a plurality of channels (the blur due to the channel is not changed or can be ignored), the equation (6) is transformed as shown in the following equation (6a).
式(6a)において、Hはぼけ推定領域に含まれるチャンネルの総数、di,hはh番目のチャンネルにおけるdi、vhは重みを示す。信号勾配の補正の場合、式(2)を各チャンネルに対して解けばよいが、ぼけ推定では式(6a)のように全チャンネルで纏められた形になる。これは、推定する対象が、式(2)では各チャンネルで異なるのに対し、式(6a)では共通している(同一のPSFである)ためである。 In the formula (6a), H is the total number of channels included in blur estimation region, d i, h is d i, v h in the h-th channel indicate the weight. In the case of signal gradient correction, equation (2) may be solved for each channel, but in blur estimation, the form is summarized for all channels as in equation (6a). This is because the target to be estimated is different for each channel in Equation (2), but is common in Equation (6a) (the same PSF).
式(6)、(6a)の損失関数Lとして、以下の式(7)が考えられる。 As the loss function L of the equations (6) and (6a), the following equation (7) can be considered.
式(7)において、∂jは微分演算子を表す。∂0(j=0)は恒等演算子であり、∂x、∂yはそれぞれ、画像の横方向と縦方向の微分を表す。さらに高次の微分は、例えば∂xxや∂xyyのように表される。なお、ぼけ推定領域の信号勾配とは、これら全てのj(j=0,x,y,xx,xy,yy,yx,xxx,……)を含むが、本実施例ではj=x,yのみを考える。ujは重みである。 In Expression (7), j j represents a differential operator. 0 0 (j = 0) is an identity operator, and ∂ x and ∂ y represent the horizontal and vertical differentiations of the image, respectively. Further, the higher-order differentiation is expressed as ∂ xx or ∂ xyy , for example. Note that the signal gradient in the blur estimation area includes all these j (j = 0, x, y, xx, xy, yy, yx, xxx,...). In this embodiment, j = x, y Think only. u j is a weight.
式(6)の正則化項Φとしては、推定するPSFの性質に沿ったものを用いることができる。例えば、PSFがデフォーカスのように潰れた形になる場合、以下の式(8)のように表されるTVノルム正則化を用いることが好ましい。 As the regularization term Φ in the equation (6), one that conforms to the property of the PSF to be estimated can be used. For example, when the PSF is in a collapsed form such as defocus, it is preferable to use TV norm regularization represented by the following equation (8).
式(8)において、ζは正則化項の重みである。 In equation (8), ζ is the weight of the regularization term.
また、PSFがぶれのようにライン状の形になる場合、以下の式(9)のように表される1次平均ノルム正則化を用いることが好ましい。 In addition, when the PSF has a linear shape such as blurring, it is preferable to use a first-order average norm regularization represented by the following formula (9).
また、PSFの形に依存せず、ある程度の精度が確保され、かつ、高速に解ける正則化項として、Tikhonov正則化を用いてもよい。複数の補正ぼけを生成する際には、それぞれ異なる手法(例えば、式(8)のTVノルム正則化およびTikhonov正則化)を用いて生成してもよい。 Further, Tikhonov regularization may be used as a regularization term that is not dependent on the shape of the PSF, ensures a certain degree of accuracy, and can be solved at high speed. When generating a plurality of correction blurs, they may be generated using different methods (for example, TV norm regularization and Tikhonov regularization of Expression (8)).
次に、図4を参照して、ぼけ補正部108で行われる画像処理に関して説明する。図4は、本実施例の画像処理方法を示すフローチャートである。図4の各ステップは、ぼけ補正部108の取得部1081、生成部1082、デノイジング部1083、および、補正部1084により実行される。 Next, image processing performed by the blur correction unit 108 will be described with reference to FIG. FIG. 4 is a flowchart showing the image processing method of this embodiment. Each step in FIG. 4 is executed by the acquisition unit 1081, the generation unit 1082, the denoising unit 1083, and the correction unit 1084 of the blur correction unit 108.
まずステップS101において、ぼけ補正部108の取得部1081は、ぼけ画像(撮影画像)を取得する。続いてステップS102において、ぼけ補正部108の生成部1082は、ぼけ画像のノイズ量に基づいて、後に生成する推定ぼけの数(推定ぼけの生成数)を決定する。ぼけ画像のノイズ量が大きいほど推定ぼけのノイズも多くなる。このため好ましくは、生成部1082は、ぼけ画像のノイズ量が大きいほど推定ぼけの生成数を増やすようにする。生成部1082は、ぼけ画像のノイズ量を、例えば撮影条件であるISO感度に基づいて、または、ぼけ画像から見積もることにより決定する。ぼけ画像からぼけ画像に含まれるノイズ量を見積もる手法は、例えば、「C.Liu,et al.,“Noise Estimation from a Single Image”,proc.IEEE Computer Vision and Pattern Recognition,pp.901−908(2006)」に記載されている。 First, in step S101, the acquisition unit 1081 of the blur correction unit 108 acquires a blurred image (captured image). Subsequently, in step S102, the generation unit 1082 of the blur correction unit 108 determines the number of estimated blurs to be generated (the number of estimated blurs generated) based on the amount of noise in the blur image. The greater the amount of noise in the blurred image, the greater the estimated blur noise. Therefore, preferably, the generation unit 1082 increases the number of estimated blur generations as the amount of noise in the blur image increases. The generation unit 1082 determines the noise amount of the blurred image based on, for example, the ISO sensitivity that is the shooting condition or by estimating from the blurred image. A method for estimating the amount of noise included in a blurred image from a blurred image is described in, for example, “C. Liu, et al.,“ Noise Estimation from a Single Image ”, proc. IEEE Computer Vision and Pattern Recognition, pp. 901-908. 2006) ”.
また生成部1082は、ぼけ画像からノイズ量を取得する代わりに、後述のステップS105(より正確には、図1のステップS201)にて取得したぼけ推定領域からノイズ量を取得してもよい。ここでは生成部1082は、ノイズ量から推定ぼけの生成数を決定しているが、常に所定の数(一定数)の推定ぼけを生成するようにしてもよい。ただし、ノイズ低減効果と計算負荷とのバランスをとるため、ノイズ量から推定ぼけの生成数を決定することが好ましい。 Further, the generation unit 1082 may acquire the noise amount from the blur estimation area acquired in step S105 (more precisely, step S201 in FIG. 1) described later, instead of acquiring the noise amount from the blurred image. Here, the generation unit 1082 determines the number of generations of estimated blur from the amount of noise. However, the generation unit 1082 may always generate a predetermined number (a constant number) of estimated blurs. However, in order to balance the noise reduction effect and the calculation load, it is preferable to determine the number of generations of estimated blur from the amount of noise.
続いてステップS103において、生成部1082は、ぼけ画像に対してデノイジング処理を行う。ぼけ画像(または、ぼけ推定領域)にノイズが含まれていると、推定したぼけにもノイズが発生し、ぼけの推定精度が低下してしまう。ただし、ステップS103を経ることにより推定ぼけのノイズを減らすことはできるが、完全に無くすことはできない。これは、デノイジング処理により、ぼけ画像のノイズ成分のみを完全に消すことができないためである。またステップS102と同様に、ステップS103に代えて、ステップS105の後(より正確には、図1のステップS201の後)に、ぼけ推定領域に対してデノイジング処理を行ってもよい。デノイジング手法としては、バイラテラルフィルタやNLM(Non Local Means)フィルタなどがある。 Subsequently, in step S103, the generation unit 1082 performs denoising processing on the blurred image. If noise is included in a blurred image (or a blur estimation area), noise is also generated in the estimated blur, and the blur estimation accuracy decreases. However, the estimated blur noise can be reduced through step S103, but it cannot be completely eliminated. This is because only the noise component of the blurred image cannot be completely eliminated by the denoising process. Similarly to step S102, instead of step S103, denoising processing may be performed on the blur estimation area after step S105 (more precisely, after step S201 in FIG. 1). Examples of denoising techniques include bilateral filters and NLM (Non Local Means) filters.
好ましくは、生成部1082は、以下の手法でぼけ推定領域をデノイジングする。まず、生成部1082は、ぼけ推定領域を周波数分解して、周波数分解ぼけ推定領域を生成する。そして生成部1082は、ぼけ推定領域のノイズ量に基づいて、周波数分解ぼけ推定領域をデノイジングする。次に、生成部1082は、周波数分解ぼけ推定領域を再合成することにより、ノイズ低減されたぼけ推定領域を取得する。一般に、デノイジング処理は、画像からノイズを低減するとともに、画像をぼかすという問題がある。ぼけ推定領域がデノイジングによってぼけると、後の推定処理を行う際に、画像を元来劣化させているぼけと、デノイジングによるぼけが混在したPSFを推定してしまうことになる。このため、画像に与えるぼけが小さいデノイジング手法を用いることが好ましい。このような手法として、画像の周波数分解を利用したデノイジング処理を適用する。ここでは、周波数分解としてウェーブレット変換を用いた例を説明する。なお、この詳細については、「Donoho D.L.,“De−noising by soft−thresholding”,IEEE Trans. on Inf. Theory,41,3,pp.613−627」に記載されている。 Preferably, the generation unit 1082 denoises the blur estimation area by the following method. First, the generation unit 1082 generates a frequency-resolved blur estimation region by performing frequency decomposition on the blur estimation region. Then, the generation unit 1082 denoises the frequency-resolved blur estimation area based on the amount of noise in the blur estimation area. Next, the generation unit 1082 obtains a noise-reduced blur estimation region by recombining the frequency-resolved blur estimation region. In general, the denoising process has a problem of reducing noise from an image and blurring the image. If the blur estimation area is blurred by denoising, PSF in which the blur that originally deteriorated the image and the blur due to denoising is mixed is estimated when performing the subsequent estimation process. For this reason, it is preferable to use a denoising technique with a small blur on the image. As such a technique, a denoising process using frequency decomposition of an image is applied. Here, an example using wavelet transform as frequency decomposition will be described. The details are described in “Donoho DL,“ De-noising by soft-thresholding ”, IEEE Trans. On Inf. Theory, 41, 3, pp. 613-627.
ウェーブレット変換とは、局在する小さな波(ウェーブレット)を用いて画像の位置ごとに周波数解析を行い、信号を高周波成分と低周波成分に分解していく変換である。画像のウェーブレット変換では、画像の水平方向に対してウェーブレット変換を行って低周波成分と高周波成分に分解し、さらに分解して得られた低周波成分と高周波成分の垂直方向に対してウェーブレット変換を行う。ウェーブレット変換により、画像は4分割され、周波数帯域が互いに異なる4つのサブバンド画像に周波数分解される。このとき、左上の低周波帯域成分(スケーリング係数)のサブバンド画像をLL1とし、右下の高周波帯域成分(ウェーブレット係数)のサブバンド画像をHH1とする。また、右上(HL1)と左下(LH1)のサブバンド画像はそれぞれ、水平方向に高周波帯域成分をとって垂直方向に低周波帯域成分を取り出したものと、水平方向に低周波帯域成分をとって垂直方向に高周波帯域成分を取り出したものである。 The wavelet transform is a transform in which a frequency analysis is performed for each position of an image using a localized small wave (wavelet) and a signal is decomposed into a high frequency component and a low frequency component. In the wavelet transform of an image, the wavelet transform is performed on the horizontal direction of the image to decompose it into a low frequency component and a high frequency component. Do. By the wavelet transform, the image is divided into four and is frequency-resolved into four subband images having different frequency bands. At this time, the subband image of the upper left low frequency band component (scaling coefficient) is LL1, and the subband image of the lower right high frequency band component (wavelet coefficient) is HH1. The upper right (HL1) and lower left (LH1) subband images are obtained by taking a high frequency band component in the horizontal direction and taking out a low frequency band component in the vertical direction, and taking a low frequency band component in the horizontal direction, respectively. A high frequency band component is extracted in the vertical direction.
さらに、サブバンド画像LL1をウェーブレット変換すると、画像サイズを半分にして、サブバンド画像LL2、HL2、LH2、HH2に分解することができ、分解して得られたサブバンド画像LLに対して変換レベル回数だけ分解することができる。 Further, when the subband image LL1 is wavelet transformed, the image size can be halved and decomposed into subband images LL2, HL2, LH2, and HH2, and the conversion level for the subband image LL obtained by the decomposition can be reduced. It can be disassembled as many times as possible.
ウェーブレット変換を用いてノイズ低減処理を行う方法として、スレッショルディングが知られている。これは、設定したしきい値より小さい量の成分をノイズとみなし、そのノイズを低減する方法である。ウェーブレット空間上でのしきい値処理は、サブバンド画像LL以外のサブバンド画像に対して行われ、以下の式(10)に示されるように、しきい値以下の絶対値を有するウェーブレット係数wsubband(x,y)を0に置き換えてデノイジングを行う。 Thresholding is known as a method for performing noise reduction processing using wavelet transform. In this method, a component having an amount smaller than a set threshold value is regarded as noise, and the noise is reduced. The threshold processing on the wavelet space is performed on the subband images other than the subband image LL, and the wavelet coefficient w having an absolute value equal to or smaller than the threshold is represented by the following equation (10). Denoising is performed by replacing subband (x, y) with 0.
式(10)において、x、yはそれぞれ、画像の縦と横の座標であり、ρsubbandは重みパラメータ、σはノイズの標準偏差である。ぼけ推定領域に含まれるノイズ量σは、ぼけ推定領域から測定または推定することにより求められる。ノイズが実空間および周波数空間において一様なホワイトガウシアンノイズである場合、ぼけ推定領域のノイズを、以下の式(11)に示されるようなMAD(Median Absolute Deviation)から推定する手法が知られている。 In Expression (10), x and y are the vertical and horizontal coordinates of the image, ρ subband is a weight parameter, and σ is a standard deviation of noise. The amount of noise σ included in the blur estimation area is obtained by measuring or estimating from the blur estimation area. When the noise is white Gaussian noise that is uniform in real space and frequency space, a method for estimating noise in the blur estimation region from MAD (Media Absolute Deviation) as shown in the following equation (11) is known. Yes.
MADは、ぼけ推定領域をウェーブレット変換して得られたサブバンド画像HH1におけるウェーブレット係数wHH1のメディアン(中央値)を用いて求められる。標準偏差とMADとは、以下の式(12)に示される関係であることから、ノイズ成分の標準偏差を推定することができる。 The MAD is obtained by using the median (median value) of the wavelet coefficient w HH1 in the subband image HH1 obtained by wavelet transforming the blur estimation area. Since the standard deviation and the MAD have the relationship shown in the following formula (12), the standard deviation of the noise component can be estimated.
なお、式(11)、(12)に代えて、撮影条件(撮影の際におけるISO感度)に基づいてノイズ量σを取得してもよい。 In place of the equations (11) and (12), the noise amount σ may be acquired based on the shooting condition (ISO sensitivity at the time of shooting).
続いてステップS104において、生成部1082は、ぼけ画像からぼけ推定を行う位置を取得する。生成部1082は、ステップS104にて取得した位置の近傍から、後の処理において複数のぼけ推定領域を取得する。続いてステップS105において、生成部1082およびデノイジング部1083は、ステップS104にて取得した位置に対応する、デノイジング処理後の推定ぼけを生成する。ステップS105の詳細は、図1のフローチャートに示されており、その説明に関しては後述する。 Subsequently, in step S104, the generation unit 1082 acquires a position where blur estimation is performed from the blurred image. The generation unit 1082 acquires a plurality of blur estimation regions in the subsequent processing from the vicinity of the position acquired in step S104. Subsequently, in step S105, the generation unit 1082 and the denoising unit 1083 generate an estimated blur after the denoising process corresponding to the position acquired in step S104. Details of step S105 are shown in the flowchart of FIG. 1, and the description thereof will be described later.
続いてステップS106において、生成部1082は、ぼけ画像における所定の領域(例えば、ぼけ画像の全体)に対して、ノイズ低減推定ぼけの生成が完了したか否かを判定する。ノイズ低減推定ぼけの生成が完了している場合、ステップS107へ進む。一方、ノイズ低減推定ぼけの生成が完了していない場合、ステップS104へ戻り、生成部1082は、ぼけ画像における所定の領域内から、まだ推定ぼけが生成されていない部分を新たな推定位置として取得する。 Subsequently, in step S106, the generation unit 1082 determines whether or not generation of noise reduction estimation blur has been completed for a predetermined region (for example, the entire blurred image) in the blurred image. If the generation of the noise reduction estimation blur has been completed, the process proceeds to step S107. On the other hand, if the generation of the noise reduction estimated blur has not been completed, the process returns to step S104, and the generation unit 1082 acquires, as a new estimated position, a portion where the estimated blur has not yet been generated from the predetermined area in the blurred image. To do.
ステップS107において、デノイジング部1083(または生成部1082)は、生成されたノイズ低減推定ぼけを出力する。ぼけ画像における所定の領域内に複数のぼけ推定位置を含む場合、複数のノイズ低減推定ぼけが存在する。このためデノイジング部1083は、それら複数のノイズ低減推定ぼけを出力する。本実施例において、ノイズ低減推定ぼけはPSFのデータである。ただし、本実施例はこれに限定されるものではなく、OTF、PSFもしくはOTFを所定の基底でフィッティングした係数データ、または、PSFもしくはOTFを画像データに変換した画像などの形で出力してもよい。 In step S107, the denoising unit 1083 (or the generation unit 1082) outputs the generated noise reduction estimation blur. When a plurality of blur estimated positions are included in a predetermined area in the blurred image, there are a plurality of noise reduction estimated blurs. Therefore, the denoising unit 1083 outputs the plurality of noise reduction estimation blurs. In this embodiment, the noise reduction estimation blur is PSF data. However, the present embodiment is not limited to this, and may be output in the form of coefficient data obtained by fitting OTF, PSF or OTF with a predetermined basis, or an image obtained by converting PSF or OTF into image data. Good.
続いてステップS108において、ぼけ補正部108の補正部1084は、出力されたノイズ低減推定ぼけを用いてぼけ画像のぼけを補正する。補正には、例えば、Wienerフィルタなどの逆フィルタを用いた手法や、Richardson−Lucy法などの超解像手法を用いることができる。ぼけ画像においてぼけを推定する複数の位置が存在する場合、補正部1084は、対応するそれぞれのノイズ低減推定ぼけが得られた推定位置の近傍に対して、ノイズ低減推定ぼけを用いて補正を行う。また、全てのノイズ低減推定ぼけが出力される前に、ステップS105にて生成されたノイズ低減推定ぼけを用いて、逐次、推定位置の近傍のぼけを補正し、最後にそれらを合わせることで、ぼけ補正画像を生成してもよい。 Subsequently, in step S108, the correction unit 1084 of the blur correction unit 108 corrects the blur of the blurred image using the output noise reduction estimated blur. For the correction, for example, a method using an inverse filter such as a Wiener filter or a super-resolution method such as a Richardson-Lucy method can be used. When there are a plurality of positions where blur is estimated in the blurred image, the correction unit 1084 corrects the vicinity of the estimated position where each corresponding noise reduction estimated blur is obtained using the noise reduction estimated blur. . Further, before all noise reduction estimation blurs are output, the noise reduction estimation blur generated in step S105 is used to sequentially correct blurs in the vicinity of the estimated position, and finally match them. A blur correction image may be generated.
次に、図1を参照して、ノイズ低減推定ぼけの生成処理(ステップS105)について詳述する。図1は、ノイズ低減推定ぼけの生成方法を示すフローチャートである。図1の各ステップは、ぼけ補正部108の生成部1082およびデノイジング部1083により実行される。 Next, the noise reduction estimation blur generation process (step S105) will be described in detail with reference to FIG. FIG. 1 is a flowchart illustrating a method for generating noise reduction estimation blur. Each step in FIG. 1 is executed by the generation unit 1082 and the denoising unit 1083 of the blur correction unit 108.
まずステップS201において、生成部1082は、ステップS104にて取得されたぼけの推定位置の近傍から、複数のぼけ推定領域(複数のぼけ推定領域として複数の領域)を取得する。生成部1082は、各ぼけ推定領域内には同じぼけが作用していると仮定して、ぼけを推定する。ぼけ推定領域は、ユーザが指定した領域または自動的に取得されるものであってもよい。ぼけ画像の全体においてぼけが一定の場合(Shift−invariantと呼ぶ)、ぼけ画像の全体を1つのぼけ推定領域して設定すればよいため、本実施例ではShift−invariantのぼけは取り扱わない。この場合、実施例2または実施例3にて説明した手法を用いればよい。本実施例では、ぼけ画像における位置に応じてぼけが変化する場合(Shift−variant)を扱う。 First, in step S201, the generation unit 1082 acquires a plurality of blur estimation regions (a plurality of regions as a plurality of blur estimation regions) from the vicinity of the blur estimation position acquired in step S104. The generation unit 1082 estimates blur assuming that the same blur is acting in each blur estimation region. The blur estimation area may be an area specified by the user or automatically acquired. When blur is constant in the entire blur image (referred to as Shift-invariant), the entire blur image may be set as one blur estimation area. Therefore, in this embodiment, shift-invariant blur is not handled. In this case, the method described in the second embodiment or the third embodiment may be used. In this embodiment, the case where the blur changes according to the position in the blurred image (Shift-variant) is handled.
ステップS104にて取得されたぼけの推定位置の近傍において、ぼけは略同一形状を有する。このため生成部1082は、ぼけの推定位置の近傍から複数のぼけ推定領域(複数の領域)を取得する。生成部1082は、各ぼけ推定領域を、ぼけの推定位置を含むように取得することが好ましい。ぼけ推定領域の取得数は、ステップS102にて決定された推定ぼけの数と同じである。ただし、実施例2または実施例3と、後述する手法とを合わせることにより、ぼけ推定領域の取得数を推定ぼけの数よりも少なくすることができる。 In the vicinity of the estimated blur position acquired in step S104, the blur has substantially the same shape. Therefore, the generation unit 1082 acquires a plurality of blur estimation areas (a plurality of areas) from the vicinity of the blur estimation position. The generation unit 1082 preferably acquires each blur estimation area so as to include the estimated blur position. The number of acquired blur estimation regions is the same as the number of estimated blurs determined in step S102. However, by combining the second embodiment or the third embodiment with the method described later, the number of blur estimation area acquisitions can be made smaller than the number of estimated blurs.
図5は、本実施例におけるぼけ推定領域の取得例を示す図である。図5に示されるように、ぼけ画像201内にぼけの推定位置202が指定されている。生成部1082は、ぼけの推定位置202の近傍から、3つのぼけ推定領域203a〜203cを取得する。ただし、ぼけ推定領域の数、位置、および、形状(大きさを含む)はこれに限定されるものではない。ぼけ推定領域203a〜203cは、それぞれ、位置または形状が異なっている。 FIG. 5 is a diagram illustrating an example of obtaining the blur estimation area in the present embodiment. As shown in FIG. 5, an estimated blur position 202 is specified in the blurred image 201. The generation unit 1082 acquires the three blur estimation regions 203a to 203c from the vicinity of the blur estimation position 202. However, the number, position, and shape (including size) of the blur estimation area are not limited to this. The blur estimation regions 203a to 203c have different positions or shapes.
好ましくは、生成部1082は、以下の条件を満たすように複数のぼけ推定領域を決定する。すなわち、複数のぼけ推定領域のうち最も面積が小さいぼけ推定領域を、最小ぼけ推定領域と呼称する。このとき、最小ぼけ推定領域と、複数のぼけ推定領域のうち残りのぼけ推定領域のそれぞれ(残りの全てのぼけ推定領域)とが互いに重なる領域の面積が、最小ぼけ推定領域の面積の半分以上であることが好ましい。前述のように、本実施例ではShift−variantなぼけを対象としているため、ぼけ推定領域の位置または形状に応じて、ぼけは異なる。このため、複数のぼけ推定領域が互いに大きくずれていると、全く異なるぼけを推定してしまう可能性がある。前述の条件を満たすことにより、複数のぼけ推定領域の間での乖離が抑制され、略同一のぼけを推定することができる。図5においても、ぼけ推定領域203a(最小ぼけ推定領域)と、ぼけ推定領域203b(または、ぼけ推定領域203c)とが互いに重なる領域の面積は、ぼけ推定領域203aの面積の半分以上となっている。 Preferably, generation unit 1082 determines a plurality of blur estimation regions so as to satisfy the following conditions. That is, the blur estimation area having the smallest area among the plurality of blur estimation areas is referred to as a minimum blur estimation area. At this time, the area of the area where the minimum blur estimation area and each of the remaining blur estimation areas (all remaining blur estimation areas) among the plurality of blur estimation areas overlap each other is more than half the area of the minimum blur estimation area It is preferable that As described above, in this embodiment, shift-variant blur is targeted, and blur differs depending on the position or shape of the blur estimation area. For this reason, if a plurality of blur estimation regions are greatly shifted from each other, a completely different blur may be estimated. By satisfying the above-described conditions, the divergence between the plurality of blur estimation regions is suppressed, and substantially the same blur can be estimated. Also in FIG. 5, the area of the area where the blur estimation area 203a (minimum blur estimation area) and the blur estimation area 203b (or the blur estimation area 203c) overlap is more than half the area of the blur estimation area 203a. Yes.
続いてステップS202において、生成部1082は、複数のぼけ推定領域のそれぞれの解像度を低下させ、複数の低解像ぼけ推定領域を生成する。ぼけ推定領域の解像度を低下させることにより、推定するぼけの解像度も同様に低下する。その結果、後述するぼけ推定の収束性が向上し、かつ、推定結果が最適解とは異なる局所解へ落ち込む可能性を低減することができる。ぼけ推定領域の解像度を下げる割合は、ダウンサンプリングパラメータに応じて決定される。ステップS202は、ループ処理(反復演算)によって複数回実行されるが、初回の実行時には、所定のダウンサンプリングパラメータが用いられる。2回目以降の実行の際には、後述のステップS206にて設定されたダウンサンプリングパラメータを用いて、低解像ぼけ推定領域を生成する。ループを反復する度に、解像度の低下量は小さくなり、低解像ぼけ推定領域の解像度は、ぼけ推定領域に徐々に近づく。すなわち、最初は低解像のぼけを推定し、その推定結果を新たな初期値として、解像度を少しずつ上げながら推定を繰り返す。これにより、局所解を回避して最適なぼけを推定することができる。なお、低解像ぼけ推定領域の解像度は、ぼけ推定領域の解像度以下であり、両者の解像度が一致することもある。 Subsequently, in step S202, the generation unit 1082 reduces the resolution of each of the plurality of blur estimation regions, and generates a plurality of low-resolution blur estimation regions. By reducing the resolution of the blur estimation area, the resolution of the blur to be estimated is similarly reduced. As a result, the convergence of the blur estimation described later can be improved, and the possibility that the estimation result falls into a local solution different from the optimal solution can be reduced. The rate of reducing the resolution of the blur estimation area is determined according to the downsampling parameter. Step S202 is executed a plurality of times by loop processing (repetitive calculation), but a predetermined downsampling parameter is used at the first execution. In the second and subsequent executions, a low-resolution blur estimation region is generated using the downsampling parameters set in step S206 described later. Each time the loop is repeated, the amount of decrease in resolution decreases, and the resolution of the low-resolution blur estimation area gradually approaches the blur estimation area. That is, at first, low-resolution blur is estimated, and the estimation result is used as a new initial value, and the estimation is repeated while gradually increasing the resolution. Thereby, it is possible to estimate the optimum blur while avoiding the local solution. Note that the resolution of the low-resolution blur estimation area is less than or equal to the resolution of the blur estimation area, and the resolutions of both may be the same.
続いてステップS203において、生成部1082は、複数の低解像ぼけ推定領域のそれぞれにおける信号勾配(信号に関する情報)のぼけを補正して、複数の補正信号勾配(補正信号に関する情報)を生成する(補正処理)。生成部1082は、例えば図6に示されるように、複数の低解像ぼけ推定領域の信号勾配204a〜204cに対し、複数の補正信号勾配205a〜205cを生成する。ただし、低解像ぼけ推定領域の数はこれに限定されるものではない。補正信号勾配の生成には、前述のように、式(2)を用いた最適化やその他の超解像、逆フィルタなどを用いる。各低解像ぼけ推定領域に対して、互いに異なる手法により補正信号勾配を生成しても構わない。ぼけ補正に用いるPSFは、前のループにおけるステップS204にて各低解像ぼけ推定領域から推定された結果(ぼけ)を用いる。ループの初回においては、適当な形状のPSF(Gauss分布や1次元のラインなど)を用いる。これは、各低解像ぼけ推定領域に対して共通でもよく、または、それぞれ異なっていてもよい。続いてステップS204において、生成部1082は、複数の低解像ぼけ推定領域のそれぞれに対して、その信号勾配と補正信号勾配とに基づいて、複数のぼけを推定する(ぼけの推定処理)。ぼけの推定には、式(6)または式(6a)などを用いる。なお、各低解像ぼけ推定領域に対して、互いに異なる演算式(正則化の種類や重みパラメータの値など)でぼけを推定しても構わない。 Subsequently, in step S203, the generation unit 1082 corrects the blur of the signal gradient (information about the signal) in each of the plurality of low-resolution blur estimation regions, and generates a plurality of correction signal gradients (information about the correction signal). (Correction process). For example, as illustrated in FIG. 6, the generation unit 1082 generates a plurality of correction signal gradients 205 a to 205 c for the signal gradients 204 a to 204 c of the plurality of low resolution blur estimation regions. However, the number of low-resolution blur estimation regions is not limited to this. As described above, the correction using the equation (2), other super-resolution, an inverse filter, and the like are used to generate the correction signal gradient. For each low-resolution blur estimation region, a correction signal gradient may be generated by a different method. The PSF used for blur correction uses the result (blur) estimated from each low-resolution blur estimation region in step S204 in the previous loop. At the first time of the loop, an appropriately shaped PSF (Gauss distribution, one-dimensional line, etc.) is used. This may be common for each low-resolution blur estimation region, or may be different. Subsequently, in step S204, the generation unit 1082 estimates a plurality of blurs for each of the plurality of low-resolution blur estimation regions based on the signal gradient and the correction signal gradient (blur estimation process). Formula (6) or formula (6a) is used for blur estimation. Note that, for each low-resolution blur estimation region, blur may be estimated using different arithmetic expressions (regularization type, weight parameter value, etc.).
続いてステップS205において、生成部1082は、反復(ループ)演算が完了したか否か、すなわちぼけ推定領域と低解像ぼけ推定領域との解像度差が所定値よりも小さいか否か、を判定する。この判定は、ぼけ推定領域の解像度と低解像ぼけ推定領域の解像度とを比較することにより行われる。両者の解像度差が所定値よりも小さい場合、反復演算を終了する。そして、ステップS204にて推定された複数のぼけを最終的な複数の推定ぼけとして、ステップS207へ進む。両者の解像度差が所定値よりも小さいか否かは、両者の解像度差の絶対値が所定値よりも小さいか否かに限定されるものではなく、両者の画素数の比が所定値よりも1に近いか否かなどで判定してもよい。所定の条件を満たさない場合(例えば、両者の解像度差の絶対値が所定値よりも大きい場合)、推定されたぼけの解像度がまだ不充分であるため、ステップS206へ進み、反復演算を行う。 Subsequently, in step S205, the generation unit 1082 determines whether or not the iterative (loop) calculation has been completed, that is, whether or not the resolution difference between the blur estimation area and the low-resolution blur estimation area is smaller than a predetermined value. To do. This determination is performed by comparing the resolution of the blur estimation area with the resolution of the low resolution blur estimation area. When the resolution difference between the two is smaller than a predetermined value, the iterative calculation is terminated. Then, the plurality of blurs estimated in step S204 are regarded as the final plurality of estimated blurs, and the process proceeds to step S207. Whether or not the resolution difference between the two is smaller than a predetermined value is not limited to whether or not the absolute value of the resolution difference between the two is smaller than the predetermined value, and the ratio of the number of pixels of both is smaller than the predetermined value. You may determine by whether it is close to 1. If the predetermined condition is not satisfied (for example, if the absolute value of the resolution difference between the two is larger than the predetermined value), the estimated blur resolution is still insufficient, and thus the process proceeds to step S206, and the iterative calculation is performed.
ステップS206において、生成部1082は、ステップS202にて用いられるダウンサンプリングパラメータを設定する。ステップS202〜S205を反復する過程で解像度を上げていくため、ここでは前のループよりもダウンサンプリングの度合いを弱めるように(解像度低下量を下げるように)パラメータを設定する。また、反復演算では、前ループのステップS204にて推定されたぼけを新たな初期解として用いるが、その際、ぼけの解像度を上げる必要がある。解像度の向上には、バイリニア補間やバイキュービック補間を用いることが好ましい。 In step S206, the generation unit 1082 sets downsampling parameters used in step S202. In order to increase the resolution in the process of repeating steps S202 to S205, parameters are set so that the degree of downsampling is weaker than that of the previous loop (so that the amount of resolution decrease is reduced). In the iterative calculation, the blur estimated in step S204 of the previous loop is used as a new initial solution. At this time, it is necessary to increase the resolution of the blur. In order to improve the resolution, it is preferable to use bilinear interpolation or bicubic interpolation.
ステップS207において、デノイジング部1083は、ステップS204にて推定された複数のぼけ(複数の推定ぼけ)のデノイジングを行う。図6は、本実施例におけるノイズ低減推定ぼけの生成例を示す図である。図6に示される例のように、デノイジング部1083は、複数のぼけ推定領域(複数の補正信号勾配205a〜205c)のそれぞれに対して生成された推定ぼけ206a〜206cから、ノイズ低減推定ぼけ207を生成する。本実施例において、デノイジング部1083は、複数の推定ぼけの平均値(または、重み付きの加重平均値)をとることにより、ノイズ低減推定ぼけを生成する。ただし、平均値(単純平均値)または加重平均値以外にも、最小値、中央値、最頻値、または、最尤値を求めてノイズ低減推定ぼけを生成することができる。またデノイジング部1083は、これらの複数の値を組み合わせて1つのノイズ低減推定ぼけを生成してもよい。複数の推定ぼけは、本来のぼけ成分以外の領域(すなわち、正しくは成分がゼロになる領域)に異なる出方のノイズを含む。このため、複数の推定ぼけの最小値を取得することにより、それらのうち最もノイズが小さい(または、ノイズがない)推定ぼけを採用することができる。 In step S207, the denoising unit 1083 performs denoising of a plurality of blurs (a plurality of estimated blurs) estimated in step S204. FIG. 6 is a diagram illustrating a generation example of noise reduction estimation blur in the present embodiment. As in the example illustrated in FIG. 6, the denoising unit 1083 uses the noise reduction estimation blur 207 from the estimation blurs 206a to 206c generated for each of the plurality of blur estimation regions (a plurality of correction signal gradients 205a to 205c). Is generated. In this embodiment, the denoising unit 1083 generates a noise reduction estimated blur by taking an average value (or a weighted average value with a weight) of a plurality of estimated blurs. However, in addition to the average value (simple average value) or the weighted average value, the noise reduction estimation blur can be generated by obtaining the minimum value, the median value, the mode value, or the maximum likelihood value. Further, the denoising unit 1083 may generate one noise reduction estimation blur by combining the plurality of values. The plurality of estimated blurs include different outgoing noises in a region other than the original blur component (that is, a region where the component is correctly zero). For this reason, by obtaining the minimum values of a plurality of estimated blurs, it is possible to employ an estimated blur having the smallest noise (or no noise) among them.
好ましくは、デノイジング部1083は、複数の推定ぼけのうち少なくとも1つがゼロである位置における成分をゼロとするように、ノイズ低減推定ぼけを生成する。これに関し、図7を参照して説明する。図7は、本実施例におけるノイズ低減推定ぼけの生成例を示す図である。図7(A)〜(C)のそれぞれにおいて、横軸は空間座標、縦軸は強度をそれぞれ示している。図7(A)、(B)は、推定された複数の推定ぼけにおける1次元断面である。ここでは簡単のため、複数の推定の数を2つとしているが、これに限定されるものではない。空間座標の中心近傍の位置は、本来のぼけの成分とノイズの成分とが混在した領域であり、強度がゼロ近傍である両端の位置はノイズの成分のみの領域である。図7(A)、(B)から分かるように、両者はノイズの出方が互いに異なっており、一方にはノイズがあるが、他方ではゼロになっている部分が存在する。図7(A)、(B)を単純に平均化すると、一方のみがノイズゼロの領域は、有限のノイズを持つこととなる。しかし、図7(A)または図7(B)のいずれか一方の強度がゼロとなっている成分では、ノイズ低減推定ぼけの成分をゼロとすることにより、より効率的なノイズリダクションを行うことができる。図7(A)、(B)の両方が強度を持つ部分においては、それらの平均値を求めることが好ましい。図7(C)は、このような処理を行って得られたノイズ低減推定ぼけを示している。図7(C)に示されるように、単なる平均化よりも高いノイズ低減効果を発揮することができる。 Preferably, the denoising unit 1083 generates the noise reduction estimated blur so that a component at a position where at least one of the plurality of estimated blurs is zero is zero. This will be described with reference to FIG. FIG. 7 is a diagram illustrating a generation example of noise reduction estimation blur in the present embodiment. 7A to 7C, the horizontal axis represents spatial coordinates, and the vertical axis represents intensity. FIGS. 7A and 7B are one-dimensional cross sections of a plurality of estimated blurs. Here, for the sake of simplicity, the number of a plurality of estimations is two, but this is not a limitation. The position in the vicinity of the center of the spatial coordinates is a region where the original blur component and the noise component are mixed, and the positions at both ends where the intensity is near zero are regions containing only the noise component. As can be seen from FIGS. 7 (A) and 7 (B), the noises are different from each other, and there is a portion where noise is present on one side but zero on the other side. When FIGS. 7A and 7B are simply averaged, a region where only one of the noises is zero has finite noise. However, in the component in which the intensity of either one of FIG. 7A or FIG. 7B is zero, noise reduction estimation blur component is set to zero to perform more efficient noise reduction. Can do. In a portion where both of FIGS. 7A and 7B have strength, it is preferable to obtain an average value thereof. FIG. 7C shows noise reduction estimation blur obtained by performing such processing. As shown in FIG. 7C, a noise reduction effect higher than that of simple averaging can be exhibited.
また好ましくは、デノイジング部1083は、複数の推定ぼけを用いてデノイジング処理を行う際、複数の推定ぼけの位置合わせを行い、ノイズ低減推定ぼけを生成する。複数の推定ぼけは、それぞれ、ぼけ推定領域の位置などが互いに異なるため、位相ずれを起こすことがある。また、補正信号勾配の生成やぼけの推定において、互いに異なる手法を用いている場合、推定されたPSFがそれぞれ異なる量だけシフトしている場合がある。このとき、そのまま平均化などの処理を行うと、PSFがぼけてしまうため、複数の推定ぼけの位置合わせを行うことが好ましい。 Preferably, when performing the denoising process using a plurality of estimated blurs, the denoising unit 1083 aligns the plurality of estimated blurs to generate a noise reduction estimated blur. The plurality of estimated blurs may cause a phase shift because the positions of the blur estimation regions are different from each other. In addition, when different methods are used in the generation of the correction signal gradient and the estimation of the blur, the estimated PSF may be shifted by different amounts. At this time, if the process such as averaging is performed as it is, the PSF is blurred. Therefore, it is preferable to align a plurality of estimated blurs.
より好ましくは、デノイジング部1083は、位置合わせ(位置合わせの基準)として、複数の推定ぼけのそれぞれにおけるピーク値の位置を合わせる。なお、位置合わせの基準として、ピーク位置に代えて、重心の位置などを用いることもできる。ただし重心を基準とする場合、PSFの位置合わせ(シフト)量が非整数を取りうるため、補間が必要となる。PSFが非常に先鋭なピークを有する場合に補間処理を行うと、ピークが潰れてPSFがやや広がった(ぼけた)形となりやすい。そして本来よりぼけたPSFでぼけ画像を補正すると、過剰補正が起きてリンギングなどの弊害を招く可能性がある。このため、補間が不要なピーク位置を基準とすることが好ましい。 More preferably, the denoising unit 1083 aligns the position of the peak value in each of a plurality of estimated blurs as alignment (alignment reference). Note that the position of the center of gravity or the like can be used as a reference for alignment instead of the peak position. However, when the center of gravity is used as a reference, the amount of PSF alignment (shift) can be non-integer, so interpolation is required. If the interpolation process is performed when the PSF has a very sharp peak, the peak is crushed and the PSF tends to be slightly widened (blurred). If a blurred image is corrected with a PSF that is originally blurred, overcorrection may occur, which may cause adverse effects such as ringing. For this reason, it is preferable to use a peak position that does not require interpolation as a reference.
また、デノイジング部1083は、ノイズ低減推定ぼけを生成する際、スレッショルディング、孤立点を除去するオープニング処理、または、平滑化フィルタや前述の周波数分解を用いたデノイジングなどを併用してもよい。 Further, the denoising unit 1083 may use a thresholding, an opening process for removing isolated points, or a denoising using a smoothing filter or the above-described frequency decomposition when generating noise reduction estimation blur.
本実施例によれば、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して実行可能な画像処理システムを提供することができる。 According to the present embodiment, it is possible to provide an image processing system capable of executing highly accurate denoising of estimated blur while suppressing an increase in the amount of calculation.
次に、図8を参照して、本発明の実施例2における画像処理システムについて説明する。図8は、本実施例における画像処理システム300のブロック図である。 Next, an image processing system according to the second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a block diagram of the image processing system 300 in the present embodiment.
本実施例の画像処理システム300は、ぼけ補正部108を有する画像処理装置105に代えて、ノイズ低減推定ぼけ生成部308を有する画像処理装置305を備えている点で、実施例1の画像処理システム100とは異なる。本実施例の画像処理システム300は、1つのぼけ推定領域から複数の補正信号勾配を生成し、複数の推定ぼけを取得する。ノイズ低減推定ぼけ生成部308は、撮像装置101にて撮像されたぼけ画像からぼけ成分を推定し、さらにデノイジング処理を行って、ノイズが低減された推定ぼけを出力する。ノイズ低減推定ぼけ生成部308は、取得部3081(取得手段)、生成部3082(生成手段)、および、デノイジング部3083(デノイジング手段)を有する。画像処理システム300のそれ以外の部位は、実施例1の画像処理システム100と同様であるため、それらの説明は省略する。 The image processing system 300 according to the present exemplary embodiment includes the image processing apparatus 305 having the noise reduction estimated blur generation unit 308 instead of the image processing apparatus 105 having the blur correction unit 108. Different from the system 100. The image processing system 300 according to the present embodiment generates a plurality of correction signal gradients from one blur estimation region, and acquires a plurality of estimated blurs. The noise reduction estimation blur generation unit 308 estimates a blur component from the blur image captured by the imaging device 101, further performs a denoising process, and outputs an estimated blur with reduced noise. The noise reduction estimation blur generation unit 308 includes an acquisition unit 3081 (acquisition unit), a generation unit 3082 (generation unit), and a denoising unit 3083 (denoising unit). Since other parts of the image processing system 300 are the same as those of the image processing system 100 of the first embodiment, description thereof is omitted.
次に、図9を参照して、ノイズ低減推定ぼけ生成部308で行われる画像処理に関して説明する。図9は、本実施例の画像処理方法を示すフローチャートである。図9の各ステップは、ノイズ低減推定ぼけ生成部308の取得部3081、生成部3082、および、デノイジング部3083により実行される。 Next, image processing performed by the noise reduction estimated blur generation unit 308 will be described with reference to FIG. FIG. 9 is a flowchart showing the image processing method of the present embodiment. Each step in FIG. 9 is executed by the acquisition unit 3081, the generation unit 3082, and the denoising unit 3083 of the noise reduction estimation blur generation unit 308.
まずステップS301において、取得部3081は、ぼけ画像を取得する。ステップS301は、図4を参照して説明した実施例1におけるステップS101と同様である。 First, in step S301, the acquisition unit 3081 acquires a blurred image. Step S301 is the same as step S101 in the first embodiment described with reference to FIG.
続いてステップS302において、生成部3082は、ぼけ画像からぼけ推定領域を取得する。本実施例において、生成部3082およびデノイジング部3083は、1つのぼけ推定領域に対して複数の推定ぼけを生成してデノイジング処理を行う。このため、ぼけがShift−invariantの場合でも有効である。Shift−invariantなぼけの例として、露光中に撮像装置101の全体がシフトするぶれや、撮像装置101内の光学系(ヴィネッティングが充分に小さいとする)による回折などがある。ただし本実施例において、生成部3082は、複数のぼけ推定領域を取得しても構わない。 Subsequently, in step S302, the generation unit 3082 acquires a blur estimation area from the blur image. In the present embodiment, the generation unit 3082 and the denoising unit 3083 generate a plurality of estimated blurs for one blur estimation region and perform a denoising process. Therefore, it is effective even when the blur is Shift-invariant. Examples of the shift-invariant blur include a shake in which the entire image pickup apparatus 101 shifts during exposure and diffraction by an optical system in the image pickup apparatus 101 (assuming that vignetting is sufficiently small). However, in the present embodiment, the generation unit 3082 may acquire a plurality of blur estimation regions.
続いてステップS303において、生成部3082は、ぼけ推定領域の信号勾配(信号に関する情報)を補正して、複数の補正信号勾配(複数の補正信号に関する情報)を生成する(補正処理)。本実施例において、生成部3082は、複数の補正信号勾配として、常に所定の数の補正信号勾配を生成する。補正信号勾配の数は、推定ぼけの数と等しい。ただし本実施例は、これに限定されるものではなく、実施例1のようにノイズ量から補正信号勾配の数を決定してもよい。補正信号勾配の生成の際には、互いに異なる演算式、即ち、互いに異なる補正処理またはパラメータ(補正パラメータ)が用いられる。 Subsequently, in step S303, the generation unit 3082 corrects the signal gradient (information related to the signal) in the blur estimation region, and generates a plurality of correction signal gradients (information related to the plurality of correction signals) (correction processing). In the present embodiment, the generation unit 3082 always generates a predetermined number of correction signal gradients as a plurality of correction signal gradients. The number of correction signal gradients is equal to the number of estimated blurs. However, the present embodiment is not limited to this, and the number of correction signal gradients may be determined from the amount of noise as in the first embodiment. When generating the correction signal gradient, different arithmetic expressions, that is, different correction processes or parameters (correction parameters) are used.
補正処理とは、ぼけ補正に用いる手法(式(2)による最適化、Winerフィルタなどの逆フィルタ、Richardson−Lucy法などの超解像手法)を指す。または補正処理は、式(2)の最適化で用いる正則化項の種類(式(5)の1次平均ノルム正則化やTVノルム正則化など)を指す。また、ぼけ補正後のフィルタリング(先鋭化フィルタおよび平滑化フィルタ)の有無も補正処理に含まれる。補正パラメータとは、式(2)の正則化項の重み(例えば、式(5)のλ)、Richardson−Lucy法などの超解像手法における高解像度化パラメータ、または、フィルタリングにおける先鋭化や平滑化の強さを表すパラメータである。生成部3082は、補正処理または補正パラメータを変更して(すなわち、互いに異なる補正処理または補正パラメータを用いて)複数の補正信号勾配を生成すると、補正のかかり方が異なるため、信号変化の振る舞い、および、ノイズの出方に差異が生じる。このため、これらの複数の補正信号勾配から推定されるぼけはそれぞれ異なるノイズを有する。 The correction processing refers to a method used for blur correction (optimization based on equation (2), an inverse filter such as a Wine filter, or a super-resolution method such as a Richardson-Lucy method). Alternatively, the correction processing refers to the type of regularization term used in the optimization of Expression (2) (primary average norm regularization or TV norm regularization of Expression (5)). The presence or absence of filtering after blur correction (sharpening filter and smoothing filter) is also included in the correction processing. The correction parameter is a weight of the regularization term in Expression (2) (for example, λ in Expression (5)), a high-resolution parameter in a super-resolution technique such as the Richardson-Lucy method, or sharpening or smoothing in filtering. This parameter represents the strength of the conversion. If the generation unit 3082 generates a plurality of correction signal gradients by changing the correction process or the correction parameter (that is, using different correction processes or correction parameters), the manner in which the correction is performed differs, and thus the behavior of the signal change, Also, there is a difference in how noise is generated. For this reason, the blur estimated from the plurality of correction signal gradients has different noises.
複数の補正信号勾配がある場合、式(6)、(6a)はそれぞれ、以下の式(13)、(13a)のようになる。 When there are a plurality of correction signal gradients, the equations (6) and (6a) are respectively expressed by the following equations (13) and (13a).
式(13)、(13a)において、Gは共通のぼけの推定に用いる補正信号勾配の総数、tgは重みを示す。 Equation (13), in (13a), G is the total number of the correction signal gradients used to estimate the common blur, t g denotes a weight.
続いてステップS304において、生成部3082は、ぼけ推定領域における信号勾配と複数の補正信号勾配とに基づいて、複数のぼけを推定する(ぼけの推定処理)。本実施例におけるぼけの推定処理は、図1を参照して説明した実施例1のステップS204と同様である。 Subsequently, in step S304, the generation unit 3082 estimates a plurality of blurs based on the signal gradient in the blur estimation region and the plurality of correction signal gradients (blur estimation process). The blur estimation process in the present embodiment is the same as step S204 in the first embodiment described with reference to FIG.
続いてステップS305において、生成部3082は、ステップS304にて推定したぼけが収束したか否かを判定する。ぼけが収束した場合、ステップS306へ進む。一方、ぼけが収束していない場合、ステップS303へ戻る。ステップS303へ戻った場合、生成部3082は、ステップS304にて推定したぼけを用いて、ステップS303にて複数の補正信号勾配を新たに生成する。推定したぼけが収束したか否かは、例えば、補正信号勾配を推定したぼけで劣化させた値と、ぼけ推定領域における信号勾配との差または比を求め、所定値と比べることにより判定可能である。または、ステップS304にて共役勾配法などの繰り返し演算でぼけを推定している場合、繰り返し演算によるぼけの更新量が所定値よりも小さくなったか否かにより判定してもよい。ぼけが収束した場合、生成部3082は、推定された複数のぼけのそれぞれを、ぼけ推定領域における推定ぼけとする。 Subsequently, in step S305, the generation unit 3082 determines whether the blur estimated in step S304 has converged. If the blur has converged, the process proceeds to step S306. On the other hand, if the blur has not converged, the process returns to step S303. When returning to step S303, the generation unit 3082 newly generates a plurality of correction signal gradients in step S303 using the blur estimated in step S304. Whether or not the estimated blur has converged can be determined by, for example, obtaining a difference or ratio between a value obtained by degrading the correction signal gradient from the estimated blur and a signal gradient in the blur estimation region and comparing it with a predetermined value. is there. Alternatively, when blur is estimated by iterative calculation such as the conjugate gradient method in step S304, the determination may be made based on whether or not the update amount of blur by the iterative calculation is smaller than a predetermined value. When the blur converges, the generation unit 3082 sets each of the estimated blurs as an estimated blur in the blur estimation region.
ステップS306において、デノイジング部3083は、複数の推定ぼけを用いてノイズ低減推定ぼけを生成する。ノイズ低減推定ぼけの生成方法は、図1を参照して説明した実施例1のステップS207と同様である。図10は、本実施例におけるノイズ低減推定ぼけの生成例を示す図であり、図9のステップS303〜S306の模式図である。1つのぼけ推定領域の信号勾配401から、複数の補正信号勾配402a〜402cが生成される。そして、複数の補正信号勾配402a〜402cと信号勾配401との比較から、複数の推定ぼけ403a〜403cが生成される。デノイジング部3083は、複数の推定ぼけ403a〜403cを用いて、ノイズ低減推定ぼけ404を生成する。ただし本実施例において、補正信号勾配および推定ぼけの数はそれぞれ、これに限定されるものではない。また、実施例1のように複数のぼけ推定領域を取得する方法と組み合わせてもよい。 In step S306, the denoising unit 3083 generates a noise reduction estimated blur using a plurality of estimated blurs. The noise reduction estimation blur generation method is the same as that in step S207 of the first embodiment described with reference to FIG. FIG. 10 is a diagram illustrating a generation example of noise reduction estimation blur in the present embodiment, and is a schematic diagram of steps S303 to S306 in FIG. A plurality of correction signal gradients 402a to 402c are generated from the signal gradient 401 of one blur estimation region. Then, a plurality of estimated blurs 403 a to 403 c are generated from the comparison between the plurality of correction signal gradients 402 a to 402 c and the signal gradient 401. The denoising unit 3083 generates the noise reduction estimated blur 404 using the plurality of estimated blurs 403a to 403c. However, in the present embodiment, the correction signal gradient and the number of estimated blurs are not limited to this, respectively. Moreover, you may combine with the method of acquiring a some blur estimation area like Example 1. FIG.
続いてステップS307において、生成部3082は、ぼけ画像における所定の領域(例えば、ぼけ画像の全体)に対して、ノイズ低減推定ぼけの生成が完了したか否かを判定する。ノイズ低減推定ぼけの生成が完了している場合、ステップS308へ進む。一方、ノイズ低減推定ぼけの生成が完了していない場合、ステップS302へ戻る。なおステップS307は、図4を参照して説明した実施例1のステップS106と同様である。 Subsequently, in step S307, the generation unit 3082 determines whether or not generation of noise reduction estimated blur has been completed for a predetermined region (for example, the entire blur image) in the blur image. If the generation of the noise reduction estimation blur has been completed, the process proceeds to step S308. On the other hand, when the generation of the noise reduction estimation blur is not completed, the process returns to step S302. Step S307 is the same as step S106 of the first embodiment described with reference to FIG.
ステップS308において、デノイジング部3083(または、生成部3082)は、生成されたノイズ低減推定ぼけを出力する。ぼけ画像における所定の領域内に複数のぼけ推定領域が含まれる場合(すなわち、Shift−variantの場合)、複数のノイズ低減推定ぼけが存在するため、デノイジング部3083は複数のノイズ低減推定ぼけを出力する。このとき、複数のノイズ低減推定ぼけを求める途中で逐次出力しても構わない。出力されたノイズ低減推定ぼけは、ぼけ画像の補正、撮影した光学系の光学性能測定、または、撮影の際の手ぶれの解析などに用いることができる。 In step S308, the denoising unit 3083 (or the generation unit 3082) outputs the generated noise reduction estimation blur. When a plurality of blur estimation regions are included in a predetermined region in a blurred image (that is, Shift-variant), since there are a plurality of noise reduction estimation blurs, the denoising unit 3083 outputs a plurality of noise reduction estimation blurs. To do. At this time, the noise may be output sequentially while obtaining a plurality of noise reduction estimation blurs. The output noise reduction estimated blur can be used for correcting a blurred image, measuring the optical performance of a photographed optical system, or analyzing camera shake during photographing.
本実施例によれば、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して実行可能な画像処理システムを提供することができる。 According to the present embodiment, it is possible to provide an image processing system capable of executing highly accurate denoising of estimated blur while suppressing an increase in the amount of calculation.
次に、図11および図12を参照して、本発明の実施例3における撮像システムについて説明する。図11は、本実施例における撮像システム500のブロック図である。図12は、撮像システム500の外観図である。 Next, with reference to FIG. 11 and FIG. 12, the imaging system in Example 3 of this invention is demonstrated. FIG. 11 is a block diagram of an imaging system 500 in the present embodiment. FIG. 12 is an external view of the imaging system 500.
撮像システム500は、撮像装置501、ネットワーク502、および、サーバ503(画像処理装置)により構成される。撮像装置501とサーバ503とは無線で接続されており、撮像装置501からの画像(ぼけ画像)はサーバ503へ転送され、サーバ503がぼけの推定および補正を行う。またサーバ503は、一対のぼけ推定領域の信号勾配と補正信号勾配に対して複数の推定ぼけを生成し、ノイズ低減推定ぼけを取得する。 The imaging system 500 includes an imaging device 501, a network 502, and a server 503 (image processing device). The imaging device 501 and the server 503 are connected wirelessly, and an image (blurred image) from the imaging device 501 is transferred to the server 503, and the server 503 performs blur estimation and correction. Further, the server 503 generates a plurality of estimated blurs for the signal gradient and the correction signal gradient of the pair of blur estimation regions, and acquires the noise reduction estimated blur.
サーバ503は、通信部504、記憶部505、および、ノイズ低減推定ぼけ生成部506(画像処理部)を有する。サーバ503の通信部504は、ネットワーク502を介して撮像装置501と接続されている。本実施例において、撮像装置501とサーバ503とは無線で接続されているが、これに限定されるものではなく、有線で接続されてもよい。サーバ503の通信部504は、撮像装置501からぼけ画像を受信するように構成されている。撮像装置501により撮影が行われると、ぼけ画像(入力画像または撮影画像)は、自動的または手動でサーバ503に入力され、記憶部505およびノイズ低減推定ぼけ生成部506に送られる。記憶部505は、ぼけ画像およびそのぼけ画像を撮影した撮影条件に関する情報を記憶する。ノイズ低減推定ぼけ生成部506は、ぼけ画像に基づいて推定ぼけを生成する。そしてノイズ低減推定ぼけ生成部506は、推定ぼけに基づいて、ぼけ補正画像を生成する。ぼけ補正画像は、記憶部505に記憶されるか、または、通信部504を介して撮像装置501へ送られる。ノイズ低減推定ぼけ生成部506は、取得部5061(取得手段)、生成部5062(生成手段)、および、デノイジング部5063(デノイジング手段)を有する。 The server 503 includes a communication unit 504, a storage unit 505, and a noise reduction estimation blur generation unit 506 (image processing unit). A communication unit 504 of the server 503 is connected to the imaging device 501 via the network 502. In this embodiment, the imaging device 501 and the server 503 are connected wirelessly, but the present invention is not limited to this, and may be connected by wire. The communication unit 504 of the server 503 is configured to receive a blurred image from the imaging device 501. When shooting is performed by the imaging device 501, a blurred image (input image or captured image) is automatically or manually input to the server 503 and sent to the storage unit 505 and the noise reduction estimated blur generation unit 506. The storage unit 505 stores information regarding a blurred image and shooting conditions for shooting the blurred image. The noise reduction estimated blur generation unit 506 generates an estimated blur based on the blurred image. Then, the noise reduction estimated blur generation unit 506 generates a blur correction image based on the estimated blur. The blur correction image is stored in the storage unit 505 or is sent to the imaging device 501 via the communication unit 504. The noise reduction estimation blur generation unit 506 includes an acquisition unit 5061 (acquisition unit), a generation unit 5062 (generation unit), and a denoising unit 5063 (denoising unit).
本実施例の画像処理方法を実現するため、ソフトウエア(画像処理プログラム)を、ネットワーク、またはCD−ROMなどの記憶媒体を介して、サーバ503に供給することもできる。この際、画像処理プログラムは、サーバ503のコンピュータ(またはCPUやMPUなど)により読み出されて、サーバ503の機能を実行する。 In order to realize the image processing method of the present embodiment, software (image processing program) can be supplied to the server 503 via a network or a storage medium such as a CD-ROM. At this time, the image processing program is read by a computer (or CPU, MPU, etc.) of the server 503 and executes the function of the server 503.
次に、図13を参照して、ノイズ低減推定ぼけ生成部506で行われる画像処理について説明する。図13は、本実施例における画像処理方法を示すフローチャートである。図13の各ステップは、ノイズ低減推定ぼけ生成部506の取得部5061、生成部5062、および、デノイジング部5063により実行される。なお、図13のステップS401、S402、S405〜S408(ステップS403、S404を除くステップ)は、実施例2における図9のステップS301、S302、S305〜S308とそれぞれ同様であるため、それらの説明は省略する。 Next, image processing performed by the noise reduction estimation blur generation unit 506 will be described with reference to FIG. FIG. 13 is a flowchart showing an image processing method in the present embodiment. Each step in FIG. 13 is executed by the acquisition unit 5061, the generation unit 5062, and the denoising unit 5063 of the noise reduction estimation blur generation unit 506. 13 are the same as steps S301, S302, and S305 to S308 in FIG. 9 in the second embodiment, and therefore their explanations are as follows. Omitted.
ステップS403において、生成部5062は、1つのぼけ推定領域における信号勾配から、1つの補正信号勾配を生成する(補正処理)。ただし、生成部5062は、複数のぼけ推定領域に対する複数の信号勾配から1つの補正信号勾配を生成してもよく、または、1つの信号勾配から複数の補正信号勾配を生成してもよい。 In step S403, the generation unit 5062 generates one correction signal gradient from the signal gradient in one blur estimation region (correction processing). However, the generation unit 5062 may generate one correction signal gradient from a plurality of signal gradients with respect to a plurality of blur estimation regions, or may generate a plurality of correction signal gradients from one signal gradient.
続いてステップS404において、生成部5062は、一対の信号勾配と補正信号勾配とに基づいて、互いに異なる演算式、即ち、処理(推定処理)またはパラメータ(推定パラメータ)を用いて複数のぼけを推定する(ぼけの推定処理)。ぼけの推定処理には、式(6)または式(6a)の最適化などを用いる、式(8)および式(9)などの異なる正則化項(処理)を用いる、または、互いに異なる正則化の重みパラメータを用いることにより、複数のぼけを推定する。これらの複数のぼけは、ノイズが互いに異なるため、それらが収束した結果である推定ぼけに含まれるノイズも互いに異なる。このため、複数の推定ぼけから、ノイズ低減推定ぼけを得ることができる。 Subsequently, in step S404, the generation unit 5062 estimates a plurality of blurs using different arithmetic expressions, that is, processing (estimation processing) or parameters (estimation parameters), based on the pair of signal gradients and the correction signal gradient. Yes (blur estimation process). The blur estimation process uses the optimization of formula (6) or formula (6a), etc., uses different regularization terms (processes) such as formula (8) and formula (9), or different regularizations. Are used to estimate a plurality of blurs. Since these plural blurs have different noises, the noises included in the estimated blur that is a result of the convergence thereof are also different from each other. For this reason, noise reduction estimation blur can be obtained from a plurality of estimation blurs.
図14は、本実施例におけるノイズ低減推定ぼけの生成例を示す図であり、ノイズ低減推定ぼけの生成の模式図を示す。生成部5062は、ぼけ推定領域の信号勾配601と補正信号勾配602とに対して、互いに異なる処理またはパラメータを用いることにより、複数の推定ぼけ603a〜603cを生成する。そしてデノイジング部5063は、複数の推定ぼけ603a〜603cから、ノイズ低減推定ぼけ604を生成する。ただし、推定ぼけの数はこれに限定されるものではなく、実施例1のように複数のぼけ推定領域を取得する手法、または、実施例2のように1つの信号勾配から複数の補正信号勾配を生成する手法を併用しても構わない。 FIG. 14 is a diagram illustrating an example of generation of noise reduction estimation blur in the present embodiment, and illustrates a schematic diagram of generation of noise reduction estimation blur. The generation unit 5062 generates a plurality of estimated blurs 603 a to 603 c by using different processes or parameters for the signal gradient 601 and the correction signal gradient 602 in the blur estimation region. The denoising unit 5063 generates a noise reduction estimated blur 604 from the plurality of estimated blurs 603a to 603c. However, the number of estimated blurs is not limited to this, and a method of acquiring a plurality of blur estimation regions as in the first embodiment or a plurality of correction signal gradients from one signal gradient as in the second embodiment. You may use together the method of producing | generating.
このように各実施例において、画像処理装置(画像処理装置105、305、サーバ503)は、生成手段(生成部1082、3082、5062)およびデノイジング手段(デノイジング部1083、3083、5603)を有する。生成手段は、ぼけ画像(撮影画像または入力画像)における少なくとも一部のぼけ推定領域を取得し、ぼけ推定領域から複数の2次元の推定ぼけを生成する。デノイジング手段は、複数の2次元の推定ぼけを用いて推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成する。生成手段は、補正処理と推定処理と、を反復する反復演算処理を行って複数の2次元の推定ぼけを生成する。ここで、補正処理とは、ぼけ推定領域における信号に関する情報に含まれるぼけ(信号勾配)を補正して補正信号に関する情報(補正信号勾配)を生成する処理である。また、推定処理とは、信号に関する情報と補正信号に関する情報とに基づいて2次元のぼけを推定する処理である。そして生成手段は、ぼけ推定領域として決定された複数の領域を用いて(実施例1)、または、反復演算処理において互いに異なる複数の演算式を用いて(実施例2、3)、複数の2次元の推定ぼけをそれぞれ生成する。 As described above, in each embodiment, the image processing apparatus (the image processing apparatuses 105 and 305 and the server 503) includes a generation unit (generation units 1082, 3082, and 5062) and a denoising unit (denoising units 1083, 3083, and 5603). The generation unit acquires at least a part of the blur estimation area in the blur image (captured image or input image), and generates a plurality of two-dimensional estimation blurs from the blur estimation area. The denoising means performs a denoising process using a plurality of two-dimensional estimation blurs while maintaining the number of estimated blur dimensions, and generates a two-dimensional noise reduction estimation blur. The generation unit generates a plurality of two-dimensional estimation blurs by performing an iterative calculation process that repeats the correction process and the estimation process. Here, the correction process is a process of generating information (correction signal gradient) related to the correction signal by correcting blur (signal gradient) included in the information related to the signal in the blur estimation region. The estimation process is a process for estimating a two-dimensional blur based on the information on the signal and the information on the correction signal. Then, the generation unit uses a plurality of regions determined as blur estimation regions (Example 1) or uses a plurality of arithmetic expressions different from each other in the iterative calculation process (Examples 2 and 3). Generate an estimated blur for each dimension.
好ましくは、デノイジング手段は、複数の2次元の推定ぼけを用いて、複数の2次元の推定ぼけの加重平均値、最小値、中央値、最頻値、または、最尤値のうち少なくとも1つを算出し、ノイズ低減推定ぼけを生成する。また好ましくは、デノイジング手段は、複数の2次元の推定ぼけのうち少なくとも1つがゼロである位置における成分をゼロとする。また好ましくは、デノイジング手段は、複数の2次元の推定ぼけの位置合わせを行い、ノイズ低減推定ぼけを生成する。また好ましくは、デノイジング手段は、位置合わせとして、複数の2次元の推定ぼけのそれぞれにおけるピーク値の位置を合わせる。 Preferably, the denoising means uses at least one of a weighted average value, a minimum value, a median value, a mode value, or a maximum likelihood value of the plurality of two-dimensional estimation blurs using the plurality of two-dimensional estimation blurs. To generate noise reduction estimation blur. Further preferably, the denoising means sets a component at a position where at least one of a plurality of two-dimensional estimation blurs is zero to zero. Preferably, the denoising means aligns a plurality of two-dimensional estimated blurs to generate a noise reduction estimated blur. Preferably, the denoising means aligns the position of the peak value in each of the plurality of two-dimensional estimated blurs as the alignment.
好ましくは、生成手段は、ぼけ推定領域として複数の領域を取得し、補正処理において、複数の領域における複数の前記信号に関する情報(に含まれるぼけ)に基づいて、複数の補正信号に関する情報を生成する。また生成手段は、推定処理において、複数の信号に関する情報と複数の補正信号に関する情報のそれぞれに基づいて、2次元のぼけを推定する(実施例1、図6)。より好ましくは、生成手段は、ぼけ推定領域として、互いに位置または形状の異なる複数の領域を取得する。より好ましくは、生成手段は、複数の領域のうち最も面積が小さい最小ぼけ推定領域と、複数の領域のうち残りのぼけ推定領域のそれぞれとが互いに重なる領域の面積が、最小ぼけ推定領域の面積の半分以上となるように、複数の領域を取得する。 Preferably, the generation unit acquires a plurality of areas as the blur estimation area, and generates information regarding a plurality of correction signals based on information (including blur) regarding the plurality of signals in the plurality of areas in the correction process. To do. In the estimation process, the generation unit estimates a two-dimensional blur based on each of the information on the plurality of signals and the information on the plurality of correction signals (Example 1, FIG. 6). More preferably, the generation unit acquires a plurality of regions having different positions or shapes as the blur estimation region. More preferably, the generation unit is configured such that an area of the minimum blur estimation area having the smallest area among the plurality of areas and an area where each of the remaining blur estimation areas of the plurality of areas overlap each other is an area of the minimum blur estimation area. A plurality of areas are acquired so as to be more than half of the above.
好ましくは、生成手段は、補正処理において、ぼけ推定領域として取得された一つの領域における信号に関する情報に基づいて、複数の演算式を用いて複数の前記補正信号に関する情報を生成する。また生成手段は、推定処理において、信号に関する情報と複数の補正信号に関する情報のそれぞれに基づいて、2次元のぼけを推定する(実施例2、図10)。 Preferably, the generation unit generates information on the plurality of correction signals using a plurality of arithmetic expressions based on information on the signal in one area acquired as the blur estimation area in the correction process. In the estimation process, the generation unit estimates a two-dimensional blur based on each of the information on the signal and the information on the plurality of correction signals (Example 2, FIG. 10).
好ましくは、生成手段は、補正処理において、ぼけ推定領域として取得された一つの領域における信号に関する情報に基づいて、補正信号に関する情報を生成する。また生成手段は、推定処理において、信号に関する情報と補正信号に関する情報とに基づいて、複数の演算式を用いて2次元のぼけを複数推定する(実施例3、図14)。 Preferably, the generation unit generates information regarding the correction signal based on information regarding the signal in one area acquired as the blur estimation area in the correction process. Further, in the estimation process, the generation means estimates a plurality of two-dimensional blurs using a plurality of arithmetic expressions based on the information on the signal and the information on the correction signal (Example 3, FIG. 14).
好ましくは、生成手段は、ぼけ画像のノイズ量に基づいて、複数の2次元の推定ぼけの数を決定する。また好ましくは、生成手段は、ぼけ推定領域の解像度を低下させて低解像ぼけ推定領域を生成し、低解像ぼけ推定領域において、信号に関する情報を補正して補正信号に関する情報を生成する。そして生成手段は、反復演算処理の過程において、低解像ぼけ推定領域の解像度をぼけ推定領域の解像度に近づける(S206)。また好ましくは、生成手段は、ぼけ推定領域に含まれるノイズ量を取得し、ぼけ推定領域を周波数分解して周波数分解ぼけ推定領域を生成する。そして生成手段は、ノイズ量に基づいて、周波数分解ぼけ推定領域に対するデノイジング処理を行い、デノイジング処理後の周波数分解ぼけ推定領域を再合成する(S103)。また好ましくは、画像処理装置は、ノイズ低減推定ぼけを用いてぼけ画像を補正する補正手段(補正部1084)を有する。 Preferably, the generation unit determines the number of the plurality of two-dimensional estimated blurs based on the noise amount of the blur image. Preferably, the generation unit generates a low-resolution blur estimation area by reducing the resolution of the blur estimation area, and corrects information about the signal in the low-resolution blur estimation area to generate information about the correction signal. Then, the generation unit brings the resolution of the low-resolution blur estimation area close to the resolution of the blur estimation area in the process of the iterative calculation process (S206). Preferably, the generation unit acquires the amount of noise included in the blur estimation area, and frequency-decomposes the blur estimation area to generate a frequency-resolved blur estimation area. Then, the generation unit performs denoising processing on the frequency-resolved blur estimation region based on the amount of noise, and re-synthesizes the frequency-resolved blur estimation region after the denoising process (S103). Preferably, the image processing apparatus includes a correcting unit (correcting unit 1084) that corrects the blurred image using the noise reduction estimated blur.
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
各実施例によれば、推定したぼけの高精度なデノイジングを、計算量の増加を抑制して実行可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。 According to each embodiment, there are provided an image processing device, an imaging device, an image processing method, an image processing program, and a storage medium capable of executing highly accurate denoising of estimated blur while suppressing an increase in calculation amount. be able to.
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although the preferable Example of this invention was described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.
105、305 画像処理装置
1082、3082、5062 生成部(生成手段)
1083、3083、5603 デノイジング部(デノイジング手段)
105, 305 Image processing devices 1082, 3082, 5062 Generation unit (generation means)
1083, 3083, 5603 Denoising unit (denoising means)
Claims (18)
前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するデノイジング手段と、を有し、
前記生成手段は、
前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、
前記ぼけ推定領域として取得された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する、ことを特徴とする画像処理装置。 Generating means for obtaining at least a part of a blur estimation area in a blur image and generating a plurality of two-dimensional estimation blurs from the blur estimation area;
Denoising means for generating a two-dimensional noise reduction estimated blur by performing a denoising process using the plurality of two-dimensional estimated blurs while maintaining the number of dimensionality of the estimated blurs,
The generating means includes
Correction processing for correcting blur included in information on a signal in the blur estimation region to generate information on a correction signal, and estimation processing for estimating two-dimensional blur based on the information on the signal and the information on the correction signal To generate the plurality of two-dimensional estimated blurs by performing an iterative calculation process that repeats
The plurality of two-dimensional estimated blurs are respectively generated using a plurality of areas acquired as the blur estimation area or using a plurality of arithmetic expressions different from each other in the iterative calculation process. Image processing device.
前記ぼけ推定領域として前記複数の領域を取得し、
前記補正処理において、前記複数の領域における複数の前記信号に関する情報に基づいて、複数の前記補正信号に関する情報を生成し、
前記推定処理において、前記複数の信号に関する情報と前記複数の補正信号に関する情報のそれぞれに基づいて、前記2次元のぼけを推定する、ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The generating means includes
Obtaining the plurality of regions as the blur estimation region;
In the correction process, based on information on the plurality of signals in the plurality of regions, information on the plurality of correction signals is generated,
The said estimation process WHEREIN: Based on each of the information regarding these signals, and the information regarding these correction signals, the said two-dimensional blur is estimated, The any one of Claim 1 thru | or 5 characterized by the above-mentioned. The image processing apparatus described.
前記補正処理において、前記ぼけ推定領域として取得された一つの領域における前記信号に関する情報に基づいて、前記複数の演算式を用いて複数の前記補正信号に関する情報を生成し、
前記推定処理において、前記信号に関する情報と前記複数の補正信号に関する情報のそれぞれに基づいて、前記2次元のぼけを推定する、ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The generating means includes
In the correction process, based on the information about the signal in one area acquired as the blur estimation area, generate information about the plurality of correction signals using the plurality of arithmetic expressions,
The said estimation process WHEREIN: Based on each of the information regarding the said signal, and the information regarding these correction | amendment signals, the said two-dimensional blur is estimated, The any one of Claim 1 thru | or 5 characterized by the above-mentioned. Image processing device.
前記補正処理において、前記ぼけ推定領域として取得された一つの領域における前記信号に関する情報に基づいて、前記補正信号に関する情報を生成し、
前記推定処理において、前記信号に関する情報と前記補正信号に関する情報とに基づいて、前記複数の演算式を用いて前記2次元のぼけを複数推定する、ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The generating means includes
In the correction process, based on the information about the signal in one area acquired as the blur estimation area, information about the correction signal is generated,
6. The estimation process according to claim 1, wherein a plurality of the two-dimensional blurs are estimated using the plurality of arithmetic expressions based on the information on the signal and the information on the correction signal. The image processing apparatus according to claim 1.
前記ぼけ推定領域の解像度を低下させて低解像ぼけ推定領域を生成し、
前記低解像ぼけ推定領域において、前記信号に関する情報を補正して前記補正信号に関する情報を生成し、
前記反復演算処理の過程において、前記低解像ぼけ推定領域の解像度を前記ぼけ推定領域の前記解像度に近づける、ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The generating means includes
Reducing the resolution of the blur estimation area to generate a low-resolution blur estimation area;
In the low-resolution blur estimation region, information related to the signal is corrected to generate information related to the corrected signal,
The image processing apparatus according to claim 1, wherein the resolution of the low-resolution blur estimation area is made closer to the resolution of the blur estimation area in the process of the iterative calculation process.
前記ぼけ推定領域に含まれるノイズ量を取得し、
前記ぼけ推定領域を周波数分解して周波数分解ぼけ推定領域を生成し、
前記ノイズ量に基づいて、前記周波数分解ぼけ推定領域に対するデノイジング処理を行い、
デノイジング処理後の周波数分解ぼけ推定領域を再合成する、ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 The generating means includes
Obtain the amount of noise included in the blur estimation area,
Frequency-resolving the blur estimation region to generate a frequency-resolved blur estimation region;
Based on the amount of noise, performing a denoising process on the frequency-resolved blur estimation region,
The image processing apparatus according to any one of claims 1 to 12, wherein the frequency-resolved blur estimation region after the denoising process is re-synthesized.
前記画像信号に基づいて生成されたぼけ画像における少なくとも一部のぼけ推定領域を取得し、該ぼけ推定領域から複数の2次元の推定ぼけを生成する生成手段と、
前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するデノイジング手段と、を有し、
前記生成手段は、
前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、
前記ぼけ推定領域として取得された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する、ことを特徴とする撮像装置。 An image sensor that photoelectrically converts an optical image formed through the optical system and outputs an image signal;
Generating means for acquiring at least a part of a blur estimation area in a blur image generated based on the image signal and generating a plurality of two-dimensional estimation blurs from the blur estimation area;
Denoising means for generating a two-dimensional noise reduction estimated blur by performing a denoising process using the plurality of two-dimensional estimated blurs while maintaining the number of dimensionality of the estimated blurs,
The generating means includes
Correction processing for correcting blur included in information on a signal in the blur estimation region to generate information on a correction signal, and estimation processing for estimating two-dimensional blur based on the information on the signal and the information on the correction signal To generate the plurality of two-dimensional estimated blurs by performing an iterative calculation process that repeats
The plurality of two-dimensional estimated blurs are respectively generated using a plurality of areas acquired as the blur estimation area or using a plurality of arithmetic expressions different from each other in the iterative calculation process. Imaging device.
前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するステップと、を有し、
前記複数の2次元の推定ぼけを生成するステップにおいて、
前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、
前記ぼけ推定領域として決定された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する、ことを特徴とする画像処理方法。 Obtaining at least a portion of a blur estimation area in the blur image and generating a plurality of two-dimensional estimation blurs from the blur estimation area;
Performing a denoising process using the plurality of two-dimensional estimation blurs while maintaining the number of dimensionality of the estimation blurs, and generating two-dimensional noise reduction estimation blurs,
Generating the plurality of two-dimensional estimated blurs;
Correction processing for correcting blur included in information on a signal in the blur estimation region to generate information on a correction signal, and estimation processing for estimating two-dimensional blur based on the information on the signal and the information on the correction signal To generate the plurality of two-dimensional estimated blurs by performing an iterative calculation process that repeats
The plurality of two-dimensional estimated blurs are respectively generated using a plurality of regions determined as the blur estimation regions, or using a plurality of arithmetic expressions different from each other in the iterative calculation processing. Image processing method.
前記複数の2次元の推定ぼけを用いて該推定ぼけの次元数を保った状態でデノイジング処理を行い、2次元のノイズ低減推定ぼけを生成するステップと、をコンピュータに実行させるように構成された画像処理プログラムであって、
前記複数の2次元の推定ぼけを生成するステップにおいて、
前記ぼけ推定領域における信号に関する情報に含まれるぼけを補正して補正信号に関する情報を生成する補正処理と、該信号に関する情報と該補正信号に関する情報とに基づいて2次元のぼけを推定する推定処理と、を反復する反復演算処理を行って前記複数の2次元の推定ぼけを生成し、
前記ぼけ推定領域として取得された複数の領域を用いて、または、前記反復演算処理において互いに異なる複数の演算式を用いて、前記複数の2次元の推定ぼけをそれぞれ生成する、ことを特徴とする画像処理プログラム。 Obtaining at least a portion of a blur estimation area in the blur image and generating a plurality of two-dimensional estimation blurs from the blur estimation area;
A step of generating a two-dimensional noise reduction estimated blur by performing a denoising process using the plurality of two-dimensional estimated blurs while maintaining the number of dimensionality of the estimated blurs. An image processing program,
Generating the plurality of two-dimensional estimated blurs;
Correction processing for correcting blur included in information on a signal in the blur estimation region to generate information on a correction signal, and estimation processing for estimating two-dimensional blur based on the information on the signal and the information on the correction signal To generate the plurality of two-dimensional estimated blurs by performing an iterative calculation process that repeats
The plurality of two-dimensional estimated blurs are respectively generated using a plurality of areas acquired as the blur estimation area or using a plurality of arithmetic expressions different from each other in the iterative calculation process. Image processing program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015121678A JP2017010093A (en) | 2015-06-17 | 2015-06-17 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015121678A JP2017010093A (en) | 2015-06-17 | 2015-06-17 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017010093A true JP2017010093A (en) | 2017-01-12 |
Family
ID=57763543
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015121678A Pending JP2017010093A (en) | 2015-06-17 | 2015-06-17 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017010093A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020046475A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus and control method thereof |
| CN111033559A (en) * | 2017-09-05 | 2020-04-17 | 索尼公司 | Image processing, image processing method and program for image blur correction |
| US11764361B2 (en) | 2017-07-07 | 2023-09-19 | Ppg Industries Ohio, Inc. | Electrode slurry composition for lithium ion electrical storage devices |
| US11843118B2 (en) | 2017-07-07 | 2023-12-12 | Ppg Industries Ohio, Inc. | Electrode binder slurry composition for lithium ion electrical storage devices |
| CN117806036A (en) * | 2024-03-01 | 2024-04-02 | 中国科学院光电技术研究所 | An achromatic method based on compressed sensing for single-chip diffractive lens system |
| US12463220B2 (en) | 2017-07-07 | 2025-11-04 | Ppg Industries Ohio, Inc. | Electrode binder slurry composition for lithium ion electrical storage devices |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009135561A (en) * | 2007-01-12 | 2009-06-18 | Sanyo Electric Co Ltd | Blur detection apparatus, and apparatus and method for blur correction |
| JP2010079875A (en) * | 2008-08-27 | 2010-04-08 | Sony Corp | Information processing apparatus, information processing method, and program |
| WO2011099244A1 (en) * | 2010-02-10 | 2011-08-18 | パナソニック株式会社 | Image processing device and method |
-
2015
- 2015-06-17 JP JP2015121678A patent/JP2017010093A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009135561A (en) * | 2007-01-12 | 2009-06-18 | Sanyo Electric Co Ltd | Blur detection apparatus, and apparatus and method for blur correction |
| JP2010079875A (en) * | 2008-08-27 | 2010-04-08 | Sony Corp | Information processing apparatus, information processing method, and program |
| WO2011099244A1 (en) * | 2010-02-10 | 2011-08-18 | パナソニック株式会社 | Image processing device and method |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11764361B2 (en) | 2017-07-07 | 2023-09-19 | Ppg Industries Ohio, Inc. | Electrode slurry composition for lithium ion electrical storage devices |
| US11843118B2 (en) | 2017-07-07 | 2023-12-12 | Ppg Industries Ohio, Inc. | Electrode binder slurry composition for lithium ion electrical storage devices |
| US12191496B2 (en) | 2017-07-07 | 2025-01-07 | Ppg Industries Ohio, Inc. | Electrode binder slurry composition for lithium ion electrical storage devices |
| US12463220B2 (en) | 2017-07-07 | 2025-11-04 | Ppg Industries Ohio, Inc. | Electrode binder slurry composition for lithium ion electrical storage devices |
| CN111033559A (en) * | 2017-09-05 | 2020-04-17 | 索尼公司 | Image processing, image processing method and program for image blur correction |
| JP2020046475A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus and control method thereof |
| JP7204387B2 (en) | 2018-09-14 | 2023-01-16 | キヤノン株式会社 | Image processing device and its control method |
| CN117806036A (en) * | 2024-03-01 | 2024-04-02 | 中国科学院光电技术研究所 | An achromatic method based on compressed sensing for single-chip diffractive lens system |
| CN117806036B (en) * | 2024-03-01 | 2024-05-17 | 中国科学院光电技术研究所 | Achromatic method of monolithic diffraction lens system based on compressed sensing |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7242185B2 (en) | Image processing method, image processing apparatus, image processing program, and storage medium | |
| US10002411B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for estimating blur | |
| JP6957197B2 (en) | Image processing device and image processing method | |
| JP4799428B2 (en) | Image processing apparatus and method | |
| JP2017010095A (en) | Image processing apparatus, imaging device, image processing method, image processing program, and recording medium | |
| US12283034B2 (en) | Manufacturing method of learning data, learning method, learning data manufacturing apparatus, learning apparatus, and memory medium | |
| JP5243477B2 (en) | Blur correction apparatus and blur correction method | |
| US20140354886A1 (en) | Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence | |
| JP2017010093A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
| JP6344934B2 (en) | Image processing method, image processing apparatus, imaging apparatus, image processing program, and recording medium | |
| US10417746B2 (en) | Image processing apparatus and image processing method for estimating fixed-pattern noise attributable to image sensor | |
| US10062153B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and storage medium | |
| WO2018037521A1 (en) | Image processing method, image processing apparatus, image capture apparatus, image processing program, and storage medium | |
| JP7234057B2 (en) | Image processing method, image processing device, imaging device, lens device, program, storage medium, and image processing system | |
| JP6541454B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
| JP7301601B2 (en) | Image processing device, imaging device, lens device, image processing system, image processing method, and program | |
| JP2023055848A (en) | Image processing method, image processing apparatus, image processing system, and program | |
| US20150161771A1 (en) | Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium | |
| JP2019169000A (en) | Image processing apparatus, image processing method, and program | |
| JP6997969B2 (en) | Image synthesis system, image synthesis method, and image synthesis program recording medium | |
| JP7191588B2 (en) | Image processing method, image processing device, imaging device, lens device, program, and storage medium | |
| CN112073603B (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium | |
| JP2017130167A (en) | Image processing device, imaging device, and image processing program | |
| JP2015119428A (en) | Image processing method, image processor, imaging device, image processing program, and storage medium | |
| JP6189172B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180611 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190528 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191224 |