JP2012005056A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2012005056A JP2012005056A JP2010140777A JP2010140777A JP2012005056A JP 2012005056 A JP2012005056 A JP 2012005056A JP 2010140777 A JP2010140777 A JP 2010140777A JP 2010140777 A JP2010140777 A JP 2010140777A JP 2012005056 A JP2012005056 A JP 2012005056A
- Authority
- JP
- Japan
- Prior art keywords
- image
- restoration
- subject distance
- area
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】、画像データにデフォーカスした領域がある場合でも、撮像光学系の光学収差を補正し、デフォーカスや絞り状態に応じたぼけを出す良好な画像復元を可能とする。
【解決手段】被写体距離演算部35は、撮像手段62により生成された画像データの各測距領域における被写体距離を算出する。フィルタ選択部73は、画像データの各分割領域の被写体距離として、各分割領域に夫々該当する測距領域の被写体距離を取得する。復元処理部76は、各分割領域の被写体距離に基づいて各分割領域の光学収差を補正するとともに、各分割領域の被写体距離及び撮像手段62の絞り状態に基づいて各分割領域に対してぼけを与える。
【選択図】図1Even if there is a defocused region in image data, it is possible to correct an optical aberration of an image pickup optical system and to perform a good image restoration that produces a blur according to the defocus or aperture state.
A subject distance calculation unit calculates a subject distance in each distance measurement area of image data generated by an imaging means. The filter selection unit 73 acquires the subject distance of the ranging area corresponding to each divided area as the subject distance of each divided area of the image data. The restoration processing unit 76 corrects the optical aberration of each divided region based on the subject distance of each divided region, and blurs each divided region based on the subject distance of each divided region and the aperture state of the imaging means 62. give.
[Selection] Figure 1
Description
本発明は、撮像により得られた画像に対してぼけや光学収差の復元処理を行う技術に関するものである。 The present invention relates to a technique for performing blur and optical aberration restoration processing on an image obtained by imaging.
撮影された画像にはぼけ(Blur)が生じており、ぼけが生じた画像を復元するための画像復元アルゴリズムが従来から知られている。ぼけには、収差、焦点ずれ、露光時間中の撮像装置の移動(手ぶれを含む)、露光時間中の被写体の移動、大気のゆらぎ等の要因がある。 Blurred (Blur) has occurred in the photographed image, and an image restoration algorithm for restoring the blurred image is conventionally known. The blur includes factors such as aberration, defocus, movement of the imaging device during exposure time (including camera shake), movement of the subject during exposure time, and atmospheric fluctuation.
画像復元アルゴリズムとしては、例えば、画像の結像状態の特性を点像分布関数(PSF: point spread function)で表し、PSFに基づいてぼけを補正した画像に復元する手法が知られている。例えば特許文献1には、PSFの逆特性を有する補正関数を用いて、ぼけの補正を行う手法が開示されている。 As an image restoration algorithm, for example, a technique is known in which the characteristics of the image formation state of an image are represented by a point spread function (PSF) and the image is restored to a blur corrected based on the PSF. For example, Patent Document 1 discloses a technique for correcting blur using a correction function having the inverse characteristics of PSF.
しかしながら、実際に撮影で得られた画像はデフォーカスした領域があり、焦点合わせをした被写体距離でのPSFに基づいて復元処理を行うと、デフォーカスや絞り状態に応じたぼけをもつ良好な復元画像を得ることができないという課題があった。 However, the image actually obtained by shooting has a defocused area, and when restoration processing is performed based on the PSF at the focused subject distance, good restoration with blur corresponding to defocus or aperture state is achieved. There was a problem that images could not be obtained.
そこで、本発明の目的は、画像の中にデフォーカスした領域がある場合でも、撮像光学系の光学収差によるぼけを補正し、デフォーカスや絞り状態に応じたぼけを出す良好な復元画像を得ることにある。 Therefore, an object of the present invention is to correct a blur due to optical aberrations of the imaging optical system even when there is a defocused area in the image, and obtain a good restored image that produces a blur according to the defocus or aperture state. There is.
本発明の画像処理装置は、撮像手段の各測距領域における被写体距離情報を保持する保持手段と、画像復元を行う画像の各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得手段と、前記各復元領域の画像内での位置(像高)および被写体距離情報の違いによる光学収差を補正するとともに、前記各分割領域のデフォーカス情報および絞り状態に基づくぼけを前記各復元領域に対して与える補正手段とを有することを特徴とする。 The image processing apparatus of the present invention includes a holding unit that holds subject distance information in each ranging area of the imaging unit, subject distance information of each restoration area of the image to be restored, and subject distance information of each ranging area. Based on the defocus information and the diaphragm state of each of the divided areas, and the correction means for acquiring the optical aberration due to the difference in position (image height) and subject distance information in the image of each restoration area Correction means for giving a blur to each of the restoration areas.
本発明によれば、画像の中にデフォーカスした領域がある場合でも、撮像光学系の光学収差によるぼけを補正し、デフォーカスおよび絞り状態に応じたぼけを出す復元処理を行うことによって、ぼけのある良好な復元画像を得ることができる。 According to the present invention, even when there is a defocused area in the image, the blurring due to the optical aberration of the imaging optical system is corrected, and the defocusing and blurring process according to the aperture state is performed to perform blurring. A good restored image can be obtained.
先ず、画像復元の原理について説明する。撮像系の光軸にz軸をとり、z軸に垂直な方向にx軸及びy軸をとる。被写体(対象物)を忠実に画像化したものを原画像と呼び、位置座標(x,y)を用いて、原画像をf(x,y)と表すものとする。また、撮像によって得られる画像は、画像上の座標(x,y)を用いてg(x,y)と表すものとする。 First, the principle of image restoration will be described. The z axis is taken as the optical axis of the imaging system, and the x axis and the y axis are taken in the direction perpendicular to the z axis. A faithful image of a subject (object) is called an original image, and the original image is expressed as f (x, y) using position coordinates (x, y). An image obtained by imaging is expressed as g (x, y) using coordinates (x, y) on the image.
原画像f(x,y)は、無数の点光源によって構成されていると考えることができる。2次元のデルタ関数δ(x,y)は輝度が1の点光源と考えることができ、原画像f(x,y)は、x−y平面上の位置(x0,y0)における輝度がf(x0,y0)の点光源の線形和として、次の式1のように示される。なお、0は被写体を示す添字である。 The original image f (x, y) can be considered to be composed of an infinite number of point light sources. The two-dimensional delta function δ (x, y) can be considered as a point light source having a luminance of 1, and the original image f (x, y) has a luminance at a position (x 0 , y 0 ) on the xy plane. Is expressed as the following equation 1 as a linear sum of point light sources of f (x 0 , y 0 ). Note that 0 is a subscript indicating the subject.
入力として点光源を与えたとき、撮像系を通して、出力としてそれがどれだけぼけた像として現れるかを示す特性であるPSF(点像分布関数)をh(x,y)とする。この応答h(x,y)は撮像システムLのインパルス応答に対応するものであり、位置(x0,y0)にある点光源として、2次元デルタ関数δ(x−x0,y−y0)を与えたときの出力は、次の式2で表される。 When a point light source is given as an input, a PSF (point spread function) indicating a blurred image as an output through an imaging system is assumed to be h (x, y). This response h (x, y) corresponds to the impulse response of the imaging system L, and is a two-dimensional delta function δ (x−x 0 , yy) as a point light source at the position (x 0 , y 0 ). The output when 0 ) is given is expressed by the following equation 2.
従って、f(x,y)とg(x,y)とh(x,y)との間には、次の式3のような関係が成り立つ。 Therefore, the relationship shown in the following Expression 3 is established between f (x, y), g (x, y), and h (x, y).
PSFは、一般には入力及び出力の位置に依存してその値が変わるが、2次元システムの応答が均一で入力の位置による応答が変わらないとみなせる領域内では、次の式4が成り立つ。 The value of PSF generally changes depending on the input and output positions. However, in the region where the response of the two-dimensional system is uniform and the response due to the input position does not change, the following expression 4 holds.
ここで、*は、畳み込み積分(convolution integral)を表している。
これをフーリエ変換して空間周波数領域で表現すると、式4は次の式5のようになる。
Here, * represents a convolution integral.
When this is Fourier-transformed and expressed in the spatial frequency domain, Equation 4 becomes Equation 5 below.
ここで、u、vはそれぞれx方向、y方向の空間周波数、F(u,v)、G(u,v)、H(u,v)は、f(x,y)、g(x,y)、h(x,y)を2次元フーリエ変換したものである。H(u,v)は、システムの周波数応答特性を示す空間周波数伝達関数、即ち、2次元フィルタの周波数特性を示すもので光学伝達関数(OTF:optical transfer function)と呼ばれている。 Here, u and v are spatial frequencies in the x and y directions, respectively, and F (u, v), G (u, v) and H (u, v) are f (x, y) and g (x, x, y) and h (x, y) are two-dimensional Fourier transforms. H (u, v) represents a spatial frequency transfer function indicating the frequency response characteristic of the system, that is, a frequency characteristic of the two-dimensional filter, and is called an optical transfer function (OTF).
撮像された画像g(x,y)から画像復元を行うには、式5を変形した次の式6を利用すればよい。 In order to restore an image from the captured image g (x, y), the following Expression 6 obtained by transforming Expression 5 may be used.
OTFの逆フィルタである1/H(u,v)をかけて求めたF(u,v)を、逆フーリエ変換して実空間に戻すことで、原画像f(x,y)を求めることができる。また、式6を逆フーリエ変換した式7のように、1/H(u,v)を逆フーリエ変換して求めた画像復元フィルタを、撮像された画像g(x,y)に対して畳み込み積分することで、原画像f(x,y)を求めることができる。
Obtaining the original image f (x, y) by performing inverse Fourier transform on F (u, v) obtained by multiplying 1 / H (u, v), which is an OTF inverse filter, and returning it to the real space. Can do. Further, an image restoration filter obtained by inverse Fourier transform of 1 / H (u, v) is convolved with the captured image g (x, y) as in
実際に画像を復元処理する際には、撮影された画像g(x,y)にノイズ成分が含まれるため、画像復元フィルタF-1{1/H(u,v)}をそのまま用いると、ノイズが増幅された画像となってしまう。この問題については、例えば、ウィーナフィルタのようにノイズ成分が存在することを考慮した方法を用いればよい。なお、PSFであるh(x,y)は、ズーム、絞り、被写体位置、像高で変わる。 When actually restoring the image, since the captured image g (x, y) includes a noise component, if the image restoration filter F −1 {1 / H (u, v)} is used as it is, The image is amplified with noise. For this problem, for example, a method considering the presence of a noise component such as a Wiener filter may be used. Note that h (x, y), which is a PSF, varies depending on zoom, aperture, subject position, and image height.
像平面上に焦点の合った像を形成するのは、物体空間の面である焦平面(focal plane)である。撮像装置では、AFやマニュアル操作で光学系のフォーカス用レンズ群を繰り出し、物体空間の一つの面(焦平面)に焦点を合わせて撮影する。画像復元を行う場合、フォーカス用レンズ群の繰り出しにより焦点の合った被写体距離(以下、合焦被写体距離と称す)に基づく画像復元フィルタが適用されることになる。 It is the focal plane that is the surface of the object space that forms a focused image on the image plane. In the imaging apparatus, the focusing lens group of the optical system is extended by AF or manual operation, and a single surface (focal plane) in the object space is focused and photographed. In the case of performing image restoration, an image restoration filter based on a subject distance focused on by extending the focusing lens group (hereinafter referred to as a focused subject distance) is applied.
しかし、撮像で得られたデフォーカスした領域(以下、デフォーカス領域と称す)の画像は、物体空間では被写体が焦平面上にはなく、合焦被写体距離とは異なる被写体距離にあるため、焦平面上の点とは異なるPSFとなっている。このため、デフォーカス領域では、合焦被写体距離でのPSFではなく、本来は、合焦被写体距離にフォーカス用レンズ群を繰り出した状態での光学配置で、デフォーカスしている物体の被写体距離にある点を結像したときのPSFに基づく画像復元フィルタを適用すべきである。 However, an image of a defocused region obtained by imaging (hereinafter referred to as a defocused region) is not focused on the focal plane in the object space, and is at a subject distance different from the focused subject distance. The PSF is different from the point on the plane. For this reason, in the defocus area, instead of the PSF at the focused subject distance, the optical arrangement with the focusing lens group extended to the focused subject distance is originally set to the subject distance of the defocused object. An image restoration filter based on the PSF when a certain point is imaged should be applied.
実際に、デフォーカス領域を含むカラー画像を撮影し、波長帯域毎のPSFを考慮して、R、G、B成分のそれぞれについて、合焦被写体距離のPSFに基づく画像復元フィルタを適用して画像復元を行った。その結果、画像の中で焦点が合っている領域は良好に復元されるが、デフォーカス領域の中において、撮像光学系の収差に起因する色収差が発生している部分で、復元前の画像に比べて復元後の画像で色差が拡大し、良好な復元が得られない場合があることを発見した。この例に限らず、画像復元する領域の実際のPSFと、画像復元フィルタを作成するのに用いたPSFとが異なると、復元前の画像よりも復元後の画像の方が劣化した領域が生じる場合がある。 Actually, a color image including a defocus area is taken, and an image restoration filter based on the PSF of the focused object distance is applied to each of the R, G, and B components in consideration of the PSF for each wavelength band. Restored. As a result, the in-focus area in the image is restored well, but the chromatic aberration due to the aberration of the imaging optical system occurs in the defocus area, and the image before restoration is restored. In comparison, we found that the restored image has a larger color difference and may not be able to be restored. In addition to this example, if the actual PSF of the region to be restored is different from the PSF used to create the image restoration filter, a region in which the restored image is deteriorated more than the image before restoration is generated. There is a case.
撮像光学系の実際のPSFには、被写体距離に応じた収差によるぼけの他に、デフォーカスによるぼけと、絞り状態(絞りの大きさと形状)によるぼけとが含まれている。このため、画像復元する領域のデフォーカス状態を考慮したPSFに基づく画像復元フィルタをそのまま適用すると、デフォーカスや絞り状態に応じたぼけをもつ良好な復元画像とならない。 The actual PSF of the imaging optical system includes blur due to defocus and blur due to the aperture state (aperture size and shape), in addition to blur due to aberration according to the subject distance. For this reason, if an image restoration filter based on the PSF that takes into account the defocus state of the area to be restored is applied as it is, a good restored image having a blur corresponding to the defocus or aperture state cannot be obtained.
画像のデフォーカス領域において、良好な復元が得られない従来の欠点を解析した結果、撮影光学系により発生する収差が、被写体距離により異なることから生じていることが分かった。デフォーカス領域での被写体距離は、光学系のフォーカス用レンズ群の繰り出しにより焦点の合った被写体距離である合焦被写体距離とは異なる。このため、被写体が合焦被写体距離にある場合に発生する収差と、デフォーカス領域の被写体距離にある場合に発生する収差とは異なっている。それにも関らず、デフォーカス領域の画像復元にも、合焦被写体距離に基づく画像復元フィルタを適用したため、デフォーカス状態の収差情報を補正する画像復元とは差異が生じ、発生する収差の違いにより、色差の拡大が生じたことが分かった。 As a result of analyzing a conventional defect that cannot be satisfactorily restored in the defocus region of the image, it was found that the aberration generated by the photographing optical system is different depending on the subject distance. The subject distance in the defocus area is different from the in-focus subject distance which is the subject distance focused by the extension of the focusing lens group of the optical system. For this reason, the aberration that occurs when the subject is at the in-focus subject distance is different from the aberration that occurs when the subject is at the subject distance in the defocus area. Nevertheless, the image restoration filter based on the focused subject distance is also applied to the image restoration in the defocus area, so there is a difference from the image restoration that corrects the defocused aberration information, and the difference in the generated aberrations Thus, it was found that the color difference expanded.
そして、このような原因によって発生する画像復元による劣化を抑えるためには、フォーカス状態の異なる領域毎に、それぞれの被写体距離情報を使用すればよいことを見出した。それぞれの被写体距離情報を使用すれば、領域毎にフォーカス状態が異なることによる収差の違いを反映した復元フィルタで画像復元を行うという作用により、良い結果が得られる。 Then, in order to suppress deterioration due to image restoration caused by such a cause, it has been found that the subject distance information may be used for each region having a different focus state. If each subject distance information is used, a good result can be obtained by performing an image restoration with a restoration filter reflecting a difference in aberration due to a different focus state in each region.
この際、画像の中で、フォーカス状態の異なる領域毎に、それぞれの被写体距離情報が必要となる。撮影する画角内の被写体距離情報を取得する手段として、フォーカス用レンズ群の繰り出し量を変えて複数の画像を撮影し、その複数の画像から被写界深度マップを作成する方法や、撮像装置とは別に被写体の配置を測定する三次元測定装置を用いる方法が知られている。 At this time, the subject distance information is required for each region having a different focus state in the image. As a means for acquiring subject distance information within the angle of view for photographing, a method for photographing a plurality of images by changing the amount of extension of the focusing lens group, and creating a depth-of-field map from the plurality of images, and an imaging device In addition to this, a method using a three-dimensional measuring apparatus for measuring the arrangement of a subject is known.
しかし、複数の画像や三次元測定装置を用いる方法は、実際に撮像装置で画像を撮影し、その静止画像や動画像に対して復元処理を行う場合には、領域毎の被写体距離を求めるのに時間や別の測定装置が必要となるため、実用的ではない。これを実現するためには、静止画又は動画の画像取得に対応して、画像内の複数領域の被写体距離情報を取得し、画像復元を行うことが必要である。 However, in the method using a plurality of images and a three-dimensional measuring device, when an image is actually captured by an imaging device and restoration processing is performed on the still image or moving image, the subject distance for each region is obtained. This is not practical because it requires time and another measuring device. In order to realize this, it is necessary to acquire object distance information of a plurality of areas in an image and perform image restoration in response to acquisition of a still image or a moving image.
そして、被写体距離情報として、複数のAF測距領域の距離情報を利用することが有効であることを見出した。このように、レンズの設計データより、画像復元する領域毎のデフォーカス状態を考慮したPSFを求め、それを用いて画像復元フィルタを作成すれば、被写体距離の違いによる収差を補正できる。しかし、従来のように、画像復元する全ての領域に対して1つの被写体距離(ここでは、合焦被写体距離)に基づくPSFから画像復元フィルタを作成していないため、デフォーカスや絞り状態に応じたぼけをもつ良好な画像とならない。 And it discovered that it was effective to use the distance information of a plurality of AF ranging areas as the subject distance information. In this way, if a PSF that takes into account the defocus state for each area to be restored is obtained from the lens design data and an image restoration filter is created using the PSF, aberrations due to differences in subject distance can be corrected. However, since the image restoration filter is not created from the PSF based on one subject distance (here, the in-focus subject distance) for all the regions to be restored, unlike in the past, it depends on the defocus or aperture state. A good image with blur is not obtained.
これは、デフォーカス状態を考慮したPSFには、被写体距離に応じた光学収差によるぼけの他に、デフォーカスや絞り状態によるぼけが含まれているからである。そこで、設計された撮影レンズに対応する無収差レンズのPSFを求め、このぼけを復元フィルタに付加することにより、デフォーカスと絞り状態に応じたぼけをもつ復元画像を作成する。 This is because the PSF considering the defocus state includes blur due to the defocus and the aperture state in addition to the blur due to the optical aberration corresponding to the subject distance. Therefore, the PSF of the aberration-free lens corresponding to the designed photographing lens is obtained, and this blur is added to the restoration filter, thereby creating a restored image having a blur corresponding to the defocus and the aperture state.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像復元装置の基本構成を示す図である。本実施形態においては、画像を撮像したカメラ内で画像の復元処理を行い、記憶媒体に画像ファイルを保存する例について説明する。なお、本実施形態に係るカメラは、本発明の画像処理装置の適用例となる構成である。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a basic configuration of an image restoration apparatus according to the first embodiment of the present invention. In the present embodiment, an example will be described in which image restoration processing is performed within a camera that has captured an image, and an image file is stored in a storage medium. Note that the camera according to the present embodiment has a configuration that is an application example of the image processing apparatus of the present invention.
1は光学系の光軸である。10は撮影レンズであり、焦点を調整するためのフォーカス用レンズ群12と、フォーカス用レンズ群12以外のレンズ群11と、光量を調整するための絞り13とを備える。撮影レンズ10は、ズームレンズで、撮像時のズーム位置が、ズーム位置制御部41を通して、検知可能な機能を有している。撮影時の絞り状態は、絞り制御部51を通して、検知可能な機能を有している。また、撮影レンズ10は交換可能で、撮影時に使用したレンズの種類が、検知可能な機能を有している。
Reference numeral 1 denotes an optical axis of the optical system.
21はメインミラーであり、図示しない被写体からの光束は、撮影レンズ10を介してメインミラー21により上方に反射され、焦点板22に像を形成する。焦点板22に形成された像は、ペンタプリズム23による数回の反射を経て、接眼レンズ24を介して撮影者によって被写体が視認される。
一方、撮像レンズ10からメインミラー21に到達した光束のうちの一部は、メインミラー21のハーフミラー部を透過し、サブミラー31により下方に反射され、AF検出部32に導かれる。撮影の際には、メインミラー21とサブミラー31とが上方に跳ね上がり、撮影光束外に退避することで、撮影レンズ10からの光束は、光学LPF61を介して固体撮像素子62上に結像する。固体撮像素子62は、CCDやCMOSセンサ等によって構成されており、受光面上に結像した被写体像を光電変換し、画像信号を出力する。光学LPF61は、固体撮像素子62の空間サンプリングによる折り返し成分を抑える役割をしている。固体撮像素子62から出力された画像信号は、A/D変換器63でアナログ信号からデジタル信号に変換され、RAW画像データがバッファメモリ71に格納される。
On the other hand, a part of the light beam reaching the
本実施形態におけるAF方式は、複数のAF測距領域を持つ位相差検出方式である。AF検出部32は、サブミラー31からの光束を2つの光束に分離する瞳分割光学系と、分離された2つの像を取り込む一対の測距用エリアセンサと、2つの像の相対的な位置関係を示す位置ずれ量である位相差を演算する位相差演算部とを備える。
The AF method in this embodiment is a phase difference detection method having a plurality of AF ranging areas. The
図2は、測距用エリアセンサから出力される2つの像信号であるA像、B像の相対位置関係を示したものである。2つの像は、異なる瞳を通過した光束よりなるため、レンズの繰り出し量により、像の相対位置が、前ピン(図2(a))、合焦(図2(b))、後ピン(図2(c))の各状態で異なる。この2つの像の相対的なずれ量は、2つの像信号の相関演算が行われることにより計算され、位相差δが求められる。位相差δは、合焦時に零、前ピン時には負の値、後ピン時には正の値をとる。位相差δと光学系のデフォーカスとの関係は一意に決まるので、AF検出部32で検出された位相差δはレンズ繰り出し制御部33に送られる。レンズ繰り出し制御部33は、位相差δとAF測距時のフォーカス用レンズ群12の位置とから、合焦を得るのに必要なレンズ繰り出し量を求め、フォーカス用レンズ群12を繰り出すことで合焦制御を行う。
FIG. 2 shows the relative positional relationship between the A and B images, which are two image signals output from the distance measuring area sensor. Since the two images are composed of light beams that have passed through different pupils, the relative positions of the images are changed according to the amount of lens extension, such as the front pin (FIG. 2A), the focus (FIG. 2B), and the rear pin ( It is different in each state of FIG. The relative shift amount between the two images is calculated by performing a correlation operation between the two image signals, and a phase difference δ is obtained. The phase difference δ is zero at the time of focusing, a negative value at the front pin, and a positive value at the rear pin. Since the relationship between the phase difference δ and the defocus of the optical system is uniquely determined, the phase difference δ detected by the
図3は、撮影で得られる画像と複数のAF測距領域との位置関係を示す図である。101〜135はAF測距領域であり、AF測距領域の選択は、撮影者が任意のAF測距領域を選ぶ手動選択と、画像復元装置が主被写体を判断して焦点を合わせる自動選択とがある。手動選択には、ボタン操作でAF測距領域を選択する方法、視線入力でAF測距領域を選択する方法、液晶表示のタッチパネルでAF測距領域を選択する方法等がある。
FIG. 3 is a diagram illustrating a positional relationship between an image obtained by photographing and a plurality of AF distance measurement areas.
また、選択手段によって撮影者の撮影意図に従って決定されたAF測距領域についてのデフォーカス演算結果がNGであった場合には、選択された領域以外のAF測距領域について、選択されたAF測距領域に近く、且つ撮影画面の中央に近い領域を優先する。手動選択から自動選択に切り替わる等がある。 Further, when the defocus calculation result for the AF distance measurement area determined according to the photographing intention of the photographer by the selection unit is NG, the selected AF measurement is performed for the AF distance measurement area other than the selected area. Priority is given to an area close to the distance area and close to the center of the shooting screen. For example, switching from manual selection to automatic selection.
図4は、本発明の第1の実施形態における、画像内の複数領域の被写体距離情報を取得して画像復元を行う処理を示すフローチャートである。図1と図4を用いて、画像内の複数領域の被写体距離情報を取得し、画像復元を行う動作について説明する。撮影者が図示しないレリーズボタンを一段階の押し下げ操作を行うことにより、AFシーケンスが開始される。 FIG. 4 is a flowchart showing a process of performing image restoration by acquiring subject distance information of a plurality of regions in an image according to the first embodiment of the present invention. An operation for acquiring subject distance information of a plurality of regions in an image and performing image restoration will be described with reference to FIGS. The AF sequence is started when the photographer performs a one-step depression operation of a release button (not shown).
ステップS1において、図3の複数のAF測距領域101〜135について、AF検出部32の測距用エリアセンサからの像信号(2つの像信号であるA像信号、B像信号)を検出する。ステップS2において、前述したように、AF検出部32の位相差演算部で、2つの像信号の相関演算を行うことにより、複数のAF測距領域101〜135の位相差δを求める。ステップS3において、ステップ2で算出された、複数のAF測距領域101〜135の位相差δが、AF検出部32から、測距情報保持部34に送られ保持される。ステップS4において、焦点を合わせるAF測距領域を選択する。手動選択の設定となっている場合、撮影者が選択したAF測距領域が選択され、自動選択の設定となっている場合、画像復元装置が主被写体と判断したAF測距領域が選択される。ステップS5において、焦点を合わせるAF測距領域の位相差δが、レンズ繰り出し制御部の送られ、合焦を得るのに必要なレンズ繰り出し量を算出する。ステップS6において、フォーカス用レンズ群12を繰り出すことで合焦を行う。AF測距時及び合焦時のフォーカス用レンズ群12の位置は、レンズ繰り出し制御部33を通して検知され、測距情報保持部34に送られ、保持される。
In step S1, image signals (A image signal and B image signal, which are two image signals) from the distance measuring area sensor of the
ステップS7において、被写体距離演算部35は、複数のAF測距領域101〜135の位相差δと、AF測距時及び合焦時のフォーカス用レンズ群12の位置とから、合焦被写体距離と各AF測距領域の被写体距離とを演算する。なお、ステップS5で繰り出し量が算出された時点で合焦時のレンズ位置が分かるので、レンズ繰り出し中にステップS7の演算を行ってもよい。
In step S7, the subject
次に、撮影者が図示しないレリーズボタンをもう一段押し下げ操作することにより、撮像シーケンスが開始される。撮像を行うため、メインミラー21とサブミラー31とが撮影光束外に退避し、被写体からの光束は、撮影レンズ10、光学LPF61を介して、固体撮像素子62に結像する。固体撮像素子62上には、図5に示すようなR、G、Bで構成される色モザイクフィルタが配置され、R、G、Bの各色成分の信号が取得できるようになっている。ステップS8において、固体撮像素子62上に結像した被写体像は、光電変換されて画像信号として出力され、A/D変換機63でデジタル信号に変換されて、バッファメモリ71に、RAW画像データとして格納される。
Next, the imaging sequence is started when the photographer depresses a release button (not shown) one more step. In order to perform imaging, the
次に、画像復元処理について説明する。図1において、74は復元フィルタDBであり、画像復元に使用される復元フィルタが格納されている。本実施形態では、復元フィルタは、撮像系の設計データより求まるPSFに基づいて作成されている。
Next, the image restoration process will be described. In FIG. 1,
撮像系の設計データとは、撮影レンズ10の設計データ、絞り13の大きさと形状、光学LFP61の空間周波数特性、固体撮像素子62の画素ピッチと画素開口形状、固体撮像素子62上の色モザイクフィルタの配列等である。また、R、G、Bの各色成分に対してそれぞれの復元フィルタが用意される。このため、復元フィルタ作成のため、波長帯域毎の透過率特性を考慮する必要がある。これは、波長帯域毎のPSFの重み付け係数に相当し、撮像レンズ10の分光透過率特性、固体撮像素子62上の色モザイクフィルタの分光透過特性、固体撮像素子62の分光感度特性等である。また、図示しない赤外カットフィルタが使用されている場合は、その分光透過特性も考慮する必要がある。
The imaging system design data includes the design data of the photographing
実際に、復元フィルタDB74に格納されている画像復元フィルタは、撮像レンズ10の種類毎に、ズーム位置、絞りの各パラメータの範囲を分割して対応する形となっている。図6にその復元フィルタのリストの概念図を示す。撮影レンズ10は交換可能なので、使用されている撮像レンズ10の種類、撮影時のズーム位置、絞りのパラメータ毎に、復元フィルタリストが用意されている(図6(a))。更に、撮影時の合焦被写体距離dfに応じた復元フィルタ表が用意されており(図6(b))、撮像されたRAW画像データに対して、該当する復元フィルタを用いて復元処理が行われる。
Actually, the image restoration filter stored in the
一つの撮影状態においても撮像光学系の画角(像高)に応じてPSFは変化するので、図3に示すように、画像内を複数の復元領域に分割し、分割した各復元領域201〜235に対応する復元フィルタを用いて復元処理を行う。 Since the PSF changes according to the angle of view (image height) of the imaging optical system even in one shooting state, the image is divided into a plurality of restoration areas as shown in FIG. A restoration process is performed using a restoration filter corresponding to H.235.
ステップS8で取得されたRAW画像データの画像復元処理を、図1及び図4を用いて説明する。70はCPUであり、その機能構成として、フィルタ選択部73、復元処理部76、後処理部77を含む。フィルタ選択部73は、撮影レンズ10の種類を検知し、RAW画像データの撮像時のズーム位置をズーム位置制御部41から、撮影時の絞り状態を絞り制御部51から受け取り、復元フィルタDB74より図6(a)の復元フィルタリストを選択する。次に、フィルタ選択部73は、被写体距離演算部35で演算された合焦被写体距離dfを基に、図6(b)の中から対応する復元フィルタ表を選択する。なお、復元フィルタ補間生成部75は、復元フィルタDB74にある復元フィルタのリストにないパラメータ(ズーム位置、絞り状態、合焦被写体距離、各復元領域の被写体距離)の中間の値に対応する復元フィルタを必要とする際に、隣接する条件の復元フィルタから補間演算を行い、必要な復元フィルタを生成するものである。また、復元フィルタ補間生成部75は、復元フィルタDB74内の復元フィルタ表のデータ容量を低減するため、各パラメータの分割数を減らして格納しておき、必要な条件の復元フィルタを生成する際にも用いられる。
The image restoration processing of the RAW image data acquired in step S8 will be described with reference to FIGS. A
ステップS9では、各復元領域201〜235に対応した被写体距離を取得する。本実施形態では、図3に示すように、AF測距領域101〜135と復元領域201〜235との分割位置が合わせてある。このため、各復元領域に対応する被写体距離として、それに対応する各AF測距領域の被写体距離を用いればよい。この被写体距離は、AF時に位相差δとして測距情報保持部34に保持され、ステップS7において被写体距離演算部35で演算された各AF測距領域の被写体距離dを用いる。ステップS10では、各復元領域の復元フィルタを取得する。具体的には、図6(b)の中から、ステップS4で焦点を合わせるために選択されたAF測距領域の被写体距離、即ち、AFのための像信号を検出して、フォーカス用レンズ群の繰り出しによって焦点の合った被写体距離である合焦被写体距離dfに対応する復元フィルタ表を選択する。図7は、合焦被写体距離dfにある焦平面上の点が、固体撮像素子62上に結像している状態と、合焦被写体距離dfとは異なる被写体距離dにある焦平面上にない点が、デフォーカスしている状態とを示している。選択された復元フィルタ表は、合焦被写体距離dfにある焦平面に焦点を合わせるようにフォーカス用レンズ群10を繰り出したときのレンズ配置で、図7のように、合焦被写体距離dfと、画像上でデフォーカスした領域の各被写体距離dとにおけるPSFの逆関数に基づく復元フィルタからなっている。復元処理部76で、図3に示す各復元領域201〜235の各領域毎に、対応するAF測距領域の被写体距離dに対応する復元フィルタを、選択された復元フィルタ表より選択する。このように、合焦領域は合焦被写体距離dfのPSFに基づく復元フィルタを選択し、デフォーカス領域はデフォーカスしている被写体距離dのPSFに基づく復元フィルタを選択することで、被写体距離の違いによる光学収差を補正することが可能となる。
In step S9, the subject distance corresponding to each restoration area 201-235 is acquired. In the present embodiment, as shown in FIG. 3, the division positions of the
ステップS11において、図1のぼけ補正フィルタDB72から、デフォーカスと絞り状態とに応じたぼけを出すための、ぼけ補正フィルタを取得する。絞り状態としては、撮影時のF値を用いる。このぼけ補正フィルタは、撮影レンズ10に対応する無収差レンズのPSFに基づいて作成されており、撮像レンズ10の種類毎に、ズーム位置、絞り状態の各パラメータの範囲を分割する形のぼけ補正フィルタリストが用意されている。復元フィルタのフィルタリストでは、合焦被写体距離dfに対応する復元フィルタ表を選択した後、復元領域に応じた復元フィルタを選択する形となっている。しかし、無収差レンズのPSFは像高により変化しないので、ぼけ補正フィルタの合焦被写体距離dfに対応するフィルタ表からは、各復元領域のデフォーカス状態、つまり被写体距離dに対応するぼけ補正フィルタを選択する。
In step S11, a blur correction filter for obtaining blur according to the defocus and the aperture state is acquired from the blur
ステップS12では、復元処理部76は、ステップS10で選択された復元フィルタに、ステップS11で選択されたぼけ補正フィルタを掛け合わせて、デフォーカスと絞り状態とに応じたぼけを出す復元フィルタを生成する。そして、復元処理部76は、RAW画像データに対して復元領域毎にこのフィルタを畳み込み積分することで、画像復元を行う。
In step S12, the
後処理部77では、画像復元されたRAW画像データに対して、デモザイキング処理、ホワイトバランス処理、ノイズリダクション処理、γ処理など、所謂、現像処理と呼ばれる画像処理が行われるが、本発明の主眼ではないので省略する。そして、復元処理された画像は、着脱可能なメモリカードからなる記録媒体78に所定の画像フォーマットで保存される。
The
本実施形態のように、画像中にデフォーカスした領域がある場合でも、各領域の被写体距離情報を保持し、合焦領域は合焦被写体距離dfのPSFに基づいて、デフォーカス領域はデフォーカスしている被写体距離dのPSFに基づいて収差補正を行う。デフォーカスや絞り状態に応じたぼけは、撮影時の絞り状態と復元領域毎の被写体距離dに対応する無収差レンズのPSFに基づいてぼけを与える。これにより、画像中にデフォーカスした領域がある場合でも、撮像光学系の光学収差を補正し、デフォーカスや絞り状態に応じたぼけを出す良好な復元画像を得ることができる。 As in the present embodiment, even when there is a defocused area in the image, the subject distance information of each area is retained, and the defocus area is defocused based on the PSF of the focused object distance df. Aberration correction is performed based on the PSF of the subject distance d. The blur according to the defocus or the diaphragm state gives the blur based on the aperture state at the time of shooting and the PSF of the non-aberration lens corresponding to the subject distance d for each restoration area. As a result, even when there is a defocused area in the image, it is possible to correct the optical aberration of the imaging optical system and obtain a good restored image that produces a blur according to the defocus or aperture state.
本実施形態では、固体撮像素子62上に色モザイクフィルタを配置して、R、G、Bの各色成分の信号を取得する形態について述べたが、色分解光学系でR、G、Bの各色成分に光束を分離し、それぞれの光束に対して、R、G、B用の固体撮像素子を配置して画像信号を取得してもよい。
In the present embodiment, the color mosaic filter is arranged on the solid-
本実施形態では、画像復元フィルタは、撮像系の設計データより求まるPSFに基づいて作成されているが、PSFはシステムの光学伝達関数(OTF)を逆フーリエ変換したものである。従って、撮像系の設計データより求まるOTFに基づいて、画像復元フィルタを作成してもよい。ぼけ補正フィルタは、無収差レンズのPSFに基づいて作成したものなので、同じように、無収差レンズのOTFに基づいて、ぼけ補正フィルタを作成してもよい。 In this embodiment, the image restoration filter is created based on the PSF obtained from the design data of the imaging system. The PSF is an inverse Fourier transform of the system optical transfer function (OTF). Therefore, an image restoration filter may be created based on the OTF obtained from the design data of the imaging system. Since the blur correction filter is created based on the PSF of the aberration-free lens, similarly, the blur correction filter may be created based on the OTF of the aberration-free lens.
次に、本発明の第2の実施形態について説明する。本実施形態では、ユーザが指定した絞り状態に応じたぼけを出す画像復元を行う場合について説明する。 Next, a second embodiment of the present invention will be described. In the present embodiment, a case will be described in which image restoration is performed to generate blur according to the aperture state designated by the user.
図8は、本発明の第2の実施形態に係る画像復元装置の基本構成を示す図である。本実施形態では、画像を撮像したカメラ内では画像の復元処理を行わず、当該画像ファイルを記憶媒体に保存し、PC内で当該画像の復元処理を行う。また、本実施形態では、AF測距領域の数が復元領域の数より少なくなっている。 FIG. 8 is a diagram showing a basic configuration of an image restoration apparatus according to the second embodiment of the present invention. In this embodiment, the image restoration process is not performed in the camera that captured the image, but the image file is stored in a storage medium, and the image restoration process is performed in the PC. In the present embodiment, the number of AF ranging areas is smaller than the number of restoration areas.
図10は、本発明の第2の実施形態における、画像内の複数領域の被写体距離情報を取得し、画像復元を行う処理を示すフローチャートである。以下では、第1の実施形態と同様な部分の説明は省略し、第1の実施形態と異なる部分のみを説明する。 FIG. 10 is a flowchart showing processing for acquiring subject distance information of a plurality of regions in an image and performing image restoration in the second embodiment of the present invention. Below, the description of the same part as 1st Embodiment is abbreviate | omitted, and only a different part from 1st Embodiment is demonstrated.
第2の実施形態では、図8のように、カメラ80では画像復元処理を行わず、固体撮像素子62上に結像され、A/D変換器63を介してバッファメモリ71に格納されたRAW画像データに対し、記録部79において画像復元に必要な情報を付加して、画像ファイルを記録媒体78に保存する。ここで、画像復元に必要な情報とは、撮影レンズ10の種類、ズーム位置、絞り状態、合焦被写体距離df及び各AF測距領域の被写体距離dである。他に、カメラ80を特定するカメラボディID、レンズNo.ID、撮影時のISO感度等を加えてもよい。
In the second embodiment, as shown in FIG. 8, the camera 80 does not perform image restoration processing, but forms an image on the solid-
記録部79は、撮影レンズ10の種類を検知し、被写体距離演算部35から合焦被写体距離df及び各AF測距領域の被写体距離dを、RAW画像データの撮像時のズーム位置をズーム位置制御部41から、撮影時の絞り状態を絞り制御部51から受け取る。そして記録部79は、上記の画像復元に必要な情報を、RAW画像データを保存する画像ファイルのヘッダ部分に付加して、着脱可能なカードメモリである記録媒体78に保存する。なお、画像復元を行うための付加情報は、画像ファイルのヘッダ部分ではなく、別ファイルで記録媒体78に保存してもよい。
The
図9は、撮影で得られた画像と、複数のAF測距領域と、複数の復元領域との位置関係を示す図である。AF測距領域109〜113、116〜120、123〜127、復元領域201〜235は、図9に示すように配置され、AF測距領域の数が復元領域の数より少なくなっている。
FIG. 9 is a diagram illustrating a positional relationship among an image obtained by shooting, a plurality of AF distance measurement areas, and a plurality of restoration areas. The
次に、図8、図9及び図10を用いて、本実施形態におけるPC90での画像復元処理について説明する。図10のステップS1〜S7は、第1の実施形態における図4のステップS1〜S7と同様の処理であるため、説明を省略する。
Next, the image restoration process in the
ユーザは、記録媒体78をカメラ80から取り外し、PC90に装着する。なお、記録媒体78には、画像復元に必要な情報がヘッダ部分に付加された画像ファイルが保存されている。復元処理部76は、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、RAW画像データを取得する(図10のステップS21)。フィルタ選択部73は、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、撮影レンズ10の種類、撮像時のズーム位置及び撮影時の絞り状態を読み出し、復元フィルタDB74から図6(a)の復元フィルタリストを選択する。ステップS22において、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、AF測距領域109〜113、116〜120、123〜127の被写体距離である、合焦被写体距離dfと各AF測距領域の被写体距離dとを読み出し、取得する。本実施形態では、図9に示すように、AF測距領域109〜113、116〜120、123〜127の数が復元領域201〜235の数より少なく、一致していない。このため、一致するAF測距領域がない復元領域201〜208、214〜215、221〜222、228〜235については、一番近傍のAF測距領域の被写体距離を、その復元領域の被写体距離とする。以降、第1の実施形態と同じように、ステップS23において、復元フィルタを取得する。この際、絞り状態のパラメータとしては、撮影時のF値を用いて復元フィルタを選択する。
The user removes the
ステップS24において、デフォーカス及び絞り状態に応じたぼけを出すためのぼけ補正フィルタをぼけ補正フィルタDB72から取得する。この際、本実施形態では、第1の実施形態のように絞り状態として、撮影時のF値を用いるのではなく、ユーザが指定したF値を用いる。これにより、ユーザが指定したF値に対応するぼけ補正フィルタが選択される。ステップS25において、第1の実施形態と同様、復元処理部76は、ステップS23で取得された復元フィルタと、ステップS24で取得されたぼけ補正フィルタとを用いて画像復元演算を行う。以降の処理は、第1の実施形態と同様なので説明を省略する。
In step S <b> 24, a blur correction filter for generating blur according to the defocus and aperture state is acquired from the blur
以上により、画像の中にデフォーカスした領域が存在する場合でも、撮像光学系の光学収差を補正し、デフォーカスとユーザが指定した絞りF値とに応じたぼけを持つ復元画像が得られる。 As described above, even when a defocused region exists in the image, the optical aberration of the imaging optical system is corrected, and a restored image having a blur according to the defocus and the aperture F value designated by the user is obtained.
なお、一致するAF測距領域がない復元領域について、最も近傍のAF測距領域の被写体距離情報を、その復元領域の被写体距離情報とする例を挙げたが、近傍のAF測距領域のうち、収差特性が一番近いAF領域の被写体距離情報を用いてもよい。軸対称の撮影レンズの場合、光軸からの像高が一番近いAF測距領域が、収差特性が一番近い領域となる。 For the restoration area that does not have a matching AF distance measurement area, the subject distance information of the nearest AF distance measurement area is used as the subject distance information of the restoration area. The subject distance information of the AF area having the closest aberration characteristic may be used. In the case of an axisymmetric photographic lens, the AF distance measurement area where the image height from the optical axis is closest is the area where the aberration characteristics are closest.
以上、位相差検出方式のAFを用いる形態について述べたが、他の実施形態として、コントラスト方式のAFを用いてもよい。この場合、フォーカス用レンズ群12を至近から無限遠までの範囲で動かし、図11に示すように、各AF測距領域について、レンズの繰り出し位置に対して、コントラストを検出する。各AF測距領域において、コントラストのピーク位置に対応するレンズ繰り出し位置が、各被写体が合焦する位置である。各AF測距領域の被写体距離dは、コントラストがピークとなるレンズの繰り出し位置から演算で求めることができる。また、実際に撮像する際に、焦点合わせをするのに選択されたAF測距領域の被写体距離を合焦被写体距離dfとすればよい。
As described above, the phase difference detection type AF is described. However, as another embodiment, a contrast type AF may be used. In this case, the focusing
一つの復元領域の中に、複数のAF測距領域の被写体距離情報があるときには、その中から被写体距離情報を選択すればよい。また、光学系のフォーカス群を繰り出して焦点を合わせる形態について述べたが、焦点を合わせる手段として、撮像光学系と固体撮像素子の相対間隔を移動させてもよい。この場合、フォーカス用レンズ群の位置の代わりに、相対間隔を移動させた位置情報が用いられる。 When there is subject distance information of a plurality of AF distance measurement areas in one restoration area, the subject distance information may be selected from the information. In addition, although the embodiment has been described in which the focus group of the optical system is extended and focused, the relative distance between the imaging optical system and the solid-state imaging device may be moved as a focusing means. In this case, position information obtained by moving the relative distance is used instead of the position of the focusing lens group.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
1:光軸、10: 撮像レンズ、11:フォーカス用レンズ群以外のレンズ群、12:フォーカス用レンズ群、13: 絞り、21:メインミラー、22:焦点板、23:ペンタプリズム、24: 接眼レンズ、31:サブミラー、32:AF検出部、33:レンズ繰り出し制御部、34:測距情報保持部、35:被写体距離演算部、41:ズーム位置制御部、51:絞り制御部、61: 光学LPF、62:撮像素子、63:A/D、71:バッファメモリ、72:ぼけ補正フィルタDB、73:フィルタ選択部、74:復元フィルタDB、75:復元フィルタ補間生成部、76:復元処理部、77:後処理部、78:記録媒体、79:記録部 1: optical axis, 10: imaging lens, 11: lens group other than the focusing lens group, 12: focusing lens group, 13: stop, 21: main mirror, 22: focusing plate, 23: pentaprism, 24: eyepiece Lens: 31: Sub mirror, 32: AF detection unit, 33: Lens extension control unit, 34: Distance measurement information holding unit, 35: Subject distance calculation unit, 41: Zoom position control unit, 51: Aperture control unit, 61: Optical LPF, 62: imaging device, 63: A / D, 71: buffer memory, 72: blur correction filter DB, 73: filter selection unit, 74: restoration filter DB, 75: restoration filter interpolation generation unit, 76: restoration processing unit , 77: post-processing unit, 78: recording medium, 79: recording unit
Claims (8)
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得手段と、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正手段とを有することを特徴とする画像処理装置。 Holding means for holding subject distance information in each ranging area of the imaging means;
Acquisition means for acquiring subject distance information of each restoration area of image data for performing image restoration based on subject distance information of each distance measurement area;
Correction means for correcting optical aberration due to a difference in position and subject distance information in the image of each restoration area and giving blur to each restoration area based on defocus and aperture state of each restoration area; An image processing apparatus comprising:
撮像手段の各測距領域における被写体距離情報を保持する保持ステップと、
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得ステップと、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正ステップとを有することを特徴とする画像処理方法。 An image processing method executed by an image processing apparatus,
Holding step for holding subject distance information in each ranging area of the imaging means;
An acquisition step of acquiring subject distance information of each restoration area of image data for performing image restoration based on the subject distance information of each distance measurement area;
Correcting the optical aberration due to the difference in position and subject distance information in the image of each restoration area, and correcting the defocusing and the diaphragm state of each restoration area to the restoration area. An image processing method comprising:
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得ステップと、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正ステップとをコンピュータに実行させるためのプログラム。 A calculation step of calculating subject distance information in each ranging area of the imaging means;
An acquisition step of acquiring subject distance information of each restoration area of image data for performing image restoration based on the subject distance information of each distance measurement area;
Correcting the optical aberration due to the difference in position and subject distance information in the image of each restoration area, and correcting the defocusing and the diaphragm state of each restoration area to the restoration area. A program that causes a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010140777A JP2012005056A (en) | 2010-06-21 | 2010-06-21 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010140777A JP2012005056A (en) | 2010-06-21 | 2010-06-21 | Image processing device, image processing method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012005056A true JP2012005056A (en) | 2012-01-05 |
Family
ID=45536476
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010140777A Pending JP2012005056A (en) | 2010-06-21 | 2010-06-21 | Image processing device, image processing method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012005056A (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103312950A (en) * | 2012-03-09 | 2013-09-18 | 株式会社理光 | Imaging device |
| JP2013186355A (en) * | 2012-03-09 | 2013-09-19 | Casio Comput Co Ltd | Automatic focusing apparatus, automatic focusing method, and program |
| JP2013240022A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing apparatus, imaging apparatus, and image processing method |
| JP2013242658A (en) * | 2012-05-18 | 2013-12-05 | Canon Inc | Image processing apparatus, imaging device, image processing method, and image processing program |
| WO2014122804A1 (en) * | 2013-02-05 | 2014-08-14 | 富士フイルム株式会社 | Image processing device, image capture device, image processing method, and program |
| JP2014150498A (en) * | 2013-02-04 | 2014-08-21 | Canon Inc | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
| WO2015015935A1 (en) * | 2013-07-29 | 2015-02-05 | 富士フイルム株式会社 | Image capture device and image processing method |
| JP2015095857A (en) * | 2013-11-14 | 2015-05-18 | キヤノン株式会社 | Imaging apparatus |
| WO2016002126A1 (en) * | 2014-07-04 | 2016-01-07 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| JP2016110312A (en) * | 2014-12-04 | 2016-06-20 | 株式会社東芝 | Image processing method, and image processor and program |
| WO2016167189A1 (en) * | 2015-04-16 | 2016-10-20 | 富士フイルム株式会社 | Imaging device, image-processing device, image-processing method, program, and recording medium |
| JP2017009640A (en) * | 2015-06-17 | 2017-01-12 | キヤノン株式会社 | Imaging device and imaging device control method |
| JPWO2015125405A1 (en) * | 2014-02-19 | 2017-03-30 | ソニー株式会社 | Imaging apparatus, imaging method, and imaging system |
| KR101730342B1 (en) | 2012-12-19 | 2017-04-27 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and storage medium |
| US11448874B2 (en) | 2019-10-18 | 2022-09-20 | Samsung Electronics Co., Ltd. | Method and apparatus for correction of aberration |
-
2010
- 2010-06-21 JP JP2010140777A patent/JP2012005056A/en active Pending
Cited By (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013186355A (en) * | 2012-03-09 | 2013-09-19 | Casio Comput Co Ltd | Automatic focusing apparatus, automatic focusing method, and program |
| CN103312950B (en) * | 2012-03-09 | 2016-12-28 | 株式会社理光 | Camera head |
| CN103312950A (en) * | 2012-03-09 | 2013-09-18 | 株式会社理光 | Imaging device |
| JP2013240022A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing apparatus, imaging apparatus, and image processing method |
| JP2013242658A (en) * | 2012-05-18 | 2013-12-05 | Canon Inc | Image processing apparatus, imaging device, image processing method, and image processing program |
| KR101730342B1 (en) | 2012-12-19 | 2017-04-27 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and storage medium |
| US9167168B2 (en) | 2013-02-04 | 2015-10-20 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus |
| JP2014150498A (en) * | 2013-02-04 | 2014-08-21 | Canon Inc | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
| US9432643B2 (en) | 2013-02-05 | 2016-08-30 | Fujifilm Corporation | Image processing device, image capture device, image processing method, and non-transitory computer-readable medium |
| JP5830186B2 (en) * | 2013-02-05 | 2015-12-09 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
| CN104969545A (en) * | 2013-02-05 | 2015-10-07 | 富士胶片株式会社 | Image processing device, image capture device, image processing method, and program |
| WO2014122804A1 (en) * | 2013-02-05 | 2014-08-14 | 富士フイルム株式会社 | Image processing device, image capture device, image processing method, and program |
| CN105409198B (en) * | 2013-07-29 | 2018-11-09 | 富士胶片株式会社 | Photographic device and image processing method |
| CN105409198A (en) * | 2013-07-29 | 2016-03-16 | 富士胶片株式会社 | Image capture device and image processing method |
| JP5903528B2 (en) * | 2013-07-29 | 2016-04-13 | 富士フイルム株式会社 | Imaging apparatus and image processing method |
| US9800774B2 (en) | 2013-07-29 | 2017-10-24 | Fujifilm Corporation | Image capture device with restoration processing and image restoration processing method |
| WO2015015935A1 (en) * | 2013-07-29 | 2015-02-05 | 富士フイルム株式会社 | Image capture device and image processing method |
| JP2015095857A (en) * | 2013-11-14 | 2015-05-18 | キヤノン株式会社 | Imaging apparatus |
| JPWO2015125405A1 (en) * | 2014-02-19 | 2017-03-30 | ソニー株式会社 | Imaging apparatus, imaging method, and imaging system |
| US10469727B2 (en) | 2014-02-19 | 2019-11-05 | Sony Corporation | Imaging apparatus, imaging method, and imaging system |
| US10026157B2 (en) | 2014-07-04 | 2018-07-17 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| CN106464808A (en) * | 2014-07-04 | 2017-02-22 | 佳能株式会社 | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| US20160275656A1 (en) * | 2014-07-04 | 2016-09-22 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| EP3164988A4 (en) * | 2014-07-04 | 2018-02-21 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| JP2016019017A (en) * | 2014-07-04 | 2016-02-01 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
| CN106464808B (en) * | 2014-07-04 | 2019-11-05 | 佳能株式会社 | Image processing equipment, image pick up equipment, image processing method, image processing program and storage medium |
| WO2016002126A1 (en) * | 2014-07-04 | 2016-01-07 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium |
| JP2016110312A (en) * | 2014-12-04 | 2016-06-20 | 株式会社東芝 | Image processing method, and image processor and program |
| WO2016167189A1 (en) * | 2015-04-16 | 2016-10-20 | 富士フイルム株式会社 | Imaging device, image-processing device, image-processing method, program, and recording medium |
| JPWO2016167189A1 (en) * | 2015-04-16 | 2018-03-08 | 富士フイルム株式会社 | Imaging apparatus, image processing apparatus, image processing method, program, and recording medium |
| US10269101B2 (en) | 2015-04-16 | 2019-04-23 | Fujifilm Corporation | Imaging device, image processing device, image processing method, program, and recording medium |
| JP2017009640A (en) * | 2015-06-17 | 2017-01-12 | キヤノン株式会社 | Imaging device and imaging device control method |
| US11448874B2 (en) | 2019-10-18 | 2022-09-20 | Samsung Electronics Co., Ltd. | Method and apparatus for correction of aberration |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012005056A (en) | Image processing device, image processing method and program | |
| EP2566163B1 (en) | Image processing apparatus and method | |
| KR101233013B1 (en) | Image photographing device, distance computing method for the device, and focused image acquiring method | |
| JP5528173B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
| JP5409589B2 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
| EP2574034B1 (en) | Image processing apparatus and method | |
| JP5959976B2 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
| JP6516429B2 (en) | Distance measuring device, imaging device, and distance measuring method | |
| JP5237978B2 (en) | Imaging apparatus and imaging method, and image processing method for the imaging apparatus | |
| JP2011215707A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP2012124555A (en) | Imaging apparatus | |
| JP5501069B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP2012256118A (en) | Image restoration device and method thereof | |
| JP5653464B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
| JP2018195985A (en) | Image processing device, imaging apparatus, image processing method, program, and storage medium | |
| JP2008211678A (en) | Imaging apparatus and method thereof | |
| JP5645981B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
| JP5425135B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| JP2017050662A (en) | Image processing system, imaging apparatus, and image processing program | |
| JP5425136B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| JP2008033060A (en) | Imaging apparatus, imaging method, and image processing apparatus | |
| JP6436840B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
| JP2018088587A (en) | Image processing method and image processing apparatus | |
| JP7646427B2 (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND PROGRAM | |
| US20240144536A1 (en) | Image processing device, image processing method, and storage medium |