[go: up one dir, main page]

JP2012005056A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2012005056A
JP2012005056A JP2010140777A JP2010140777A JP2012005056A JP 2012005056 A JP2012005056 A JP 2012005056A JP 2010140777 A JP2010140777 A JP 2010140777A JP 2010140777 A JP2010140777 A JP 2010140777A JP 2012005056 A JP2012005056 A JP 2012005056A
Authority
JP
Japan
Prior art keywords
image
restoration
subject distance
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010140777A
Other languages
Japanese (ja)
Inventor
Masato Ikeda
政人 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010140777A priority Critical patent/JP2012005056A/en
Publication of JP2012005056A publication Critical patent/JP2012005056A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】、画像データにデフォーカスした領域がある場合でも、撮像光学系の光学収差を補正し、デフォーカスや絞り状態に応じたぼけを出す良好な画像復元を可能とする。
【解決手段】被写体距離演算部35は、撮像手段62により生成された画像データの各測距領域における被写体距離を算出する。フィルタ選択部73は、画像データの各分割領域の被写体距離として、各分割領域に夫々該当する測距領域の被写体距離を取得する。復元処理部76は、各分割領域の被写体距離に基づいて各分割領域の光学収差を補正するとともに、各分割領域の被写体距離及び撮像手段62の絞り状態に基づいて各分割領域に対してぼけを与える。
【選択図】図1
Even if there is a defocused region in image data, it is possible to correct an optical aberration of an image pickup optical system and to perform a good image restoration that produces a blur according to the defocus or aperture state.
A subject distance calculation unit calculates a subject distance in each distance measurement area of image data generated by an imaging means. The filter selection unit 73 acquires the subject distance of the ranging area corresponding to each divided area as the subject distance of each divided area of the image data. The restoration processing unit 76 corrects the optical aberration of each divided region based on the subject distance of each divided region, and blurs each divided region based on the subject distance of each divided region and the aperture state of the imaging means 62. give.
[Selection] Figure 1

Description

本発明は、撮像により得られた画像に対してぼけや光学収差の復元処理を行う技術に関するものである。   The present invention relates to a technique for performing blur and optical aberration restoration processing on an image obtained by imaging.

撮影された画像にはぼけ(Blur)が生じており、ぼけが生じた画像を復元するための画像復元アルゴリズムが従来から知られている。ぼけには、収差、焦点ずれ、露光時間中の撮像装置の移動(手ぶれを含む)、露光時間中の被写体の移動、大気のゆらぎ等の要因がある。   Blurred (Blur) has occurred in the photographed image, and an image restoration algorithm for restoring the blurred image is conventionally known. The blur includes factors such as aberration, defocus, movement of the imaging device during exposure time (including camera shake), movement of the subject during exposure time, and atmospheric fluctuation.

画像復元アルゴリズムとしては、例えば、画像の結像状態の特性を点像分布関数(PSF: point spread function)で表し、PSFに基づいてぼけを補正した画像に復元する手法が知られている。例えば特許文献1には、PSFの逆特性を有する補正関数を用いて、ぼけの補正を行う手法が開示されている。   As an image restoration algorithm, for example, a technique is known in which the characteristics of the image formation state of an image are represented by a point spread function (PSF) and the image is restored to a blur corrected based on the PSF. For example, Patent Document 1 discloses a technique for correcting blur using a correction function having the inverse characteristics of PSF.

特開昭62−127976号公報Japanese Patent Laid-Open No. 62-127976

しかしながら、実際に撮影で得られた画像はデフォーカスした領域があり、焦点合わせをした被写体距離でのPSFに基づいて復元処理を行うと、デフォーカスや絞り状態に応じたぼけをもつ良好な復元画像を得ることができないという課題があった。   However, the image actually obtained by shooting has a defocused area, and when restoration processing is performed based on the PSF at the focused subject distance, good restoration with blur corresponding to defocus or aperture state is achieved. There was a problem that images could not be obtained.

そこで、本発明の目的は、画像の中にデフォーカスした領域がある場合でも、撮像光学系の光学収差によるぼけを補正し、デフォーカスや絞り状態に応じたぼけを出す良好な復元画像を得ることにある。   Therefore, an object of the present invention is to correct a blur due to optical aberrations of the imaging optical system even when there is a defocused area in the image, and obtain a good restored image that produces a blur according to the defocus or aperture state. There is.

本発明の画像処理装置は、撮像手段の各測距領域における被写体距離情報を保持する保持手段と、画像復元を行う画像の各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得手段と、前記各復元領域の画像内での位置(像高)および被写体距離情報の違いによる光学収差を補正するとともに、前記各分割領域のデフォーカス情報および絞り状態に基づくぼけを前記各復元領域に対して与える補正手段とを有することを特徴とする。   The image processing apparatus of the present invention includes a holding unit that holds subject distance information in each ranging area of the imaging unit, subject distance information of each restoration area of the image to be restored, and subject distance information of each ranging area. Based on the defocus information and the diaphragm state of each of the divided areas, and the correction means for acquiring the optical aberration due to the difference in position (image height) and subject distance information in the image of each restoration area Correction means for giving a blur to each of the restoration areas.

本発明によれば、画像の中にデフォーカスした領域がある場合でも、撮像光学系の光学収差によるぼけを補正し、デフォーカスおよび絞り状態に応じたぼけを出す復元処理を行うことによって、ぼけのある良好な復元画像を得ることができる。   According to the present invention, even when there is a defocused area in the image, the blurring due to the optical aberration of the imaging optical system is corrected, and the defocusing and blurring process according to the aperture state is performed to perform blurring. A good restored image can be obtained.

本発明の第1の実施形態に係る画像復元装置の基本構成を示す図である。1 is a diagram illustrating a basic configuration of an image restoration apparatus according to a first embodiment of the present invention. 測距用エリアセンサから出力される2つの像信号であるA像、B像の相対位置関係を示す図である。It is a figure which shows the relative positional relationship of A image and B image which are two image signals output from the area sensor for ranging. 本発明の第1の実施形態における、複数のAF測距領域と画像復元する分割領域の位置関係を示す図である。It is a figure which shows the positional relationship of several AF ranging area and the division area | region which carries out image restoration in the 1st Embodiment of this invention. 本発明の第1の実施形態における、画像内の複数領域の被写体距離情報を取得して画像復元を行う処理を示すフローチャートである。6 is a flowchart illustrating a process of performing image restoration by acquiring subject distance information of a plurality of regions in an image in the first embodiment of the present invention. 固体撮像素子上の色モザイクフィルタの配列を示す図である。It is a figure which shows the arrangement | sequence of the color mosaic filter on a solid-state image sensor. 復元フィルタのリストの概念図である。It is a conceptual diagram of a list of restoration filters. 合焦被写体距離にある焦平面上の点が固体撮像素子上に結像している状態と、合焦被写体距離とは異なる被写体距離にある焦平面上にない点がデフォーカスしている状態とを示す図である。A state in which a point on the focal plane at the in-focus subject distance forms an image on the solid-state image sensor, and a state in which a point not on the focal plane at a subject distance different from the in-focus subject distance is defocused FIG. 本発明の第2の実施形態に係る画像復元装置の基本構成を示す図である。It is a figure which shows the basic composition of the image restoration apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態における、複数のAF測距領域と複数の復元領域との位置関係を示す図である。FIG. 10 is a diagram showing a positional relationship between a plurality of AF distance measurement areas and a plurality of restoration areas in the second embodiment of the present invention. 本発明の第2の実施形態における、画像内の複数領域の被写体距離情報を取得し、画像復元を行う処理を示すフローチャートである。It is a flowchart which shows the process which acquires the object distance information of the several area | region in an image, and performs image restoration in the 2nd Embodiment of this invention. 各AF測距領域について、レンズの繰り出し位置とコントラストとの関係を示す図である。It is a figure which shows the relationship between the extension position of a lens, and contrast about each AF ranging area.

先ず、画像復元の原理について説明する。撮像系の光軸にz軸をとり、z軸に垂直な方向にx軸及びy軸をとる。被写体(対象物)を忠実に画像化したものを原画像と呼び、位置座標(x,y)を用いて、原画像をf(x,y)と表すものとする。また、撮像によって得られる画像は、画像上の座標(x,y)を用いてg(x,y)と表すものとする。   First, the principle of image restoration will be described. The z axis is taken as the optical axis of the imaging system, and the x axis and the y axis are taken in the direction perpendicular to the z axis. A faithful image of a subject (object) is called an original image, and the original image is expressed as f (x, y) using position coordinates (x, y). An image obtained by imaging is expressed as g (x, y) using coordinates (x, y) on the image.

原画像f(x,y)は、無数の点光源によって構成されていると考えることができる。2次元のデルタ関数δ(x,y)は輝度が1の点光源と考えることができ、原画像f(x,y)は、x−y平面上の位置(x0,y0)における輝度がf(x0,y0)の点光源の線形和として、次の式1のように示される。なお、0は被写体を示す添字である。 The original image f (x, y) can be considered to be composed of an infinite number of point light sources. The two-dimensional delta function δ (x, y) can be considered as a point light source having a luminance of 1, and the original image f (x, y) has a luminance at a position (x 0 , y 0 ) on the xy plane. Is expressed as the following equation 1 as a linear sum of point light sources of f (x 0 , y 0 ). Note that 0 is a subscript indicating the subject.

Figure 2012005056
Figure 2012005056

入力として点光源を与えたとき、撮像系を通して、出力としてそれがどれだけぼけた像として現れるかを示す特性であるPSF(点像分布関数)をh(x,y)とする。この応答h(x,y)は撮像システムLのインパルス応答に対応するものであり、位置(x0,y0)にある点光源として、2次元デルタ関数δ(x−x0,y−y0)を与えたときの出力は、次の式2で表される。 When a point light source is given as an input, a PSF (point spread function) indicating a blurred image as an output through an imaging system is assumed to be h (x, y). This response h (x, y) corresponds to the impulse response of the imaging system L, and is a two-dimensional delta function δ (x−x 0 , yy) as a point light source at the position (x 0 , y 0 ). The output when 0 ) is given is expressed by the following equation 2.

Figure 2012005056
Figure 2012005056

従って、f(x,y)とg(x,y)とh(x,y)との間には、次の式3のような関係が成り立つ。   Therefore, the relationship shown in the following Expression 3 is established between f (x, y), g (x, y), and h (x, y).

Figure 2012005056
Figure 2012005056

PSFは、一般には入力及び出力の位置に依存してその値が変わるが、2次元システムの応答が均一で入力の位置による応答が変わらないとみなせる領域内では、次の式4が成り立つ。   The value of PSF generally changes depending on the input and output positions. However, in the region where the response of the two-dimensional system is uniform and the response due to the input position does not change, the following expression 4 holds.

Figure 2012005056
Figure 2012005056

ここで、*は、畳み込み積分(convolution integral)を表している。
これをフーリエ変換して空間周波数領域で表現すると、式4は次の式5のようになる。
Here, * represents a convolution integral.
When this is Fourier-transformed and expressed in the spatial frequency domain, Equation 4 becomes Equation 5 below.

Figure 2012005056
Figure 2012005056

ここで、u、vはそれぞれx方向、y方向の空間周波数、F(u,v)、G(u,v)、H(u,v)は、f(x,y)、g(x,y)、h(x,y)を2次元フーリエ変換したものである。H(u,v)は、システムの周波数応答特性を示す空間周波数伝達関数、即ち、2次元フィルタの周波数特性を示すもので光学伝達関数(OTF:optical transfer function)と呼ばれている。   Here, u and v are spatial frequencies in the x and y directions, respectively, and F (u, v), G (u, v) and H (u, v) are f (x, y) and g (x, x, y) and h (x, y) are two-dimensional Fourier transforms. H (u, v) represents a spatial frequency transfer function indicating the frequency response characteristic of the system, that is, a frequency characteristic of the two-dimensional filter, and is called an optical transfer function (OTF).

撮像された画像g(x,y)から画像復元を行うには、式5を変形した次の式6を利用すればよい。   In order to restore an image from the captured image g (x, y), the following Expression 6 obtained by transforming Expression 5 may be used.

Figure 2012005056
Figure 2012005056

OTFの逆フィルタである1/H(u,v)をかけて求めたF(u,v)を、逆フーリエ変換して実空間に戻すことで、原画像f(x,y)を求めることができる。また、式6を逆フーリエ変換した式7のように、1/H(u,v)を逆フーリエ変換して求めた画像復元フィルタを、撮像された画像g(x,y)に対して畳み込み積分することで、原画像f(x,y)を求めることができる。   Obtaining the original image f (x, y) by performing inverse Fourier transform on F (u, v) obtained by multiplying 1 / H (u, v), which is an OTF inverse filter, and returning it to the real space. Can do. Further, an image restoration filter obtained by inverse Fourier transform of 1 / H (u, v) is convolved with the captured image g (x, y) as in Equation 7 obtained by inverse Fourier transform of Equation 6. By integrating, the original image f (x, y) can be obtained.

Figure 2012005056
Figure 2012005056

実際に画像を復元処理する際には、撮影された画像g(x,y)にノイズ成分が含まれるため、画像復元フィルタF-1{1/H(u,v)}をそのまま用いると、ノイズが増幅された画像となってしまう。この問題については、例えば、ウィーナフィルタのようにノイズ成分が存在することを考慮した方法を用いればよい。なお、PSFであるh(x,y)は、ズーム、絞り、被写体位置、像高で変わる。 When actually restoring the image, since the captured image g (x, y) includes a noise component, if the image restoration filter F −1 {1 / H (u, v)} is used as it is, The image is amplified with noise. For this problem, for example, a method considering the presence of a noise component such as a Wiener filter may be used. Note that h (x, y), which is a PSF, varies depending on zoom, aperture, subject position, and image height.

像平面上に焦点の合った像を形成するのは、物体空間の面である焦平面(focal plane)である。撮像装置では、AFやマニュアル操作で光学系のフォーカス用レンズ群を繰り出し、物体空間の一つの面(焦平面)に焦点を合わせて撮影する。画像復元を行う場合、フォーカス用レンズ群の繰り出しにより焦点の合った被写体距離(以下、合焦被写体距離と称す)に基づく画像復元フィルタが適用されることになる。   It is the focal plane that is the surface of the object space that forms a focused image on the image plane. In the imaging apparatus, the focusing lens group of the optical system is extended by AF or manual operation, and a single surface (focal plane) in the object space is focused and photographed. In the case of performing image restoration, an image restoration filter based on a subject distance focused on by extending the focusing lens group (hereinafter referred to as a focused subject distance) is applied.

しかし、撮像で得られたデフォーカスした領域(以下、デフォーカス領域と称す)の画像は、物体空間では被写体が焦平面上にはなく、合焦被写体距離とは異なる被写体距離にあるため、焦平面上の点とは異なるPSFとなっている。このため、デフォーカス領域では、合焦被写体距離でのPSFではなく、本来は、合焦被写体距離にフォーカス用レンズ群を繰り出した状態での光学配置で、デフォーカスしている物体の被写体距離にある点を結像したときのPSFに基づく画像復元フィルタを適用すべきである。   However, an image of a defocused region obtained by imaging (hereinafter referred to as a defocused region) is not focused on the focal plane in the object space, and is at a subject distance different from the focused subject distance. The PSF is different from the point on the plane. For this reason, in the defocus area, instead of the PSF at the focused subject distance, the optical arrangement with the focusing lens group extended to the focused subject distance is originally set to the subject distance of the defocused object. An image restoration filter based on the PSF when a certain point is imaged should be applied.

実際に、デフォーカス領域を含むカラー画像を撮影し、波長帯域毎のPSFを考慮して、R、G、B成分のそれぞれについて、合焦被写体距離のPSFに基づく画像復元フィルタを適用して画像復元を行った。その結果、画像の中で焦点が合っている領域は良好に復元されるが、デフォーカス領域の中において、撮像光学系の収差に起因する色収差が発生している部分で、復元前の画像に比べて復元後の画像で色差が拡大し、良好な復元が得られない場合があることを発見した。この例に限らず、画像復元する領域の実際のPSFと、画像復元フィルタを作成するのに用いたPSFとが異なると、復元前の画像よりも復元後の画像の方が劣化した領域が生じる場合がある。   Actually, a color image including a defocus area is taken, and an image restoration filter based on the PSF of the focused object distance is applied to each of the R, G, and B components in consideration of the PSF for each wavelength band. Restored. As a result, the in-focus area in the image is restored well, but the chromatic aberration due to the aberration of the imaging optical system occurs in the defocus area, and the image before restoration is restored. In comparison, we found that the restored image has a larger color difference and may not be able to be restored. In addition to this example, if the actual PSF of the region to be restored is different from the PSF used to create the image restoration filter, a region in which the restored image is deteriorated more than the image before restoration is generated. There is a case.

撮像光学系の実際のPSFには、被写体距離に応じた収差によるぼけの他に、デフォーカスによるぼけと、絞り状態(絞りの大きさと形状)によるぼけとが含まれている。このため、画像復元する領域のデフォーカス状態を考慮したPSFに基づく画像復元フィルタをそのまま適用すると、デフォーカスや絞り状態に応じたぼけをもつ良好な復元画像とならない。   The actual PSF of the imaging optical system includes blur due to defocus and blur due to the aperture state (aperture size and shape), in addition to blur due to aberration according to the subject distance. For this reason, if an image restoration filter based on the PSF that takes into account the defocus state of the area to be restored is applied as it is, a good restored image having a blur corresponding to the defocus or aperture state cannot be obtained.

画像のデフォーカス領域において、良好な復元が得られない従来の欠点を解析した結果、撮影光学系により発生する収差が、被写体距離により異なることから生じていることが分かった。デフォーカス領域での被写体距離は、光学系のフォーカス用レンズ群の繰り出しにより焦点の合った被写体距離である合焦被写体距離とは異なる。このため、被写体が合焦被写体距離にある場合に発生する収差と、デフォーカス領域の被写体距離にある場合に発生する収差とは異なっている。それにも関らず、デフォーカス領域の画像復元にも、合焦被写体距離に基づく画像復元フィルタを適用したため、デフォーカス状態の収差情報を補正する画像復元とは差異が生じ、発生する収差の違いにより、色差の拡大が生じたことが分かった。   As a result of analyzing a conventional defect that cannot be satisfactorily restored in the defocus region of the image, it was found that the aberration generated by the photographing optical system is different depending on the subject distance. The subject distance in the defocus area is different from the in-focus subject distance which is the subject distance focused by the extension of the focusing lens group of the optical system. For this reason, the aberration that occurs when the subject is at the in-focus subject distance is different from the aberration that occurs when the subject is at the subject distance in the defocus area. Nevertheless, the image restoration filter based on the focused subject distance is also applied to the image restoration in the defocus area, so there is a difference from the image restoration that corrects the defocused aberration information, and the difference in the generated aberrations Thus, it was found that the color difference expanded.

そして、このような原因によって発生する画像復元による劣化を抑えるためには、フォーカス状態の異なる領域毎に、それぞれの被写体距離情報を使用すればよいことを見出した。それぞれの被写体距離情報を使用すれば、領域毎にフォーカス状態が異なることによる収差の違いを反映した復元フィルタで画像復元を行うという作用により、良い結果が得られる。   Then, in order to suppress deterioration due to image restoration caused by such a cause, it has been found that the subject distance information may be used for each region having a different focus state. If each subject distance information is used, a good result can be obtained by performing an image restoration with a restoration filter reflecting a difference in aberration due to a different focus state in each region.

この際、画像の中で、フォーカス状態の異なる領域毎に、それぞれの被写体距離情報が必要となる。撮影する画角内の被写体距離情報を取得する手段として、フォーカス用レンズ群の繰り出し量を変えて複数の画像を撮影し、その複数の画像から被写界深度マップを作成する方法や、撮像装置とは別に被写体の配置を測定する三次元測定装置を用いる方法が知られている。   At this time, the subject distance information is required for each region having a different focus state in the image. As a means for acquiring subject distance information within the angle of view for photographing, a method for photographing a plurality of images by changing the amount of extension of the focusing lens group, and creating a depth-of-field map from the plurality of images, and an imaging device In addition to this, a method using a three-dimensional measuring apparatus for measuring the arrangement of a subject is known.

しかし、複数の画像や三次元測定装置を用いる方法は、実際に撮像装置で画像を撮影し、その静止画像や動画像に対して復元処理を行う場合には、領域毎の被写体距離を求めるのに時間や別の測定装置が必要となるため、実用的ではない。これを実現するためには、静止画又は動画の画像取得に対応して、画像内の複数領域の被写体距離情報を取得し、画像復元を行うことが必要である。   However, in the method using a plurality of images and a three-dimensional measuring device, when an image is actually captured by an imaging device and restoration processing is performed on the still image or moving image, the subject distance for each region is obtained. This is not practical because it requires time and another measuring device. In order to realize this, it is necessary to acquire object distance information of a plurality of areas in an image and perform image restoration in response to acquisition of a still image or a moving image.

そして、被写体距離情報として、複数のAF測距領域の距離情報を利用することが有効であることを見出した。このように、レンズの設計データより、画像復元する領域毎のデフォーカス状態を考慮したPSFを求め、それを用いて画像復元フィルタを作成すれば、被写体距離の違いによる収差を補正できる。しかし、従来のように、画像復元する全ての領域に対して1つの被写体距離(ここでは、合焦被写体距離)に基づくPSFから画像復元フィルタを作成していないため、デフォーカスや絞り状態に応じたぼけをもつ良好な画像とならない。   And it discovered that it was effective to use the distance information of a plurality of AF ranging areas as the subject distance information. In this way, if a PSF that takes into account the defocus state for each area to be restored is obtained from the lens design data and an image restoration filter is created using the PSF, aberrations due to differences in subject distance can be corrected. However, since the image restoration filter is not created from the PSF based on one subject distance (here, the in-focus subject distance) for all the regions to be restored, unlike in the past, it depends on the defocus or aperture state. A good image with blur is not obtained.

これは、デフォーカス状態を考慮したPSFには、被写体距離に応じた光学収差によるぼけの他に、デフォーカスや絞り状態によるぼけが含まれているからである。そこで、設計された撮影レンズに対応する無収差レンズのPSFを求め、このぼけを復元フィルタに付加することにより、デフォーカスと絞り状態に応じたぼけをもつ復元画像を作成する。   This is because the PSF considering the defocus state includes blur due to the defocus and the aperture state in addition to the blur due to the optical aberration corresponding to the subject distance. Therefore, the PSF of the aberration-free lens corresponding to the designed photographing lens is obtained, and this blur is added to the restoration filter, thereby creating a restored image having a blur corresponding to the defocus and the aperture state.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像復元装置の基本構成を示す図である。本実施形態においては、画像を撮像したカメラ内で画像の復元処理を行い、記憶媒体に画像ファイルを保存する例について説明する。なお、本実施形態に係るカメラは、本発明の画像処理装置の適用例となる構成である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a basic configuration of an image restoration apparatus according to the first embodiment of the present invention. In the present embodiment, an example will be described in which image restoration processing is performed within a camera that has captured an image, and an image file is stored in a storage medium. Note that the camera according to the present embodiment has a configuration that is an application example of the image processing apparatus of the present invention.

1は光学系の光軸である。10は撮影レンズであり、焦点を調整するためのフォーカス用レンズ群12と、フォーカス用レンズ群12以外のレンズ群11と、光量を調整するための絞り13とを備える。撮影レンズ10は、ズームレンズで、撮像時のズーム位置が、ズーム位置制御部41を通して、検知可能な機能を有している。撮影時の絞り状態は、絞り制御部51を通して、検知可能な機能を有している。また、撮影レンズ10は交換可能で、撮影時に使用したレンズの種類が、検知可能な機能を有している。   Reference numeral 1 denotes an optical axis of the optical system. Reference numeral 10 denotes a photographic lens, which includes a focus lens group 12 for adjusting the focus, a lens group 11 other than the focus lens group 12, and a diaphragm 13 for adjusting the amount of light. The photographing lens 10 is a zoom lens, and has a function that allows the zoom position at the time of imaging to be detected through the zoom position control unit 41. The aperture state at the time of shooting has a function that can be detected through the aperture controller 51. Further, the photographing lens 10 is replaceable, and has a function capable of detecting the type of lens used at the time of photographing.

21はメインミラーであり、図示しない被写体からの光束は、撮影レンズ10を介してメインミラー21により上方に反射され、焦点板22に像を形成する。焦点板22に形成された像は、ペンタプリズム23による数回の反射を経て、接眼レンズ24を介して撮影者によって被写体が視認される。   Reference numeral 21 denotes a main mirror. A light beam from a subject (not shown) is reflected upward by the main mirror 21 via the photographing lens 10 to form an image on the focusing screen 22. The image formed on the focusing screen 22 is reflected by the pentaprism 23 several times, and the subject is visually recognized by the photographer via the eyepiece 24.

一方、撮像レンズ10からメインミラー21に到達した光束のうちの一部は、メインミラー21のハーフミラー部を透過し、サブミラー31により下方に反射され、AF検出部32に導かれる。撮影の際には、メインミラー21とサブミラー31とが上方に跳ね上がり、撮影光束外に退避することで、撮影レンズ10からの光束は、光学LPF61を介して固体撮像素子62上に結像する。固体撮像素子62は、CCDやCMOSセンサ等によって構成されており、受光面上に結像した被写体像を光電変換し、画像信号を出力する。光学LPF61は、固体撮像素子62の空間サンプリングによる折り返し成分を抑える役割をしている。固体撮像素子62から出力された画像信号は、A/D変換器63でアナログ信号からデジタル信号に変換され、RAW画像データがバッファメモリ71に格納される。   On the other hand, a part of the light beam reaching the main mirror 21 from the imaging lens 10 is transmitted through the half mirror part of the main mirror 21, reflected downward by the sub mirror 31, and guided to the AF detection part 32. At the time of shooting, the main mirror 21 and the sub mirror 31 jump upward and retract outside the shooting beam, so that the beam from the shooting lens 10 forms an image on the solid-state image sensor 62 via the optical LPF 61. The solid-state image sensor 62 is constituted by a CCD, a CMOS sensor, or the like, photoelectrically converts a subject image formed on the light receiving surface, and outputs an image signal. The optical LPF 61 serves to suppress the aliasing component due to spatial sampling of the solid-state image sensor 62. The image signal output from the solid-state image sensor 62 is converted from an analog signal to a digital signal by the A / D converter 63, and RAW image data is stored in the buffer memory 71.

本実施形態におけるAF方式は、複数のAF測距領域を持つ位相差検出方式である。AF検出部32は、サブミラー31からの光束を2つの光束に分離する瞳分割光学系と、分離された2つの像を取り込む一対の測距用エリアセンサと、2つの像の相対的な位置関係を示す位置ずれ量である位相差を演算する位相差演算部とを備える。   The AF method in this embodiment is a phase difference detection method having a plurality of AF ranging areas. The AF detection unit 32 includes a pupil division optical system that separates the light beam from the sub-mirror 31 into two light beams, a pair of distance measuring area sensors that capture the two separated images, and the relative positional relationship between the two images. And a phase difference calculation unit that calculates a phase difference that is a positional deviation amount.

図2は、測距用エリアセンサから出力される2つの像信号であるA像、B像の相対位置関係を示したものである。2つの像は、異なる瞳を通過した光束よりなるため、レンズの繰り出し量により、像の相対位置が、前ピン(図2(a))、合焦(図2(b))、後ピン(図2(c))の各状態で異なる。この2つの像の相対的なずれ量は、2つの像信号の相関演算が行われることにより計算され、位相差δが求められる。位相差δは、合焦時に零、前ピン時には負の値、後ピン時には正の値をとる。位相差δと光学系のデフォーカスとの関係は一意に決まるので、AF検出部32で検出された位相差δはレンズ繰り出し制御部33に送られる。レンズ繰り出し制御部33は、位相差δとAF測距時のフォーカス用レンズ群12の位置とから、合焦を得るのに必要なレンズ繰り出し量を求め、フォーカス用レンズ群12を繰り出すことで合焦制御を行う。   FIG. 2 shows the relative positional relationship between the A and B images, which are two image signals output from the distance measuring area sensor. Since the two images are composed of light beams that have passed through different pupils, the relative positions of the images are changed according to the amount of lens extension, such as the front pin (FIG. 2A), the focus (FIG. 2B), and the rear pin ( It is different in each state of FIG. The relative shift amount between the two images is calculated by performing a correlation operation between the two image signals, and a phase difference δ is obtained. The phase difference δ is zero at the time of focusing, a negative value at the front pin, and a positive value at the rear pin. Since the relationship between the phase difference δ and the defocus of the optical system is uniquely determined, the phase difference δ detected by the AF detection unit 32 is sent to the lens extension control unit 33. The lens extension control unit 33 obtains the lens extension amount necessary for obtaining the focus from the phase difference δ and the position of the focus lens group 12 at the time of AF distance measurement, and outputs the focus lens group 12 by extending the focus lens group 12. Perform focus control.

図3は、撮影で得られる画像と複数のAF測距領域との位置関係を示す図である。101〜135はAF測距領域であり、AF測距領域の選択は、撮影者が任意のAF測距領域を選ぶ手動選択と、画像復元装置が主被写体を判断して焦点を合わせる自動選択とがある。手動選択には、ボタン操作でAF測距領域を選択する方法、視線入力でAF測距領域を選択する方法、液晶表示のタッチパネルでAF測距領域を選択する方法等がある。   FIG. 3 is a diagram illustrating a positional relationship between an image obtained by photographing and a plurality of AF distance measurement areas. Reference numerals 101 to 135 denote AF distance measurement areas. The AF distance measurement area can be selected by manual selection in which the photographer selects an arbitrary AF distance measurement area, or automatic selection in which the image restoration apparatus determines the main subject and focuses. There is. Manual selection includes a method of selecting an AF distance measurement area by button operation, a method of selecting an AF distance measurement area by eye-gaze input, a method of selecting an AF distance measurement area by a liquid crystal display touch panel, and the like.

また、選択手段によって撮影者の撮影意図に従って決定されたAF測距領域についてのデフォーカス演算結果がNGであった場合には、選択された領域以外のAF測距領域について、選択されたAF測距領域に近く、且つ撮影画面の中央に近い領域を優先する。手動選択から自動選択に切り替わる等がある。   Further, when the defocus calculation result for the AF distance measurement area determined according to the photographing intention of the photographer by the selection unit is NG, the selected AF measurement is performed for the AF distance measurement area other than the selected area. Priority is given to an area close to the distance area and close to the center of the shooting screen. For example, switching from manual selection to automatic selection.

図4は、本発明の第1の実施形態における、画像内の複数領域の被写体距離情報を取得して画像復元を行う処理を示すフローチャートである。図1と図4を用いて、画像内の複数領域の被写体距離情報を取得し、画像復元を行う動作について説明する。撮影者が図示しないレリーズボタンを一段階の押し下げ操作を行うことにより、AFシーケンスが開始される。   FIG. 4 is a flowchart showing a process of performing image restoration by acquiring subject distance information of a plurality of regions in an image according to the first embodiment of the present invention. An operation for acquiring subject distance information of a plurality of regions in an image and performing image restoration will be described with reference to FIGS. The AF sequence is started when the photographer performs a one-step depression operation of a release button (not shown).

ステップS1において、図3の複数のAF測距領域101〜135について、AF検出部32の測距用エリアセンサからの像信号(2つの像信号であるA像信号、B像信号)を検出する。ステップS2において、前述したように、AF検出部32の位相差演算部で、2つの像信号の相関演算を行うことにより、複数のAF測距領域101〜135の位相差δを求める。ステップS3において、ステップ2で算出された、複数のAF測距領域101〜135の位相差δが、AF検出部32から、測距情報保持部34に送られ保持される。ステップS4において、焦点を合わせるAF測距領域を選択する。手動選択の設定となっている場合、撮影者が選択したAF測距領域が選択され、自動選択の設定となっている場合、画像復元装置が主被写体と判断したAF測距領域が選択される。ステップS5において、焦点を合わせるAF測距領域の位相差δが、レンズ繰り出し制御部の送られ、合焦を得るのに必要なレンズ繰り出し量を算出する。ステップS6において、フォーカス用レンズ群12を繰り出すことで合焦を行う。AF測距時及び合焦時のフォーカス用レンズ群12の位置は、レンズ繰り出し制御部33を通して検知され、測距情報保持部34に送られ、保持される。   In step S1, image signals (A image signal and B image signal, which are two image signals) from the distance measuring area sensor of the AF detector 32 are detected for the plurality of AF distance measuring areas 101 to 135 in FIG. . In step S2, as described above, the phase difference calculation unit of the AF detection unit 32 calculates the correlation between the two image signals, thereby obtaining the phase differences δ of the plurality of AF ranging areas 101 to 135. In step S3, the phase differences δ of the plurality of AF ranging areas 101 to 135 calculated in step 2 are sent from the AF detection unit 32 to the ranging information holding unit 34 and held therein. In step S4, an AF ranging area to be focused is selected. When manual selection is set, the AF range area selected by the photographer is selected. When automatic selection is set, the AF range area determined by the image restoration device as the main subject is selected. . In step S5, the phase difference δ of the AF distance measurement area to be focused is sent to the lens extension control unit, and the lens extension amount necessary to obtain the focus is calculated. In step S6, focusing is performed by extending the focusing lens group 12. The position of the focusing lens group 12 at the time of AF distance measurement and in-focus is detected through the lens extension control unit 33, sent to the distance measurement information holding unit 34, and held there.

ステップS7において、被写体距離演算部35は、複数のAF測距領域101〜135の位相差δと、AF測距時及び合焦時のフォーカス用レンズ群12の位置とから、合焦被写体距離と各AF測距領域の被写体距離とを演算する。なお、ステップS5で繰り出し量が算出された時点で合焦時のレンズ位置が分かるので、レンズ繰り出し中にステップS7の演算を行ってもよい。   In step S7, the subject distance calculation unit 35 calculates the in-focus subject distance from the phase difference δ of the plurality of AF distance measurement areas 101 to 135 and the position of the focus lens group 12 during AF distance measurement and in-focus. The subject distance of each AF distance measurement area is calculated. Since the lens position at the time of focusing is known at the time when the extension amount is calculated in step S5, the calculation in step S7 may be performed during lens extension.

次に、撮影者が図示しないレリーズボタンをもう一段押し下げ操作することにより、撮像シーケンスが開始される。撮像を行うため、メインミラー21とサブミラー31とが撮影光束外に退避し、被写体からの光束は、撮影レンズ10、光学LPF61を介して、固体撮像素子62に結像する。固体撮像素子62上には、図5に示すようなR、G、Bで構成される色モザイクフィルタが配置され、R、G、Bの各色成分の信号が取得できるようになっている。ステップS8において、固体撮像素子62上に結像した被写体像は、光電変換されて画像信号として出力され、A/D変換機63でデジタル信号に変換されて、バッファメモリ71に、RAW画像データとして格納される。   Next, the imaging sequence is started when the photographer depresses a release button (not shown) one more step. In order to perform imaging, the main mirror 21 and the sub mirror 31 are retracted out of the photographic light beam, and the light beam from the subject forms an image on the solid-state image sensor 62 via the photographic lens 10 and the optical LPF 61. On the solid-state image sensor 62, a color mosaic filter composed of R, G, and B as shown in FIG. 5 is arranged so that signals of R, G, and B color components can be acquired. In step S8, the subject image formed on the solid-state image sensor 62 is photoelectrically converted and output as an image signal, converted into a digital signal by the A / D converter 63, and stored in the buffer memory 71 as RAW image data. Stored.

次に、画像復元処理について説明する。図1において、74は復元フィルタDBであり、画像復元に使用される復元フィルタが格納されている。本実施形態では、復元フィルタは、撮像系の設計データより求まるPSFに基づいて作成されている。   Next, the image restoration process will be described. In FIG. 1, reference numeral 74 denotes a restoration filter DB, which stores a restoration filter used for image restoration. In this embodiment, the restoration filter is created based on the PSF obtained from the design data of the imaging system.

撮像系の設計データとは、撮影レンズ10の設計データ、絞り13の大きさと形状、光学LFP61の空間周波数特性、固体撮像素子62の画素ピッチと画素開口形状、固体撮像素子62上の色モザイクフィルタの配列等である。また、R、G、Bの各色成分に対してそれぞれの復元フィルタが用意される。このため、復元フィルタ作成のため、波長帯域毎の透過率特性を考慮する必要がある。これは、波長帯域毎のPSFの重み付け係数に相当し、撮像レンズ10の分光透過率特性、固体撮像素子62上の色モザイクフィルタの分光透過特性、固体撮像素子62の分光感度特性等である。また、図示しない赤外カットフィルタが使用されている場合は、その分光透過特性も考慮する必要がある。   The imaging system design data includes the design data of the photographing lens 10, the size and shape of the diaphragm 13, the spatial frequency characteristics of the optical LFP 61, the pixel pitch and pixel aperture shape of the solid-state image sensor 62, and the color mosaic filter on the solid-state image sensor 62. And the like. Also, respective restoration filters are prepared for the R, G, and B color components. For this reason, it is necessary to consider the transmittance characteristics for each wavelength band in order to create a restoration filter. This corresponds to the PSF weighting coefficient for each wavelength band, and includes the spectral transmittance characteristic of the imaging lens 10, the spectral transmission characteristic of the color mosaic filter on the solid-state imaging element 62, the spectral sensitivity characteristic of the solid-state imaging element 62, and the like. Further, when an infrared cut filter (not shown) is used, it is necessary to consider its spectral transmission characteristics.

実際に、復元フィルタDB74に格納されている画像復元フィルタは、撮像レンズ10の種類毎に、ズーム位置、絞りの各パラメータの範囲を分割して対応する形となっている。図6にその復元フィルタのリストの概念図を示す。撮影レンズ10は交換可能なので、使用されている撮像レンズ10の種類、撮影時のズーム位置、絞りのパラメータ毎に、復元フィルタリストが用意されている(図6(a))。更に、撮影時の合焦被写体距離dfに応じた復元フィルタ表が用意されており(図6(b))、撮像されたRAW画像データに対して、該当する復元フィルタを用いて復元処理が行われる。   Actually, the image restoration filter stored in the restoration filter DB 74 has a shape corresponding to each type of the imaging lens 10 by dividing the range of each parameter of the zoom position and the aperture. FIG. 6 shows a conceptual diagram of the restoration filter list. Since the photographing lens 10 is replaceable, a restoration filter list is prepared for each type of the imaging lens 10 being used, the zoom position at the time of photographing, and the aperture parameter (FIG. 6A). Further, a restoration filter table corresponding to the focused subject distance df at the time of shooting is prepared (FIG. 6B), and restoration processing is performed on the captured RAW image data using the corresponding restoration filter. Is called.

一つの撮影状態においても撮像光学系の画角(像高)に応じてPSFは変化するので、図3に示すように、画像内を複数の復元領域に分割し、分割した各復元領域201〜235に対応する復元フィルタを用いて復元処理を行う。   Since the PSF changes according to the angle of view (image height) of the imaging optical system even in one shooting state, the image is divided into a plurality of restoration areas as shown in FIG. A restoration process is performed using a restoration filter corresponding to H.235.

ステップS8で取得されたRAW画像データの画像復元処理を、図1及び図4を用いて説明する。70はCPUであり、その機能構成として、フィルタ選択部73、復元処理部76、後処理部77を含む。フィルタ選択部73は、撮影レンズ10の種類を検知し、RAW画像データの撮像時のズーム位置をズーム位置制御部41から、撮影時の絞り状態を絞り制御部51から受け取り、復元フィルタDB74より図6(a)の復元フィルタリストを選択する。次に、フィルタ選択部73は、被写体距離演算部35で演算された合焦被写体距離dfを基に、図6(b)の中から対応する復元フィルタ表を選択する。なお、復元フィルタ補間生成部75は、復元フィルタDB74にある復元フィルタのリストにないパラメータ(ズーム位置、絞り状態、合焦被写体距離、各復元領域の被写体距離)の中間の値に対応する復元フィルタを必要とする際に、隣接する条件の復元フィルタから補間演算を行い、必要な復元フィルタを生成するものである。また、復元フィルタ補間生成部75は、復元フィルタDB74内の復元フィルタ表のデータ容量を低減するため、各パラメータの分割数を減らして格納しておき、必要な条件の復元フィルタを生成する際にも用いられる。   The image restoration processing of the RAW image data acquired in step S8 will be described with reference to FIGS. A CPU 70 includes a filter selection unit 73, a restoration processing unit 76, and a post-processing unit 77 as its functional configuration. The filter selection unit 73 detects the type of the photographic lens 10, receives the zoom position at the time of imaging RAW image data from the zoom position control unit 41, and the aperture state at the time of imaging from the aperture control unit 51, and receives the drawing from the restoration filter DB 74. The restoration filter list of 6 (a) is selected. Next, the filter selection unit 73 selects a corresponding restoration filter table from FIG. 6B based on the focused subject distance df calculated by the subject distance calculation unit 35. The restoration filter interpolation generation unit 75 restores a filter corresponding to an intermediate value of parameters (zoom position, aperture state, focused subject distance, subject distance in each restoration area) that are not in the restoration filter list in the restoration filter DB 74. Is necessary, an interpolation operation is performed from the restoration filter of the adjacent condition to generate a necessary restoration filter. In addition, the restoration filter interpolation generation unit 75 stores a reduced number of divisions for each parameter in order to reduce the data capacity of the restoration filter table in the restoration filter DB 74, and generates a restoration filter with necessary conditions. Is also used.

ステップS9では、各復元領域201〜235に対応した被写体距離を取得する。本実施形態では、図3に示すように、AF測距領域101〜135と復元領域201〜235との分割位置が合わせてある。このため、各復元領域に対応する被写体距離として、それに対応する各AF測距領域の被写体距離を用いればよい。この被写体距離は、AF時に位相差δとして測距情報保持部34に保持され、ステップS7において被写体距離演算部35で演算された各AF測距領域の被写体距離dを用いる。ステップS10では、各復元領域の復元フィルタを取得する。具体的には、図6(b)の中から、ステップS4で焦点を合わせるために選択されたAF測距領域の被写体距離、即ち、AFのための像信号を検出して、フォーカス用レンズ群の繰り出しによって焦点の合った被写体距離である合焦被写体距離dfに対応する復元フィルタ表を選択する。図7は、合焦被写体距離dfにある焦平面上の点が、固体撮像素子62上に結像している状態と、合焦被写体距離dfとは異なる被写体距離dにある焦平面上にない点が、デフォーカスしている状態とを示している。選択された復元フィルタ表は、合焦被写体距離dfにある焦平面に焦点を合わせるようにフォーカス用レンズ群10を繰り出したときのレンズ配置で、図7のように、合焦被写体距離dfと、画像上でデフォーカスした領域の各被写体距離dとにおけるPSFの逆関数に基づく復元フィルタからなっている。復元処理部76で、図3に示す各復元領域201〜235の各領域毎に、対応するAF測距領域の被写体距離dに対応する復元フィルタを、選択された復元フィルタ表より選択する。このように、合焦領域は合焦被写体距離dfのPSFに基づく復元フィルタを選択し、デフォーカス領域はデフォーカスしている被写体距離dのPSFに基づく復元フィルタを選択することで、被写体距離の違いによる光学収差を補正することが可能となる。   In step S9, the subject distance corresponding to each restoration area 201-235 is acquired. In the present embodiment, as shown in FIG. 3, the division positions of the AF ranging areas 101 to 135 and the restoration areas 201 to 235 are matched. For this reason, as the subject distance corresponding to each restoration area, the subject distance of each AF distance measurement area corresponding thereto may be used. This subject distance is held in the ranging information holding unit 34 as a phase difference δ during AF, and the subject distance d of each AF ranging area calculated by the subject distance calculating unit 35 in step S7 is used. In step S10, a restoration filter for each restoration area is acquired. Specifically, from FIG. 6B, a subject distance in the AF distance measurement area selected for focusing in step S4, that is, an image signal for AF is detected, and a focusing lens group is detected. The restoration filter table corresponding to the in-focus subject distance df, which is the in-focus subject distance, is selected. In FIG. 7, the point on the focal plane at the focused subject distance df is not on the focal plane at the subject distance d different from the focused subject distance df when the image is formed on the solid-state imaging device 62. A dot indicates a defocused state. The selected restoration filter table is the lens arrangement when the focusing lens group 10 is extended so as to focus on the focal plane at the focused subject distance df, and as shown in FIG. 7, the focused subject distance df, It consists of a restoration filter based on the inverse function of PSF at each subject distance d in the defocused area on the image. The restoration processing unit 76 selects a restoration filter corresponding to the subject distance d of the corresponding AF distance measurement area from the selected restoration filter table for each of the restoration areas 201 to 235 shown in FIG. In this way, the restoration area based on the PSF of the in-focus subject distance df is selected as the in-focus area, and the restoration filter based on the PSF of the de-focused object distance d is selected as the defocus area. It becomes possible to correct the optical aberration due to the difference.

ステップS11において、図1のぼけ補正フィルタDB72から、デフォーカスと絞り状態とに応じたぼけを出すための、ぼけ補正フィルタを取得する。絞り状態としては、撮影時のF値を用いる。このぼけ補正フィルタは、撮影レンズ10に対応する無収差レンズのPSFに基づいて作成されており、撮像レンズ10の種類毎に、ズーム位置、絞り状態の各パラメータの範囲を分割する形のぼけ補正フィルタリストが用意されている。復元フィルタのフィルタリストでは、合焦被写体距離dfに対応する復元フィルタ表を選択した後、復元領域に応じた復元フィルタを選択する形となっている。しかし、無収差レンズのPSFは像高により変化しないので、ぼけ補正フィルタの合焦被写体距離dfに対応するフィルタ表からは、各復元領域のデフォーカス状態、つまり被写体距離dに対応するぼけ補正フィルタを選択する。   In step S11, a blur correction filter for obtaining blur according to the defocus and the aperture state is acquired from the blur correction filter DB 72 of FIG. As the aperture state, the F value at the time of shooting is used. This blur correction filter is created based on the PSF of an aberration-free lens corresponding to the photographing lens 10, and blur correction that divides the range of each parameter of the zoom position and aperture state for each type of the imaging lens 10. A filter list is provided. In the filter list of the restoration filter, the restoration filter table corresponding to the focused subject distance df is selected, and then the restoration filter corresponding to the restoration area is selected. However, since the PSF of the non-aberration lens does not change depending on the image height, the blur correction filter corresponding to the defocused state of each restoration area, that is, the subject distance d, is obtained from the filter table corresponding to the focused subject distance df of the blur correction filter. Select.

ステップS12では、復元処理部76は、ステップS10で選択された復元フィルタに、ステップS11で選択されたぼけ補正フィルタを掛け合わせて、デフォーカスと絞り状態とに応じたぼけを出す復元フィルタを生成する。そして、復元処理部76は、RAW画像データに対して復元領域毎にこのフィルタを畳み込み積分することで、画像復元を行う。   In step S12, the restoration processing unit 76 multiplies the restoration filter selected in step S10 by the blur correction filter selected in step S11 to generate a restoration filter that produces blur according to defocus and aperture state. To do. Then, the restoration processing unit 76 performs image restoration by convolving and integrating the filter with respect to the RAW image data for each restoration region.

後処理部77では、画像復元されたRAW画像データに対して、デモザイキング処理、ホワイトバランス処理、ノイズリダクション処理、γ処理など、所謂、現像処理と呼ばれる画像処理が行われるが、本発明の主眼ではないので省略する。そして、復元処理された画像は、着脱可能なメモリカードからなる記録媒体78に所定の画像フォーマットで保存される。   The post-processing unit 77 performs image processing called so-called development processing such as demosaicing processing, white balance processing, noise reduction processing, and γ processing on the RAW image data that has been restored. Because it is not, it is omitted. The restored image is stored in a predetermined image format in a recording medium 78 including a removable memory card.

本実施形態のように、画像中にデフォーカスした領域がある場合でも、各領域の被写体距離情報を保持し、合焦領域は合焦被写体距離dfのPSFに基づいて、デフォーカス領域はデフォーカスしている被写体距離dのPSFに基づいて収差補正を行う。デフォーカスや絞り状態に応じたぼけは、撮影時の絞り状態と復元領域毎の被写体距離dに対応する無収差レンズのPSFに基づいてぼけを与える。これにより、画像中にデフォーカスした領域がある場合でも、撮像光学系の光学収差を補正し、デフォーカスや絞り状態に応じたぼけを出す良好な復元画像を得ることができる。   As in the present embodiment, even when there is a defocused area in the image, the subject distance information of each area is retained, and the defocus area is defocused based on the PSF of the focused object distance df. Aberration correction is performed based on the PSF of the subject distance d. The blur according to the defocus or the diaphragm state gives the blur based on the aperture state at the time of shooting and the PSF of the non-aberration lens corresponding to the subject distance d for each restoration area. As a result, even when there is a defocused area in the image, it is possible to correct the optical aberration of the imaging optical system and obtain a good restored image that produces a blur according to the defocus or aperture state.

本実施形態では、固体撮像素子62上に色モザイクフィルタを配置して、R、G、Bの各色成分の信号を取得する形態について述べたが、色分解光学系でR、G、Bの各色成分に光束を分離し、それぞれの光束に対して、R、G、B用の固体撮像素子を配置して画像信号を取得してもよい。   In the present embodiment, the color mosaic filter is arranged on the solid-state image sensor 62 and the signals of the R, G, and B color components are acquired. However, the R, G, and B colors are obtained by the color separation optical system. A light beam may be separated into components, and an R, G, and B solid-state imaging device is arranged for each light beam to obtain an image signal.

本実施形態では、画像復元フィルタは、撮像系の設計データより求まるPSFに基づいて作成されているが、PSFはシステムの光学伝達関数(OTF)を逆フーリエ変換したものである。従って、撮像系の設計データより求まるOTFに基づいて、画像復元フィルタを作成してもよい。ぼけ補正フィルタは、無収差レンズのPSFに基づいて作成したものなので、同じように、無収差レンズのOTFに基づいて、ぼけ補正フィルタを作成してもよい。   In this embodiment, the image restoration filter is created based on the PSF obtained from the design data of the imaging system. The PSF is an inverse Fourier transform of the system optical transfer function (OTF). Therefore, an image restoration filter may be created based on the OTF obtained from the design data of the imaging system. Since the blur correction filter is created based on the PSF of the aberration-free lens, similarly, the blur correction filter may be created based on the OTF of the aberration-free lens.

次に、本発明の第2の実施形態について説明する。本実施形態では、ユーザが指定した絞り状態に応じたぼけを出す画像復元を行う場合について説明する。   Next, a second embodiment of the present invention will be described. In the present embodiment, a case will be described in which image restoration is performed to generate blur according to the aperture state designated by the user.

図8は、本発明の第2の実施形態に係る画像復元装置の基本構成を示す図である。本実施形態では、画像を撮像したカメラ内では画像の復元処理を行わず、当該画像ファイルを記憶媒体に保存し、PC内で当該画像の復元処理を行う。また、本実施形態では、AF測距領域の数が復元領域の数より少なくなっている。   FIG. 8 is a diagram showing a basic configuration of an image restoration apparatus according to the second embodiment of the present invention. In this embodiment, the image restoration process is not performed in the camera that captured the image, but the image file is stored in a storage medium, and the image restoration process is performed in the PC. In the present embodiment, the number of AF ranging areas is smaller than the number of restoration areas.

図10は、本発明の第2の実施形態における、画像内の複数領域の被写体距離情報を取得し、画像復元を行う処理を示すフローチャートである。以下では、第1の実施形態と同様な部分の説明は省略し、第1の実施形態と異なる部分のみを説明する。   FIG. 10 is a flowchart showing processing for acquiring subject distance information of a plurality of regions in an image and performing image restoration in the second embodiment of the present invention. Below, the description of the same part as 1st Embodiment is abbreviate | omitted, and only a different part from 1st Embodiment is demonstrated.

第2の実施形態では、図8のように、カメラ80では画像復元処理を行わず、固体撮像素子62上に結像され、A/D変換器63を介してバッファメモリ71に格納されたRAW画像データに対し、記録部79において画像復元に必要な情報を付加して、画像ファイルを記録媒体78に保存する。ここで、画像復元に必要な情報とは、撮影レンズ10の種類、ズーム位置、絞り状態、合焦被写体距離df及び各AF測距領域の被写体距離dである。他に、カメラ80を特定するカメラボディID、レンズNo.ID、撮影時のISO感度等を加えてもよい。   In the second embodiment, as shown in FIG. 8, the camera 80 does not perform image restoration processing, but forms an image on the solid-state image sensor 62 and stores it in the buffer memory 71 via the A / D converter 63. Information necessary for image restoration is added to the image data in the recording unit 79 and the image file is stored in the recording medium 78. Here, the information necessary for image restoration is the type of the taking lens 10, the zoom position, the aperture state, the focused subject distance df, and the subject distance d of each AF distance measurement area. In addition, the camera body ID for identifying the camera 80, the lens No. ID, ISO sensitivity at the time of photographing, and the like may be added.

記録部79は、撮影レンズ10の種類を検知し、被写体距離演算部35から合焦被写体距離df及び各AF測距領域の被写体距離dを、RAW画像データの撮像時のズーム位置をズーム位置制御部41から、撮影時の絞り状態を絞り制御部51から受け取る。そして記録部79は、上記の画像復元に必要な情報を、RAW画像データを保存する画像ファイルのヘッダ部分に付加して、着脱可能なカードメモリである記録媒体78に保存する。なお、画像復元を行うための付加情報は、画像ファイルのヘッダ部分ではなく、別ファイルで記録媒体78に保存してもよい。   The recording unit 79 detects the type of the photographing lens 10, and controls the zoom position at the time of imaging of the RAW image data from the subject distance calculation unit 35 based on the in-focus subject distance df and the subject distance d in each AF ranging area. The aperture state at the time of shooting is received from the aperture control unit 51 from the unit 41. Then, the recording unit 79 adds the information necessary for the above-described image restoration to the header portion of the image file that stores the RAW image data, and stores the information in the recording medium 78 that is a detachable card memory. Note that the additional information for image restoration may be stored in the recording medium 78 as a separate file instead of the header portion of the image file.

図9は、撮影で得られた画像と、複数のAF測距領域と、複数の復元領域との位置関係を示す図である。AF測距領域109〜113、116〜120、123〜127、復元領域201〜235は、図9に示すように配置され、AF測距領域の数が復元領域の数より少なくなっている。   FIG. 9 is a diagram illustrating a positional relationship among an image obtained by shooting, a plurality of AF distance measurement areas, and a plurality of restoration areas. The AF ranging areas 109 to 113, 116 to 120, 123 to 127, and the restoration areas 201 to 235 are arranged as shown in FIG. 9, and the number of AF ranging areas is smaller than the number of restoration areas.

次に、図8、図9及び図10を用いて、本実施形態におけるPC90での画像復元処理について説明する。図10のステップS1〜S7は、第1の実施形態における図4のステップS1〜S7と同様の処理であるため、説明を省略する。   Next, the image restoration process in the PC 90 in the present embodiment will be described with reference to FIGS. Steps S1 to S7 in FIG. 10 are the same processes as steps S1 to S7 in FIG. 4 in the first embodiment, and thus description thereof is omitted.

ユーザは、記録媒体78をカメラ80から取り外し、PC90に装着する。なお、記録媒体78には、画像復元に必要な情報がヘッダ部分に付加された画像ファイルが保存されている。復元処理部76は、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、RAW画像データを取得する(図10のステップS21)。フィルタ選択部73は、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、撮影レンズ10の種類、撮像時のズーム位置及び撮影時の絞り状態を読み出し、復元フィルタDB74から図6(a)の復元フィルタリストを選択する。ステップS22において、記録媒体78に保存されている画像復元に必要な情報をヘッダ部分に付加した画像ファイルから、AF測距領域109〜113、116〜120、123〜127の被写体距離である、合焦被写体距離dfと各AF測距領域の被写体距離dとを読み出し、取得する。本実施形態では、図9に示すように、AF測距領域109〜113、116〜120、123〜127の数が復元領域201〜235の数より少なく、一致していない。このため、一致するAF測距領域がない復元領域201〜208、214〜215、221〜222、228〜235については、一番近傍のAF測距領域の被写体距離を、その復元領域の被写体距離とする。以降、第1の実施形態と同じように、ステップS23において、復元フィルタを取得する。この際、絞り状態のパラメータとしては、撮影時のF値を用いて復元フィルタを選択する。   The user removes the recording medium 78 from the camera 80 and attaches it to the PC 90. The recording medium 78 stores an image file in which information necessary for image restoration is added to the header portion. The restoration processing unit 76 acquires RAW image data from an image file in which information necessary for image restoration stored in the recording medium 78 is added to the header portion (step S21 in FIG. 10). The filter selection unit 73 reads out the type of the photographing lens 10, the zoom position at the time of photographing, and the aperture state at the time of photographing from the image file in which information necessary for image restoration stored in the recording medium 78 is added to the header portion. The restoration filter list shown in FIG. 6A is selected from the restoration filter DB 74. In step S22, the subject distances of the AF ranging areas 109 to 113, 116 to 120, and 123 to 127 are obtained from the image file in which information necessary for image restoration stored in the recording medium 78 is added to the header portion. The focal subject distance df and the subject distance d of each AF distance measurement area are read and acquired. In the present embodiment, as shown in FIG. 9, the number of AF ranging areas 109 to 113, 116 to 120, and 123 to 127 is smaller than the number of restoration areas 201 to 235, and they do not match. For this reason, for the restoration areas 201 to 208, 214 to 215, 221 to 222, and 228 to 235 that have no matching AF distance measurement area, the subject distance of the nearest AF distance measurement area is set to the subject distance of the restoration area. And Thereafter, as in the first embodiment, a restoration filter is acquired in step S23. At this time, the restoration filter is selected using the F value at the time of shooting as the aperture state parameter.

ステップS24において、デフォーカス及び絞り状態に応じたぼけを出すためのぼけ補正フィルタをぼけ補正フィルタDB72から取得する。この際、本実施形態では、第1の実施形態のように絞り状態として、撮影時のF値を用いるのではなく、ユーザが指定したF値を用いる。これにより、ユーザが指定したF値に対応するぼけ補正フィルタが選択される。ステップS25において、第1の実施形態と同様、復元処理部76は、ステップS23で取得された復元フィルタと、ステップS24で取得されたぼけ補正フィルタとを用いて画像復元演算を行う。以降の処理は、第1の実施形態と同様なので説明を省略する。   In step S <b> 24, a blur correction filter for generating blur according to the defocus and aperture state is acquired from the blur correction filter DB 72. At this time, in the present embodiment, the F value specified by the user is used instead of the F value at the time of shooting as the aperture state as in the first embodiment. Thereby, the blur correction filter corresponding to the F value designated by the user is selected. In step S25, as in the first embodiment, the restoration processing unit 76 performs an image restoration calculation using the restoration filter acquired in step S23 and the blur correction filter acquired in step S24. Subsequent processing is the same as that of the first embodiment, and thus description thereof is omitted.

以上により、画像の中にデフォーカスした領域が存在する場合でも、撮像光学系の光学収差を補正し、デフォーカスとユーザが指定した絞りF値とに応じたぼけを持つ復元画像が得られる。   As described above, even when a defocused region exists in the image, the optical aberration of the imaging optical system is corrected, and a restored image having a blur according to the defocus and the aperture F value designated by the user is obtained.

なお、一致するAF測距領域がない復元領域について、最も近傍のAF測距領域の被写体距離情報を、その復元領域の被写体距離情報とする例を挙げたが、近傍のAF測距領域のうち、収差特性が一番近いAF領域の被写体距離情報を用いてもよい。軸対称の撮影レンズの場合、光軸からの像高が一番近いAF測距領域が、収差特性が一番近い領域となる。   For the restoration area that does not have a matching AF distance measurement area, the subject distance information of the nearest AF distance measurement area is used as the subject distance information of the restoration area. The subject distance information of the AF area having the closest aberration characteristic may be used. In the case of an axisymmetric photographic lens, the AF distance measurement area where the image height from the optical axis is closest is the area where the aberration characteristics are closest.

以上、位相差検出方式のAFを用いる形態について述べたが、他の実施形態として、コントラスト方式のAFを用いてもよい。この場合、フォーカス用レンズ群12を至近から無限遠までの範囲で動かし、図11に示すように、各AF測距領域について、レンズの繰り出し位置に対して、コントラストを検出する。各AF測距領域において、コントラストのピーク位置に対応するレンズ繰り出し位置が、各被写体が合焦する位置である。各AF測距領域の被写体距離dは、コントラストがピークとなるレンズの繰り出し位置から演算で求めることができる。また、実際に撮像する際に、焦点合わせをするのに選択されたAF測距領域の被写体距離を合焦被写体距離dfとすればよい。   As described above, the phase difference detection type AF is described. However, as another embodiment, a contrast type AF may be used. In this case, the focusing lens group 12 is moved in the range from the closest distance to infinity, and the contrast is detected with respect to the lens extension position in each AF distance measurement area as shown in FIG. In each AF distance measurement area, the lens extension position corresponding to the peak position of the contrast is the position where each subject is in focus. The subject distance d in each AF distance measurement area can be obtained by calculation from the lens extension position where the contrast reaches a peak. Further, when the image is actually picked up, the subject distance in the AF ranging area selected for focusing may be set as the focused subject distance df.

一つの復元領域の中に、複数のAF測距領域の被写体距離情報があるときには、その中から被写体距離情報を選択すればよい。また、光学系のフォーカス群を繰り出して焦点を合わせる形態について述べたが、焦点を合わせる手段として、撮像光学系と固体撮像素子の相対間隔を移動させてもよい。この場合、フォーカス用レンズ群の位置の代わりに、相対間隔を移動させた位置情報が用いられる。   When there is subject distance information of a plurality of AF distance measurement areas in one restoration area, the subject distance information may be selected from the information. In addition, although the embodiment has been described in which the focus group of the optical system is extended and focused, the relative distance between the imaging optical system and the solid-state imaging device may be moved as a focusing means. In this case, position information obtained by moving the relative distance is used instead of the position of the focusing lens group.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1:光軸、10: 撮像レンズ、11:フォーカス用レンズ群以外のレンズ群、12:フォーカス用レンズ群、13: 絞り、21:メインミラー、22:焦点板、23:ペンタプリズム、24: 接眼レンズ、31:サブミラー、32:AF検出部、33:レンズ繰り出し制御部、34:測距情報保持部、35:被写体距離演算部、41:ズーム位置制御部、51:絞り制御部、61: 光学LPF、62:撮像素子、63:A/D、71:バッファメモリ、72:ぼけ補正フィルタDB、73:フィルタ選択部、74:復元フィルタDB、75:復元フィルタ補間生成部、76:復元処理部、77:後処理部、78:記録媒体、79:記録部   1: optical axis, 10: imaging lens, 11: lens group other than the focusing lens group, 12: focusing lens group, 13: stop, 21: main mirror, 22: focusing plate, 23: pentaprism, 24: eyepiece Lens: 31: Sub mirror, 32: AF detection unit, 33: Lens extension control unit, 34: Distance measurement information holding unit, 35: Subject distance calculation unit, 41: Zoom position control unit, 51: Aperture control unit, 61: Optical LPF, 62: imaging device, 63: A / D, 71: buffer memory, 72: blur correction filter DB, 73: filter selection unit, 74: restoration filter DB, 75: restoration filter interpolation generation unit, 76: restoration processing unit , 77: post-processing unit, 78: recording medium, 79: recording unit

Claims (8)

撮像手段の各測距領域における被写体距離情報を保持する保持手段と、
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得手段と、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正手段とを有することを特徴とする画像処理装置。
Holding means for holding subject distance information in each ranging area of the imaging means;
Acquisition means for acquiring subject distance information of each restoration area of image data for performing image restoration based on subject distance information of each distance measurement area;
Correction means for correcting optical aberration due to a difference in position and subject distance information in the image of each restoration area and giving blur to each restoration area based on defocus and aperture state of each restoration area; An image processing apparatus comprising:
撮像系の設計データより求まる収差情報に基づいて光学収差を補正することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the optical aberration is corrected based on aberration information obtained from design data of the imaging system. 前記各復元領域のデフォーカス情報および絞り状態に基づくぼけとして、前記デフォーカスおよび撮影時の絞り状態での無収差光学系の点像分布関数(PSF)又は光学伝達関数(OTF)のぼけを用いることを特徴とする請求項1又は2に記載の画像処理装置。 As the blur based on the defocus information and the aperture state of each restoration area, the blur of the point spread function (PSF) or the optical transfer function (OTF) of the aberration-free optical system in the aperture state at the time of the defocus and imaging is used. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記各復元領域のデフォーカス情報および絞り状態に基づくぼけとして、前記デフォーカスおよびユーザによって指定された絞り状態での無収差光学系の点像分布関数(PSF)又は光学伝達関数(OTF)のぼけを用いることを特徴とする請求項1又は2に記載の画像処理装置。 As the blur based on the defocus information and the aperture state of each restoration area, the blur of the point spread function (PSF) or the optical transfer function (OTF) of the aberration-free optical system in the defocus and the aperture state specified by the user The image processing apparatus according to claim 1, wherein the image processing apparatus is used. 前記取得手段は、前記復元領域に対応する位置の測距領域の被写体距離情報を、前記復元領域の被写体距離情報として取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   The said acquisition means acquires the subject distance information of the ranging area of the position corresponding to the said restoration area as the subject distance information of the said restoration area, The any one of Claim 1 thru | or 4 characterized by the above-mentioned. Image processing device. 前記取得手段は、前記復元領域に対応する位置の測距領域が存在しない場合、前記復元領域に対して近傍の位置の測距領域の被写体距離情報を、前記復元領域の被写体距離情報として取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   The acquisition unit acquires subject distance information of a distance measurement area at a position near the restoration area as subject distance information of the restoration area when there is no distance measurement area corresponding to the restoration area. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 画像処理装置により実行される画像処理方法であって、
撮像手段の各測距領域における被写体距離情報を保持する保持ステップと、
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得ステップと、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正ステップとを有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
Holding step for holding subject distance information in each ranging area of the imaging means;
An acquisition step of acquiring subject distance information of each restoration area of image data for performing image restoration based on the subject distance information of each distance measurement area;
Correcting the optical aberration due to the difference in position and subject distance information in the image of each restoration area, and correcting the defocusing and the diaphragm state of each restoration area to the restoration area. An image processing method comprising:
撮像手段の各測距領域における被写体距離情報を算出する算出ステップと、
画像復元を行う画像データの各復元領域の被写体距離情報を、前記各測距領域の被写体距離情報に基づいて取得する取得ステップと、
前記各復元領域の画像内での位置および被写体距離情報の違いによる光学収差を補正するとともに、前記各復元領域のデフォーカスおよび絞り状態に基づくぼけを前記各復元領域に対して与える補正ステップとをコンピュータに実行させるためのプログラム。
A calculation step of calculating subject distance information in each ranging area of the imaging means;
An acquisition step of acquiring subject distance information of each restoration area of image data for performing image restoration based on the subject distance information of each distance measurement area;
Correcting the optical aberration due to the difference in position and subject distance information in the image of each restoration area, and correcting the defocusing and the diaphragm state of each restoration area to the restoration area. A program that causes a computer to execute.
JP2010140777A 2010-06-21 2010-06-21 Image processing device, image processing method and program Pending JP2012005056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010140777A JP2012005056A (en) 2010-06-21 2010-06-21 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140777A JP2012005056A (en) 2010-06-21 2010-06-21 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2012005056A true JP2012005056A (en) 2012-01-05

Family

ID=45536476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140777A Pending JP2012005056A (en) 2010-06-21 2010-06-21 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2012005056A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103312950A (en) * 2012-03-09 2013-09-18 株式会社理光 Imaging device
JP2013186355A (en) * 2012-03-09 2013-09-19 Casio Comput Co Ltd Automatic focusing apparatus, automatic focusing method, and program
JP2013240022A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2013242658A (en) * 2012-05-18 2013-12-05 Canon Inc Image processing apparatus, imaging device, image processing method, and image processing program
WO2014122804A1 (en) * 2013-02-05 2014-08-14 富士フイルム株式会社 Image processing device, image capture device, image processing method, and program
JP2014150498A (en) * 2013-02-04 2014-08-21 Canon Inc Image processing method, image processing apparatus, image processing program, and imaging apparatus
WO2015015935A1 (en) * 2013-07-29 2015-02-05 富士フイルム株式会社 Image capture device and image processing method
JP2015095857A (en) * 2013-11-14 2015-05-18 キヤノン株式会社 Imaging apparatus
WO2016002126A1 (en) * 2014-07-04 2016-01-07 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
JP2016110312A (en) * 2014-12-04 2016-06-20 株式会社東芝 Image processing method, and image processor and program
WO2016167189A1 (en) * 2015-04-16 2016-10-20 富士フイルム株式会社 Imaging device, image-processing device, image-processing method, program, and recording medium
JP2017009640A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Imaging device and imaging device control method
JPWO2015125405A1 (en) * 2014-02-19 2017-03-30 ソニー株式会社 Imaging apparatus, imaging method, and imaging system
KR101730342B1 (en) 2012-12-19 2017-04-27 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and storage medium
US11448874B2 (en) 2019-10-18 2022-09-20 Samsung Electronics Co., Ltd. Method and apparatus for correction of aberration

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186355A (en) * 2012-03-09 2013-09-19 Casio Comput Co Ltd Automatic focusing apparatus, automatic focusing method, and program
CN103312950B (en) * 2012-03-09 2016-12-28 株式会社理光 Camera head
CN103312950A (en) * 2012-03-09 2013-09-18 株式会社理光 Imaging device
JP2013240022A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2013242658A (en) * 2012-05-18 2013-12-05 Canon Inc Image processing apparatus, imaging device, image processing method, and image processing program
KR101730342B1 (en) 2012-12-19 2017-04-27 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and storage medium
US9167168B2 (en) 2013-02-04 2015-10-20 Canon Kabushiki Kaisha Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus
JP2014150498A (en) * 2013-02-04 2014-08-21 Canon Inc Image processing method, image processing apparatus, image processing program, and imaging apparatus
US9432643B2 (en) 2013-02-05 2016-08-30 Fujifilm Corporation Image processing device, image capture device, image processing method, and non-transitory computer-readable medium
JP5830186B2 (en) * 2013-02-05 2015-12-09 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN104969545A (en) * 2013-02-05 2015-10-07 富士胶片株式会社 Image processing device, image capture device, image processing method, and program
WO2014122804A1 (en) * 2013-02-05 2014-08-14 富士フイルム株式会社 Image processing device, image capture device, image processing method, and program
CN105409198B (en) * 2013-07-29 2018-11-09 富士胶片株式会社 Photographic device and image processing method
CN105409198A (en) * 2013-07-29 2016-03-16 富士胶片株式会社 Image capture device and image processing method
JP5903528B2 (en) * 2013-07-29 2016-04-13 富士フイルム株式会社 Imaging apparatus and image processing method
US9800774B2 (en) 2013-07-29 2017-10-24 Fujifilm Corporation Image capture device with restoration processing and image restoration processing method
WO2015015935A1 (en) * 2013-07-29 2015-02-05 富士フイルム株式会社 Image capture device and image processing method
JP2015095857A (en) * 2013-11-14 2015-05-18 キヤノン株式会社 Imaging apparatus
JPWO2015125405A1 (en) * 2014-02-19 2017-03-30 ソニー株式会社 Imaging apparatus, imaging method, and imaging system
US10469727B2 (en) 2014-02-19 2019-11-05 Sony Corporation Imaging apparatus, imaging method, and imaging system
US10026157B2 (en) 2014-07-04 2018-07-17 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
CN106464808A (en) * 2014-07-04 2017-02-22 佳能株式会社 Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
US20160275656A1 (en) * 2014-07-04 2016-09-22 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
EP3164988A4 (en) * 2014-07-04 2018-02-21 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
JP2016019017A (en) * 2014-07-04 2016-02-01 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
CN106464808B (en) * 2014-07-04 2019-11-05 佳能株式会社 Image processing equipment, image pick up equipment, image processing method, image processing program and storage medium
WO2016002126A1 (en) * 2014-07-04 2016-01-07 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, image processing program, and storage medium
JP2016110312A (en) * 2014-12-04 2016-06-20 株式会社東芝 Image processing method, and image processor and program
WO2016167189A1 (en) * 2015-04-16 2016-10-20 富士フイルム株式会社 Imaging device, image-processing device, image-processing method, program, and recording medium
JPWO2016167189A1 (en) * 2015-04-16 2018-03-08 富士フイルム株式会社 Imaging apparatus, image processing apparatus, image processing method, program, and recording medium
US10269101B2 (en) 2015-04-16 2019-04-23 Fujifilm Corporation Imaging device, image processing device, image processing method, program, and recording medium
JP2017009640A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Imaging device and imaging device control method
US11448874B2 (en) 2019-10-18 2022-09-20 Samsung Electronics Co., Ltd. Method and apparatus for correction of aberration

Similar Documents

Publication Publication Date Title
JP2012005056A (en) Image processing device, image processing method and program
EP2566163B1 (en) Image processing apparatus and method
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
JP5528173B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5409589B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
EP2574034B1 (en) Image processing apparatus and method
JP5959976B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP6516429B2 (en) Distance measuring device, imaging device, and distance measuring method
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP2011215707A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2012124555A (en) Imaging apparatus
JP5501069B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2012256118A (en) Image restoration device and method thereof
JP5653464B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP2018195985A (en) Image processing device, imaging apparatus, image processing method, program, and storage medium
JP2008211678A (en) Imaging apparatus and method thereof
JP5645981B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP5425135B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
JP5425136B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2008033060A (en) Imaging apparatus, imaging method, and image processing apparatus
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2018088587A (en) Image processing method and image processing apparatus
JP7646427B2 (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND PROGRAM
US20240144536A1 (en) Image processing device, image processing method, and storage medium