JP2019092215A - Image processing apparatus, imaging apparatus, image processing method, program, and storage medium - Google Patents
Image processing apparatus, imaging apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP2019092215A JP2019092215A JP2019029899A JP2019029899A JP2019092215A JP 2019092215 A JP2019092215 A JP 2019092215A JP 2019029899 A JP2019029899 A JP 2019029899A JP 2019029899 A JP2019029899 A JP 2019029899A JP 2019092215 A JP2019092215 A JP 2019092215A
- Authority
- JP
- Japan
- Prior art keywords
- parallax images
- image
- weighting factor
- setting
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮影画像の品位を向上させる画像処理装置を提供する。【解決手段】画像処理装置(画像処理回路125)は、複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段125aと、前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段125bと、を有し、前記設定手段は、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定する。【選択図】図1PROBLEM TO BE SOLVED: To provide an image processing device for improving the quality of a photographed image. An image processing device (image processing circuit 125) is set by setting means 125a for setting weighting coefficients corresponding to a plurality of regions including a first region of each of a plurality of parallax images, and the setting means. It has an image generation means 125b that synthesizes the plurality of parallax images based on a weighting coefficient to generate a composite image, and the setting means has the plurality of parallax images according to the effective aperture values of the plurality of parallax images. A weighting coefficient corresponding to the first region in each parallax image is set. [Selection diagram] Fig. 1
Description
本発明は、複数の視差画像を合成して画像を出力する画像処理装置に関する。 The present invention relates to an image processing apparatus that combines a plurality of parallax images and outputs an image.
従来から、撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視差画像を同時に撮影可能な撮像装置が知られている。 2. Description of the Related Art Conventionally, there has been known an imaging apparatus capable of dividing an exit pupil of a photographing lens into a plurality of regions and simultaneously photographing a plurality of parallax images according to the divided pupil regions.
特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行う。これらの分割された光電変換部のそれぞれの受光信号に基づいて、分割された瞳部分領域に応じた複数の視差画像を生成することができる。特許文献2には、分割された光電変換部のそれぞれの受光信号の全てを加算することにより撮像画像を生成する撮像装置が開示されている。 Patent Document 1 discloses an imaging device using a two-dimensional imaging element in which one microlens and a photoelectric conversion unit divided into a plurality of parts are formed for one pixel. The divided photoelectric conversion unit is configured to receive different partial pupil regions of the exit pupil of the photographing lens via one microlens, and performs pupil division. A plurality of parallax images according to the divided pupil partial regions can be generated based on the light reception signals of the divided photoelectric conversion units. Patent Document 2 discloses an imaging device that generates a captured image by adding all light reception signals of each of the divided photoelectric conversion units.
ところで、特許文献1、2に開示されているような撮像装置において、主被写体にピントを合わせる一方、前景や背景を大きくボカすことにより、主被写体を効果的に際立たせる撮影が行われることがある。しかしながら、撮影シーンによっては、主被写体(例えば、鳥)の手前に位置する前景(花びら)が大きくボケることにより主被写体が隠れてしまう前ボケ被りが生じ、撮影画像の品位が低下する場合がある。 By the way, in the imaging apparatus as disclosed in Patent Documents 1 and 2, while focusing on the main subject, the foreground and the background are largely blurred, so that photographing which effectively highlights the main subject is performed. is there. However, depending on the shooting scene, when the foreground (petals) located in front of the main subject (for example, a bird) is largely blurred, a blur may occur before the main subject is hidden and the quality of the shot image may be degraded. is there.
そこで本発明は、撮像画像の品位を向上させる画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供する。 Therefore, the present invention provides an image processing device, an imaging device, an image processing method, a program, and a storage medium that improve the quality of a captured image.
本発明の一側面としての画像処理装置は、複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段と、前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、前記設定手段は、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定する。 An image processing apparatus according to one aspect of the present invention is based on setting means for setting weighting factors corresponding to a plurality of areas including the first area of each of a plurality of parallax images, and the weighting factors set by the setting means. Image generation means for combining the plurality of parallax images to generate a composite image, wherein the setting means is configured to set each of the plurality of parallax images according to an effective aperture value of the plurality of parallax images. A weighting factor corresponding to the first area is set.
本発明の他の側面としての撮像装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部から構成される画素を複数配列した撮像素子と、前記複数の光電変換部から得られた複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段と、前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、前記設定手段は、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定する。 According to another aspect of the present invention, an imaging device includes: an imaging element in which a plurality of pixels formed of a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system; Setting means for setting weight coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images obtained from the photoelectric conversion unit; and the plurality of parallaxes based on the weight coefficients set by the setting means An image generation unit that combines the images to generate a composite image, and the setting unit corresponds to the first region in each of the plurality of parallax images according to the effective aperture value of the plurality of parallax images Set the weighting factor.
本発明の他の側面としての画像処理方法は、複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定するステップと、前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、を有し、前記設定するステップは、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定する。 In an image processing method as another aspect of the present invention, a weighting factor corresponding to a plurality of areas including a first area of each of a plurality of parallax images is set, and a weighting factor set by the setting is set. And combining the plurality of parallax images to generate a combined image, wherein the setting step includes the step of setting each of the plurality of parallax images according to an effective aperture value of the plurality of parallax images. A weighting factor corresponding to the first area is set.
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させるように構成されている。 A program according to another aspect of the present invention is configured to cause a computer to execute the image processing method.
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。 A storage medium as another aspect of the present invention stores the program.
本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the present invention are described in the following examples.
本発明によれば、撮像画像の品位を向上させる画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, a program, and a storage medium which improve the quality of a captured image.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、図1を参照して、本発明の実施例1における撮像装置の概略構成について説明する。図1は、本実施例における撮像装置100(カメラ)のブロック図である。撮像装置100は、カメラ本体とカメラ本体に着脱可能な交換レンズ(結像光学系または撮影光学系)とを備えたデジタルカメラシステムである。ただし本実施例は、これに限定されるものではなく、カメラ本体とレンズとが一体的に構成された撮像装置にも適用可能である。 First, with reference to FIG. 1, a schematic configuration of an imaging apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram of an imaging apparatus 100 (camera) in the present embodiment. The imaging device 100 is a digital camera system provided with a camera body and an interchangeable lens (imaging optical system or imaging optical system) that is detachable from the camera body. However, the present embodiment is not limited to this, and is also applicable to an imaging device in which a camera body and a lens are integrally configured.
第1レンズ群101は、撮影レンズ(結像光学系)を構成する複数のレンズ群のうち最も前方(被写体側)に配置されており、光軸OAの方向(光軸方向)に進退可能な状態でレンズ鏡筒に保持される。絞り兼用シャッタ102(絞り)は、その開口径を調節することで撮影時の光量調節を行うとともに、静止画撮影時には露光時間調節用シャッタとして機能する。第2レンズ群103は、絞り兼用シャッタ102と一体的に光軸方向に進退し、第1レンズ群101の進退動作と連動して変倍動作を行うズーム機能を有する。第3レンズ群105は、光軸方向に進退することにより焦点調節(フォーカス動作)を行うフォーカスレンズ群である。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。 The first lens group 101 is disposed at the front (object side) of the plurality of lens groups constituting the photographing lens (imaging optical system), and can advance and retract in the direction of the optical axis OA (optical axis direction) It is held by the lens barrel in the state. The diaphragm / shutter 102 (diaphragm) adjusts the light amount at the time of shooting by adjusting the aperture diameter, and functions as an exposure time adjustment shutter at the time of still image shooting. The second lens group 103 advances and retracts integrally with the aperture-shutter 102 in the optical axis direction, and has a zoom function of performing a zooming operation in conjunction with the advancing and retracting operation of the first lens group 101. The third lens group 105 is a focusing lens group that performs focusing (focusing operation) by advancing and retracting in the optical axis direction. The optical low pass filter 106 is an optical element for reducing false color and moiré of a captured image.
撮像素子107は、結像光学系を介して被写体像(光学像)の光電変換を行い、例えばCMOSセンサまたはCCDセンサ、および、その周辺回路により構成される。撮像素子107としては、例えば、横方向にm個の画素、縦方向にn個の画素を有する受光ピクセル上にベイヤー配列の原色カラーモザイクフィルタをオンチップで形成した2次元単板カラーセンサが用いられる。 The imaging element 107 performs photoelectric conversion of an object image (optical image) through an imaging optical system, and is configured of, for example, a CMOS sensor or a CCD sensor, and a peripheral circuit thereof. As the image sensor 107, for example, a two-dimensional single-plate color sensor in which a primary color mosaic filter of Bayer arrangement is formed on a chip on a light receiving pixel having m pixels in the horizontal direction and n pixels in the vertical direction is used. Be
ズームアクチュエータ111は、不図示のカム筒を回動(駆動)することで第1レンズ群101および第2レンズ群103を光軸方向に沿って移動させることにより、変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して光量(撮影光量)を調節するとともに、静止画撮影時の露光時間を制御する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節を行う。 The zoom actuator 111 performs a variable power operation by moving the first lens group 101 and the second lens group 103 along the optical axis direction by rotating (driving) a cam barrel (not shown). The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the light amount (shooting light amount), and controls the exposure time at the time of still image shooting. The focus actuator 114 moves the third lens group 105 in the optical axis direction to perform focusing.
電子フラッシュ115は、被写体を照明するために用いられる照明装置である。電子フラッシュ115としては、キセノン管を備えた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF補助光手段116は、所定の開口パターンを有するマスクの像を、投光レンズを介して、被写体に投影する。これにより、暗い被写体や低コントラストの被写体に対する焦点検出能力を向上させることができる。 The electronic flash 115 is a lighting device used to light an object. As the electronic flash 115, a flash illumination device provided with a xenon tube or an illumination device provided with a continuously emitting LED (Light Emitting Diode) is used. The AF auxiliary light means 116 projects an image of a mask having a predetermined aperture pattern onto a subject via a light projection lens. Thereby, it is possible to improve the focus detection capability for a dark subject or a low contrast subject.
CPU121は、撮像装置100の種々の制御を司る制御装置(制御手段)である。CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、および、通信インターフェイス回路などを有する。CPU121は、ROMに記憶された所定のプログラムを読み出して実行することにより、撮像装置100の各種回路を駆動し、焦点検出(AF)、撮影、画像処理、または、記録などの一連の動作を制御する。 The CPU 121 is a control device (control means) that controls various controls of the imaging device 100. The CPU 121 includes an arithmetic unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 reads out and executes a predetermined program stored in the ROM to drive various circuits of the imaging apparatus 100 to control a series of operations such as focus detection (AF), photographing, image processing, or recording. Do.
電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115の点灯制御を行う。補助光駆動回路123は、焦点検出動作に同期してAF補助光手段116の点灯制御を行う。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。 The electronic flash control circuit 122 performs lighting control of the electronic flash 115 in synchronization with the photographing operation. The auxiliary light drive circuit 123 performs lighting control of the AF auxiliary light means 116 in synchronization with the focus detection operation. The imaging device drive circuit 124 controls the imaging operation of the imaging device 107, A / D converts the acquired image signal, and transmits it to the CPU 121.
画像処理回路125(画像処理装置)は、撮像素子107から出力された画像データのγ(ガンマ)変換、カラー補間、または、JPEG(Joint Photographic Experts Group)圧縮などの処理を行う。本実施例において、画像処理回路125は、決定手段125aおよび画像生成手段125bを有する。決定手段125aは、複数の視差画像のそれぞれの位置に応じて変化する重み係数を決定する。画像生成手段125bは、その重み係数に基づいて複数の視差画像を合成して画像を生成する。 The image processing circuit 125 (image processing apparatus) performs processing such as γ (gamma) conversion, color interpolation, or JPEG (Joint Photographic Experts Group) compression of image data output from the image sensor 107. In the present embodiment, the image processing circuit 125 includes a determination unit 125a and an image generation unit 125b. The determination unit 125a determines a weighting factor that changes according to the position of each of the plurality of parallax images. The image generation unit 125 b combines a plurality of parallax images based on the weight coefficient to generate an image.
フォーカス駆動回路126(フォーカス駆動手段)は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に沿って移動させることにより、焦点調節を行う。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動して、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129(ズーム駆動手段)は、撮影者のズーム操作に応じて、ズームアクチュエータ111を駆動する。 The focus drive circuit 126 (focus drive means) drives the focus actuator 114 based on the focus detection result, and moves the third lens group 105 along the optical axis direction to perform focus adjustment. The diaphragm shutter drive circuit 128 drives the diaphragm shutter actuator 112 to control the aperture diameter of the diaphragm shutter 102. The zoom drive circuit 129 (zoom drive means) drives the zoom actuator 111 according to the zoom operation of the photographer.
表示器131(表示手段)は、例えばLCD(液晶表示装置)を備えて構成される。表示器131は、撮像装置100の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、または、焦点検出時の合焦状態表示画像などを表示する。操作部132(操作スイッチ群)は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、および、撮影モード選択スイッチなどを備えて構成される。レリーズスイッチは、半押し状態(SW1がONの状態)、および、全押し状態(SW2がONの状態)の2段階のスイッチを有する。記録媒体133は、例えば撮像装置100に着脱可能なフラッシュメモリであり、撮影画像(画像データ)を記録する。 The display 131 (display means) includes, for example, an LCD (Liquid Crystal Display). The display 131 displays information on the shooting mode of the imaging apparatus 100, a preview image before shooting, a confirmation image after shooting, an in-focus state display image at the time of focus detection, and the like. The operation unit 132 (operation switch group) includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The release switch has a two-step switch of a half-pressed state (SW1 is on) and a full-press state (SW2 is on). The recording medium 133 is, for example, a flash memory that is removable from the imaging apparatus 100, and records a photographed image (image data).
続いて、図2および図3を参照して、本実施例における撮像素子107の画素配列および画素構造について説明する。図2は、撮像素子107の画素配列を示す図である。図3は、撮像素子107の画素構造を示す図であり、図3(a)は撮像素子107の画素200Gの平面図(+z方向から見た図)、図3(b)は図3(a)中の線a−aの断面図(−y方向から見た図)をそれぞれ示している。 Subsequently, the pixel array and the pixel structure of the image sensor 107 in the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a diagram showing a pixel array of the imaging element 107. As shown in FIG. FIG. 3 is a view showing a pixel structure of the image sensor 107, and FIG. 3 (a) is a plan view of the pixel 200G of the image sensor 107 (view from the + z direction), and FIG. ) Is a cross-sectional view (a view from the −y direction) of line aa in FIG.
図2は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、2つの副画素201、202により構成さている。このため、図2には、副画素の配列が、8列×4行の範囲で示されている。 FIG. 2 illustrates a pixel array (array of imaging pixels) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns × 4 rows. In the present embodiment, each imaging pixel (pixels 200R, 200G, and 200B) is configured of two sub-pixels 201 and 202. For this reason, in FIG. 2, the arrangement of the sub-pixels is shown in the range of 8 columns × 4 rows.
図2に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×1行に配列された副画素201、202により構成されている。副画素201は、結像光学系の第1瞳領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳領域を通過した光束を受光する画素である。 As shown in FIG. 2, in the pixel group 200 of 2 columns × 2 rows, pixels 200R, 200G, and 200B are arranged in a Bayer arrangement. That is, in the pixel group 200, the pixel 200R having a spectral sensitivity of R (red) is at the upper left, the pixel 200G having a spectral sensitivity of G (green) is at the upper right and lower left, and the pixel 200B having a spectral sensitivity of B (blue). Are respectively located at the lower right. Each pixel 200R, 200G, and 200B (each imaging pixel) is comprised by the sub pixel 201, 202 arranged in 2 row x 1 row. The sub-pixel 201 is a pixel that receives the light flux that has passed through the first pupil region of the imaging optical system. The sub-pixel 202 is a pixel that receives the light flux that has passed through the second pupil region of the imaging optical system.
図2に示されるように、撮像素子107は、4列×4行の撮像画素(8列×4行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦3725行=約4150万画素である。 As shown in FIG. 2, the imaging element 107 is configured by arranging a large number of 4 × 4 imaging pixels (8 columns × 4 rows of sub-pixels) on the surface, and an imaging signal (sub-pixel signal) Output). The imaging element 107 of the present embodiment has a cycle P of pixels (imaging pixels) of 4 μm, and the number N of pixels (imaging pixels) is 5575 horizontal rows × 3725 vertical rows = about 207.5 million pixels. Further, in the imaging element 107, the period P SUB of the sub-pixel in the column direction is 2 μm, and the number N SUB of sub-pixels is 11150 columns wide × 3725 rows high = approximately 41.5 million pixels.
図3(b)に示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、2次元状に複数配列されており、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301および光電変換部302が形成されている。光電変換部301および光電変換部302は、それぞれ、副画素201および副画素202に対応する。 As shown in FIG. 3B, the pixel 200G of this embodiment is provided with a micro lens 305 for condensing incident light on the light receiving surface side of the pixel. A plurality of microlenses 305 are two-dimensionally arrayed, and are arranged at a position separated from the light receiving surface by a predetermined distance in the z-axis direction (the direction of the optical axis OA). Further, in the pixel 200G, a photoelectric conversion portion 301 and a photoelectric conversion portion 302 which are divided into N H in the x direction (two divisions) and divided into N V in the y direction (one division) are formed. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the sub pixel 201 and the sub pixel 202, respectively.
光電変換部301および光電変換部302は、それぞれ、p型層とn型層との間にイントリンシック層を挟んだpin構造のフォトダイオードとして構成される。必要に応じて、イントリンシック層を省略し、pn接合のフォトダイオードとして構成してもよい。画素200G(各画素)には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が設けられる。必要に応じて、副画素ごとにカラーフィルタ306の分光透過率を変えることができ、またはカラーフィルタを省略してもよい。 Each of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 is configured as a photodiode having a pin structure in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer. If necessary, the intrinsic layer may be omitted and configured as a photodiode of a pn junction. In the pixel 200 </ b> G (each pixel), a color filter 306 is provided between the microlens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. If necessary, the spectral transmittance of the color filter 306 can be changed for each sub-pixel, or the color filter may be omitted.
図3に示されるように、画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光された後、光電変換部301および光電変換部302で受光される。光電変換部301および光電変換部302においては、受光量に応じて電子とホールとの対が生成され、それらが空乏層で分離された後、負電荷の電子はn型層に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて、撮像素子107の外部へ排出される。光電変換部301および光電変換部302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。 As shown in FIG. 3, light incident on the pixel 200 G is collected by the micro lens 305, separated by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, pairs of electrons and holes are generated according to the amount of light received, and after they are separated by the depletion layer, the electrons of negative charge are stored in the n-type layer. On the other hand, holes are discharged to the outside of the imaging element 107 through a p-type layer connected to a constant voltage source (not shown). The electrons accumulated in the n-type layers of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the electrostatic capacitance unit (FD) through the transfer gate and converted into a voltage signal.
続いて、図4を参照して、撮像素子107の瞳分割機能について説明する。図4は、撮像素子107の瞳分割機能の説明図であり、1つの画素部における瞳分割の様子を示している。図4は、図3(a)に示される画素構造のa−a断面を+y側から見た断面図、および、結像光学系の射出瞳面を示している。図4では、射出瞳面の座標軸と対応を取るため、断面図のx軸およびy軸を図3のx軸およびy軸に対してそれぞれ反転させている。 Subsequently, the pupil division function of the image sensor 107 will be described with reference to FIG. FIG. 4 is an explanatory diagram of a pupil division function of the image sensor 107, and shows a state of pupil division in one pixel unit. FIG. 4 is a cross-sectional view of the aa cross section of the pixel structure shown in FIG. 3A when viewed from the + y side, and shows an exit pupil plane of the imaging optical system. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are respectively inverted with respect to the x-axis and y-axis of FIG.
図4において、副画素201(第1副画素)の瞳部分領域501(第1瞳部分領域)は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域501は、副画素201で受光可能な瞳領域を表している。副画素201の瞳部分領域501の重心は、瞳面上で+x側に偏心している。また、副画素202(第2副画素)の瞳部分領域502(第2瞳部分領域)は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域502は、副画素202で受光可能な瞳領域を表している。副画素202の瞳部分領域502の重心は、瞳面上で−x側に偏心している。瞳領域500は、光電変換部301、302(副画素201、202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。 In FIG. 4, the pupil partial area 501 (first pupil partial area) of the sub-pixel 201 (first sub-pixel) has the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction, and the micro lens 305. Therefore, they are in a substantially conjugate relationship. Therefore, the pupil partial region 501 represents a pupil region that can be received by the sub-pixel 201. The center of gravity of the pupil partial region 501 of the sub-pixel 201 is decentered to the + x side on the pupil plane. In addition, the pupil partial region 502 (second pupil partial region) of the sub-pixel 202 (second sub-pixel) is substantially conjugate with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction It is in a relationship. Therefore, the pupil partial region 502 represents a pupil region that can be received by the sub-pixel 202. The center of gravity of the pupil partial region 502 of the sub-pixel 202 is decentered to the −x side on the pupil plane. The pupil area 500 is a pupil area that can be received by the entire pixel 200G when all the photoelectric conversion units 301 and 302 (sub-pixels 201 and 202) are combined.
入射光は、マイクロレンズ305により、焦点位置に集光される。しかし、光の波動性による回折の影響により、集光スポットの直径は、回折限界Δよりも小さくすることができず、有限の大きさとなる。光電変換部301、302の受光面サイズが約1〜2μm程度であるのに対し、マイクロレンズ305の集光スポットは約1μm程度である。このため、光電変換部301、302の受光面とマイクロレンズ305とを介して共役の関係にある図4の瞳部分領域501、502は、回折ボケのため、明瞭に瞳分割されず、受光率分布(瞳強度分布)が得られる。 Incident light is collected by the micro lens 305 at a focal position. However, due to the influence of diffraction due to the wave nature of light, the diameter of the focused spot can not be made smaller than the diffraction limit Δ, and has a finite size. While the light receiving surface size of the photoelectric conversion units 301 and 302 is about 1 to 2 μm, the focusing spot of the microlens 305 is about 1 μm. For this reason, the pupil partial regions 501 and 502 in FIG. 4 that are in a conjugate relationship with the light receiving surfaces of the photoelectric conversion units 301 and 302 via the micro lens 305 are not clearly divided into pupils because of diffraction blurring, and the light reception ratio A distribution (pupil intensity distribution) is obtained.
図5は、撮像素子107と瞳分割機能の説明図である。結像光学系の瞳領域のうち互いに異なる瞳部分領域501、502を通過した光束は、撮像素子107の各画素に互いに異なる角度で撮像素子107の撮像面600に入射し、2×1分割された副画素201、202で受光される。本実施例では、瞳領域が水平方向に2つに瞳分割されている例について説明しているが、これに限定されるものではなく、必要に応じて垂直方向に瞳分割を行ってもよい。 FIG. 5 is an explanatory diagram of the image sensor 107 and the pupil division function. The light beams having passed through different pupil partial regions 501 and 502 in the pupil region of the imaging optical system are incident on the imaging surface 600 of the imaging device 107 at different angles to each pixel of the imaging device 107 and divided into 2 × 1. Light is received by the subpixels 201 and 202. In the present embodiment, an example in which the pupil region is divided into two in the horizontal direction is described, but the present invention is not limited thereto, and pupil division may be performed in the vertical direction as necessary. .
本実施例において、撮像素子107は、1つのマイクロレンズを共有し、結像光学系(撮影レンズ)の瞳のうち互いに異なる領域(第1瞳部分領域、第2瞳部分領域)を通過する複数の光束を受光する複数の副画素を備えている。撮像素子107は、複数の副画素として、第1副画素(複数の副画素201)および第2副画素(複数の副画素202)を含む。本実施例において、複数の副画素201の受光信号を集めて第1視差画像を生成し、複数の副画素202の受光信号を集めて第2視差画像を生成する。このように本実施例では、互いに異なる瞳部分領域ごとに複数の副画素の受光信号を集めて、それぞれの視差画像を生成する。 In this embodiment, a plurality of imaging elements 107 share one microlens and pass different areas (first and second pupil partial areas) of the pupil of the imaging optical system (shooting lens) And a plurality of sub-pixels for receiving the luminous flux of The imaging device 107 includes, as a plurality of sub-pixels, a first sub-pixel (a plurality of sub-pixels 201) and a second sub-pixel (a plurality of sub-pixels 202). In the present embodiment, the light reception signals of the plurality of sub-pixels 201 are collected to generate a first parallax image, and the light reception signals of the plurality of sub-pixels 202 are collected to generate a second parallax image. As described above, in the present embodiment, light reception signals of a plurality of sub-pixels are collected for each different pupil partial area to generate respective parallax images.
本実施例において、第1視差画像および第2視差画像は、それぞれ、ベイヤー配列の画像である。必要に応じて、第1視差画像および第2視差画像のそれぞれに対して、デモザイキング処理を行ってもよい。また本実施例において、撮像素子107の画素ごとに副画素201、202の信号を加算して読み出すことにより、有効画素数Nの解像度を有する撮像画像を生成することができる。このように本実施例では、複数の視差画像(第1視差画像と第2視差画像)から撮像画像を生成する。 In the present embodiment, each of the first parallax image and the second parallax image is an image of a Bayer array. Demosaicing processing may be performed on each of the first parallax image and the second parallax image as needed. Further, in the present embodiment, by adding and reading the signals of the sub-pixels 201 and 202 for each pixel of the image sensor 107, a captured image having a resolution of N effective pixels can be generated. As described above, in the present embodiment, a captured image is generated from a plurality of parallax images (a first parallax image and a second parallax image).
次に、図6を参照して、撮像素子107の副画素201から取得される第1視差画像および副画素202から取得される第2視差画像のデフォーカス量と像ずれ量との関係について説明する。図6は、デフォーカス量と像ずれ量との関係図である。図6において、撮像素子107は撮像面600に配置されており、図4および図5と同様に、結像光学系の射出瞳が瞳部分領域501、502に2分割されている様子が示されている。 Next, with reference to FIG. 6, the relationship between the defocus amount and the image shift amount of the first parallax image acquired from the sub pixel 201 of the image sensor 107 and the second parallax image acquired from the sub pixel 202 will be described. Do. FIG. 6 is a diagram showing the relationship between the defocus amount and the image shift amount. In FIG. 6, the imaging element 107 is disposed on the imaging surface 600, and as in FIGS. 4 and 5, the exit pupil of the imaging optical system is divided into two pupil partial regions 501 and 502. ing.
デフォーカス量dは、被写体の結像位置から撮像面600までの距離を|d|、結像位置が撮像面600よりも被写体側にある前ピン状態を負符号(d<0)、結像位置が撮像面600よりも被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面600(合焦位置)にある合焦状態において、デフォーカス量d=0が成立する。図6において、合焦状態(d=0)である被写体601、および、前ピン状態(d<0)である被写体602がそれぞれ示されている。前ピン状態(d<0)および後ピン状態(d>0)を併せて、デフォーカス状態(|d|>0)という。 The defocus amount d is the distance from the imaging position of the object to the imaging surface 600 as | d |, and the front pin state where the imaging position is closer to the object than the imaging surface 600 is negative sign (d <0), The back pin state whose position is on the opposite side of the object with respect to the imaging plane 600 is defined as a positive code (d> 0). In the in-focus state where the imaging position of the subject is on the imaging surface 600 (in-focus position), the defocus amount d = 0 is established. In FIG. 6, the subject 601 in the in-focus state (d = 0) and the subject 602 in the front pin state (d <0) are respectively shown. The front pin state (d <0) and the rear pin state (d> 0) are collectively referred to as a defocus state (| d |> 0).
前ピン状態(d<0)では、被写体602からの光束のうち、瞳部分領域501(または瞳部分領域502)を通過した光束は、一度、集光する。その後、光束は、光束の重心位置G1(G2)を中心とする幅Γ1(Γ2)に広がり、撮像面600でボケた像となる。ボケた像は、撮像素子107に配列された各画素を構成する副画素201(副画素202)により受光され、第1視差画像(第2視差画像)が生成される。このため、第1視差画像(第2視差画像)は、撮像面600上の重心位置G1(G2)に、被写体602が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1視差画像と第2視差画像との間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加する。後ピン状態(d>0)に関しても同様であるが、第1視差画像と第2視差画像と間の被写体像の像ずれ方向が前ピン状態と反対となる。 In the front pinning state (d <0), among the light flux from the subject 602, the light flux that has passed through the pupil partial region 501 (or the pupil partial region 502) is once condensed. Thereafter, the light beam spreads to a width Γ1 (Γ2) centered on the gravity center position G1 (G2) of the light beam, and becomes an image blurred on the imaging surface 600. The blurred image is received by the sub-pixels 201 (sub-pixels 202) constituting each pixel arranged in the image sensor 107, and a first parallax image (second parallax image) is generated. Therefore, the first parallax image (second parallax image) is recorded at the gravity center position G1 (G2) on the imaging surface 600 as an object image in which the object 602 is blurred to a width Γ1 (Γ2). The blur width Γ1 (Γ2) of the subject image generally increases in proportion to the increase of the magnitude | d | of the defocus amount d. Similarly, the size | p | of the image shift amount p of the subject image between the first parallax image and the second parallax image (= difference G1−G2 of the barycentric position of the light flux) is also the size of the defocus amount d. As the | d | increases, they generally increase proportionately. The same applies to the back-pin state (d> 0), but the direction of the image deviation of the object image between the first parallax image and the second parallax image is opposite to that in the front-pin state.
このように本実施例において、第1視差画像と第2視差画像、または、第1視差画像と第2視差画像とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1視差画像と第2視差画像と間の像ずれ量の大きさは増加する。 As described above, in the present embodiment, as the magnitude of the defocus amount of the imaging signal obtained by adding the first parallax image and the second parallax image or the first parallax image and the second parallax image increases, The magnitude of the image shift amount between the one parallax image and the second parallax image increases.
次に、本実施例におけるボケ調整(主被写体への前ボケ被り低減)の画像処理について説明する。なお、ボケ調整(主被写体への前ボケ被り低減)の画像処理は、CPU121の指令に基づいて画像処理回路125(決定手段125a、画像生成手段125b)により実行される。画像処理回路125は、撮像素子107により取得される複数の視差画像(第1視差画像および第2視差画像)を入力し、本実施例の画像処理を実行する。 Next, image processing of blur adjustment (pre-blurring reduction on a main subject) in the present embodiment will be described. The image processing of the blur adjustment (pre-blurring reduction on the main subject) is executed by the image processing circuit 125 (determination unit 125a, image generation unit 125b) based on an instruction of the CPU 121. The image processing circuit 125 inputs a plurality of parallax images (first parallax image and second parallax image) acquired by the imaging element 107, and executes the image processing of the present embodiment.
図7は、主被写体への前ボケ被り画像の例である。図7の領域700において、第1被写体としての主被写体(鳥)の手前(至近側)に位置する第2被写体としての前景(花びら)が大きくボケて主被写体が隠れる前ボケ被りが生じている。 FIG. 7 shows an example of a front blurred image on a main subject. In the area 700 of FIG. 7, the foreground (petals) as the second subject located in front of (the closest side to) the main subject (bird) as the first subject is largely blurred to cause a front blur coverage in which the main subject is hidden. .
ここで、j、iを整数として、第1視差画像(および第2視差画像)の行方向j番目、列方向i番目の位置を(j、i)として表し、位置(j、i)の画素の第1視差画像をA(j、i)、第2視差画像をB(j、i)とする。 Here, j and i are integers, and the jth position in the row direction and the ith position in the column direction of the first parallax image (and the second parallax image) are represented as (j, i), and the pixel at position (j, i) Of the first parallax image is A (j, i), and the second parallax image is B (j, i).
第1ステップとして、CPU121(画像処理回路125)は、主被写体への前ボケ被りを低減する所定領域R=[j1、j2]×[i1、i2]、および、所定領域の境界幅σを設定する。そして、以下の式(1)により、所定領域Rおよび所定領域の境界幅σに応じたテーブル関数T(j、i)を算出する。 As a first step, the CPU 121 (image processing circuit 125) sets a predetermined area R = [j1, j2] × [i1, i2] and a boundary width σ of the predetermined area to reduce front blur on the main subject. Do. Then, a table function T (j, i) according to the predetermined region R and the boundary width σ of the predetermined region is calculated by the following equation (1).
テーブル関数T(j、i)は、所定領域Rの内側で1、所定領域Rの外側で0となり、所定領域Rの境界幅σで、概ね、1から0に連続的に変化する。必要に応じて、所定領域Rは、円形や、その他の任意の形状としてもよい。また、必要に応じて、複数の所定領域および境界幅を設定してもよい。 The table function T (j, i) is 1 inside the predetermined region R and 0 outside the predetermined region R, and changes continuously from approximately 1 to 0 at the boundary width σ of the predetermined region R. The predetermined region R may be circular or any other shape as needed. Also, a plurality of predetermined areas and boundary widths may be set as necessary.
第2ステップとして、CPU121(画像処理回路125)は、実係数w(−1≦w≦1)とし、以下の式(2A)により、第1視差画像A(j、i)の第1重み係数Wa(j、i)を算出する。同様に、CPU121(画像処理回路125)は、以下の式(2B)により、第2視差画像B(j、i)の第2重み係数Wb(j、i)を算出する。 As a second step, the CPU 121 (image processing circuit 125) sets the actual coefficient w (-1 ≦ w ≦ 1), and the first weighting coefficient of the first parallax image A (j, i) according to the following equation (2A) Calculate W a (j, i). Similarly, the CPU 121 (image processing circuit 125) calculates a second weighting factor W b (j, i) of the second parallax image B (j, i) according to the following equation (2B).
第3ステップとして、画像処理回路125は、第1視差画像A(j、i)、第2視差画像B(j、i)、第1重み係数Wa(j、i)、および、第2重み係数Wb(j、i)から、以下の式(3)により、出力画像I(j、i)を生成する。 As a third step, the image processing circuit 125, first parallax image A (j, i), the second parallax image B (j, i), the first weighting coefficient W a (j, i), and, second weight An output image I (j, i) is generated from the coefficient W b (j, i) by the following equation (3).
必要に応じて、画像処理回路125は、シフト量sによるリフォーカス処理と組み合わせ、以下の式(4A)または式(4B)により、出力画像Is(j、i)を生成してもよい。 As necessary, the image processing circuit 125 may generate the output image I s (j, i) according to the following equation (4A) or equation (4B) in combination with the refocusing process based on the shift amount s.
ここで、図13を参照して、リフォーカス処理について説明する。図13は、本実施例の撮像素子107により取得された第1信号(第1副画素の受光信号)および第2信号(第2副画素の受光信号)による1次元方向(列方向、水平方向)のリフォーカス処理の説明図である。図13において、iを整数として、撮像面600に配置された撮像素子107の列方向i番目の画素の第1信号をAi、第2信号をBiとして模式的に表している。第1信号Aiは、(図5の瞳部分領域501に対応する)主光線角度θaでi番目の画素に入射した光束の受光信号である。第2信号Biは、(図5の瞳部分領域502に対応する)主光線角度θbでi番目の画素に入射した光束の受光信号である。 Here, the refocusing process will be described with reference to FIG. FIG. 13 shows the one-dimensional direction (column direction, horizontal direction) by the first signal (light reception signal of the first sub-pixel) and the second signal (light reception signal of the second sub-pixel) acquired by the image sensor 107 of this embodiment. ) Is an explanatory view of the refocusing process of FIG. In FIG. 13, i is an integer, and the first signal of the i-th pixel in the column direction of the imaging element 107 disposed on the imaging surface 600 is schematically represented as Ai and the second signal is Bi. The first signal Ai is a light reception signal of the light beam incident on the i-th pixel at the chief ray angle θa (corresponding to the pupil partial region 501 in FIG. 5). The second signal Bi is a light reception signal of the luminous flux that has entered the i-th pixel at the chief ray angle θb (corresponding to the pupil partial region 502 in FIG. 5).
第1信号Aiおよび第2信号Biは、光強度分布情報だけでなく、入射角度情報も含む。このため、第1信号Aiを角度θaに沿って仮想結像面610まで平行移動させ、第2信号Biを角度θbに沿って仮想結像面610まで平行移動させ、これらを加算することにより、仮想結像面610でのリフォーカス信号を生成できる。第1信号Aiを角度θaに沿って仮想結像面610まで平行移動させることは、列方向に+0.5画素シフトに対応し、第2信号Biを角度θbに沿って仮想結像面610まで平行移動させることは、列方向に−0.5画素シフトに対応する。したがって、第1信号Aiと第2信号Biとを相対的に+1画素シフトさせ、第1信号Aiと第2信号(Bi+1)とを対応させて加算することにより、仮想結像面610でのリフォーカス信号を生成できる。同様に、第1信号Aiと第2信号Biとを整数シフトさせて(画素整数個分だけシフトさせて)加算することにより、整数シフト量に応じた各仮想結像面でのシフト加算信号(リフォーカス信号)を生成できる。 The first signal Ai and the second signal Bi include not only light intensity distribution information but also incident angle information. Therefore, the first signal Ai is moved in parallel along the angle θa to the virtual imaging surface 610, the second signal Bi is moved in parallel along the angle θb to the virtual imaging surface 610, and these are added. A refocus signal at the virtual imaging plane 610 can be generated. Parallel translation of the first signal Ai to the virtual imaging plane 610 along the angle θa corresponds to a +0.5 pixel shift in the column direction, and the second signal Bi to the virtual imaging plane 610 along the angle θb. The translating corresponds to a -0.5 pixel shift in the column direction. Therefore, the first signal Ai and the second signal Bi are relatively shifted by +1 pixel relative to each other, and the first signal Ai and the second signal (Bi + 1) are correspondingly added and added, so that A focus signal can be generated. Similarly, shift addition signals (in each virtual imaging plane according to the integer shift amount) are obtained by performing integer shift on the first signal Ai and the second signal Bi (shifting by an integer number of pixels) and adding them. Refocus signal can be generated.
本実施例では、結像光学系の異なる瞳部分領域を通過した光束を受光する複数の副画素が設けられた画素を複数配列した撮像素子により取得される、複数の視差画像を入力し、複数の視差画像毎に重み係数を掛けて合成し出力画像を生成する。好ましくは、本実施例では、複数の視差画像ごとの重み係数は、出力画像の領域に応じて連続的に変化する。また好ましくは、本実施例では、出力画像を、複数の視差画像ごとに重み係数を掛けて加算またはシフト加算して生成する。 In this embodiment, a plurality of parallax images obtained by an imaging element in which a plurality of pixels provided with a plurality of sub-pixels for receiving light beams passing through different pupil partial regions of the imaging optical system are input. Each parallax image is multiplied by a weighting factor and synthesized to generate an output image. Preferably, in the present embodiment, the weighting factor for each of the plurality of parallax images changes continuously according to the area of the output image. Preferably, in the present embodiment, the output image is generated by multiplying each of the plurality of parallax images by weighting factors and adding or shifting and adding.
次に、図8を参照して、主被写体への前ボケ被りを低減するボケ調整の画像処理の原理について説明する。図8は、ボケ調整のための画像処理の説明図である。図8において、本実施例の撮像素子107は撮像面600上に配置されており、図5と同様に、結像光学系の射出瞳が瞳部分領域501、502に2分割される。 Next, with reference to FIG. 8, the principle of image processing of blur adjustment for reducing front blur on a main subject will be described. FIG. 8 is an explanatory diagram of image processing for blur adjustment. In FIG. 8, the imaging element 107 of this embodiment is disposed on the imaging surface 600, and the exit pupil of the imaging optical system is divided into two pupil partial regions 501 and 502 as in FIG. 5.
図8(a)は、主被写体への前ボケ被り画像の例であり、主被写体q1(第1被写体)の像p1(合焦像)に、手前の被写体q2(第2被写体)のボケ像(Γ1+Γ2)が重なって撮影される状態を示している。図8(b)、(c)は、図8(a)の例を、結像光学系の瞳部分領域501を通過する光束と瞳部分領域502を通過する光束とにそれぞれ分離した図を示している。 FIG. 8A is an example of a front-blurred image of the main subject, in which the image p1 (focused image) of the main subject q1 (first subject) is blurred with the subject q2 (second subject) in front. (Γ1 + Γ2) shows a state of being overlapped and photographed. FIGS. 8B and 8C show the example of FIG. 8A divided into a light beam passing through the pupil partial region 501 of the imaging optical system and a light beam passing through the pupil partial region 502, respectively. ing.
図8(b)では、主被写体q1からの光束は、瞳部分領域501を通過して合焦状態で像p1に結像し、手前の被写体q2からの光束は、瞳部分領域501を通過して、デフォーカス状態でボケ像Γ1に広がり、撮像素子107の各画素の副画素201で受光される。副画素201の受光信号から第1視差画像が生成される。第1視差画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ1とが互いに重なることなく撮影される。所定領域(被写体q1の像p1近傍)において、複数の視差画像(第1視差画像と第2視差画像)の中で、至近側の被写体(被写体q2のボケ像Γ1)が最も狭い範囲で撮影されている視差画像の例である。また、所定領域(被写体q1の像p1近傍)において、複数の視差画像(第1視差画像と第2視差画像)の中で、被写体q2のボケ像Γ1の写りが少なく、コントラスト評価値が最も大きい視差画像の例である。 In FIG. 8B, the light flux from the main subject q1 passes through the pupil partial area 501 to form an image p1 in an in-focus state, and the light flux from the subject q2 in front passes the pupil partial area 501. It spreads to the blurred image 1 in the defocus state, and is received by the sub-pixel 201 of each pixel of the image sensor 107. A first parallax image is generated from the light reception signal of the sub pixel 201. In the first parallax image, the image p1 of the main subject q1 and the blurred image Γ1 of the subject q2 in front are captured without overlapping each other. In a predetermined area (near the image p1 of the subject q1), among the plurality of parallax images (the first parallax image and the second parallax image), the closest object (the blurred image Γ1 of the subject q2) is photographed in the narrowest range 1 is an example of a parallax image. Further, in a predetermined area (near the image p1 of the subject q1), among the plurality of parallax images (the first parallax image and the second parallax image), the blurred image Γ1 of the subject q2 is small and the contrast evaluation value is the largest. It is an example of a parallax image.
一方、図8(c)では、主被写体q1からの光束は瞳部分領域502を通過して合焦状態で像p1に結像し、手前の被写体q2からの光束は瞳部分領域502を通過してデフォーカス状態でボケ像Γ2に広がり、撮像素子107の各画素の副画素202で受光される。副画素202の受光信号から第2視差画像が生成される。第2視差画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ2が互いに重なって撮影される。所定領域において、複数の視差画像の中で、至近側の被写体が最も狭い範囲で撮影されている視差画像の例である。また、所定領域において、複数の視差画像の中で、ボケ像の写りが少なく、コントラスト評価値が最も大きい視差画像の例である。所定領域(被写体q1の像p1近傍)において、複数の視差画像(第1視差画像と第2視差画像)の中で、至近側の被写体(被写体q2のボケ像Γ2)が最も広い範囲で撮影されている視差画像の例である。また、所定領域(被写体q1の像p1近傍)において、複数の視差画像(第1視差画像と第2視差画像)の中で、被写体q2のボケ像Γ2の写りが多く、コントラスト評価値が最も小さい視差画像の例である。 On the other hand, in FIG. 8C, the light flux from the main subject q1 passes through the pupil partial area 502 and forms an image on the image p1 in focus, and the light flux from the subject q2 in front passes the pupil partial area 502 It spreads to the blurred image 2 in the defocus state, and is received by the sub-pixel 202 of each pixel of the image sensor 107. A second parallax image is generated from the light reception signal of the sub pixel 202. In the second parallax image, the image p1 of the main subject q1 and the blurred image 2 of the subject q2 in front of each other are captured overlapping each other. This is an example of a parallax image in which a subject on the near side is photographed in the narrowest range among a plurality of parallax images in a predetermined area. Further, this is an example of a parallax image in which a blurred image is small and the contrast evaluation value is the largest among a plurality of parallax images in a predetermined region. In a predetermined area (near the image p1 of the subject q1), among the plurality of parallax images (first and second parallax images), the closest subject (blurred image 2 of the subject q2) is photographed in the widest range 1 is an example of a parallax image. Further, in a predetermined area (near the image p1 of the subject q1), among the plurality of parallax images (first parallax image and second parallax image), the blurred image 2 of the subject q2 is large and the contrast evaluation value is the smallest. It is an example of a parallax image.
本実施例では、所定領域(像p1近傍)において、像p1とボケ像Γ1との重なりが少ない第1視差画像の第1重み係数Waを、像p1とボケ像Γ2との重なりが多い第2視差画像の第2重み係数Wbよりも大きく設定し、式(3)により出力画像を生成する。これにより、主被写体への前ボケ被りを低減した画像を生成することができる。 In the present embodiment, in the predetermined area (near the image p1), the first weighting factor W a of the first parallax image with less overlap between the image p1 and the blurred image Γ1 is larger, and the overlap between the image p1 and the blurred image Γ2 is more It is set larger than the second weight coefficient W b of the two parallax images, and an output image is generated by equation (3). As a result, it is possible to generate an image in which the front blur on the main subject is reduced.
好ましくは、本実施例では、出力画像の所定領域において、複数の視差画像の中で、至近側の被写体が最も広い範囲で撮影されている視差画像の重み係数が最も小さいか、または、至近側の被写体が最も狭い範囲で撮影されている視差画像の重み係数が最も大きい。また好ましくは、本実施例では、出力画像の所定領域において、複数の視差画像の中で、コントラスト評価値が最も小さい視差画像の重み係数が最も小さいか、または、コントラスト評価値が最も大きい視差画像の重み係数が最も大きい。 Preferably, in the present embodiment, in a predetermined area of the output image, the weight coefficient of the parallax image in which the closest subject is photographed in the widest range among the plurality of parallax images is the smallest or the closest side The weighting factor of the parallax image in which the subject is photographed in the narrowest range is the largest. Also preferably, in the present embodiment, in a predetermined region of the output image, the weight coefficient of the parallax image with the smallest contrast evaluation value is the smallest among the plurality of parallax images, or the parallax image with the largest contrast evaluation value The weighting factor of is the largest.
次に、図9を参照して、本実施例における画像処理(ボケ調整処理)の効果について説明する。図9は、画像処理(ボケ調整処理)の効果の説明図である。図9(a)は、図7の所定領域700における主被写体(鳥)への花びらの前ボケ被りを低減するボケ調整処理前の画像を示している。図9(b)は、ボケ調整処理後の画像を示している。図9(a)の画像(ボケ調整処理前の画像)では、鳥のくちばしや目、羽にかけて、花びらの前ボケで白く覆われている(図9(a)中の破線で示される円の内側)。一方、図9(b)の画像(ボケ調整処理後の画像)では、このような前ボケが低減されている。本実施例では、必要に応じて、ボケ調整処理を行わない所定領域以外では、結像光学系のボケ形状を変化させないために、複数の視差画像ごとの重み係数(第1重み係数、第2重み係数)を、概ね均等に加算し、出力画像を生成することが好ましい。 Next, with reference to FIG. 9, the effect of the image processing (blur adjustment processing) in the present embodiment will be described. FIG. 9 is an explanatory diagram of the effect of the image processing (blur adjustment processing). FIG. 9A shows an image before the blur adjustment processing for reducing the front blur covering of the petals on the main subject (bird) in the predetermined area 700 of FIG. 7. FIG. 9B shows an image after the blur adjustment processing. In the image of FIG. 9 (a) (image before the blur adjustment process), the bird is covered with beaks, eyes, and feathers and white of the petals in front of the blur (circled by a broken line in FIG. 9 (a) Inside). On the other hand, in the image of FIG. 9B (image after blur adjustment processing), such front blur is reduced. In this embodiment, weighting coefficients for each of a plurality of parallax images (a first weighting coefficient, a second weighting coefficient, a second weighting coefficient, and a second weighting coefficient) are used in order to not change the blur shape of the imaging optical system except in a predetermined area where blur adjustment processing is not performed. Preferably, the weighting factors are added approximately equally to generate an output image.
次に、図10を参照して、本実施例における撮像素子107の周辺像高での瞳ずれについて説明する。図10は、瞳ずれによる実効絞り値の説明図であり、撮像素子107の周辺像高に配列された各画素の副画素201、202がそれぞれ受光する瞳部分領域501、502と結像光学系の射出瞳400との関係を示している。 Next, with reference to FIG. 10, pupil shift at the peripheral image height of the image sensor 107 in the present embodiment will be described. FIG. 10 is an explanatory diagram of an effective aperture value due to pupil shift, and pupil partial regions 501 and 502 in which the subpixels 201 and 202 of each pixel arranged at the peripheral image height of the imaging device 107 receive light and an imaging optical system The relationship with the exit pupil 400 of FIG.
図10(a)は、結像光学系の射出瞳距離Dl(射出瞳400と撮像素子107の撮像面との距離)と、撮像素子107の設定瞳距離Dsとが略等しい場合を示している。この場合、中央像高と同様に、周辺像高においても、結像光学系の射出瞳400は瞳部分領域501、502により略均等に瞳分割される。 FIG. 10A shows the case where the exit pupil distance D1 of the imaging optical system (the distance between the exit pupil 400 and the imaging surface of the imaging device 107) and the set pupil distance Ds of the imaging device 107 are substantially equal. . In this case, similarly to the central image height, the exit pupil 400 of the imaging optical system is divided substantially equally by the pupil partial regions 501 and 502 even at the peripheral image height.
一方、図10(b)に示されるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも短い場合、撮像素子107の周辺像高では、結像光学系の射出瞳400と撮像素子107の入射瞳との間に瞳ずれが生じる。このため、結像光学系の射出瞳400は不均一に瞳分割される。図10(b)の場合、瞳部分領域501に対応する第1視差画像の実効絞り値は、瞳部分領域502に対応する第2視差画像の実効絞り値よりも小さい(明るい)値となる。一方、反対側の像高では、瞳部分領域501に対応する第1視差画像の実効絞り値は、瞳部分領域502に対応する第2視差画像の実効絞り値よりも大きい(暗い)値となる。 On the other hand, as shown in FIG. 10B, when the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the imaging element 107, the peripheral image height of the imaging element 107 A pupil shift occurs between the exit pupil 400 and the entrance pupil of the image sensor 107. For this reason, the exit pupil 400 of the imaging optical system is divided into non-uniform pupils. In the case of FIG. 10B, the effective aperture value of the first parallax image corresponding to the pupil partial region 501 is smaller (brighter) than the effective aperture value of the second parallax image corresponding to the pupil partial region 502. On the other hand, at the image height on the opposite side, the effective aperture value of the first parallax image corresponding to the pupil partial region 501 is larger (darker) than the effective aperture value of the second parallax image corresponding to the pupil partial region 502 .
図10(c)に示されるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも長い場合、撮像素子107の周辺像高では、結像光学系の射出瞳400と撮像素子107の入射瞳との間に瞳ずれが生じる。このため、結像光学系の射出瞳400は不均一に瞳分割される。図10(c)の場合、瞳部分領域501に対応する第1視差画像の実効絞り値は、瞳部分領域502に対応する第2視差画像の実効絞り値よりも大きい(暗い)値となる。一方、反対側の像高では、瞳部分領域501に対応する第1視差画像の実効絞り値は、瞳部分領域502に対応する第2視差画像の実効絞り値よりも小さい(明るい)値となる。瞳ずれにより周辺像高で瞳分割が不均一になるのに伴い、第1視差画像および第2視差画像の実効F値も不均一となる。このため、第1視差画像および第2視差画像のいずれか一方のボケの広がりが大きくなり、他方のボケの広がりが小さくなる。このため本実施例では、必要に応じて、出力画像の所定領域において、複数の視差画像の中で、実効絞り値が最も小さい視差画像の重み係数を最も小さくするか、または、実効絞り値が最も大きい視差画像の重み係数を最も大きくすることが好ましい。 As shown in FIG. 10C, when the exit pupil distance D1 of the imaging optical system is longer than the set pupil distance Ds of the imaging element 107, the exit pupil of the imaging optical system at the peripheral image height of the imaging element 107 A pupil shift occurs between the point 400 and the entrance pupil of the image sensor 107. For this reason, the exit pupil 400 of the imaging optical system is divided into non-uniform pupils. In the case of FIG. 10C, the effective aperture value of the first parallax image corresponding to the pupil partial region 501 is larger (darker) than the effective aperture value of the second parallax image corresponding to the pupil partial region 502. On the other hand, at the image height on the opposite side, the effective aperture value of the first parallax image corresponding to the pupil partial region 501 is smaller (brighter) than the effective aperture value of the second parallax image corresponding to the pupil partial region 502 . As the pupil division becomes uneven at the peripheral image height due to the pupil shift, the effective F-numbers of the first parallax image and the second parallax image also become uneven. For this reason, the spread of blurring of one of the first parallax image and the second parallax image is increased, and the spread of the other blurring is reduced. For this reason, in the present embodiment, the weight coefficient of the parallax image having the smallest effective aperture value is made the smallest among a plurality of parallax images in a predetermined region of the output image, as needed. It is preferable to make the weight coefficient of the largest parallax image the largest.
以上の構成により、撮影後に主被写体への前ボケ被りを低減させ、撮像画像としての品位を向上させることができる。 According to the above configuration, it is possible to reduce front blur on a main subject after shooting and to improve the quality as a captured image.
次に、図11および図12を参照して、本発明の実施例2における撮像装置について説明する。本実施例は、複数の視差画像として、第1〜第4視差画像から撮影画像を生成する点で、第1視差画像および第2視差画像から撮影画像を生成する実施例1とは異なる。 Next, an imaging apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 11 and 12. The present embodiment is different from the first embodiment in which a photographed image is generated from the first parallax image and the second parallax image in that the photographed images are generated from the first to fourth parallax images as the plurality of parallax images.
図11は、本実施例における撮像素子107の画素配列を示す図である。図12は、撮像素子107の画素構造を示す図であり、図12(a)は撮像素子107の画素200Gの平面図(+z方向から見た図)、図12(b)は図12(a)中の線a−aの断面図(−y方向から見た図)をそれぞれ示している。 FIG. 11 is a diagram showing a pixel array of the image sensor 107 in the present embodiment. FIG. 12 is a diagram showing the pixel structure of the image sensor 107, and FIG. 12 (a) is a plan view of the pixel 200G of the image sensor 107 (view from the + z direction), and FIG. ) Is a cross-sectional view (a view from the −y direction) of line aa in FIG.
図11は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、4つの副画素201、202、203、204により構成さている。このため、図11には、副画素の配列が、8列×8行の範囲で示されている。 FIG. 11 illustrates a pixel array (array of imaging pixels) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns × 4 rows. In the present embodiment, each imaging pixel (pixels 200R, 200G, and 200B) is configured by four sub-pixels 201, 202, 203, and 204. Therefore, in FIG. 11, the arrangement of the sub-pixels is shown in the range of 8 columns × 8 rows.
図11に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×2行に配列された副画素201、202、203、204により構成されている。副画素201は、結像光学系の第1瞳領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳領域を通過した光束を受光する画素である。副画素203は、結像光学系の第3瞳領域を通過した光束を受光する画素である。副画素204は、結像光学系の第4瞳領域を通過した光束を受光する画素である。 As shown in FIG. 11, in the pixel group 200 of 2 columns × 2 rows, the pixels 200R, 200G, and 200B are arranged in a Bayer arrangement. That is, in the pixel group 200, the pixel 200R having a spectral sensitivity of R (red) is at the upper left, the pixel 200G having a spectral sensitivity of G (green) is at the upper right and lower left, and the pixel 200B having a spectral sensitivity of B (blue). Are respectively located at the lower right. Each pixel 200R, 200G, and 200B (each imaging pixel) is comprised by the sub pixel 201, 202, 203, 204 arranged in 2 column x 2 row. The sub-pixel 201 is a pixel that receives the light flux that has passed through the first pupil region of the imaging optical system. The sub-pixel 202 is a pixel that receives the light flux that has passed through the second pupil region of the imaging optical system. The sub-pixel 203 is a pixel that receives the light flux that has passed through the third pupil region of the imaging optical system. The sub-pixel 204 is a pixel that receives the light flux that has passed through the fourth pupil region of the imaging optical system.
図11に示されるように、撮像素子107は、4列×4行の撮像画素(8列×8行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦7450行=約8300万画素である。 As shown in FIG. 11, the imaging element 107 is configured by arranging a large number of imaging pixels (4 columns × 4 rows of imaging pixels (8 columns × 8 rows of subpixels) on the surface, and imaging signals (subpixel signals) Output). The imaging element 107 of the present embodiment has a cycle P of pixels (imaging pixels) of 4 μm, and the number N of pixels (imaging pixels) is 5575 horizontal rows × 3725 vertical rows = about 207.5 million pixels. Further, in the imaging element 107, the period P SUB in the column direction of the sub-pixels is 2 μm, and the number N SUB of sub-pixels is 11150 columns wide × 7450 rows high = approximately 83 million pixels.
図12(b)に示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にNH分割(2分割)、y方向にNV分割(2分割)された光電変換部301、302、303、304が形成されている。光電変換部301〜304は、副画素201〜204にそれぞれ対応する。 As shown in FIG. 12B, the pixel 200G of the present embodiment is provided with a micro lens 305 for condensing incident light on the light receiving surface side of the pixel. The micro lens 305 is disposed at a predetermined distance from the light receiving surface in the z-axis direction (the direction of the optical axis OA). Further, in the pixel 200G, photoelectric conversion units 301, 302, 303, and 304 which are N H division (two division) in the x direction and N V division (two division) in the y direction are formed. The photoelectric conversion units 301 to 304 correspond to the sub pixels 201 to 204, respectively.
本実施例において、撮像素子107は、1つのマイクロレンズを共有し、結像光学系(撮影レンズ)の瞳のうち互いに異なる領域(第1〜第4瞳部分領域)を通過する複数の光束を受光する複数の副画素を備えている。撮像素子107は、複数の副画素として、第1副画素(複数の副画素201)、第2副画素(複数の副画素202)、第3副画素(複数の副画素203)、および、第4副画素(複数の副画素204)を含む。本実施例において、複数の副画素201の受光信号を集めて第1視差画像を生成する。同様に、複数の副画素202の受光信号を集めて第2視差画像、複数の副画素203の受光信号を集めて第3視差画像、複数の副画素204の受光信号を集めて第4視差画像をそれぞれ生成する。また本実施例において、第1〜第4視差画像は、それぞれ、ベイヤー配列の画像である。必要に応じて、第1〜第4視差画像のそれぞれに対して、デモザイキング処理を行ってもよい。 In this embodiment, the imaging element 107 shares one microlens, and a plurality of light fluxes passing through mutually different areas (first to fourth pupil partial areas) of the pupil of the imaging optical system (photographing lens) It has a plurality of sub-pixels that receive light. The imaging device 107 includes, as a plurality of sub-pixels, a first sub-pixel (a plurality of sub-pixels 201), a second sub-pixel (a plurality of sub-pixels 202), a third sub-pixel (a plurality of sub-pixels 203), and It includes four sub-pixels (plural sub-pixels 204). In the present embodiment, light reception signals of a plurality of sub-pixels 201 are collected to generate a first parallax image. Similarly, the light reception signals of the plurality of sub-pixels 202 are collected to collect the second parallax image, and the light reception signals of the plurality of sub-pixels 203 are collected to collect the third parallax image, the light reception signals of the plurality of sub-pixels 204 are collected, and a fourth parallax image Generate each Further, in the present embodiment, the first to fourth parallax images are images of the Bayer arrangement. Demosaicing processing may be performed on each of the first to fourth parallax images as needed.
ここで、j、iを整数として、第1視差画像〜第42視差画像のそれぞれの行方向j番目、列方向i番目の位置を(j、i)として表す。そして、位置(j、i)の画素の第1視差画像をA(j、i)、第2視差画像をB(j、i)、第3視差画像をC(j、i)、第4視差画像をD(j、i)とする。また、第1視差画像の第1重み係数をWa(j、i)、第2視差画像の第2重み係数をWb(j、i)、第3視差画像の第3重み係数をWc(j、i)、第4視差画像の第4重み係数をWd(j、i)とする。 Here, j and i are integers, and the jth position in the row direction and the ith position in the column direction of each of the first to 42nd parallax images are represented as (j, i). Then, the first parallax image of the pixel at the position (j, i) is A (j, i), the second parallax image is B (j, i), the third parallax image is C (j, i), the fourth parallax Let the image be D (j, i). Also, the first weight coefficient of the first parallax image is W a (j, i), the second weight coefficient of the second parallax image is W b (j, i), and the third weight coefficient of the third parallax image is W c (J, i) Let W d (j, i) be the fourth weighting factor of the fourth parallax image.
第1ステップとして、CPU121(画像処理回路125)は、主被写体への前ボケ被りを低減する所定領域R=[j1、j2]×[i1、i2]、および、所定領域の境界幅σを設定する。そして、式(1)により、所定領域Rおよび所定領域の境界幅σに応じたテーブル関数T(j、i)を算出する。 As a first step, the CPU 121 (image processing circuit 125) sets a predetermined area R = [j1, j2] × [i1, i2] and a boundary width σ of the predetermined area to reduce front blur on the main subject. Do. Then, a table function T (j, i) according to the predetermined area R and the boundary width σ of the predetermined area is calculated by the equation (1).
テーブル関数T(j、i)は、所定領域Rの内側で1、所定領域Rの外側で0となり、所定領域Rの境界幅σで、概ね、1から0に連続的に変化する。必要に応じて、所定領域Rは、円形や、その他の任意の形状としてもよい。また、必要に応じて、複数の所定領域および境界幅を設定してもよい。 The table function T (j, i) is 1 inside the predetermined region R and 0 outside the predetermined region R, and changes continuously from approximately 1 to 0 at the boundary width σ of the predetermined region R. The predetermined region R may be circular or any other shape as needed. Also, a plurality of predetermined areas and boundary widths may be set as necessary.
第2ステップとして、CPU121(画像処理回路125)は、実数wa、wb、wc、wd(wa+wb+wc+wd=0)とし、以下の式(5A)により、第1視差画像A(j、i)の第1重み係数Wa(j、i)を算出する。同様に、CPU121は、以下の式(5B)〜(5D)により、第2視差画像B(j、i)の第2重み係数Wb(j、i)、第3視差画像C(j、i)の第3重み係数Wc(j、i)、第4視差画像D(j、i)の第4重み係数Wd(j、i)をそれぞれ算出する。 As a second step, the CPU 121 (image processing circuit 125) sets the real numbers wa, wb, wc, wd (wa + wb + wc + wd = 0), and the first of the first parallax images A (j, i) according to the following equation (5A). The weighting factor W a (j, i) is calculated. Similarly, the CPU 121 causes the second weight coefficient W b (j, i) of the second parallax image B (j, i) and the third parallax image C (j, i) to be expressed by the following equations (5B) to (5D). third weighting factor W c (j, in) i), and calculates a fourth parallax image D (j, fourth weighting factor W d (j of i), i), respectively.
第3ステップとして、画像処理回路125は、以下の式(6)により、出力画像I(j、i)を生成する。 As a third step, the image processing circuit 125 generates an output image I (j, i) according to the following equation (6).
必要に応じて、画像処理回路125は、シフト量s、tによるリフォーカス処理と組み合わせ、以下の式(7A)または式(7B)により、出力画像Ist(j、i)を生成してもよい。 If necessary, the image processing circuit 125 may generate the output image I st (j, i) by the following equation (7A) or equation (7B) in combination with the refocusing process using the shift amounts s and t. Good.
本実施例において、前述以外の構成は実施例1と同様であるため、それらの説明は省略する。以上の構成により、撮影後に主被写体への前ボケ被りを低減させ、撮像画像としての品位を向上させることができる。 In the present embodiment, the configuration other than the above is the same as that of the first embodiment, and thus the description thereof is omitted. According to the above configuration, it is possible to reduce front blur on a main subject after shooting and to improve the quality as a captured image.
このように各実施例において、画像処理装置(画像処理回路125)は、決定手段125aおよび画像生成手段125bを有する。決定手段125aは、複数の視差画像のそれぞれの位置に応じて変化する重み係数を決定する。画像生成手段125bは、重み係数に基づいて複数の視差画像を合成して画像を生成する。画像処理装置は、決定手段125aに代えて、例えばCPU121などの装置(決定手段125aと同様の機能を有する装置)により決定された重み係数を取得可能な取得手段を有するように構成してもよい。 As described above, in each embodiment, the image processing apparatus (image processing circuit 125) includes the determination unit 125a and the image generation unit 125b. The determination unit 125a determines a weighting factor that changes according to the position of each of the plurality of parallax images. The image generation unit 125 b combines the plurality of parallax images based on the weighting factor to generate an image. The image processing apparatus may be configured to have an acquisition unit capable of acquiring a weighting factor determined by an apparatus such as the CPU 121 (an apparatus having the same function as the determination unit 125a) instead of the determination unit 125a. .
好ましくは、画像生成手段は、複数の視差画像のそれぞれに重み係数を掛けて加算する(合成する)ことにより画像を生成する。また好ましくは、画像生成手段は、複数の視差画像のそれぞれに重み係数を掛けてシフト加算する(リフォーカス処理を利用して合成する)ことにより画像を生成する。 Preferably, the image generation unit generates an image by multiplying each of the plurality of parallax images by weighting factors and adding (combining). Further preferably, the image generation unit generates an image by multiplying each of the plurality of parallax images by weighting factors and performing shift addition (combining using a refocusing process).
好ましくは、重み係数は、複数の視差画像のそれぞれの位置に応じて連続的に変化する。これは、例えばテーブル関数T(j、i)を利用することにより実現可能である。また好ましくは、複数の視差画像のそれぞれの重み係数の和(総和)は、複数の視差画像における全ての位置において一定である。例えば、実施例1のように1つのマイクロレンズに対して2つの副画素を有する撮像素子から得られる第1視差画像の第1重み係数Waと第2視差画像の第2重み係数Wbとの和は、画像中のいずれの位置においても一定となる。または、実施例2のように1つのマイクロレンズに対して4つの副画素を有する撮像素子から得られる第1〜第4視差画像のそれぞれの第1〜第4重み係数Wa〜Wdの和(総和)は、画像中のいずれの位置においても一定となる。 Preferably, the weighting factor changes continuously according to the position of each of the plurality of parallax images. This can be realized, for example, by using a table function T (j, i). Also preferably, the sum (sum) of the weighting factors of each of the plurality of parallax images is constant at all positions in the plurality of parallax images. For example, as in the first embodiment, the first weight coefficient W a of the first parallax image and the second weight coefficient W b of the second parallax image obtained from the imaging device having two sub-pixels for one microlens, and Is constant at any position in the image. Alternatively, as in the second embodiment, the sum of first to fourth weight coefficients W a to W d of first to fourth parallax images obtained from an imaging device having four sub-pixels for one microlens as in Example 2 The (sum) is constant at any position in the image.
好ましくは、複数の視差画像は、結像光学系の互いに異なる瞳部分領域を通過した光束を受光する複数の光電変換部(複数の副画素)から構成される画素を複数配列した撮像素子により取得される。すなわち、複数の視差画像は、瞳部分領域ごとの副画素の受光信号から生成される。 Preferably, the plurality of parallax images are acquired by an imaging device in which a plurality of pixels configured of a plurality of photoelectric conversion units (a plurality of sub-pixels) that receive light beams passing through different pupil partial regions of the imaging optical system are arrayed Be done. That is, the plurality of parallax images are generated from light reception signals of the sub-pixels for each pupil partial region.
好ましくは、画像生成手段は、画像の第1領域(例えば、所定領域Rおよび境界幅σ)において、重み係数に基づいて複数の視差画像を合成する。より好ましくは、第1領域は、第1被写体(被写体q1)よりも至近側の第2被写体(被写体q2)のボケを低減するために設定された領域である。また好ましくは、画像生成手段は、画像の第1領域とは異なる第2領域(例えば、所定領域Rの外側)において、複数の視差画像に互いに等しい重み係数を掛けて加算することにより画像を生成する。 Preferably, the image generation unit combines a plurality of parallax images based on the weighting factor in a first region (for example, a predetermined region R and a boundary width σ) of the image. More preferably, the first area is an area set to reduce blurring of the second subject (subject q2) closer to the first subject (subject q1). Further preferably, the image generation unit generates an image by multiplying and adding a plurality of parallax images with equal weighting factors in a second area different from the first area of the image (for example, outside the predetermined area R). Do.
好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、第1被写体よりも至近側の第2被写体が最も広い範囲で撮影されている視差画像の重み係数を最も小さくする。また好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、第1被写体よりも至近側の第2被写体が最も狭い範囲で撮影されている視差画像の重み係数を最も大きくする。 Preferably, in the first area of the image, the determination means is a weight of the parallax image in which the second object closer to the first object than the first object is photographed in the widest range among the plurality of weighting coefficients of the plurality of parallax images. Make the coefficient the smallest. Further preferably, the determination unit is configured to use a parallax image in which a second subject closer to the first subject than the first subject is photographed in the narrowest range among the plurality of weighting coefficients of the plurality of parallax images in the first region of the image. Make the weighting factor the largest.
好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、コントラスト評価値が最も小さい視差画像の重み係数を最も小さくする。また好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、コントラスト評価値が最も大きい視差画像の重み係数を最も大きくする。 Preferably, the determination means makes the weight coefficient of the parallax image having the smallest contrast evaluation value the smallest among the plurality of weight coefficients of the plurality of parallax images in the first region of the image. Still preferably, the determination means maximizes the weight coefficient of the parallax image having the largest contrast evaluation value among the plurality of weight coefficients of the plurality of parallax images in the first region of the image.
好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、実効絞り値が最も小さい視差画像の重み係数を最も小さくする。また好ましくは、決定手段は、画像の第1領域において、複数の視差画像の複数の重み係数のうち、実効絞り値が最も大きい視差画像の重み係数を最も大きくする。 Preferably, the determination means makes the weight coefficient of the parallax image with the smallest effective aperture value the smallest among the plurality of weight coefficients of the plurality of parallax images in the first region of the image. Further preferably, the determination means maximizes the weight coefficient of the parallax image having the largest effective aperture value among the plurality of weight coefficients of the plurality of parallax images in the first region of the image.
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
各実施例によれば、撮像画像の品位を向上させる画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to each embodiment, it is possible to provide an image processing device, an imaging device, an image processing method, a program, and a storage medium that improve the quality of a captured image.
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the present invention.
125 画像処理回路(画像処理装置)
125a 決定手段
125b 画像生成手段
125 Image processing circuit (image processing device)
125a determination means 125b image generation means
Claims (29)
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理装置。 Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The image processing apparatus, wherein the setting unit sets a weighting factor corresponding to the first region in each of the plurality of parallax images in accordance with the effective aperture value of the plurality of parallax images.
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像のコントラスト評価値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理装置。 Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The image processing apparatus, wherein the setting unit sets a weighting factor corresponding to the first region in each of the plurality of parallax images in accordance with a contrast evaluation value of the plurality of parallax images.
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像それぞれにおいて前記第1領域で被写体が撮影されている範囲に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理装置。 Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The setting means sets a weighting factor corresponding to the first area in each of the plurality of parallax images according to the range in which the subject is photographed in the first area in each of the plurality of parallax images. Image processing device.
前記複数の光電変換部から得られた複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段と、
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする撮像装置。 An image pickup element in which a plurality of pixels configured of a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system;
Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images obtained from the plurality of photoelectric conversion units;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The imaging device, wherein the setting unit sets a weighting factor corresponding to the first region in each of the plurality of parallax images in accordance with an effective aperture value of the plurality of parallax images.
前記複数の光電変換部から得られた複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段と、
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像のコントラスト評価値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする撮像装置。 An image pickup element in which a plurality of pixels configured of a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system;
Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images obtained from the plurality of photoelectric conversion units;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The setting device sets a weighting factor corresponding to the first region in each of the plurality of parallax images in accordance with a contrast evaluation value of the plurality of parallax images.
前記複数の光電変換部から得られた複数の視差画像それぞれの、第1領域を含む複数の領域に対応する重み係数を設定する設定手段と、
前記設定手段により設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成する画像生成手段と、を有し、
前記設定手段は、前記複数の視差画像それぞれにおいて前記第1領域で被写体が撮影されている範囲に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする撮像装置。 An image pickup element in which a plurality of pixels configured of a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system;
Setting means for setting weighting coefficients corresponding to a plurality of areas including the first area of each of the plurality of parallax images obtained from the plurality of photoelectric conversion units;
And image generation means for synthesizing the plurality of parallax images based on the weighting factor set by the setting means to generate a synthesized image,
The setting means sets a weighting factor corresponding to the first area in each of the plurality of parallax images according to the range in which the subject is photographed in the first area in each of the plurality of parallax images. An imaging device.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、を有し、
前記設定するステップは、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理方法。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
Combining the plurality of parallax images based on the weighting factor set by the setting step to generate a combined image;
The image processing method characterized in that the setting step sets a weight coefficient corresponding to the first region in each of the plurality of parallax images in accordance with the effective aperture value of the plurality of parallax images.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、を有し、
前記設定するステップは、前記複数の視差画像のコントラスト評価値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理方法。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
Combining the plurality of parallax images based on the weighting factor set by the setting step to generate a combined image;
The image processing method characterized in that the setting step sets a weighting factor corresponding to the first region in each of the plurality of parallax images in accordance with a contrast evaluation value of the plurality of parallax images.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、を有し、
前記設定するステップは、前記複数の視差画像それぞれにおいて前記第1領域で被写体が撮影されている範囲に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とする画像処理方法。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
Combining the plurality of parallax images based on the weighting factor set by the setting step to generate a combined image;
The setting may include setting a weighting factor corresponding to the first area in each of the plurality of parallax images according to a range in which the subject is photographed in the first area in each of the plurality of parallax images. Characteristic image processing method.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、をコンピュータに実行させるように構成されているプログラムであって、
前記設定するステップは、前記複数の視差画像の実効絞り値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とするプログラム。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
A program configured to cause a computer to execute combining the plurality of parallax images based on the weighting factor set in the setting step to generate a combined image.
The program is characterized in that, in the setting step, a weighting factor corresponding to the first region in each of the plurality of parallax images is set according to an effective aperture value of the plurality of parallax images.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、をコンピュータに実行させるように構成されているプログラムであって、
前記設定するステップは、前記複数の視差画像のコントラスト評価値に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とするプログラム。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
A program configured to cause a computer to execute combining the plurality of parallax images based on the weighting factor set in the setting step to generate a combined image.
The program is characterized in that, in the setting step, a weighting factor corresponding to the first region in each of the plurality of parallax images is set according to the contrast evaluation value of the plurality of parallax images.
前記設定するステップにより設定される重み係数に基づいて前記複数の視差画像を合成して合成画像を生成するステップと、をコンピュータに実行させるように構成されているプログラムであって、
前記設定するステップは、前記複数の視差画像それぞれにおいて前記第1領域で被写体が撮影されている範囲に応じて、前記複数の視差画像それぞれにおける前記第1領域に対応する重み係数を設定することを特徴とするプログラム。 Setting a weighting factor corresponding to a plurality of areas including the first area of each of the plurality of parallax images;
A program configured to cause a computer to execute combining the plurality of parallax images based on the weighting factor set in the setting step to generate a combined image.
The setting may include setting a weighting factor corresponding to the first area in each of the plurality of parallax images according to a range in which the subject is photographed in the first area in each of the plurality of parallax images. Program to feature.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019029899A JP2019092215A (en) | 2019-02-21 | 2019-02-21 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019029899A JP2019092215A (en) | 2019-02-21 | 2019-02-21 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015041326A Division JP6486149B2 (en) | 2015-03-03 | 2015-03-03 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020115284A Division JP7150785B2 (en) | 2020-07-03 | 2020-07-03 | Image processing device, imaging device, image processing method, and storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019092215A true JP2019092215A (en) | 2019-06-13 |
Family
ID=66836784
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019029899A Pending JP2019092215A (en) | 2019-02-21 | 2019-02-21 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019092215A (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012147046A (en) * | 2011-01-06 | 2012-08-02 | Sony Corp | Imaging apparatus and image processing method |
| JP2012248001A (en) * | 2011-05-27 | 2012-12-13 | Canon Inc | Image processing apparatus, image processing method, and program |
| JP2013061743A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
| JP6486149B2 (en) * | 2015-03-03 | 2019-03-20 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
-
2019
- 2019-02-21 JP JP2019029899A patent/JP2019092215A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012147046A (en) * | 2011-01-06 | 2012-08-02 | Sony Corp | Imaging apparatus and image processing method |
| JP2012248001A (en) * | 2011-05-27 | 2012-12-13 | Canon Inc | Image processing apparatus, image processing method, and program |
| JP2013061743A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
| JP6486149B2 (en) * | 2015-03-03 | 2019-03-20 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6789833B2 (en) | Image processing equipment, imaging equipment, image processing methods and programs | |
| JP6071374B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus | |
| JP6486149B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
| CN104041006B (en) | Image generating method and image forming apparatus | |
| JP6239857B2 (en) | Imaging apparatus and control method thereof | |
| JP6249825B2 (en) | Imaging device, control method thereof, and control program | |
| JP6746359B2 (en) | Image processing device, imaging device, image processing method, program, and storage medium | |
| JP2016111678A (en) | Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof | |
| JP2015203783A (en) | Image capturing device, control device, control method, program, and storage medium | |
| JP6254843B2 (en) | Image processing apparatus and control method thereof | |
| JP7150785B2 (en) | Image processing device, imaging device, image processing method, and storage medium | |
| JP2015210285A (en) | Imaging device, manufacturing method of the same, program thereof and recording medium | |
| JP6600217B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and control method thereof | |
| JP2019092215A (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
| CN113596431B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
| JP6701023B2 (en) | Imaging device, image processing method, image processing system, and image processing program | |
| JP6671868B2 (en) | Control device, imaging device, control method, program, and storage medium | |
| JP2015225310A (en) | Imaging apparatus, control method therefor, program, and storage medium | |
| JP2018116267A (en) | Focus detection device and method, and imaging device | |
| JP2017169012A (en) | Image processing device, control method of image processing device, and imaging apparatus | |
| JP6628617B2 (en) | Image processing apparatus and image processing method | |
| JP2018022984A (en) | Image processing apparatus, control method therefor, program, and imaging apparatus | |
| JP2018046336A (en) | Imager and imaging apparatus | |
| JP2018148457A (en) | Image processing device, imaging apparatus, image processing method, and program | |
| JP2016024402A (en) | Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190221 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191025 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191224 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200407 |