[go: up one dir, main page]

JP5691440B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5691440B2
JP5691440B2 JP2010263613A JP2010263613A JP5691440B2 JP 5691440 B2 JP5691440 B2 JP 5691440B2 JP 2010263613 A JP2010263613 A JP 2010263613A JP 2010263613 A JP2010263613 A JP 2010263613A JP 5691440 B2 JP5691440 B2 JP 5691440B2
Authority
JP
Japan
Prior art keywords
imaging
pixel
image signal
focus detection
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010263613A
Other languages
Japanese (ja)
Other versions
JP2012114797A (en
Inventor
歌川 健
健 歌川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010263613A priority Critical patent/JP5691440B2/en
Publication of JP2012114797A publication Critical patent/JP2012114797A/en
Application granted granted Critical
Publication of JP5691440B2 publication Critical patent/JP5691440B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来から、2つの撮像素子のそれぞれに焦点検出用画素が組み込まれて配列されたカメラが知られている(たとえば特許文献1)。   2. Description of the Related Art Conventionally, a camera in which focus detection pixels are incorporated and arranged in each of two imaging elements is known (for example, Patent Document 1).

特開2010−026011号公報JP 2010-026011 A

しかしながら、焦点検出用画素の配置位置における画像信号を、焦点検出用画素の周辺に配置された撮像用画素からの出力に基づいた予測によって生成しているので、正確な予測ができない場合には画質が低下するという問題がある。   However, since the image signal at the position where the focus detection pixels are arranged is generated by prediction based on the output from the imaging pixels arranged around the focus detection pixels, the image quality is determined when accurate prediction cannot be performed. There is a problem that decreases.

請求項1に記載の発明による撮像装置は、撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが配列された第1撮像素子と、前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが配列された第2撮像素子と、前記焦点検出画素が配置された位置における前記第1の色に関する情報を有する第4画像信号を、前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記対応位置の第2撮像画素の第2画像信号と、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素の第2画像信号と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とに基づいて、補間処理により生成し、前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記対応位置の第3撮像画素の第3画像信号と、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素の第3画像信号と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とに基づいて、補間処理により生成する補間手段とを備えることを特徴とする。
請求項6に記載の発明による撮像装置は、撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、前記補間手段は、前記焦点検出画素の周囲に配列された複数の前記第1撮像画素から出力された前記第1画像信号と、前記第1対応位置に配列された複数の前記第2撮像画素および複数の前記第3撮像画素の一方との差分に基づいて、前記第1の色に関する情報を有する前記第4画像信号を生成することを特徴とする。
請求項7に記載の発明による撮像装置は、撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、前記第1画像信号と前記第3画像信号とに基づいて、前記第2撮像素子上で前記第2撮像画素が配列された位置における前記第3の色に関する情報を有する第5画像信号を生成する第1生成手段と、前記第1画像信号と前記第2画像信号とに基づいて、前記第2撮像素子上で前記第3撮像画素が配列された位置における前記第2の色に関する情報を有する第6画像信号を生成する第2生成手段とを備えることを特徴とする。
請求項8に記載の発明による撮像装置は、撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、前記補間手段は、前記焦点検出画素の周囲に配列された複数の前記第1撮像画素から出力された前記第1画像信号と、前記第1対応位置に配列された複数の前記第2撮像画素からの第2画像信号および複数の前記第3撮像画素からの第3画像信号の一方との比に基づいて、前記第1の色に関する情報を有する前記第4画像信号を生成し、前記第1画像信号と前記第3画像信号とに基づいて、前記第2撮像素子上で前記第2撮像画素が配列された位置における前記第3の色に関する情報を有する第5画像信号を生成する第1生成手段と、前記第1画像信号と前記第2画像信号とに基づいて、前記第2撮像素子上で前記第3撮像画素が配列された位置における前記第2の色に関する情報を有する第6画像信号を生成する第2生成手段とを備えることを特徴とする。
An image pickup apparatus according to a first aspect of the invention receives a light beam from a photographing optical system and outputs a first image signal having information on a first color of a subject image formed by the photographing optical system. a first imaging pixel receives light flux from the photographing optical system, the first imaging device and the focus detection pixel outputting a focus detection signal for detecting a focusing state of the photographing optical system is sequence A second imaging pixel that receives a light beam from the photographing optical system and outputs a second image signal having information on a second color of the subject image formed by the photographing optical system; and the subject a second imaging device and the third image pickup pixels for outputting a third image signal containing information about a third color image is sequence, information about the first color at the position where the focus detection pixels are arranged the fourth image signal with the focus When the second imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the detection pixel, the second image signal of the second imaging pixel at the corresponding position and the second of the corresponding position. Based on the second image signal of the second imaging pixel arranged around the imaging pixel and the first image signal of the first imaging pixel arranged around the focus detection pixel, generated by interpolation processing, When the third imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the third image signal of the third imaging pixel at the corresponding position and the third image signal of the corresponding position. Interpolation generated by interpolation processing based on the third image signal of the third imaging pixel arranged around the three imaging pixels and the first image signal of the first imaging pixel arranged around the focus detection pixel Means.
An image pickup apparatus according to a sixth aspect of the invention receives a light beam from a photographing optical system and outputs a first image signal having information on a first color of a subject image formed by the photographing optical system. A first imaging pixel and a focus detection pixel that receives a light beam from the photographing optical system and outputs a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane. An imaging element; a second imaging pixel that receives a light beam from the imaging optical system and outputs a second image signal having information on a second color of the subject image formed by the imaging optical system; A second image sensor in which third imaging pixels that output a third image signal having information relating to the third color of the subject image are arranged on the same plane, and a fourth image at a position where the focus detection pixels are arranged. Signal from the second image sensor Interpolation means generated by interpolation processing based on one of the output second image signal and third image signal and the first image signal, and the interpolation means is arranged around the focus detection pixel. A first corresponding position on the second image sensor corresponding to the first image signal output from the first image sensor pixels arranged in the first image signal, the focus detection pixels, and the first image pixels arranged in the surroundings. Based on one of the second image signal output from the second imaging pixel arranged in the first imaging pixel and the third image signal from the third imaging pixel arranged in the first corresponding position. The fourth image signal having information related to the color of the first image signal is generated by the interpolation process, and the interpolation means outputs the first image signal output from the plurality of first imaging pixels arranged around the focus detection pixel. And the above Based on one and the difference of the plurality of the arranged in corresponding positions the second imaging pixel and a plurality of the third image pickup pixel, generates said fourth image signal containing information about the first color And
An image pickup apparatus according to a seventh aspect of the invention receives a light beam from a photographing optical system and outputs a first image signal having information on a first color of a subject image formed by the photographing optical system. A first imaging pixel and a focus detection pixel that receives a light beam from the photographing optical system and outputs a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane. An imaging element; a second imaging pixel that receives a light beam from the imaging optical system and outputs a second image signal having information on a second color of the subject image formed by the imaging optical system; A second image sensor in which third imaging pixels that output a third image signal having information relating to the third color of the subject image are arranged on the same plane, and a fourth image at a position where the focus detection pixels are arranged. Signal from the second image sensor Interpolation means generated by interpolation processing based on one of the output second image signal and third image signal and the first image signal, and the interpolation means is arranged around the focus detection pixel. A first corresponding position on the second image sensor corresponding to the first image signal output from the first image sensor pixels arranged in the first image signal, the focus detection pixels, and the first image pixels arranged in the surroundings. Based on one of the second image signal output from the second imaging pixel arranged in the first imaging pixel and the third image signal from the third imaging pixel arranged in the first corresponding position. The fourth image signal having information on the color of the image is generated by the interpolation process, and the second imaging pixels are arranged on the second imaging element based on the first image signal and the third image signal. Said in the position 3rd imaging pixels are arranged on the 2nd image sensor based on the 1st generating means which generates the 5th image signal which has the information about 3 colors, and the 1st image signal and the 2nd image signal And a second generation means for generating a sixth image signal having information on the second color at the position .
An imaging apparatus according to an eighth aspect of the present invention receives a light beam from a photographing optical system and outputs a first image signal having information on a first color of a subject image formed by the photographing optical system. A first imaging pixel and a focus detection pixel that receives a light beam from the photographing optical system and outputs a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane. An imaging element; a second imaging pixel that receives a light beam from the imaging optical system and outputs a second image signal having information on a second color of the subject image formed by the imaging optical system; A second image sensor in which third imaging pixels that output a third image signal having information relating to the third color of the subject image are arranged on the same plane, and a fourth image at a position where the focus detection pixels are arranged. Signal from the second image sensor Interpolation means generated by interpolation processing based on one of the output second image signal and third image signal and the first image signal, and the interpolation means is arranged around the focus detection pixel. A first corresponding position on the second image sensor corresponding to the first image signal output from the first image sensor pixels arranged in the first image signal, the focus detection pixels, and the first image pixels arranged in the surroundings. Based on one of the second image signal output from the second imaging pixel arranged in the first imaging pixel and the third image signal from the third imaging pixel arranged in the first corresponding position. The fourth image signal having information related to the color of the first image signal is generated by the interpolation process, and the interpolation means outputs the first image signal output from the plurality of first imaging pixels arranged around the focus detection pixel. And the above Based on the ratio between the second image signal from the plurality of second imaging pixels and the third image signal from the plurality of third imaging pixels arranged at the corresponding position, information on the first color is obtained. The fourth image signal is generated, and the third color at the position where the second imaging pixels are arranged on the second imaging element based on the first image signal and the third image signal Based on first generation means for generating a fifth image signal having information, and on the first image signal and the second image signal, the third image pickup pixel is positioned on the second image pickup element. And second generation means for generating a sixth image signal having information on the second color .

本発明によれば、第1撮像素子から出力される第1画像信号と、第2撮像素子から出力された第2画像信号および第3画像信号の一方とに基づいて、第1撮像素子上に配列された焦点検出画素の位置における第4画像信号を生成できる。   According to the present invention, on the first image sensor based on the first image signal output from the first image sensor and one of the second image signal and the third image signal output from the second image sensor. A fourth image signal at the position of the arranged focus detection pixels can be generated.

本発明の実施の形態によるデジタルカメラの構成を示す図The figure which shows the structure of the digital camera by embodiment of this invention 交換レンズの撮影画面に設定された焦点検出エリアの配置の一例を示す図The figure which shows an example of arrangement | positioning of the focus detection area set to the imaging | photography screen of an interchangeable lens 第1撮像素子の正面図Front view of the first image sensor 撮像用画素の構造を示す図The figure which shows the structure of the pixel for imaging 焦点検出用画素の構造を示す図The figure which shows the structure of the pixel for focus detection 第2撮像素子の正面図Front view of the second image sensor 波長選択性ハーフミラーの透過率特性を示す図Diagram showing transmittance characteristics of wavelength selective half mirror 波長選択性ハーフミラーの反射率特性を示す図Diagram showing reflectance characteristics of wavelength selective half mirror 青B画素に配置されるカラーフィルターの透過率特性を示す図The figure which shows the transmittance | permeability characteristic of the color filter arrange | positioned at a blue B pixel 赤R画素の配置されるカラーフィルターの透過率特性を示す図The figure which shows the transmittance | permeability characteristic of the color filter by which red R pixel is arrange | positioned 赤外線カットフィルターの透過率特性を示す図Diagram showing transmittance characteristics of infrared cut filter 第1撮像素子の欠陥補正処理を説明する図The figure explaining the defect correction process of a 1st image sensor 変形例における欠陥補正処理を説明する図The figure explaining the defect correction process in a modification 変形例における焦点検出用画素の配列例を示す図The figure which shows the example of an arrangement | sequence of the pixel for focus detection in a modification.

−第1の実施の形態−
図1は第1の実施の形態の構成を示す。第1の実施の形態のデジタルカメラ201は交換レンズ202とカメラボディ203から構成され、マウント部204を介して交換レンズ202がカメラボディ203に装着される。
-First embodiment-
FIG. 1 shows the configuration of the first embodiment. The digital camera 201 according to the first embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204.

交換レンズ202はレンズ駆動制御装置206、ズーミングレンズ208、レンズ209、フォーカシングレンズ210、絞り211などを備えている。レンズ駆動制御装置206はマイクロコンピューターとメモリなどの周辺部品から構成される。レンズ駆動制御装置206は、フォーカシングレンズ210と絞り211の駆動制御、ズーミングレンズ208、フォーカシングレンズ210および絞り211の状態検出、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報の受信などを行う。   The interchangeable lens 202 includes a lens drive control device 206, a zooming lens 208, a lens 209, a focusing lens 210, a diaphragm 211, and the like. The lens drive control device 206 is composed of peripheral components such as a microcomputer and a memory. The lens drive control device 206 controls the driving of the focusing lens 210 and the aperture 211, detects the state of the zooming lens 208, the focusing lens 210 and the aperture 211, and communicates with the body drive control device 214, which will be described later, to transmit lens information and camera information. Receive and so on.

カメラボディ203はボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、メモリカード219、第1撮像素子220、第2撮像素子221、波長選択性ハーフミラー222などを備えている。波長選択性ハーフミラー222は、たとえばペリクルミラーにより構成され、交換レンズ202から到来する光束の緑G成分を透過し、他の成分を反射する。波長選択性ハーフミラー222の光入射側には赤外線カットフィルター224が設けられている。   The camera body 203 includes a body drive control device 214, a liquid crystal display element driving circuit 215, a liquid crystal display element 216, a memory card 219, a first image sensor 220, a second image sensor 221, a wavelength selective half mirror 222, and the like. The wavelength-selective half mirror 222 is constituted by a pellicle mirror, for example, and transmits the green G component of the light beam coming from the interchangeable lens 202 and reflects the other components. An infrared cut filter 224 is provided on the light incident side of the wavelength selective half mirror 222.

第1撮像素子220は、波長選択性ハーフミラー222を透過した緑G成分の光束を受光する固体撮像素子であり、交換レンズ202の予定結像面(撮像面)に配置される。第2撮像素子221は、波長選択性ハーフミラー222を反射した緑G以外の成分の光束を受光する固体撮像素子であり、交換レンズ202の他の予定結像面(撮像面)に配置される。図1において、第1撮像素子220と第2撮像素子221の“A”が被写界の“天”の側に、“B”が被写界の“地”の側にそれぞれ対応する。なお、第1撮像素子220の撮像面(予定結像面)と、第2撮像素子221の撮像面(予定結像面)とは互いに共役の関係にある。第1撮像素子220および第2撮像素子221は、CCDやCMOSなどにより構成される。   The first image sensor 220 is a solid-state image sensor that receives the green G component light beam that has passed through the wavelength-selective half mirror 222, and is disposed on the planned imaging plane (imaging plane) of the interchangeable lens 202. The second image sensor 221 is a solid-state image sensor that receives a light beam of a component other than the green G reflected by the wavelength selective half mirror 222, and is disposed on another scheduled imaging surface (imaging surface) of the interchangeable lens 202. . In FIG. 1, “A” of the first image sensor 220 and the second image sensor 221 corresponds to the “heaven” side of the object scene, and “B” corresponds to the “ground” side of the object field. Note that the imaging surface (scheduled imaging surface) of the first imaging element 220 and the imaging surface (scheduled imaging surface) of the second imaging element 221 are in a conjugate relationship with each other. The first image sensor 220 and the second image sensor 221 are configured by a CCD, a CMOS, or the like.

ボディ駆動制御装置214はマイクロコンピューターとメモリなどの周辺部品から構成される。ボディ駆動制御装置214は、第1撮像素子220および第2撮像素子221からの画像信号の読み出しと補正、レンズ駆動制御装置206との通信(レンズ情報の受信、デフォーカス量などのカメラ情報の送信)、交換レンズ202の焦点調節状態(デフォーカス量)の検出、およびカメラ全体の動作制御を行う。ボディ駆動制御装置214とレンズ駆動制御装置206とは、マウント部204に設けられた電気接点213を介して通信を行い、レンズ情報、デフォーカス量、絞り情報などの各種情報の授受を行う。   The body drive control device 214 includes a microcomputer and peripheral components such as a memory. The body drive controller 214 reads and corrects image signals from the first image sensor 220 and the second image sensor 221 and communicates with the lens drive controller 206 (receives lens information and transmits camera information such as a defocus amount). ), Detection of the focus adjustment state (defocus amount) of the interchangeable lens 202, and operation control of the entire camera. The body drive control device 214 and the lens drive control device 206 communicate via an electrical contact 213 provided on the mount unit 204 to exchange various information such as lens information, defocus amount, aperture information, and the like.

この実施の形態のカメラでは、液晶表示素子駆動回路215と液晶表示素子216によりEVF(Electric View Finder)を構成し、第1撮像素子220と第2撮像素子221による撮像画像を液晶表示素子216に表示して接眼レンズ217を介して撮影者に視認させる。なお、撮像画像はメモリカード219に記録される。   In the camera of this embodiment, an EVF (Electric View Finder) is configured by the liquid crystal display element driving circuit 215 and the liquid crystal display element 216, and images captured by the first image sensor 220 and the second image sensor 221 are displayed on the liquid crystal display element 216. The image is displayed and made visible to the photographer through the eyepiece lens 217. The captured image is recorded in the memory card 219.

第1撮像素子220と第2撮像素子221にはそれぞれ撮像用画素が同一平面上に2次元配置される。交換レンズ202を透過して波長選択性ハーフミラー222を透過した光束により第1撮像素子220上に形成された被写体像は、第1撮像素子220により光電変換されてボディ駆動制御装置214へ出力される。交換レンズ202を透過して波長選択性ハーフミラー222で反射された光束により第2撮像素子221上に形成された被写体像は、第2撮像素子221により光電変換されたボディ駆動制御装置214へ出力される。第1撮像素子220上には、焦点検出位置に対応した部分に焦点検出用画素が組み込まれて配列されている。焦点検出用画素の詳細については説明を後述する。   The first imaging element 220 and the second imaging element 221 are two-dimensionally arranged with imaging pixels on the same plane. The subject image formed on the first image sensor 220 by the light beam that has passed through the interchangeable lens 202 and has passed through the wavelength selective half mirror 222 is photoelectrically converted by the first image sensor 220 and output to the body drive controller 214. The The subject image formed on the second image sensor 221 by the light beam transmitted through the interchangeable lens 202 and reflected by the wavelength selective half mirror 222 is output to the body drive control device 214 that has been photoelectrically converted by the second image sensor 221. Is done. On the first image sensor 220, focus detection pixels are incorporated and arranged in a portion corresponding to the focus detection position. Details of the focus detection pixels will be described later.

ボディ駆動制御装置214は、焦点検出用画素の出力に基づき焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像用画素の出力に基づき、後述する欠陥補正処理を行って生成した画像信号をメモリカード219に格納するとともに、画像信号を液晶表示素子駆動回路215へ送り、画像信号を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送り、絞り開口の大きさを制御させる。   The body drive control device 214 calculates a defocus amount at the focus detection position based on the output of the focus detection pixel, and sends this defocus amount to the lens drive control device 206. In addition, the body drive control device 214 stores an image signal generated by performing defect correction processing, which will be described later, on the memory card 219 based on the output of the imaging pixel, and sends the image signal to the liquid crystal display element drive circuit 215. The image signal is displayed on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the size of the aperture opening.

レンズ駆動制御装置206は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて更新する。具体的には、レンズ駆動制御装置206は、ズーミングレンズ208、フォーカシングレンズ210の位置と、絞り211の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。また、レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出する。そして、レンズ駆動制御装置206は、算出したレンズ駆動量に基づいてフォーカシングレンズ210を不図示のモーター等の駆動源によって合焦点へ駆動させるとともに、受信した絞り制御情報に基づいて絞り211を不図示のモーター等の駆動源によって駆動させる。   The lens drive control device 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens drive control device 206 monitors the positions of the zooming lens 208 and the focusing lens 210 and the aperture position of the aperture 211, calculates lens information according to the monitor information, or provides a look that is prepared in advance. Select lens information according to monitor information from the up table. Further, the lens drive control device 206 calculates a lens drive amount based on the received defocus amount. The lens drive control device 206 drives the focusing lens 210 to the focal point by a drive source such as a motor (not shown) based on the calculated lens drive amount, and the diaphragm 211 is not shown based on the received aperture control information. It is driven by a drive source such as a motor.

図2は、図1に示す交換レンズ202の撮影画面に設定された焦点検出エリアの配置を示す。図において、Aが被写界の天の側に、Bが被写界の地の側にそれぞれ対応する。この一実施の形態では、図に示すように、交換レンズ202の撮影画面100の中央部と周辺部の合計9カ所に焦点検出エリア100a〜100iを設定した例を示す。各焦点検出エリア100a〜100iは、被写界の水平方向に延在する形状をしている。なお、焦点検出エリアの形状は水平方向に延在するもの限定されず、垂直方向に延在するものでもよいし、水平方向と垂直方向とに直交する十字型形状であってもよい。また、焦点検出エリアの個数と配置についてもこの一実施の形態に限定されない。   FIG. 2 shows the arrangement of focus detection areas set on the imaging screen of the interchangeable lens 202 shown in FIG. In the figure, A corresponds to the celestial side of the object scene, and B corresponds to the ground side of the object field. In this embodiment, as shown in the figure, an example is shown in which focus detection areas 100a to 100i are set at a total of nine locations in the central portion and the peripheral portion of the photographing screen 100 of the interchangeable lens 202. Each of the focus detection areas 100a to 100i has a shape extending in the horizontal direction of the object scene. The shape of the focus detection area is not limited to the one extending in the horizontal direction, but may be one extending in the vertical direction, or may be a cross shape orthogonal to the horizontal direction and the vertical direction. Further, the number and arrangement of the focus detection areas are not limited to this embodiment.

図3(a)は第1撮像素子220の正面図であり、図中の“A”が被写界の天の側に、“B”が被写界の地の側にそれぞれ対応する。また、図3(b)は、図3(a)に破線で示す第1撮像素子220の“P1”部の拡大図であり、撮像用画素310の配列を示す。図3(c)は、図3(a)に一点鎖線で示す第1撮像素子220の“Q1”部の拡大図であり、撮像用画素310と焦点検出用画素313,314の配列を示す。なお、図3(c)はQ1部の焦点検出用画素配列220dを示すが、他の焦点検出用画素配列220a〜220c、220e〜220iについても同様である。   FIG. 3A is a front view of the first image sensor 220, in which “A” corresponds to the celestial side of the object scene, and “B” corresponds to the ground side of the object field. FIG. 3B is an enlarged view of the “P1” portion of the first image sensor 220 indicated by a broken line in FIG. 3A, and shows the arrangement of the imaging pixels 310. FIG. 3C is an enlarged view of the “Q1” portion of the first image sensor 220 indicated by a one-dot chain line in FIG. 3A, and shows an arrangement of the imaging pixels 310 and the focus detection pixels 313 and 314. FIG. 3C shows the focus detection pixel array 220d of the Q1 portion, but the same applies to the other focus detection pixel arrays 220a to 220c and 220e to 220i.

第1撮像素子220には、交換レンズ202(図1参照)の図2に示す撮影画面100に対応する撮像面全体に、図3(b)に示すように撮像用画素310が二次元状に配列される。さらに、撮影画面100内の9カ所の焦点検出エリア100a〜100iに対応する位置に、図3(c)に示すように焦点検出用画素配列220a〜220iが被写界の水平方向に沿って配置される。なお、図3において示す「G」は、後述するように緑G色成分を透過するカラーフィルターを備えた撮像用画素310(緑G画素310G)または焦点検出用画素313,314であることを表している。   The first imaging element 220 has two-dimensional imaging pixels 310 as shown in FIG. 3B on the entire imaging surface corresponding to the imaging screen 100 shown in FIG. 2 of the interchangeable lens 202 (see FIG. 1). Arranged. Further, as shown in FIG. 3C, focus detection pixel arrays 220a to 220i are arranged along the horizontal direction of the object scene at positions corresponding to nine focus detection areas 100a to 100i in the photographing screen 100. Is done. Note that “G” shown in FIG. 3 represents an imaging pixel 310 (green G pixel 310G) or focus detection pixels 313 and 314 having a color filter that transmits a green G color component, as will be described later. ing.

図4(a)は撮像用画素310の正面図、図4(b)は撮像用画素310の断面図である。撮像用画素310(緑G画素310G)はマイクロレンズ310aと光電変換素子310bとアパーチャ−310cとカラーフィルター310gとを備えている。光電変換素子310bは半導体回路基板29上に形成されている。光電変換素子310bの前方にはアパーチャ−310cとマイクロレンズ310aが配置され、マイクロレンズ310aによりアパーチャ−310cで規定される光電変換素子310bの形状が前方に投影される。カラーフィルター310gは、被写体からの光束に含まれる緑G色成分を透過する特性を有し、マイクロレンズ310aとアパーチャ−310cとの間に設置される。   4A is a front view of the imaging pixel 310, and FIG. 4B is a cross-sectional view of the imaging pixel 310. The imaging pixel 310 (green G pixel 310G) includes a microlens 310a, a photoelectric conversion element 310b, an aperture-310c, and a color filter 310g. The photoelectric conversion element 310 b is formed on the semiconductor circuit substrate 29. An aperture-310c and a micro lens 310a are arranged in front of the photoelectric conversion element 310b, and the shape of the photoelectric conversion element 310b defined by the aperture-310c is projected forward by the micro lens 310a. The color filter 310g has a characteristic of transmitting the green G color component included in the light flux from the subject, and is installed between the microlens 310a and the aperture-310c.

焦点検出用画素配列220a〜220iには、図3(c)に示すように一対の焦点検出用画素313,314が含まれる。そして、焦点検出用画素配列220a〜220iには、一対の焦点検出用画素313、314および撮像用画素310(緑G画素310G)が、焦点検出用画素313、緑G画素310G、焦点検出用画素314、緑G画素310Gの順序で直線上に配置されている。   The focus detection pixel arrays 220a to 220i include a pair of focus detection pixels 313 and 314 as shown in FIG. In the focus detection pixel arrays 220a to 220i, a pair of focus detection pixels 313 and 314 and an imaging pixel 310 (green G pixel 310G) include a focus detection pixel 313, a green G pixel 310G, and a focus detection pixel. 314 and the green G pixel 310G are arranged on a straight line in this order.

図5(a)は焦点検出用画素313,314の正面図、図5(b)は焦点検出用画素313,314の断面図である。焦点検出用画素313は、マイクロレンズ313aと光電変換素子313bとアパーチャ−313cとカラーフィルター313gとを備えている。光電変換素子313bは半導体回路基板29上に形成されている。光電変換素子313bの前方にはアパーチャ−313cとマイクロレンズ313aとが配置され、マイクロレンズ313aによりアパーチャ−313cによって規定される光電変換素子313bの形状が前方に投影される。カラーフィルター313gは、被写体からの光束に含まれる緑G色成分を透過する特性を有し、マイクロレンズ313aとアパーチャ−313cとの間に設置される。   5A is a front view of the focus detection pixels 313 and 314, and FIG. 5B is a cross-sectional view of the focus detection pixels 313 and 314. The focus detection pixel 313 includes a micro lens 313a, a photoelectric conversion element 313b, an aperture 313c, and a color filter 313g. The photoelectric conversion element 313 b is formed on the semiconductor circuit substrate 29. An aperture 313c and a micro lens 313a are disposed in front of the photoelectric conversion element 313b, and the shape of the photoelectric conversion element 313b defined by the aperture 313c is projected forward by the micro lens 313a. The color filter 313g has a characteristic of transmitting the green G color component included in the light flux from the subject, and is installed between the microlens 313a and the aperture 313c.

焦点検出用画素314は、マイクロレンズ314aと光電変換素子314bとアパーチャ−314cとカラーフィルター314gとを備えている。光電変換素子314bは半導体回路基板29上に形成されている。光電変換素子314bの前方にはアパーチャ−314cとマイクロレンズ314aとが配置され、マイクロレンズ314aによりアパーチャ−314cによって規定される光電変換素子314bの形状が前方に投影される。カラーフィルター314gは、被写体からの光束に含まれる緑G色成分を透過する特性を有し、マイクロレンズ314aとアパーチャ−314cとの間に設置される。焦点検出用画素313,314のアパーチャ−313c、314cはともに長方形の開口を有するように形成され、マイクロレンズ10の中心(光軸)に対して対象に配置されている。すなわち、アパーチャ−313c、314cによって規定される開口の大きさは、それぞれ撮像用画素310に設けられたアパーチャ−310cによる開口の大きさのほぼ半分となるように形成される。換言すると、焦点検出用画素313,314は瞳分割構造を有している。   The focus detection pixel 314 includes a microlens 314a, a photoelectric conversion element 314b, an aperture 314c, and a color filter 314g. The photoelectric conversion element 314 b is formed on the semiconductor circuit substrate 29. An aperture 314c and a micro lens 314a are disposed in front of the photoelectric conversion element 314b, and the shape of the photoelectric conversion element 314b defined by the aperture 314c is projected forward by the micro lens 314a. The color filter 314g has a characteristic of transmitting the green G color component included in the light flux from the subject, and is installed between the microlens 314a and the aperture 314c. Apertures 313c and 314c of the focus detection pixels 313 and 314 are both formed to have a rectangular opening, and are arranged on the object with respect to the center (optical axis) of the microlens 10. That is, the size of the opening defined by the apertures 313c and 314c is formed to be approximately half of the size of the opening by the aperture 310c provided in the imaging pixel 310, respectively. In other words, the focus detection pixels 313 and 314 have a pupil division structure.

上述したように、第1撮像素子220は波長選択性ハーフミラー222を透過した緑G成分の光束を受光する。図7は波長選択性ハーフミラー222の透過率特性を示し、図8はその反射率特性を示す。波長選択性ハーフミラー222は、G(緑の色光)成分を透過して他の色成分を反射する特性を有する。   As described above, the first image sensor 220 receives the light beam of the green G component transmitted through the wavelength selective half mirror 222. FIG. 7 shows the transmittance characteristics of the wavelength selective half mirror 222, and FIG. 8 shows the reflectance characteristics thereof. The wavelength selective half mirror 222 has a characteristic of transmitting a G (green color light) component and reflecting other color components.

次に、第2撮像素子221について説明する。図6(a)は第2撮像素子221の正面図であり、図中の“A”が被写界の天の側に、“B”が被写界の地の側にそれぞれ対応する。また、図6(b)は、図6(a)において一点鎖線で示す第2撮像素子221の”P2”部の拡大図であり、撮像用画素の配列を示す。なお、第2撮像素子221のP2部は、図3(b)に示す第1撮像素子220のP1部に対応する領域、すなわちP1部とP2部とは被写体の同一部分を撮影する領域である。図6(c)は、図6(a)において二点鎖線で示す第2撮像素子221の“Q2”部の拡大図であり、撮像用画素の配列を示す。第2撮像素子221のQ2部は、図3(c)に示すQ1部に対応する領域である。   Next, the second image sensor 221 will be described. FIG. 6A is a front view of the second image sensor 221. In the figure, “A” corresponds to the celestial side of the object scene, and “B” corresponds to the ground side of the object field. FIG. 6B is an enlarged view of the “P2” portion of the second image sensor 221 indicated by the alternate long and short dash line in FIG. 6A, and shows an array of imaging pixels. The P2 portion of the second image sensor 221 corresponds to the P1 portion of the first image sensor 220 shown in FIG. 3B, that is, the P1 portion and the P2 portion are regions for photographing the same portion of the subject. . FIG. 6C is an enlarged view of the “Q2” portion of the second imaging element 221 indicated by a two-dot chain line in FIG. 6A, and shows an arrangement of imaging pixels. The Q2 portion of the second image sensor 221 is a region corresponding to the Q1 portion shown in FIG.

第2撮像素子221は、交換レンズ202(図1参照)の図2に示す撮影画面100に対応する撮像面全体に、図6(b)に示すように撮像用画素310が同一平面上に二次元配列される。第2撮像素子221の撮像用画素310は、図4に示す上述した第1撮像素子220の撮像用画素310と同様な構成を備えているが、マイクロレンズ310aと光電変換素子310bの間に設置されるカラーフィルターの色が異なる。第2撮像素子221では、図6(b)に示すように、青B成分を透過するカラーフィルターを備えた撮像用画素310(青B画素310B)と、赤R成分を透過するカラーフィルターを備えた撮像用画素310(赤R画素310R)とが市松模様に配置される。すなわち、青B画素310Bと赤R画素310Rとが、第2撮像素子221上において水平方向および垂直方向に互いに交互に配列される。なお、青B画素310Bおよび赤R画素310Rの配列は市松模様に限定されず、たとえば青B画素310Bと赤R画素310Rとがそれぞれ水平方向に一直線となるように配列されてもよい。   The second imaging element 221 has two imaging pixels 310 on the same plane as shown in FIG. 6B on the entire imaging surface of the interchangeable lens 202 (see FIG. 1) corresponding to the imaging screen 100 shown in FIG. Dimensional array. The imaging pixel 310 of the second imaging element 221 has the same configuration as the imaging pixel 310 of the first imaging element 220 described above shown in FIG. 4, but is installed between the microlens 310a and the photoelectric conversion element 310b. Different color filters are used. As shown in FIG. 6B, the second image sensor 221 includes an imaging pixel 310 (blue B pixel 310B) including a color filter that transmits a blue B component and a color filter that transmits a red R component. The imaging pixels 310 (red R pixels 310R) are arranged in a checkered pattern. That is, the blue B pixel 310B and the red R pixel 310R are alternately arranged on the second image sensor 221 in the horizontal direction and the vertical direction. The arrangement of the blue B pixel 310B and the red R pixel 310R is not limited to the checkered pattern, and for example, the blue B pixel 310B and the red R pixel 310R may be arranged in a straight line in the horizontal direction.

図9は青B成分を透過するカラーフィルターの透過率特性を示し、図10は赤R成分を透過するカラーフィルターの透過率特性を示す。上述したように、第2撮像素子221は波長選択性ハーフミラー222を反射した緑G成分以外の光を受光する。第2撮像素子221の青B画素310Bは波長選択性ハーフミラー222により反射された光束の内の青B成分の光を受光し、赤R画素310Rは赤R成分の光を受光する。   FIG. 9 shows the transmittance characteristics of the color filter that transmits the blue B component, and FIG. 10 shows the transmittance characteristics of the color filter that transmits the red R component. As described above, the second image sensor 221 receives light other than the green G component reflected by the wavelength selective half mirror 222. The blue B pixel 310B of the second image sensor 221 receives blue B component light in the light beam reflected by the wavelength selective half mirror 222, and the red R pixel 310R receives red R component light.

図11は、波長選択性ハーフミラー222の光入射側に配置された赤外線カットフィルター224の透過率特性を示す。このように、一実施の形態の撮像装置では、波長選択性ハーフミラー222により緑G成分の光束を透過するとともに緑G成分以外の光束を反射する。そして、波長選択性ハーフミラー222の透過光を第1撮像素子220で受光するとともに、反射光の内の青B成分と赤R成分の光を第2撮像素子221で受光するようにした。その結果、RGB画素がベイヤー配列された1枚の撮像素子で被写体からの光を受光するのに比べ、2倍の光量を受光することができる。   FIG. 11 shows the transmittance characteristics of the infrared cut filter 224 arranged on the light incident side of the wavelength selective half mirror 222. As described above, in the imaging apparatus according to the embodiment, the wavelength-selective half mirror 222 transmits the light beam of the green G component and reflects the light beam other than the green G component. Then, the transmitted light of the wavelength selective half mirror 222 is received by the first image sensor 220, and the blue B component and the red R component of the reflected light are received by the second image sensor 221. As a result, it is possible to receive twice the amount of light as compared with the case where light from a subject is received by a single image sensor in which RGB pixels are arranged in a Bayer array.

次に、焦点検出用画素313,314の配置位置における画像出力を撮像用画素310の画素出力に基づいて補間により求める一実施の形態の補間方法、すなわち欠陥補正方法を説明する。撮像用画素310に代えて焦点検出用画素313,314を配置すると、その焦点検出用画素位置では撮像結果の画像出力が得られないので欠陥画素となる。そこで、焦点検出用画素位置における画像出力を、第1撮像素子220と第2撮像素子221に配列された撮像用画素310の出力に基づいて補間により求める、つまり欠陥補正を行う。   Next, an interpolation method, that is, a defect correction method according to an embodiment, in which an image output at the arrangement position of the focus detection pixels 313 and 314 is obtained by interpolation based on the pixel output of the imaging pixel 310 will be described. If focus detection pixels 313 and 314 are arranged instead of the image pickup pixel 310, an image output of the image pickup result cannot be obtained at the focus detection pixel position, so that the pixel becomes a defective pixel. Therefore, the image output at the focus detection pixel position is obtained by interpolation based on the outputs of the imaging pixels 310 arranged in the first imaging element 220 and the second imaging element 221, that is, defect correction is performed.

以下の説明においては、第1撮像素子220の緑G画素310Gからの画素出力をG(i,j)、第2撮像素子221の青B画素310Bからの画素出力をB(i,j)、赤R画素310Rからの画素出力をR(i,j)とする。また、iは第1撮像素子220および第2撮像素子221の垂直方向(列)を表す正の整数であり、jは第1撮像素子220および第2撮像素子221の水平方向(行)を表す正の整数である。   In the following description, the pixel output from the green G pixel 310G of the first image sensor 220 is G (i, j), the pixel output from the blue B pixel 310B of the second image sensor 221 is B (i, j), The pixel output from the red R pixel 310R is R (i, j). In addition, i is a positive integer representing the vertical direction (column) of the first image sensor 220 and the second image sensor 221, and j is the horizontal direction (row) of the first image sensor 220 and the second image sensor 221. It is a positive integer.

図12を参照しながら、ボディ駆動制御装置214による欠陥補正処理を説明する。図12(a)は、図3(c)に示す第1撮像素子220のQ1部において二点鎖線で囲んだ領域R1を拡大して示す図である。図12(b)は、図6(c)に示す第2撮像素子221のQ2部において二点鎖線で囲んだ領域R2を示す図である。領域R1および領域R2は互いに対応する位置関係、すなわち交換レンズ202を介して入射した被写体光束のうちの同一部分に対応する光束が結像される。なお、以下の説明においては、焦点検出用画素313に対応する第2撮像素子221に配置された撮像用画素310を対応画素310COと呼ぶ。   The defect correction processing by the body drive control device 214 will be described with reference to FIG. FIG. 12A is an enlarged view showing a region R1 surrounded by a two-dot chain line in the Q1 portion of the first image sensor 220 shown in FIG. FIG. 12B is a diagram showing a region R2 surrounded by a two-dot chain line in the Q2 portion of the second image sensor 221 shown in FIG. The region R1 and the region R2 form a positional relationship corresponding to each other, that is, a light beam corresponding to the same part of the subject light beam incident through the interchangeable lens 202. In the following description, the imaging pixel 310 disposed in the second imaging element 221 corresponding to the focus detection pixel 313 is referred to as a corresponding pixel 310CO.

ボディ駆動制御装置214は、図12(a)に配置された焦点検出用画素313が瞳分割構造ではない場合に予想される画素出力(予想出力)G’(i,j)を次の式(1)を用いて算出する。
G’(i,j)=B(i,j)×Gsum/Bsum
Gsum=G(i−1,j−1)+G(i−1,j+1)+G(i+1,j−1)+G(i+1,j+1)
Bsum=B(i−1,j−1)+B(i−1,j+1)+B(i+1,j−1)+B(i+1,j+1)
・・・(1)
The body drive control device 214 calculates a pixel output (expected output) G ′ (i, j) that is expected when the focus detection pixel 313 arranged in FIG. 1).
G ′ (i, j) = B (i, j) × Gsum / Bsum
Gsum = G (i−1, j−1) + G (i−1, j + 1) + G (i + 1, j−1) + G (i + 1, j + 1)
Bsum = B (i-1, j-1) + B (i-1, j + 1) + B (i + 1, j-1) + B (i + 1, j + 1)
... (1)

上記の式(1)に示すように、ボディ駆動制御装置214は、第1撮像素子220の画素出力G(i−1,j−1)、G(i−1,j+1)、G(i+1,j−1)、G(i+1,j+1)と、第2撮像素子221の画素出力B(i−1,j−1)、B(i−1,j+1)、B(i,j)、B(i+1,j−1)、B(i+1,j+1)とを用いて予想出力G’(i,j)を算出する。式(1)は、第1撮像素子220の焦点検出用画素313の周囲に配置された4つの緑G画素310Gからの画素出力の平均と、第2撮像素子221上の対応画素310CO(青B画素310B)およびその周辺に配置された4つの青B画素310Bからの画素出力の平均との比例関係を用いて予想出力G’(i,j)が算出される例を示している。なお、この4つの青B画素310Bは、第1撮像素子220の焦点検出用画素313の周囲に配置された4つの緑G画素310Gと対応する位置に配置されている(以後、周辺対応画素310COPと呼ぶ)。さらに、ボディ駆動制御装置214は、焦点検出用画素314に対する欠陥補正処理についても、上述した欠陥補正処理と同様にして、すなわち式(1)を用いることによって算出する。なお、上記の説明では、対応画素310COが青B画素310Bの場合を示したが、赤R画素310Rの場合には式(1)の画素出力をB(i,j)からR(i,j)に置き換えることによって予想出力G’(i,j)を算出できる。   As shown in the above equation (1), the body drive control device 214 outputs the pixel outputs G (i−1, j−1), G (i−1, j + 1), G (i + 1, j−1), G (i + 1, j + 1), and pixel outputs B (i−1, j−1), B (i−1, j + 1), B (i, j), B ( The predicted output G ′ (i, j) is calculated using i + 1, j−1) and B (i + 1, j + 1). Expression (1) is an average of pixel outputs from the four green G pixels 310G arranged around the focus detection pixel 313 of the first image sensor 220 and the corresponding pixel 310CO (blue B) on the second image sensor 221. An example is shown in which the expected output G ′ (i, j) is calculated using a proportional relationship with the average of the pixel outputs from the pixel 310B) and four blue B pixels 310B arranged in the vicinity thereof. The four blue B pixels 310B are arranged at positions corresponding to the four green G pixels 310G arranged around the focus detection pixels 313 of the first image sensor 220 (hereinafter, peripheral corresponding pixels 310COP). Called). Furthermore, the body drive control device 214 also calculates the defect correction processing for the focus detection pixels 314 in the same manner as the above-described defect correction processing, that is, by using Expression (1). In the above description, the case where the corresponding pixel 310CO is the blue B pixel 310B is shown. However, in the case of the red R pixel 310R, the pixel output of Expression (1) is changed from B (i, j) to R (i, j ), The expected output G ′ (i, j) can be calculated.

ボディ駆動制御装置214は、第2撮像素子221上の焦点検出用画素配列220a〜220iに設けられた2種類の焦点検出用画素313、314からの出力を用いて、公知の方法によりデフォーカス量を算出する。焦点検出用画素313、314は、焦点検出用画素313、314のそれぞれに対応する、交換レンズ202の異なる測距瞳をそれぞれ通過する光束を受光する。ボディ駆動制御装置214は、焦点検出用画素313、314からの出力を異なる測距瞳に対応した出力グループにまとめることによって、それぞれの測距瞳を通過する焦点検出用光束が焦点検出用画素配列上に形成する一対の像の光強度分布に関する情報が得る。ボディ駆動制御装置214は、この情報に対して周知の像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、ボディ駆動制御装置214は、像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を行うことによって、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)を算出する。   The body drive control device 214 uses the outputs from the two types of focus detection pixels 313 and 314 provided in the focus detection pixel arrays 220a to 220i on the second image sensor 221 to perform the defocus amount by a known method. Is calculated. The focus detection pixels 313 and 314 receive light beams respectively passing through different distance measuring pupils of the interchangeable lens 202 corresponding to the focus detection pixels 313 and 314, respectively. The body drive control device 214 collects the outputs from the focus detection pixels 313 and 314 into output groups corresponding to different distance measurement pupils so that the focus detection light fluxes passing through the distance measurement pupils are arranged in the focus detection pixel array. Information on the light intensity distribution of the pair of images formed on the top is obtained. The body drive control device 214 performs a known image shift detection calculation process (correlation calculation process, phase difference detection process) on this information, thereby performing image shift amounts of a pair of images using a so-called pupil division type phase difference detection method. Is detected. Further, the body drive control device 214 performs a conversion operation according to the center-of-gravity interval of the pair of distance measuring pupils on the image shift amount, thereby performing a current imaging plane (a microlens on the planned imaging plane) on the planned imaging plane. The deviation (defocus amount) of the imaging plane at the focus detection position corresponding to the array position is calculated.

以上で説明した第1の実施の形態によれば、以下の作用効果が得られる。
(1)第1撮像素子220には、交換レンズ202からの光束を受光して、交換レンズ202により結像される被写体像の緑G色に関する情報を有する画素出力Gを出力する撮像用画素310(緑G画素310G)と、交換レンズ202からの光束を受光して、交換レンズ202の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用画素313,314とが同一平面上に配列されるようにした。第2撮像素子221には、交換レンズ202からの光束を受光して交換レンズ202により結像される被写体像の青B色に関する情報を有する画素出力Bを出力する撮像用画素310(青B画素310B)と、被写体像の赤R色に関する情報を有する画素出力Rを出力する撮像用画素310(赤R画素310R)とが同一平面上に配列されるようにした。そして、ボディ駆動制御装置214は、焦点検出用画素313,314の位置における予想出力G’を、画素出力Bおよび画素出力Rの一方と、画素出力Gとに基づいて、補間処理により生成するようにした。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The first imaging element 220 receives the light beam from the interchangeable lens 202 and outputs a pixel output G having information on the green G color of the subject image formed by the interchangeable lens 202. (Green G pixel 310G) and focus detection pixels 313 and 314 that receive the light flux from the interchangeable lens 202 and output a focus detection signal for detecting the focus adjustment state of the interchangeable lens 202 are on the same plane. It was arranged. The second imaging element 221 receives the light beam from the interchangeable lens 202 and outputs a pixel output B (blue B pixel) that outputs pixel output B having information on the blue B color of the subject image formed by the interchangeable lens 202. 310B) and an imaging pixel 310 (red R pixel 310R) that outputs a pixel output R having information related to the red R color of the subject image are arranged on the same plane. Then, the body drive control device 214 generates an expected output G ′ at the positions of the focus detection pixels 313 and 314 based on one of the pixel output B and the pixel output R and the pixel output G by interpolation processing. I made it.

従来の技術では、第1撮像素子220に配列された焦点検出用画素313,314の予想出力を、第1撮像素子220に配列された撮像画素310の画素出力を用いて生成していた。図12(a)に示す焦点検出用画素313のように画素出力が得られない場合に、周辺の画素出力Gを用いて予想出力G’を算出していた。このため、焦点検出用画素313に実際に入射する光束に含まれる情報と、周辺の画素出力Gを用いて算出された予想出力G’とが大きく異なる場合、偽色等が発生し画質が劣化していた。しかし、本実施の形態によれば、図12(a)の焦点検出用画素313が配置された位置での予想出力を算出する際に、図12(b)に示すように第2撮像素子221からの画素出力を用いている。すなわち、第2撮像素子221上に配置された、焦点検出用画素313の対応画素310COの出力をも用いているので、予想出力を算出する際の精度が向上し、焦点検出用画素313に実際に入射する光束に含まれる情報と、予想出力G’とが大きく異なることがなくなる。この結果、偽色等の発生が抑制された高画質の画像を生成できる。   In the conventional technique, the predicted output of the focus detection pixels 313 and 314 arranged in the first image sensor 220 is generated using the pixel output of the image pixel 310 arranged in the first image sensor 220. When the pixel output cannot be obtained like the focus detection pixel 313 shown in FIG. 12A, the predicted output G ′ is calculated using the peripheral pixel output G. For this reason, if the information included in the light flux actually incident on the focus detection pixel 313 and the expected output G ′ calculated using the peripheral pixel output G are significantly different, a false color or the like occurs and the image quality deteriorates. Was. However, according to the present embodiment, when calculating the expected output at the position where the focus detection pixels 313 in FIG. 12A are arranged, as shown in FIG. The pixel output from is used. That is, since the output of the corresponding pixel 310CO of the focus detection pixel 313 disposed on the second image sensor 221 is also used, the accuracy in calculating the predicted output is improved, and the focus detection pixel 313 is actually used. The information contained in the light flux incident on the light and the expected output G ′ are not significantly different. As a result, it is possible to generate a high-quality image in which the occurrence of false colors or the like is suppressed.

(2)ボディ駆動制御装置214は、焦点検出用画素313,314の周囲に配列された緑G画素310Gから出力された画素出力Gと、焦点検出用画素313,314および周囲に配列された緑G画素310Gに対応する、対応画素310COと周辺対応画素310COPから出力された画素出力Bまたは画素出力Rとに基づいて、緑G色に関する情報を有する予想出力G’を補間処理により生成するようにした。このとき、ボディ駆動制御装置214は、焦点検出用画素313,314の周囲に配列された複数の緑G画素310Gから出力された画素出力Gと、周辺対応画素310COPから出力された画素出力Bまたは画素出力Rとの比例関係に基づいて、緑G色に関する情報を有する予測出力G’を生成する。したがって、焦点検出用画素313,314の周辺の複数の撮像用画素310と、対応画素310COと、周辺対応画素310COPとからの画素出力を用いて予想出力を算出するので、予想出力の算出精度を向上させて、画像の高画質化に寄与する。 (2) The body drive controller 214 outputs the pixel output G output from the green G pixel 310G arranged around the focus detection pixels 313 and 314, the focus detection pixels 313 and 314, and the green arranged around the pixel G Based on the corresponding pixel 310CO corresponding to the G pixel 310G and the pixel output B or the pixel output R output from the peripheral corresponding pixel 310COP, an expected output G ′ having information on the green G color is generated by interpolation processing. did. At this time, the body drive control device 214 outputs the pixel output G output from the plurality of green G pixels 310G arranged around the focus detection pixels 313 and 314 and the pixel output B output from the peripheral corresponding pixel 310COP or Based on the proportional relationship with the pixel output R, a predicted output G ′ having information on the green G color is generated. Therefore, the predicted output is calculated using the pixel outputs from the plurality of imaging pixels 310 around the focus detection pixels 313 and 314, the corresponding pixel 310CO, and the peripheral corresponding pixel 310COP. This will improve the image quality.

以上で説明した第1の実施の形態を、以下のように変形できる。
(1)ボディ駆動制御装置214は、平均の比例関係に基づいた式(1)を用いて予想出力G’(i,j)を算出するものに代えて、次の式(2)を用いて算出するものでもよい。式(2)は、焦点検出用画素313の周辺に配置された4つの緑G画素310Gの画素出力G(i,j)と、対応画素310COである青B画素310Bおよびその周辺に配置された周辺対応画素310COPである4つの青B画素310Bの画素出力B(i,j)との比の平均を用いて予想出力G’(i,j)が算出されることを示している。なお、対応画素310COが青B画素310Bの場合を示したが、赤R画素310Rの場合には式(2)の画素出力をB(i,j)からR(i,j)に置き換えることによって画素出力G’(i,j)を算出できる。
G’(i,j)=B(i,j)×4×{G(i−1,j−1)/B(i−1,j−1)+G(i−1,j+1)/B(i−1,j+1)+G(i+1,j−1)/B(i+1,j−1)+G(i+1,j+1)/B(i+1,j+1)}
・・・(2)
The first embodiment described above can be modified as follows.
(1) The body drive control device 214 uses the following formula (2) instead of calculating the expected output G ′ (i, j) using the formula (1) based on the average proportional relationship. It may be calculated. Expression (2) is the pixel output G (i, j) of the four green G pixels 310G arranged around the focus detection pixel 313, the blue B pixel 310B as the corresponding pixel 310CO, and the surroundings. It shows that the expected output G ′ (i, j) is calculated using the average of the ratios of the four blue B pixels 310B, which are the peripheral corresponding pixels 310COP, with the pixel output B (i, j). Although the case where the corresponding pixel 310CO is the blue B pixel 310B is shown, in the case of the red R pixel 310R, the pixel output of Expression (2) is replaced by B (i, j) to R (i, j). Pixel output G ′ (i, j) can be calculated.
G ′ (i, j) = B (i, j) × 4 × {G (i−1, j−1) / B (i−1, j−1) + G (i−1, j + 1) / B ( i−1, j + 1) + G (i + 1, j−1) / B (i + 1, j−1) + G (i + 1, j + 1) / B (i + 1, j + 1)}
... (2)

(2)ボディ駆動制御装置214は、被写体の特徴に応じて配列された撮像用画素310から出力された画素出力を用いて欠陥補正処理を行ってもよい。たとえば、図13に示すように撮影画面の下部から上部にかけて斜め形状を有する被写体Sが撮影されたものとする。この場合、ボディ駆動制御装置214は、4つの緑G画素310Gから出力された画素出力G(i,j)を用いて、以下の式(3)を用いて、被写体Sの斜め形状(特徴)の抽出、すなわち画素出力の類似性を判定する。
D=|G(i−1,j−1)−G(i+1,j+1)|−|G(i−1,j+1)−G(i+1,j−1)|
・・・(3)
(2) The body drive control device 214 may perform the defect correction processing using the pixel output output from the imaging pixels 310 arranged according to the characteristics of the subject. For example, it is assumed that a subject S having an oblique shape is photographed from the lower part to the upper part of the photographing screen as shown in FIG. In this case, the body drive control device 214 uses the pixel output G (i, j) output from the four green G pixels 310G and uses the following equation (3) to form an oblique shape (feature) of the subject S. Extraction, that is, similarity of pixel output is determined.
D = | G (i−1, j−1) −G (i + 1, j + 1) | − | G (i−1, j + 1) −G (i + 1, j−1) |
... (3)

ボディ駆動制御装置214は、式(3)により算出された類似性を示す値Dと所定の閾値δとの間で大小関係を比較して、比較結果に応じて異なる方法で予想出力G’(i,j)を算出する。
−−D>δの場合−−
ボディ駆動制御装置214は、画素出力G(i−1,j+1)とG(i+1,j−1)との方向における類似性が大きいと判定する。そして、ボディ駆動制御装置214は、以下の式(4)を用いて焦点検出用画素313の予想出力G’(i,j)を算出する。式(4)は、類似性が高いと判定された画素出力の平均の比例関係に基づいて予想出力G’(i,j)が算出されることを示す。
G’(i,j)=B(i,j)×{G(i+1,j−1)+G(i−1,j+1)}/{B(i+1,j−1)+B(i−1,j+1)} ・・・(4)
The body drive control device 214 compares the magnitude relationship between the value D indicating similarity calculated by the equation (3) and the predetermined threshold value δ, and the predicted output G ′ ( i, j) is calculated.
--When D> δ--
The body drive control device 214 determines that the similarity in the direction between the pixel outputs G (i−1, j + 1) and G (i + 1, j−1) is large. Then, the body drive control device 214 calculates the expected output G ′ (i, j) of the focus detection pixel 313 using the following equation (4). Equation (4) indicates that the expected output G ′ (i, j) is calculated based on the average proportional relationship of the pixel outputs determined to have high similarity.
G ′ (i, j) = B (i, j) × {G (i + 1, j−1) + G (i−1, j + 1)} / {B (i + 1, j−1) + B (i−1, j + 1) )} (4)

なお、ボディ駆動制御装置214は、式(4)に代えて、類似性が高いと判定された画素出力の比の平均に基づいた式(5)を用いて予想出力G’(i,j)を算出してもよい。
G’(i,j)=B(i,j)×2×{G(i−1,j+1)/B(i−1,j+1)+G(i−1,j+1)/B(i+1,j−1)} ・・・(5)
Note that the body drive control device 214 uses the formula (5) based on the average ratio of the pixel outputs determined to have high similarity instead of the formula (4) as the predicted output G ′ (i, j). May be calculated.
G ′ (i, j) = B (i, j) × 2 × {G (i−1, j + 1) / B (i−1, j + 1) + G (i−1, j + 1) / B (i + 1, j−) 1)} (5)

−−D<−δの場合−−
ボディ駆動制御装置214は、画素出力G(i−1,j−1)とG(i+1,j+1)との方向における類似性が大きいと判定する。そして、ボディ駆動制御装置214は、類似性が高い方向の画素出力の平均の比例関係に基づいた以下の式(6)を用いて焦点検出用画素313の予想出力G’(i,j)を算出する。
G’(i,j)=B(i,j)×{G(i−1,j−1)+G(i+1,j+1)}/{B(i−1,j−1)+B(i+1,j+1)} ・・・(6)
--When D <-δ--
The body drive control device 214 determines that the similarity between the pixel outputs G (i−1, j−1) and G (i + 1, j + 1) is large. Then, the body drive control device 214 calculates the expected output G ′ (i, j) of the focus detection pixel 313 using the following equation (6) based on the average proportional relationship of the pixel outputs in the direction of high similarity. calculate.
G ′ (i, j) = B (i, j) × {G (i−1, j−1) + G (i + 1, j + 1)} / {B (i−1, j−1) + B (i + 1, j + 1) )} (6)

なお、ボディ駆動制御装置214は、式(6)に代えて、類似性が高いと判定された画素出力の比の平均に基づいた式(7)を用いて予想出力G’(i,j)を算出してもよい。
G’(i,j)=B(i,j)×2×{G(i−1,j−1)/B(i−1,j−1)+G(i+1,j+1)/B(i+1,j+1)} ・・・(7)
Note that the body drive control device 214 uses the equation (7) based on the average of the ratios of the pixel outputs determined to have high similarity instead of the equation (6) as the predicted output G ′ (i, j). May be calculated.
G ′ (i, j) = B (i, j) × 2 × {G (i−1, j−1) / B (i−1, j−1) + G (i + 1, j + 1) / B (i + 1, j + 1)} (7)

−−D<|δ|の場合−−
ボディ駆動制御装置214は、焦点検出用画素313の周辺の被写体がほぼ均一、すなわち、図13に示すような顕著な特徴が抽出されないと判定する。この場合、ボディ駆動制御装置214は、実施の形態の説明で用いた式(1)もしくは変形例で用いた式(2)によって予想出力G’(i,j)を算出する。
--When D <| δ |
The body drive control device 214 determines that the subject around the focus detection pixel 313 is substantially uniform, that is, the remarkable feature as shown in FIG. 13 is not extracted. In this case, the body drive control device 214 calculates the expected output G ′ (i, j) by the equation (1) used in the description of the embodiment or the equation (2) used in the modification.

対応画素310COが青B画素310Bの場合を示したが、赤R画素310Rの場合には式(4)〜(7)の画素出力をB(i,j)からR(i,j)に置き換えることによって画素出力G’(i,j)を算出できる。   Although the case where the corresponding pixel 310CO is the blue B pixel 310B is shown, in the case of the red R pixel 310R, the pixel outputs of the expressions (4) to (7) are replaced from B (i, j) to R (i, j). Thus, the pixel output G ′ (i, j) can be calculated.

(3)ボディ駆動制御装置214は、式(1)や式(2)に示す画素出力の比例関係に基づいて予想出力G’(i,j)を算出するものに代えて、画素出力の差分に基づいて予想出力G’(i,j)を算出してもよい。この場合、ボディ駆動制御装置214は、たとえば以下の式(8)を用いて予想出力G’(i,j)を算出すればよい。なお、対応画素310COが青B画素310Bの場合を示したが、赤R画素310Rの場合には式(8)の画素出力をB(i,j)からR(i,j)に置き換えることによって画素出力G’(i,j)を算出できる。
G’(i,j)=B(i,j)+[{G(i−1,j−1)−B(i−1,j−1)}+{G(i−1,j+1)−B(i−1,j+1)}+{G(i+1,j−1)−B(i+1,j−1)}+{G(i+1,j+1)−B(i+1,j+1)}]/4
・・・(8)
(3) The body drive control device 214 replaces the pixel output difference instead of calculating the expected output G ′ (i, j) based on the proportional relationship of the pixel output shown in the equations (1) and (2). The predicted output G ′ (i, j) may be calculated based on In this case, the body drive control device 214 may calculate the expected output G ′ (i, j) using, for example, the following equation (8). Although the case where the corresponding pixel 310CO is the blue B pixel 310B is shown, in the case of the red R pixel 310R, the pixel output of Expression (8) is changed from B (i, j) to R (i, j). Pixel output G ′ (i, j) can be calculated.
G ′ (i, j) = B (i, j) + [{G (i−1, j−1) −B (i−1, j−1)} + {G (i−1, j + 1) − B (i-1, j + 1)} + {G (i + 1, j-1) -B (i + 1, j-1)} + {G (i + 1, j + 1) -B (i + 1, j + 1)}] / 4
... (8)

(4)ボディ駆動制御装置214は、撮像用画素310からの画素出力G(i,j)、B(i,j)に対して所定の関数を用いた変換処理(たとえば、γ変換やLog変換)を施した後、上述した式(1)〜(8)を用いて予想出力G’(i,j)を算出してもよい。 (4) The body drive control device 214 converts the pixel outputs G (i, j) and B (i, j) from the imaging pixel 310 using a predetermined function (for example, γ conversion or Log conversion). ), The predicted output G ′ (i, j) may be calculated using the above-described equations (1) to (8).

−第2の実施の形態−
第2の実施の形態デジタルカメラについて説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、第1撮像素子の焦点検出用画素の配置位置に対する欠陥補正処理の後、第2撮像素子からの画素出力に対して欠落補正処理を施す点で、第1の実施の形態と異なる。
-Second Embodiment-
Second Embodiment A digital camera will be described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. In the present embodiment, the first embodiment is that a defect correction process is performed on the pixel output from the second image sensor after the defect correction process for the focus detection pixel arrangement position of the first image sensor. And different.

図6に示すように、第2撮像素子221には、青B画素310Bと赤R画素310Rとが市松模様に配置されている。このため、青B画素310Bが配置された位置は赤R画素310Rにとって欠落画素となる。第2の実施の形態のボディ駆動制御装置214は、第1撮像素子220の緑G画素310Gからの画素出力G(i,j)と、第2撮像素子221の赤R画素310Rの画素出力R(i,j)とを用いて、青B画素310Bが配置された位置に赤R画素310Rが配置されていた場合に予測される画素出力(予測出力)R’(i,j)を算出する。さらに、赤R画素310Rが配置された位置は青B画素310Bにとって欠落画素となる。ボディ駆動制御装置214は、第1撮像素子220の緑G画素310Gからの画素出力G(i,j)と、第2撮像素子221の赤B画素310Bの画素出力B(i,j)とを用いて、赤R画素310Rが配置された位置に青B画素310Bが配置されていた場合に予測される画素出力(予測出力)B’(i,j)を算出する。   As shown in FIG. 6, in the second image sensor 221, blue B pixels 310B and red R pixels 310R are arranged in a checkered pattern. For this reason, the position where the blue B pixel 310B is arranged is a missing pixel for the red R pixel 310R. The body drive controller 214 of the second embodiment includes a pixel output G (i, j) from the green G pixel 310G of the first image sensor 220 and a pixel output R of the red R pixel 310R of the second image sensor 221. (I, j) is used to calculate the predicted pixel output (predicted output) R ′ (i, j) when the red R pixel 310R is disposed at the position where the blue B pixel 310B is disposed. . Furthermore, the position where the red R pixel 310R is disposed is a missing pixel for the blue B pixel 310B. The body drive control device 214 outputs the pixel output G (i, j) from the green G pixel 310G of the first image sensor 220 and the pixel output B (i, j) of the red B pixel 310B of the second image sensor 221. The pixel output (predicted output) B ′ (i, j) predicted when the blue B pixel 310B is arranged at the position where the red R pixel 310R is arranged is calculated.

ボディ駆動制御装置214は、図6に示す青B画素310Bが配置された位置における赤R画素310Rの予測出力R’(i,j)を、図12に示す第1撮像素子220の画素出力G(i,j)と第2撮像素子221の赤R画素310Rから画素出力R(i,j)を用いて算出する。なお、赤R画素310Rは、第2撮像素子220上で青B画素310Bの周辺に配置され、第1撮像素子220上の緑G画素310Gは、青B画素310Bの対応画素310COおよび赤R画素310Rの周辺対応画素310COPである。この場合、ボディ駆動制御装置214は、式(1)に示す画素出力G(i,j)を画素出力R(i,j)で置き換え、画素出力B(i,j)を画素出力G(i,j)に置き換えることによって予測出力R’(i,j)を算出する。   The body drive control device 214 uses the predicted output R ′ (i, j) of the red R pixel 310R at the position where the blue B pixel 310B shown in FIG. 6 is arranged as the pixel output G of the first image sensor 220 shown in FIG. The pixel output R (i, j) is calculated from (i, j) and the red R pixel 310R of the second image sensor 221. The red R pixel 310R is arranged around the blue B pixel 310B on the second image sensor 220, and the green G pixel 310G on the first image sensor 220 is a corresponding pixel 310CO and a red R pixel of the blue B pixel 310B. This is the peripheral corresponding pixel 310COP of 310R. In this case, the body drive control device 214 replaces the pixel output G (i, j) shown in Expression (1) with the pixel output R (i, j) and the pixel output B (i, j) as the pixel output G (i , j), the predicted output R ′ (i, j) is calculated.

ただし、図12に示すように、画素出力B(i,j)を出力する青B画素310Bの対応画素310COは、第1撮像素子220に配置された焦点検出用画素313である。このような場合は、ボディ駆動制御装置214は、第1の実施の形態により算出された予想出力G’(i,j)で式(1)の画素出力B(i,j)を置き換えればよい。なお、ボディ駆動制御装置214は、式(2)〜(8)について上記の置換を行うことにより予測出力R’(i,j)を算出してもよい。   However, as illustrated in FIG. 12, the corresponding pixel 310 </ b> CO of the blue B pixel 310 </ b> B that outputs the pixel output B (i, j) is the focus detection pixel 313 disposed in the first image sensor 220. In such a case, the body drive control device 214 may replace the pixel output B (i, j) of Expression (1) with the expected output G ′ (i, j) calculated according to the first embodiment. . Note that the body drive control device 214 may calculate the predicted output R ′ (i, j) by performing the above-described replacement for the equations (2) to (8).

ボディ駆動制御装置214は、図6に示す赤R画素310Rが配置された位置における青B画素310Bの予測出力B’(i,j)を、図12に示す第1撮像素子220の画素出力G(i,j)と第2撮像素子221の青B画素310Bからの画素出力B(i,j)を用いて算出する。なお、青B画素310Bは、第2撮像素子220上で赤R画素310Rの周辺に配置され、第1撮像素子220上の緑G画素310Gは、赤R画素310Rの対応画素310COおよび青B画素310Bの周辺対応画素310COPである。この場合、ボディ駆動制御装置214は、式(1)に示す画素出力G(i,j)を画素出力B(i,j)で置き換え、画素出力B(i,j)を画素出力G(i,j)に置き換えることによって予測出力B’(i,j)を算出する。   The body drive control device 214 uses the predicted output B ′ (i, j) of the blue B pixel 310B at the position where the red R pixel 310R shown in FIG. 6 is arranged as the pixel output G of the first image sensor 220 shown in FIG. (i, j) and the pixel output B (i, j) from the blue B pixel 310B of the second image sensor 221 are used for calculation. The blue B pixel 310B is arranged on the second image sensor 220 around the red R pixel 310R, and the green G pixel 310G on the first image sensor 220 is a corresponding pixel 310CO and a blue B pixel of the red R pixel 310R. This is the peripheral corresponding pixel 310COP of 310B. In this case, the body drive control device 214 replaces the pixel output G (i, j) shown in Expression (1) with the pixel output B (i, j), and converts the pixel output B (i, j) to the pixel output G (i , j), the predicted output B ′ (i, j) is calculated.

なお、画素出力R(i,j)を出力する赤R画素310Rの対応画素310COが、第1撮像素子220に配置された焦点検出用画素313または314である場合には、ボディ駆動制御装置214は、第1の実施の形態により算出された予想出力G’(i,j)で式(1)の画素出力B(i,j)を置き換えればよい。なお、ボディ駆動制御装置214は、式(2)〜(8)について上記の置換を行うことにより予測出力B’(i,j)を算出してもよい。   When the corresponding pixel 310CO of the red R pixel 310R that outputs the pixel output R (i, j) is the focus detection pixel 313 or 314 arranged in the first image sensor 220, the body drive control device 214 The pixel output B (i, j) in the equation (1) may be replaced with the expected output G ′ (i, j) calculated according to the first embodiment. Note that the body drive control device 214 may calculate the predicted output B ′ (i, j) by performing the above-described replacement for the equations (2) to (8).

以上で説明した第2の実施の形態によれば、第1の実施の形態により得られた作用効果に加えて、さらに以下の作用効果を得られる。
(1)ボディ駆動制御装置214は、画素出力Gと画素出力Bとに基づいて、第2撮像素子221上で赤R画素310Rが配列された位置における青B色に関する情報を有する予測出力B’を生成するようにした。さらに、ボディ駆動制御装置214は、画素出力Gと画素出力Rとに基づいて、第2撮像素子221上で青B画素310Bが配列された位置における赤R色に関する情報を有する予測出力R’を生成するようにした。したがって、第2撮像素子221上の欠落画素の予測出力を算出する際に、第1撮像素子220からの出力をも用いているので、予測出力を算出する際の精度が向上し、焦点検出用画素313に実際に入射する光束に含まれる情報と、予測出力とが大きく異なることがなくなる。この結果、偽色等の発生が抑制された高画質の画像を生成できる。
According to the second embodiment described above, in addition to the functions and effects obtained by the first embodiment, the following functions and effects can be obtained.
(1) Based on the pixel output G and the pixel output B, the body drive control device 214 predicts the output B ′ having information regarding the blue B color at the position where the red R pixel 310R is arranged on the second image sensor 221. Was generated. Further, the body drive control device 214 generates a predicted output R ′ having information on the red R color at the position where the blue B pixel 310B is arranged on the second image sensor 221 based on the pixel output G and the pixel output R. Generated. Therefore, when calculating the predicted output of the missing pixel on the second image sensor 221, the output from the first image sensor 220 is also used, so that the accuracy when calculating the predicted output is improved and the focus detection is performed. Information included in the light flux actually incident on the pixel 313 is not greatly different from the predicted output. As a result, it is possible to generate a high-quality image in which the occurrence of false colors or the like is suppressed.

(2)ボディ駆動制御装置214は、予測出力B’を生成する際には以下のようにするようにした。すなわち、ボディ駆動制御装置214は、第2撮像素子221上で赤R画素310Rの周辺に配列された青B画素310Bから出力された画素出力Bと、赤R画素310Rの対応画素310COおよび青B画素310Bの周辺対応画素310COPである緑G画素310Gから出力された画素出力Gとに基づいて、予測出力B’を生成する。さらに、ボディ駆動制御装置214は、予測出力R’を生成する際には以下のようにするようにした。すなわち、ボディ駆動制御装置214は、第2撮像素子221上で青B画素310Bの周辺に配列された赤R画素310Rから出力された画素出力Rと、青B画素310Bの対応画素310COおよび赤R画素310Rの周辺対応画素310COPである緑G画素310Gから出力された画素出力Gとに基づいて、予測出力R’を生成する。したがって、欠落画素の周辺の複数の撮像用画素310と、対応画素310COと、周辺対応画素310COPとからの画素出力を用いて予測出力を算出するので、予測出力の算出精度を向上させて、画像の高画質化に寄与する。 (2) The body drive control device 214 is configured as follows when generating the predicted output B ′. That is, the body drive control device 214 outputs the pixel output B output from the blue B pixel 310B arranged around the red R pixel 310R on the second image sensor 221 and the corresponding pixel 310CO and blue B of the red R pixel 310R. A predicted output B ′ is generated based on the pixel output G output from the green G pixel 310G which is the peripheral corresponding pixel 310COP of the pixel 310B. Further, the body drive control device 214 is configured to generate the predicted output R ′ as follows. That is, the body drive control device 214 outputs the pixel output R output from the red R pixel 310R arranged around the blue B pixel 310B on the second image sensor 221 and the corresponding pixel 310CO and red R of the blue B pixel 310B. A predicted output R ′ is generated based on the pixel output G output from the green G pixel 310G which is the peripheral corresponding pixel 310COP of the pixel 310R. Therefore, the prediction output is calculated using the pixel outputs from the plurality of imaging pixels 310 around the missing pixel, the corresponding pixel 310CO, and the peripheral corresponding pixel 310COP. Contributes to higher image quality.

(3)赤R画素310Rの対応画素310COまたは青B画素310Bの周辺対応画素310COPが焦点検出用画素313,314である場合には、ボディ駆動制御装置214は、画素出力G、Bおよび予想出力G’を用いて予測出力B’を生成するようにした。さらに、青B画素310Bの対応画素310COまたは赤R画素310Rの周辺対応画素310COPが焦点検出用画素313,314である場合には、ボディ駆動制御装置214は、画素出力G、Rおよび予想出力G’を用いて予測出力R’を生成するようにした。したがって、欠落画素の対応画素310COや、周辺対応画素310COPが焦点検出用画素313,314の場合であっても、精度を低下させることなく予測出力を算出できるので、画質の低下を防げる。 (3) When the corresponding pixel 310CO of the red R pixel 310R or the peripheral corresponding pixel 310COP of the blue B pixel 310B is the focus detection pixel 313, 314, the body drive control device 214 outputs the pixel outputs G and B and the expected output The predicted output B ′ is generated using G ′. Further, when the corresponding pixel 310CO of the blue B pixel 310B or the peripheral corresponding pixel 310COP of the red R pixel 310R is the focus detection pixels 313 and 314, the body drive control device 214 outputs the pixel outputs G and R and the expected output G. 'Is used to generate a predicted output R'. Therefore, even when the corresponding pixel 310CO corresponding to the missing pixel and the peripheral corresponding pixel 310COP are the focus detection pixels 313 and 314, the predicted output can be calculated without reducing the accuracy, thereby preventing the image quality from being deteriorated.

以上で説明した第1および第2の実施の形態によるデジタルカメラを以下のように変形できる。
(1)図14に示すように、焦点検出用画素313と314とを水平方向に交互に配列してもよい。この場合も、ボディ駆動制御装置214は、式(1)〜(8)を用いて同様にして欠陥補正処理、欠落補正処理を行うことができる。
The digital cameras according to the first and second embodiments described above can be modified as follows.
(1) As shown in FIG. 14, the focus detection pixels 313 and 314 may be alternately arranged in the horizontal direction. Also in this case, the body drive control device 214 can perform the defect correction process and the missing correction process in the same manner using the equations (1) to (8).

(2)波長選択性ハーフミラー222がG波長成分の光束を透過し、G波長成分以外の波長成分の光束を反射するものに代えて、G波長成分の光束を反射し、G波長成分以外の波長成分の光束を透過するものであってもよい。すなわち、透過側と反射側の何れか一方の光束がG波長成分の多い光束となればよい。この場合、波長選択性ハーフミラー222の反射側に第1撮像素子220を配置し、透過側に第2撮像素子221を配置すればよい。 (2) Instead of the wavelength-selective half mirror 222 that transmits a G-wavelength component beam and reflects a wavelength-component beam other than the G-wavelength component, it reflects a G-wavelength component beam, You may permeate | transmit the light beam of a wavelength component. That is, it is only necessary that one of the light beams on the transmission side and the reflection side is a light beam having a large G wavelength component. In this case, the first image sensor 220 may be disposed on the reflection side of the wavelength selective half mirror 222 and the second image sensor 221 may be disposed on the transmission side.

(3)波長選択性ハーフミラー222に代えて、波長依存性を備えないハーフミラーを備えるものであってもよい。この場合は、焦点検出用画素313、314にはカラーフィルターを設けないようにする。この結果、焦点検出用画素313,314はRGBをすべて含む光束を受光するので、分光特性設計の自由度が増える。 (3) Instead of the wavelength selective half mirror 222, a half mirror that does not have wavelength dependency may be provided. In this case, the focus detection pixels 313 and 314 are not provided with a color filter. As a result, the focus detection pixels 313 and 314 receive a light beam including all of RGB, so that the degree of freedom in designing spectral characteristics increases.

(4)第1撮像素子220に含まれる撮像用画素310、焦点検出用画素313,314はG波長成分を透過するカラーフィルターを備えるものに代えて、Ye(黄色)波長成分の光束を透過するカラーフィルターを備えるものであってもよい。または、カラーフィルターを備えず、撮像用画素310、焦点検出用画素313,314がフラットな分光特性を有するようにしてもよい。換言すれば、撮像用画素310、焦点検出用画素313,314がG波長成分を多く含む光束を受光できるものであればよい。 (4) The imaging pixel 310 and the focus detection pixels 313 and 314 included in the first imaging element 220 transmit a light beam having a Ye (yellow) wavelength component instead of a color filter that transmits the G wavelength component. A color filter may be provided. Alternatively, the image pickup pixel 310 and the focus detection pixels 313 and 314 may have flat spectral characteristics without providing a color filter. In other words, the imaging pixel 310 and the focus detection pixels 313 and 314 need only be capable of receiving a light beam containing a large amount of the G wavelength component.

また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。説明に用いた実施の形態および変形例は、それぞれを適宜組合わせて構成しても構わない。   In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included. The embodiments and modifications used in the description may be configured by appropriately combining them.

214 ボディ駆動制御装置、 220 第1撮像素子、
221 第2撮像素子、 310 撮像用画素、
310G 緑G画素、 310B 青B画素、
310R 赤R画素、 313、314 焦点検出用画素
214 body drive control device, 220 first image sensor,
221 second imaging element, 310 imaging pixels,
310G green G pixel, 310B blue B pixel,
310R Red R pixel, 313, 314 Focus detection pixel

Claims (12)

撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが配列された第1撮像素子と、
前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが配列された第2撮像素子と、
前記焦点検出画素が配置された位置における前記第1の色に関する情報を有する第4画像信号を、前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記対応位置の第2撮像画素の第2画像信号と、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素の第2画像信号と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とに基づいて、補間処理により生成し、前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記対応位置の第3撮像画素の第3画像信号と、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素の第3画像信号と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とに基づいて、補間処理により生成する補間手段とを備えることを特徴とする撮像装置。
A first imaging pixel that receives a light beam from the imaging optical system and outputs a first image signal having information on a first color of a subject image formed by the imaging optical system; receiving light beam, a first image sensor, wherein the focus detection pixel outputting a focus detection signal for detecting the focusing state of the photographic optical system is sequence,
A second imaging pixel that receives a light beam from the photographing optical system and outputs a second image signal having information on a second color of the subject image formed by the photographing optical system; a second imaging device and the third image pickup pixels for outputting a third image signal containing information about the third color is sequence,
The fourth image signal, the second image pickup pixel in the corresponding position of the second imaging element corresponding to the position of the focus detection pixels arranged with information about the first color at the position where the focus detection pixels are arranged The second image signal of the second imaging pixel at the corresponding position, the second image signal of the second imaging pixel disposed around the second imaging pixel at the corresponding position, and the focus detection pixel. Is generated by interpolation processing based on the first image signal of the first imaging pixel arranged around the first imaging pixel, and the third imaging pixel is located at a corresponding position of the second imaging element corresponding to the position of the focus detection pixel. When arranged, the third image signal of the third imaging pixel at the corresponding position, the third image signal of the third imaging pixel arranged around the third imaging pixel at the corresponding position, and the focus detection the first imaging pixels disposed around the pixel Based on the image signal, the image pickup apparatus characterized by comprising an interpolation means for generating by interpolation.
請求項1に記載の撮像装置において、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素と前記焦点検出画素の周囲に配置された第1撮像画素とは、互いに対応する位置に配置され、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素と前記焦点検出画素の周囲に配置された第1撮像画素とは、互いに対応する位置に配置されることを特徴とする撮像装置。
The imaging device according to claim 1,
When the second imaging pixel is arranged at a corresponding position of the second imaging element corresponding to the position of the focus detection pixel, a second imaging pixel arranged around the second imaging pixel at the corresponding position; The first imaging pixels arranged around the focus detection pixels are arranged at positions corresponding to each other,
When the third imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the third imaging pixel arranged around the third imaging pixel at the corresponding position; The imaging device, wherein the imaging device is arranged at a position corresponding to the first imaging pixel arranged around the focus detection pixel .
請求項1または2に記載の撮像装置において、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記補間手段は、前記対応位置の第2撮像画素の第2画像信号と、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素の第2画像信号の加算値と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号の加算値とに基づいて、前記補間処理を行い、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記補間手段は、前記対応位置の第3撮像画素の第3画像信号と、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素の第3画像信号の加算値と、前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号の加算値とに基づいて、前記補間処理を行うことを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
When the second imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the second image signal of the second imaging pixel at the corresponding position The addition value of the second image signal of the second imaging pixel arranged around the second imaging pixel at the corresponding position and the addition of the first image signal of the first imaging pixel arranged around the focus detection pixel Based on the value, the interpolation processing is performed,
When the third imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the third image signal of the third imaging pixel at the corresponding position The addition value of the third image signal of the third imaging pixel arranged around the third imaging pixel at the corresponding position and the addition of the first image signal of the first imaging pixel arranged around the focus detection pixel An image pickup apparatus that performs the interpolation processing based on a value .
請求項1または2に記載の撮像装置において、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記補間手段は、前記対応位置の第2撮像画素の第2画像信号と、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素の第2画像信号と前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とについて互いに対応する位置の第1及び第2撮像画素の第1及び第2画像信号の比とに基づいて、前記補間処理を行い、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記補間手段は、前記対応位置の第3撮像画素の第3画像信号と、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素の第3画像信号と前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とについて互いに対応する位置の第1及び第3撮像画素の第1及び第3画像信号の比とに基づいて、前記補間処理を行うことを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
When the second imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the second image signal of the second imaging pixel at the corresponding position , mutually corresponding positions for the first image signal of the first imaging pixels disposed around the focus detection pixels and the second image signal of the second imaging pixels disposed around the second imaging pixel of the corresponding position Performing the interpolation processing based on the ratio of the first and second image signals of the first and second imaging pixels,
When the third imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the third image signal of the third imaging pixel at the corresponding position Positions corresponding to each other with respect to the third image signal of the third imaging pixel arranged around the third imaging pixel at the corresponding position and the first image signal of the first imaging pixel arranged around the focus detection pixel. An imaging apparatus that performs the interpolation processing based on a ratio of the first and third image signals of the first and third imaging pixels .
請求項1または2に記載の撮像装置において、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第2撮像画素が配置された場合には、前記補間手段は、前記対応位置の第2撮像画素の第2画像信号と、前記対応位置の第2撮像画素の周囲に配置された第2撮像画素の第2画像信号と前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とについて互いに対応する位置の第1及び第2撮像画素の第1及び第2画像信号の差分とに基づいて、前記補間処理を行い、
前記焦点検出画素の位置に対応する前記第2撮像素子の対応位置に前記第3撮像画素が配置された場合には、前記補間手段は、前記対応位置の第3撮像画素の第3画像信号と、前記対応位置の第3撮像画素の周囲に配置された第3撮像画素の第3画像信号と前記焦点検出画素の周囲に配置された第1撮像画素の第1画像信号とについて互いに対応する位置の第1及び第3撮像画素の第1及び第3画像信号の差分とに基づいて、前記補間処理を行うことを特徴とする撮像装置。
The imaging device according to claim 1 or 2 ,
When the second imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the second image signal of the second imaging pixel at the corresponding position Positions corresponding to each other with respect to the second image signal of the second imaging pixel disposed around the second imaging pixel at the corresponding position and the first image signal of the first imaging pixel disposed around the focus detection pixel. Performing the interpolation processing based on the difference between the first and second image signals of the first and second imaging pixels,
When the third imaging pixel is arranged at the corresponding position of the second imaging element corresponding to the position of the focus detection pixel, the interpolation means and the third image signal of the third imaging pixel at the corresponding position Positions corresponding to each other with respect to the third image signal of the third imaging pixel arranged around the third imaging pixel at the corresponding position and the first image signal of the first imaging pixel arranged around the focus detection pixel. An imaging apparatus that performs the interpolation processing based on a difference between the first and third image signals of the first and third imaging pixels .
撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、
前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、
前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、
前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、
前記補間手段は、前記焦点検出画素の周囲に配列された複数の前記第1撮像画素から出力された前記第1画像信号と、前記第1対応位置に配列された複数の前記第2撮像画素および複数の前記第3撮像画素の一方との差分に基づいて、前記第1の色に関する情報を有する前記第4画像信号を生成することを特徴とする撮像装置。
A first imaging pixel that receives a light beam from the imaging optical system and outputs a first image signal having information on a first color of a subject image formed by the imaging optical system; A first image sensor in which focus detection pixels that receive a light beam and output a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane;
A second imaging pixel that receives a light beam from the photographing optical system and outputs a second image signal having information on a second color of the subject image formed by the photographing optical system; A second imaging element in which third imaging pixels that output a third image signal having information about the third color are arranged in the same plane;
Based on one of the second image signal and the third image signal output from the second image sensor, and the first image signal at a position where the focus detection pixels are arranged, Interpolating means generated by interpolation processing,
The interpolation means corresponds to the first image signal output from the first imaging pixels arranged around the focus detection pixels, the focus detection pixels and the first imaging pixels arranged around the focus detection pixels, The second image signal output from the second imaging pixel arranged at the first corresponding position on the second imaging element and the third image from the third imaging pixel arranged at the first corresponding position. Generating the fourth image signal having information on the first color by the interpolation processing based on one of the signals;
The interpolation means includes the first image signals output from the plurality of first imaging pixels arranged around the focus detection pixel, the plurality of second imaging pixels arranged at the first corresponding position, and An image pickup apparatus that generates the fourth image signal having information on the first color based on a difference from one of the plurality of third image pickup pixels .
撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、
前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、
前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、
前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、
前記第1画像信号と前記第3画像信号とに基づいて、前記第2撮像素子上で前記第2撮像画素が配列された位置における前記第3の色に関する情報を有する第5画像信号を生成する第1生成手段と、
前記第1画像信号と前記第2画像信号とに基づいて、前記第2撮像素子上で前記第3撮像画素が配列された位置における前記第2の色に関する情報を有する第6画像信号を生成する第2生成手段とを備えることを特徴とする撮像装置。
A first imaging pixel that receives a light beam from the imaging optical system and outputs a first image signal having information on a first color of a subject image formed by the imaging optical system; A first image sensor in which focus detection pixels that receive a light beam and output a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane;
A second imaging pixel that receives a light beam from the photographing optical system and outputs a second image signal having information on a second color of the subject image formed by the photographing optical system; A second imaging element in which third imaging pixels that output a third image signal having information about the third color are arranged in the same plane;
Based on one of the second image signal and the third image signal output from the second image sensor, and the first image signal at a position where the focus detection pixels are arranged, Interpolating means generated by interpolation processing,
The interpolation means corresponds to the first image signal output from the first imaging pixels arranged around the focus detection pixels, the focus detection pixels and the first imaging pixels arranged around the focus detection pixels, The second image signal output from the second imaging pixel arranged at the first corresponding position on the second imaging element and the third image from the third imaging pixel arranged at the first corresponding position. Generating the fourth image signal having information on the first color by the interpolation processing based on one of the signals;
Based on the first image signal and the third image signal, a fifth image signal having information on the third color at a position where the second imaging pixels are arranged on the second imaging element is generated. First generation means;
Based on the first image signal and the second image signal, a sixth image signal having information on the second color at a position where the third imaging pixels are arranged on the second imaging element is generated. An imaging apparatus comprising: a second generation unit .
撮影光学系からの光束を受光して、前記撮影光学系により結像される被写体像の第1の色に関する情報を有する第1画像信号を出力する第1撮像画素と、前記撮影光学系からの光束を受光して、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出画素とが同一平面に配列された第1撮像素子と、
前記撮影光学系からの光束を受光して、前記撮影光学系により結像される前記被写体像の第2の色に関する情報を有する第2画像信号を出力する第2撮像画素と、前記被写体像の第3の色に関する情報を有する第3画像信号を出力する第3撮像画素とが同一平面に配列された第2撮像素子と、
前記焦点検出画素が配列された位置における第4画像信号を、前記第2撮像素子から出力された前記第2画像信号および前記第3画像信号の一方と、前記第1画像信号とに基づいて、補間処理により生成する補間手段とを備え、
前記補間手段は、前記焦点検出画素の周囲に配列された前記第1撮像画素から出力された前記第1画像信号と、前記焦点検出画素および前記周囲に配列された第1撮像画素に対応する、前記第2撮像素子上の第1対応位置に配列された前記第2撮像画素から出力された前記第2画像信号および前記第1対応位置に配列された前記第3撮像画素からの前記第3画像信号の一方とに基づいて、前記第1の色に関する情報を有する前記第4画像信号を前記補間処理により生成し、
前記補間手段は、前記焦点検出画素の周囲に配列された複数の前記第1撮像画素から出力された前記第1画像信号と、前記第1対応位置に配列された複数の前記第2撮像画素からの第2画像信号および複数の前記第3撮像画素からの第3画像信号の一方との比に基づいて、前記第1の色に関する情報を有する前記第4画像信号を生成し、
前記第1画像信号と前記第3画像信号とに基づいて、前記第2撮像素子上で前記第2撮像画素が配列された位置における前記第3の色に関する情報を有する第5画像信号を生成する第1生成手段と、
前記第1画像信号と前記第2画像信号とに基づいて、前記第2撮像素子上で前記第3撮像画素が配列された位置における前記第2の色に関する情報を有する第6画像信号を生成する第2生成手段とを備えることを特徴とする撮像装置。
A first imaging pixel that receives a light beam from the imaging optical system and outputs a first image signal having information on a first color of a subject image formed by the imaging optical system; A first image sensor in which focus detection pixels that receive a light beam and output a focus detection signal for detecting a focus adjustment state of the photographing optical system are arranged in the same plane;
A second imaging pixel that receives a light beam from the photographing optical system and outputs a second image signal having information on a second color of the subject image formed by the photographing optical system; A second imaging element in which third imaging pixels that output a third image signal having information about the third color are arranged in the same plane;
Based on one of the second image signal and the third image signal output from the second image sensor, and the first image signal at a position where the focus detection pixels are arranged, Interpolating means generated by interpolation processing,
The interpolation means corresponds to the first image signal output from the first imaging pixels arranged around the focus detection pixels, the focus detection pixels and the first imaging pixels arranged around the focus detection pixels, The second image signal output from the second imaging pixel arranged at the first corresponding position on the second imaging element and the third image from the third imaging pixel arranged at the first corresponding position. Generating the fourth image signal having information on the first color by the interpolation processing based on one of the signals;
The interpolation means includes the first image signal output from the plurality of first imaging pixels arranged around the focus detection pixel and the plurality of second imaging pixels arranged at the first corresponding position. Generating the fourth image signal having information on the first color based on a ratio between the second image signal and one of the third image signals from the plurality of third imaging pixels.
Based on the first image signal and the third image signal, a fifth image signal having information on the third color at a position where the second imaging pixels are arranged on the second imaging element is generated. First generation means;
Based on the first image signal and the second image signal, a sixth image signal having information on the second color at a position where the third imaging pixels are arranged on the second imaging element is generated. An imaging apparatus comprising: a second generation unit .
請求項に記載の撮像装置において、
前記第1画像信号と前記第3画像信号とに基づいて、前記第2撮像素子上で前記第2撮像画素が配列された位置における前記第3の色に関する情報を有する第5画像信号を生成する第1生成手段と、
前記第1画像信号と前記第2画像信号とに基づいて、前記第2撮像素子上で前記第3撮像画素が配列された位置における前記第2の色に関する情報を有する第6画像信号を生成する第2生成手段とを備えることを特徴とする撮像装置。
The imaging device according to claim 6 ,
Based on the first image signal and the third image signal, a fifth image signal having information on the third color at a position where the second imaging pixels are arranged on the second imaging element is generated. First generation means;
Based on the first image signal and the second image signal, a sixth image signal having information on the second color at a position where the third imaging pixels are arranged on the second imaging element is generated. An imaging apparatus comprising: a second generation unit.
請求項7乃至9のいずれか一項に記載の撮像装置において、
前記第1生成手段は、前記第2撮像素子上で前記第2撮像画素の周辺に配列された周辺第3撮像画素から出力された前記第3画像信号と、前記第2撮像画素および前記周辺第3撮像画素が配列された位置に対応する、前記第1撮像素子上の第2対応位置に配列された前記第1撮像画素から出力された前記第1画像信号とに基づいて、前記第5画像信号を生成し、
前記第2生成手段は、前記第2撮像素子上で前記第3撮像画素の周辺に配列された周辺第2撮像画素から出力された前記第2画像信号と、前記第3撮像画素および前記周辺第2撮像画素が配列された位置に対応する、前記第1撮像素子上の第3対応位置に配列された前記第1撮像画素から出力された前記第1画像信号とに基づいて、前記第6画像信号を生成することを備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 7 to 9 ,
The first generation means outputs the third image signal output from a peripheral third imaging pixel arranged around the second imaging pixel on the second imaging element, the second imaging pixel, and the peripheral imaging Based on the first image signal output from the first imaging pixel arranged at the second corresponding position on the first imaging element corresponding to the position at which three imaging pixels are arranged, the fifth image Generate a signal,
The second generation means includes the second image signal output from a peripheral second imaging pixel arranged around the third imaging pixel on the second imaging element, the third imaging pixel, and the peripheral image. The sixth image based on the first image signal output from the first imaging pixel arranged at the third corresponding position on the first imaging element corresponding to the position at which two imaging pixels are arranged. An imaging apparatus comprising: generating a signal.
請求項10に記載の撮像装置において、
前記第2対応位置に前記焦点検出画素が配列されている場合には、前記第1生成手段は前記第1画像信号と、前記3画像信号と、前記第4画像信号とを用いて前記第5画像信号を生成し、前記第3対応位置に前記焦点検出画素が配列されている場合には、前記第2生成手段は前記第1画像信号と、前記2画像信号と、前記第4画像信号とを用いて前記第6画像信号を生成することを特徴とする撮像装置。
The imaging device according to claim 10 .
When the focus detection pixels are arranged at the second corresponding position, the first generation unit uses the first image signal, the third image signal, and the fourth image signal to perform the first image signal. If the focus detection pixels are arranged at the third corresponding position, the second generation means generates the first image signal, the second image signal, and the fourth image. An image pickup apparatus that generates the sixth image signal using a signal.
請求項1乃至11のいずれか一項に記載の撮像装置において、
前記第2撮像画素と前記第3撮像画素とは、前記第2撮像素子上の行方向および列方向について、交互に配列されることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 11 ,
The image pickup apparatus, wherein the second image pickup pixel and the third image pickup pixel are alternately arranged in a row direction and a column direction on the second image pickup element.
JP2010263613A 2010-11-26 2010-11-26 Imaging device Expired - Fee Related JP5691440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010263613A JP5691440B2 (en) 2010-11-26 2010-11-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010263613A JP5691440B2 (en) 2010-11-26 2010-11-26 Imaging device

Publications (2)

Publication Number Publication Date
JP2012114797A JP2012114797A (en) 2012-06-14
JP5691440B2 true JP5691440B2 (en) 2015-04-01

Family

ID=46498489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010263613A Expired - Fee Related JP5691440B2 (en) 2010-11-26 2010-11-26 Imaging device

Country Status (1)

Country Link
JP (1) JP5691440B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5697801B2 (en) * 2012-06-19 2015-04-08 富士フイルム株式会社 Imaging apparatus and automatic focusing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4043197B2 (en) * 2000-03-24 2008-02-06 三洋電機株式会社 Single plate color camera color separation circuit
JP4858179B2 (en) * 2007-01-19 2012-01-18 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5000413B2 (en) * 2007-07-30 2012-08-15 オリンパス株式会社 Imaging system and image signal processing program

Also Published As

Publication number Publication date
JP2012114797A (en) 2012-06-14

Similar Documents

Publication Publication Date Title
JP5901246B2 (en) Imaging device
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP4807131B2 (en) Imaging device and imaging apparatus
JP4952060B2 (en) Imaging device
JP5947602B2 (en) Imaging device
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP5629832B2 (en) Imaging device and method for calculating sensitivity ratio of phase difference pixel
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
KR101711804B1 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
JP4983271B2 (en) Imaging device
JP2009141390A (en) Imaging device and imaging apparatus
JPWO2013047111A1 (en) Imaging apparatus and focusing parameter value calculation method
JP5251323B2 (en) Imaging device
JP5045007B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP5381472B2 (en) Imaging device
JP2018174542A (en) Image pickup device and image pickup apparatus
JP5866760B2 (en) Imaging device
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5589799B2 (en) Imaging device
JP5691440B2 (en) Imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2010139624A (en) Imaging element and imaging apparatus
JP5978570B2 (en) Imaging device
JP5407567B2 (en) Imaging device and imaging element unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees