[go: up one dir, main page]

JP2014222268A - Imaging device and imaging device control method - Google Patents

Imaging device and imaging device control method Download PDF

Info

Publication number
JP2014222268A
JP2014222268A JP2013101182A JP2013101182A JP2014222268A JP 2014222268 A JP2014222268 A JP 2014222268A JP 2013101182 A JP2013101182 A JP 2013101182A JP 2013101182 A JP2013101182 A JP 2013101182A JP 2014222268 A JP2014222268 A JP 2014222268A
Authority
JP
Japan
Prior art keywords
specific area
phase difference
image signal
area
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013101182A
Other languages
Japanese (ja)
Inventor
慎二 久本
Shinji Hisamoto
慎二 久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013101182A priority Critical patent/JP2014222268A/en
Priority to US14/067,391 priority patent/US20140125861A1/en
Publication of JP2014222268A publication Critical patent/JP2014222268A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ズーム撮影時の表示位置が変更された場合における、撮像素子の特定領域から読み出した画像信号に基づく位相差検出処理による焦点状態の検出精度の低下を軽減する撮像装置を提供する。【解決手段】一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子を有する撮像装置を設ける。撮像装置が、画素部から画像信号を読み出す特定領域を設定し、ズーム撮影時の表示領域が変更された場合に、第1の特定領域から読み出された画像信号により得られる2像の位相差の信頼度に基づいて、位相差の検出に成功したかを判断する。そして、撮像装置が、位相差の検出に失敗したと判断された場合に、画像信号が読み出される特定領域を、第1の特定領域の範囲より広い範囲の第2の特定領域に変更する。【選択図】図1An imaging apparatus that reduces a decrease in focus state detection accuracy due to phase difference detection processing based on an image signal read from a specific area of an image sensor when a display position during zoom shooting is changed is provided. An imaging device including a pixel unit having a plurality of photoelectric conversion units that photoelectrically convert light beams that have passed through different regions divided by an exit pupil of an imaging optical system with respect to one microlens. An imaging device having the above is provided. When the imaging device sets a specific area for reading an image signal from the pixel unit and the display area during zoom shooting is changed, the phase difference between the two images obtained from the image signal read from the first specific area It is determined whether the phase difference has been successfully detected based on the reliability of. When the imaging apparatus determines that the phase difference detection has failed, the specific area from which the image signal is read is changed to a second specific area that is wider than the range of the first specific area. [Selection] Figure 1

Description

本発明は、撮像装置および撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus and a method for controlling the imaging apparatus.

撮像素子において、1つの画素の中にある、1つのマイクロレンズで集光されるフォトダイオード(PD)を分割することによって、位相差方式の焦点検出を行う技術が提案されている。特許文献1は、1つの画素の中のフォトダイオードを2つに分割し、分割された各々のフォトダイオードが、撮像レンズの異なる瞳面の光を受光するように構成されている撮像装置を開示する。この撮像装置は、2つのフォトダイオードの出力を比較することにより、撮像レンズでの焦点検出をする。   In the imaging device, a technique for performing phase difference type focus detection by dividing a photodiode (PD) focused by one microlens in one pixel has been proposed. Patent Document 1 discloses an imaging device in which a photodiode in one pixel is divided into two, and each of the divided photodiodes is configured to receive light from different pupil planes of the imaging lens. To do. This imaging device performs focus detection with an imaging lens by comparing the outputs of two photodiodes.

また、特定領域の読み出しが可能な撮像素子を持ち、撮像素子の全領域より小さな領域を読み出すことで、ズームレンズを用いることなく望遠側へズームさせる機能を持つ撮像装置が提案されている。特許文献2は、電子ズームと光学ズームとを組み合わせて制御することにより一方のみで行うよりも広いズーム範囲を実現する撮像装置を開示する。   In addition, there has been proposed an imaging apparatus having an image sensor that can read a specific area and having a function of zooming to a telephoto side without using a zoom lens by reading an area smaller than the entire area of the image sensor. Patent Document 2 discloses an imaging apparatus that realizes a zoom range wider than that performed by only one by controlling a combination of electronic zoom and optical zoom.

特開2001−083407号公報JP 2001-083407 A 特開2002−314868号公報JP 2002-314868 A

特許文献1の技術を特許文献2の技術に適用し、撮像素子の特定領域を読み出してズーム表示用の画像を生成するとともに、1つの画素の中に含まれる複数のPDを利用して位相差検出処理を行う撮像装置(以下、撮像装置Aと記述)が考えられる。当該位相差検出結果に基づいて焦点状態(合焦または非合焦という状態)が検出される。ズーム撮影時の表示領域は、画像信号の読み出し領域である特定領域に含まれる。しかし、撮像装置Aでは、以下のような問題がある。   Applying the technique of Patent Document 1 to the technique of Patent Document 2 to generate a zoom display image by reading a specific region of the image sensor and using a plurality of PDs included in one pixel An imaging device that performs detection processing (hereinafter referred to as imaging device A) is conceivable. Based on the phase difference detection result, a focus state (a state of in-focus or in-focus) is detected. The display area at the time of zoom photographing is included in a specific area which is an image signal reading area. However, the imaging apparatus A has the following problems.

図10は、撮像装置Aの動作処理を説明する図である。撮像装置が持つ1つの画素の中に含まれるPDを左右2つとした場合、各PDから左画像と右画像という2像が得られる。図10(B)は、左画像ラインデータと右画像ラインデータを示す図である。   FIG. 10 is a diagram for explaining an operation process of the imaging apparatus A. When the left and right PDs included in one pixel of the imaging apparatus are two, two images, a left image and a right image, are obtained from each PD. FIG. 10B is a diagram showing left image line data and right image line data.

撮像装置Aが、図10(A)に示すとおり、撮像素子の全画角を読み出す場合、撮像素子上の座標(X1,Y)から(X4, Y)までのラインデータを利用して、位相差の算出をすることができる。しかし、撮像装置Aが、図10(C)に示すように、撮像素子の特定領域を読み出す場合、位相差の算出に利用できる領域は(X2,Y)から(X3, Y)の範囲に限定されるので、焦点状態の検出精度が低下する。ユーザによって、ズーム撮影時の表示領域が変更されることに伴って撮像素子の特定領域の読み出し位置が変更された場合にも、同様に、焦点状態の検出精度が低下し得る。   When the imaging apparatus A reads out the entire angle of view of the imaging device as shown in FIG. 10A, the line data from the coordinates (X1, Y) to (X4, Y) on the imaging device is used. The phase difference can be calculated. However, when the imaging apparatus A reads a specific area of the imaging element as shown in FIG. 10C, the area that can be used for calculating the phase difference is limited to the range from (X2, Y) to (X3, Y). As a result, the detection accuracy of the focus state decreases. Similarly, when the reading position of the specific area of the image sensor is changed as the display area at the time of zoom shooting is changed by the user, the detection accuracy of the focus state may similarly decrease.

本発明は、撮像素子の特定領域から読み出した画像信号に基づいて位相差検出処理を行う撮像装置であって、ズーム撮影時の表示位置が変更された場合における焦点状態の検出精度の低下を軽減する撮像装置の提供を目的とする。   The present invention is an imaging apparatus that performs phase difference detection processing based on an image signal read from a specific area of an imaging device, and reduces a decrease in focus state detection accuracy when the display position during zoom shooting is changed An object of the present invention is to provide an imaging apparatus that performs the above-described process.

本発明の一実施形態の撮像装置は、一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子と、前記画素部から画像信号を読み出す特定領域を設定する設定手段と、前記特定領域から画像信号を読み出す読み出し手段と、ズーム撮影時の表示領域を変更する変更手段と、前記表示領域が変更された場合に、第1の特定領域から読み出された画像信号により得られる2像の位相差の信頼度に基づいて、前記位相差の検出に成功したかを判断する判断手段とを備える。前記設定手段は、前記位相差の検出に失敗したと判断された場合に、前記画像信号が読み出される特定領域を、前記第1の特定領域の範囲より広い範囲の第2の特定領域に変更する。   An imaging apparatus according to an embodiment of the present invention includes a plurality of photoelectric conversion units that generate an image signal by photoelectrically converting a light beam that has passed through different regions of an exit pupil of an imaging optical system with respect to one microlens. An image sensor including a pixel unit, a setting unit that sets a specific area for reading an image signal from the pixel unit, a reading unit that reads an image signal from the specific area, and a changing unit that changes a display area during zoom shooting. When the display area is changed, it is determined whether the phase difference has been successfully detected based on the reliability of the phase difference between the two images obtained from the image signal read from the first specific area. Determination means. When it is determined that the detection of the phase difference has failed, the setting unit changes the specific area from which the image signal is read out to a second specific area that is wider than the range of the first specific area. .

本発明の撮像装置によれば、ズーム撮影時の表示位置が変更された場合における、撮像素子の特定領域から読み出した画像信号に基づく位相差検出処理による焦点状態の検出精度の低下を軽減することができる。   According to the imaging apparatus of the present invention, it is possible to reduce a decrease in focus state detection accuracy due to a phase difference detection process based on an image signal read from a specific area of an imaging element when the display position during zoom shooting is changed. Can do.

本実施形態の撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device of this embodiment. 撮像素子の構成例を概略的に示す図である。It is a figure which shows the structural example of an image pick-up element roughly. 画素アレイの例を示す図である。It is a figure which shows the example of a pixel array. 撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。It is the conceptual diagram showing a mode that the light beam which came out of the exit pupil of the imaging lens injects into an image pick-up element. 映像信号処理部の構成例を示す図である。It is a figure which shows the structural example of a video signal processing part. 実施例1の撮像装置の動作処理の例を説明するフローチャートである。3 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the first embodiment. 特定領域の設定を説明する図である。It is a figure explaining the setting of a specific area. 特定領域の設定を説明する図である。It is a figure explaining the setting of a specific area. 特定領域の設定を説明する図である。It is a figure explaining the setting of a specific area. 特定領域からの画像信号の読み出しを説明する図である。It is a figure explaining the reading of the image signal from a specific area.

図1は、本実施形態の撮像装置の構成例を示す図である。撮像装置100が備える構成要素のうち、電源110は、撮像装置100内の各回路に電源供給を行う。カードスロット172は、メモリカード(着脱可能な記録媒体)173が差し込み可能に構成されている。メモリカード173をカードスロット172に差し込んだ状態で、メモリカード173は、カード入出力部171と電気的に接続する。本実施形態では、記録媒体としてメモリカード173を採用しているが、その他の記録媒体、例えば、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、その他の固体メモリを使用してもよい。   FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to the present embodiment. Among the components included in the imaging apparatus 100, the power supply 110 supplies power to each circuit in the imaging apparatus 100. The card slot 172 is configured such that a memory card (detachable recording medium) 173 can be inserted. With the memory card 173 inserted into the card slot 172, the memory card 173 is electrically connected to the card input / output unit 171. In this embodiment, the memory card 173 is employed as the recording medium, but other recording media such as a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, and other solid-state memories may be used.

撮像レンズ101は、被写体の光学像を撮像素子103に結像させる。レンズ駆動部141は、撮像レンズ101を駆動して、ズーム制御、フォーカス制御、絞り制御などを実行する。メカニカルシャッタ102は、シャッタ制御部142によって駆動され、露光制御を実行する。   The imaging lens 101 forms an optical image of the subject on the imaging element 103. The lens driving unit 141 drives the imaging lens 101 to execute zoom control, focus control, aperture control, and the like. The mechanical shutter 102 is driven by the shutter control unit 142 and executes exposure control.

撮像素子103は、CMOS撮像素子等で構成される光電変換手段である。撮像素子103は、撮像レンズ101、シャッタ102を有する撮像光学系で形成された被写体像を光電変換し、画像信号を出力する。   The image sensor 103 is a photoelectric conversion means configured by a CMOS image sensor or the like. The imaging element 103 photoelectrically converts a subject image formed by an imaging optical system having an imaging lens 101 and a shutter 102 and outputs an image signal.

図2は、本実施形態の撮像装置が適用する撮像素子の構成例を概略的に示す図である。図2(A)は、撮像素子の全体構成を示す。撮像素子103は、画素アレイ201と、画素アレイ201における行を選択する垂直選択回路202と、画素アレイ201における列を選択する水平選択回路204を含む。本実施形態において、画素アレイ201の行を水平ライン、列を垂直ラインと記述する。読み出し回路203は、画素アレイ201中の画素部のうち垂直選択回路202によって選択される画素部の信号を読み出す。読み出し回路203は、信号を蓄積するメモリ、ゲインアンプ、A(Analog)/D(Digital )変換器などを列毎に有する。   FIG. 2 is a diagram schematically illustrating a configuration example of an imaging element applied by the imaging apparatus of the present embodiment. FIG. 2A shows the overall configuration of the image sensor. The image sensor 103 includes a pixel array 201, a vertical selection circuit 202 that selects a row in the pixel array 201, and a horizontal selection circuit 204 that selects a column in the pixel array 201. In this embodiment, a row of the pixel array 201 is described as a horizontal line and a column is described as a vertical line. The readout circuit 203 reads out the signal of the pixel portion selected by the vertical selection circuit 202 among the pixel portions in the pixel array 201. The reading circuit 203 includes a memory for storing signals, a gain amplifier, an A (Analog) / D (Digital) converter, and the like for each column.

シリアルインターフェース(SI)部205は、各回路の動作モードなどを、CPU131からの指示に従って決定する。垂直選択回路202は、画素アレイ201の複数の行を順次選択し、読み出し回路203に画素信号を取り出す。また水平選択回路204は、読み出し回路303によって読み出された複数の画素信号を列毎に順次選択する。垂直選択回路202と水平選択回路204の動作を適宜変更することにより、特定領域の読み出しを実現できる。なお、撮像素子103は、図2に示す構成要素以外に、例えば、垂直選択回路202、水平選択回路204、読み出し回路203等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明については省略する。   A serial interface (SI) unit 205 determines an operation mode of each circuit according to an instruction from the CPU 131. The vertical selection circuit 202 sequentially selects a plurality of rows in the pixel array 201 and extracts pixel signals to the readout circuit 203. The horizontal selection circuit 204 sequentially selects a plurality of pixel signals read by the reading circuit 303 for each column. By appropriately changing the operations of the vertical selection circuit 202 and the horizontal selection circuit 204, reading of a specific area can be realized. In addition to the components shown in FIG. 2, the image sensor 103 includes, for example, a timing generator that provides a timing signal to the vertical selection circuit 202, the horizontal selection circuit 204, the readout circuit 203, and a control circuit. Detailed description thereof will be omitted.

図2(B)は、撮像素子103の画素部の構成例を示す。図2(B)に示す画素部300は、光学素子としてのマイクロレンズ301と、受光素子としての複数のフォトダイオード(以下、PDと略記する)302a乃至302dとを有する。PDは、光束を受光し、当該光束を光電変換して画像信号を生成する光電変換部として機能する。なお、図2(B)に示す例では、1つの画素部が備えるPDの数は4個であるが、PDの数は、2個以上の任意の数であればよい。なお、画素部は、図示された構成要素以外にも、例えば、PDの信号を読み出し回路203に読み出すための画素増幅アンプ、行を選択する選択スイッチ、PDの信号をリセットするリセットスイッチなどを備える。   FIG. 2B illustrates a configuration example of a pixel portion of the image sensor 103. A pixel portion 300 illustrated in FIG. 2B includes a microlens 301 as an optical element and a plurality of photodiodes (hereinafter abbreviated as PD) 302a to 302d as light receiving elements. The PD functions as a photoelectric conversion unit that receives a light beam and photoelectrically converts the light beam to generate an image signal. Note that in the example illustrated in FIG. 2B, the number of PDs included in one pixel portion is four, but the number of PDs may be an arbitrary number of two or more. The pixel unit includes, in addition to the illustrated components, for example, a pixel amplification amplifier for reading a PD signal to the reading circuit 203, a selection switch for selecting a row, a reset switch for resetting the PD signal, and the like. .

PD302aおよびPD302cは、受光した光束を光電変換して左画像信号を出力する。PD302bおよびPD302dは、受光した光束を光電変換して右画像信号を出力する。すなわち、1つの画素部が備える複数のPDのうち、右側のPDが出力する画像信号が右画像信号であり、左側のPDが出力する画像信号が左画像信号である。   PD 302a and PD 302c photoelectrically convert the received light beam and output a left image signal. PD 302b and PD 302d photoelectrically convert the received light beam and output a right image signal. That is, among a plurality of PDs included in one pixel unit, an image signal output by the right PD is a right image signal, and an image signal output by the left PD is a left image signal.

本実施形態の撮像装置が、ユーザに立体画像を鑑賞させる構成をとる場合、左画像信号に対応する画像データは、ユーザが左目で鑑賞する左目用画像データとして機能する。また、右画像信号に対応する画像データは、ユーザが右目で鑑賞する右目用画像データとして機能する。撮像装置100が、左目用画像データをユーザに左目で鑑賞させ、右目用画像データをユーザに左目で鑑賞させるようにすれば、ユーザに立体画像を鑑賞させることができる。撮像装置が、複数のPDの出力を選択して加算するようにしてもよい。例えば、撮像装置が、PD302aとPD302c、PD302bとPD302dのPD出力を各々加算し、2つの出力としてもよい。なお、画素部300は、図示の構成要素以外にも、例えば、PD信号を読み出し回路303に取り出す画素増幅アンプや、行選択スイッチ、PD信号のリセットスイッチなどを備える。   When the imaging apparatus according to the present embodiment is configured to allow the user to view a stereoscopic image, the image data corresponding to the left image signal functions as left-eye image data that the user views with the left eye. The image data corresponding to the right image signal functions as right-eye image data that the user views with the right eye. If the imaging apparatus 100 allows the user to appreciate the left-eye image data with the left eye and causes the user to appreciate the right-eye image data with the left eye, the user can appreciate the stereoscopic image. The imaging apparatus may select and add the outputs of a plurality of PDs. For example, the imaging apparatus may add the PD outputs of PD 302a and PD 302c, PD 302b and PD 302d, and obtain two outputs. The pixel unit 300 includes, for example, a pixel amplification amplifier that extracts a PD signal to the readout circuit 303, a row selection switch, a PD signal reset switch, and the like in addition to the illustrated components.

図3は、画素アレイの例を示す図である。画素アレイ201は、2次元画像を提供するため、図3に示すように、水平方向にN個、垂直方向にM個の画素部を複数2次元アレイ状に配列して構成される。画素アレイ201の各画素部300は、カラーフィルタを有している。この例では、奇数行が、赤(R)と緑(G)のカラーフィルタの繰り返し、偶数行が、緑(G)と青(B)のカラーフィルタの繰り返しである。すなわち、画素アレイ301が備える画素部は、予め決められた画素配列(この例ではベイヤー配列)に従って配置されている。   FIG. 3 is a diagram illustrating an example of a pixel array. In order to provide a two-dimensional image, the pixel array 201 is configured by arranging a plurality of N pixel portions in the horizontal direction and a plurality of M pixel portions in the vertical direction as shown in FIG. Each pixel unit 300 of the pixel array 201 has a color filter. In this example, odd rows are repetitions of red (R) and green (G) color filters, and even rows are repetitions of green (G) and blue (B) color filters. That is, the pixel units included in the pixel array 301 are arranged according to a predetermined pixel arrangement (in this example, a Bayer arrangement).

次に、図3に示す画素構成を有する撮像素子の受光について説明する。図4は、撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。符号501は、3つの画素アレイの断面を示す。各々の画素アレイは、マイクロレンズ502、カラーフィルタ503、PD504、505を有する。PD504は、図2(B)中のPD302aに相当する。また、PD505は、図2(B)中のPD302bに相当する。   Next, light reception of the image sensor having the pixel configuration shown in FIG. 3 will be described. FIG. 4 is a conceptual diagram illustrating a state in which a light beam emitted from the exit pupil of the photographing lens enters the image sensor. Reference numeral 501 indicates a cross section of three pixel arrays. Each pixel array includes a microlens 502, a color filter 503, and PDs 504 and 505. The PD 504 corresponds to the PD 302a in FIG. The PD 505 corresponds to the PD 302b in FIG.

符号506は、撮影レンズの射出瞳である。この例では、マイクロレンズ502を有する画素部に対して、射出瞳506から出た光束の中心を光軸509とする。射出瞳506から出た光は、光軸509を中心として撮像素子103に入射される。符号507、508は、撮影レンズの射出瞳の一部領域を表す。一部領域507、508は、撮像光学系の射出瞳の分割された異なる領域である。   Reference numeral 506 denotes an exit pupil of the photographing lens. In this example, the center of the light beam emitted from the exit pupil 506 is defined as the optical axis 509 for the pixel portion having the microlens 502. Light emitted from the exit pupil 506 is incident on the image sensor 103 around the optical axis 509. Reference numerals 507 and 508 denote partial areas of the exit pupil of the photographing lens. The partial areas 507 and 508 are different areas obtained by dividing the exit pupil of the imaging optical system.

光線510、511は、一部領域507を通過する光の最外周の光線である。光線512、513は、一部領域508を通過する光の最外周の光線である。射出瞳から出る光束のうち、光軸509を境にして、上側の光束はPD505に入射され、下側の光束はPD504に入射される。つまり、PD504とPD505は、各々、撮影レンズの射出瞳に対する別の領域の光を受光するという特性を有する。   Light rays 510 and 511 are the outermost light rays of the light passing through the partial region 507. Light rays 512 and 513 are the outermost peripheral light rays of the light passing through the partial region 508. Out of the light beams emitted from the exit pupil, the upper light beam is incident on the PD 505 and the lower light beam is incident on the PD 504 with the optical axis 509 as a boundary. That is, the PD 504 and the PD 505 each have a characteristic of receiving light in a different region with respect to the exit pupil of the photographing lens.

この特性を生かして、撮像装置100は、視差のある少なくとも2つの画像を取得することができる。例えば、撮像装置100は、画素部内の領域において、複数の左側のPDから左画像信号を第1ラインデータとして取得し、複数の右側のPDから右画像信号を第2ラインデータとして取得する。そして、撮像装置100は、この2つの画像信号の位相差の検知を行なって位相差AF(オートフォーカス)を実現する。   Taking advantage of this characteristic, the imaging apparatus 100 can acquire at least two images having parallax. For example, the imaging apparatus 100 acquires a left image signal as first line data from a plurality of left PDs and acquires a right image signal as second line data from a plurality of right PDs in a region in the pixel unit. The imaging apparatus 100 detects the phase difference between the two image signals to realize phase difference AF (autofocus).

上述した説明から、撮像素子103は、一つのマイクロレンズに対して、各々が、撮像光学系の射出瞳の異なる領域を通過した光束を光電変換して画像信号を生成する複数のPDを有する画素部を、水平方向および垂直方向に並べて配置した撮像素子である。   From the above description, the imaging element 103 is a pixel having a plurality of PDs that generate an image signal by photoelectrically converting light beams that have passed through different areas of the exit pupil of the imaging optical system with respect to one microlens. This is an image sensor in which the units are arranged in the horizontal direction and the vertical direction.

図1に戻って、映像信号処理部121は、撮像素子103が出力した画像信号に基づいて、表示用の画像データを生成する。   Returning to FIG. 1, the video signal processing unit 121 generates image data for display based on the image signal output from the image sensor 103.

図5は、映像信号処理部の構成例を示す図である。映像信号処理部121は、位相差検出部601、画像加算部602、トリミング処理部603、現像処理部604を備える。位相差検出部601は、撮像素子103が有する画素部の特定領域から出力される左画像信号と右画像信号との間の位相差を検出し、検出結果をメモリ132に出力する。特定領域は、画素部からの画像信号の読み出し対象となる領域である。   FIG. 5 is a diagram illustrating a configuration example of the video signal processing unit. The video signal processing unit 121 includes a phase difference detection unit 601, an image addition unit 602, a trimming processing unit 603, and a development processing unit 604. The phase difference detection unit 601 detects a phase difference between the left image signal and the right image signal output from the specific area of the pixel unit included in the image sensor 103 and outputs the detection result to the memory 132. The specific region is a region from which an image signal is read from the pixel unit.

また、位相差検出部601は、算出した位相差の信頼性を出力する。位相差検出部601が、検出結果を、メモリ132でなく、位相差検出部601の内部メモリに出力するようにしてもよい。すなわち、位相差検出部601は、特定領域から読み出された画像信号に含まれる左画像信号と右画像信号との位相差を検出し、検出した位相差と該位相差の信頼度を出力する検出手段として機能する。具体的には、位相差検出部601は、設定された特定領域の水平方向1ライン分の画像信号に含まれる左画像信号と右画像信号との位相差を検出する。また、信頼度は、左画像信号と右画像信号との類似度に対応する。信頼度は、左画像信号と右画像信号との類似度が高いほど高い。   The phase difference detection unit 601 outputs the reliability of the calculated phase difference. The phase difference detection unit 601 may output the detection result to the internal memory of the phase difference detection unit 601 instead of the memory 132. That is, the phase difference detection unit 601 detects the phase difference between the left image signal and the right image signal included in the image signal read from the specific region, and outputs the detected phase difference and the reliability of the phase difference. It functions as a detection means. Specifically, the phase difference detection unit 601 detects the phase difference between the left image signal and the right image signal included in the image signal for one horizontal line of the set specific region. The reliability corresponds to the similarity between the left image signal and the right image signal. The reliability is higher as the similarity between the left image signal and the right image signal is higher.

画像加算部602は、右画像信号と左画像信号との加算合成を行い、1つの画像データとして出力する。トリミング処理部603は、画像加算部602が出力した画像データの一部を切り取る処理(トリミング処理)を実行する。本実施形態では、トリミング処理部603は、特定領域に含まれる表示用画像の生成に用いる領域以外の領域をトリミング対象に設定してトリミング処理する。現像処理部604は、トリミング処理部603が出力したトリミング処理結果(デジタル画像データ)に対して、ホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度変換、画像圧縮等の処理を実行する。これにより、表示用の画像データが生成される。   The image addition unit 602 performs addition synthesis of the right image signal and the left image signal and outputs the result as one image data. The trimming processing unit 603 executes processing (trimming processing) for cutting out part of the image data output from the image adding unit 602. In the present embodiment, the trimming processing unit 603 performs trimming processing by setting a region other than the region used for generating the display image included in the specific region as a trimming target. The development processing unit 604 performs processing such as white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, and image compression on the trimming processing result (digital image data) output from the trimming processing unit 603. To do. Thereby, image data for display is generated.

図1に戻って、メモリ132は、映像信号処理部121が出力する表示用の画像データを記憶する。また、メモリ132は、CPU131が各種処理を行う際にデータを一時的に記憶する。タイミングジェネレータ143は、撮像素子103、映像信号処理回路141にタイミングを提供する。バス150には、レンズ駆動部141、シャッタ駆動部142、撮像素子103、タイミングジェネレータ143、映像信号処理部121、CPU131、電源110、メモリ132、表示制御装置151が接続される。また、バス150には、メインスイッチ161、第1レリーズスイッチ162、第2レリーズスイッチ163、ライブビュー開始/終了ボタン164、AF開始/終了ボタン165、上下左右選択ボタン166、決定ボタン167、カード入出力部171が接続される。   Returning to FIG. 1, the memory 132 stores display image data output from the video signal processing unit 121. The memory 132 temporarily stores data when the CPU 131 performs various processes. The timing generator 143 provides timing to the image sensor 103 and the video signal processing circuit 141. To the bus 150, a lens driving unit 141, a shutter driving unit 142, an image sensor 103, a timing generator 143, a video signal processing unit 121, a CPU 131, a power supply 110, a memory 132, and a display control device 151 are connected. The bus 150 also includes a main switch 161, a first release switch 162, a second release switch 163, a live view start / end button 164, an AF start / end button 165, an up / down / left / right selection button 166, an enter button 167, a card input. An output unit 171 is connected.

CPU131は、撮像装置100全体を制御する。例えば、CPU131は、撮像素子103の画像信号読み出し処理、映像信号処理部121、メモリ132の動作タイミングを制御する。表示制御装置151は、液晶表示素子からなるTFT152、VIDEO出力端子153、HDMI(登録商標)端子の駆動および制御をする。また、表示制御装置151は、CPU131の指示にしたがって、メモリ132に記憶されている表示用画像データを、表示装置へ出力する。メモリ132内の表示用画像データ領域をVRAMと呼ぶ。表示制御装置151が、VRAMをTFT152に出力することを通じて、表示用画像が更新される(表示更新処理が実行される)。   The CPU 131 controls the entire imaging apparatus 100. For example, the CPU 131 controls the operation timing of the image signal reading process of the image sensor 103, the video signal processing unit 121, and the memory 132. The display control device 151 drives and controls the TFT 152 made of a liquid crystal display element, the VIDEO output terminal 153, and the HDMI (registered trademark) terminal. Further, the display control device 151 outputs the display image data stored in the memory 132 to the display device in accordance with an instruction from the CPU 131. The display image data area in the memory 132 is referred to as VRAM. The display control device 151 outputs the VRAM to the TFT 152, whereby the display image is updated (display update processing is executed).

ユーザが、メインスイッチ161をオンにすると、CPU131が、所定のプログラムを実行する。ユーザが、メインスイッチ161をオフにすると、CPU131が、所定のプログラムを実行し、カメラをスタンバイモードにする。   When the user turns on the main switch 161, the CPU 131 executes a predetermined program. When the user turns off the main switch 161, the CPU 131 executes a predetermined program and puts the camera into a standby mode.

第1レリーズスイッチ162は、レリーズボタンの第1ストローク(半押し状態)でオンとなる。第2レリーズスイッチ163は、レリーズボタンの第2ストローク(全押し状態)でオンとなる。また、CPU131は、上下左右選択ボタン166、設定ボタン167の押下と撮像装置100の動作状態に応じて制御を行う。ユーザは、ライブビュー中に、上下左右選択ボタン166でオートフォーカスの対象とする被写体を指定することができる。   The first release switch 162 is turned on at the first stroke (half-pressed state) of the release button. The second release switch 163 is turned on by the second stroke (fully pressed state) of the release button. In addition, the CPU 131 performs control according to pressing of the up / down / left / right selection button 166 and the setting button 167 and the operation state of the imaging apparatus 100. The user can specify a subject to be autofocused with the up / down / left / right selection buttons 166 during live view.

ユーザが、上下左右選択ボタン166と設定ボタン167を用いて、グラフィカルユーザインタフェースでの選択と設定を行うことで、ライブビュー撮影を通常モードとズームモードのいずれかに切り替え設定することができる。ズームモードに設定された場合のライブビュー撮影を、ズームライブビュー撮影と記述する。また、ズームライブビュー撮影中に、ユーザは、上下左右選択ボタン166を押し下げることにより、ズーム撮影時の表示領域(ズームライブビューの表示位置)を変更することができる。   The user can switch and set the live view shooting to either the normal mode or the zoom mode by performing selection and setting in the graphical user interface using the up / down / left / right selection button 166 and the setting button 167. Live view shooting when the zoom mode is set is described as zoom live view shooting. During zoom live view shooting, the user can change the display area (zoom live view display position) during zoom shooting by depressing the up / down / left / right selection button 166.

ズームライブビュー撮影時には、映像信号処理部121には、撮像素子103の所定の特定領域から読み出された画像信号が映像信号処理部121に入力される。また、CPU131が、映像信号処理部121が出力する画像データを所定のズーム倍率にしたがって拡大処理し、表示用画像データとする。   At the time of zoom live view shooting, an image signal read from a predetermined specific area of the image sensor 103 is input to the video signal processing unit 121 to the video signal processing unit 121. Further, the CPU 131 enlarges the image data output from the video signal processing unit 121 in accordance with a predetermined zoom magnification to obtain display image data.

ユーザがライブビュー開始/終了ボタン164を押すと、CPU131が、定期的(例えば1秒に30回)に撮像素子103から画像データを取り込み、VRAMへ配置する。これにより、リアルタイムに撮像素子103から取り込んだ画像を表示することができる。ライブビューが動作している状態で、ユーザがライブビュー開始/終了ボタン164を押すと、ライブビューが終了する。   When the user presses the live view start / end button 164, the CPU 131 periodically captures image data from the image sensor 103 (for example, 30 times per second) and arranges the image data in the VRAM. As a result, an image captured from the image sensor 103 can be displayed in real time. When the user presses the live view start / end button 164 while the live view is operating, the live view ends.

ユーザが、AF開始/終了ボタン165を押すと、撮像装置100がオートフォーカス動作を開始する。すなわち、AF開始/終了ボタン165は、自動焦点調節処理の実行開始を指示する指示手段として機能する。本実施形態の撮像装置の制御方法は、図1に示す撮像装置100が備える処理部の機能によって実現される。   When the user presses the AF start / end button 165, the imaging apparatus 100 starts an autofocus operation. That is, the AF start / end button 165 functions as an instruction unit that instructs the start of execution of the automatic focus adjustment process. The control method of the imaging apparatus of the present embodiment is realized by the function of the processing unit included in the imaging apparatus 100 illustrated in FIG.

図6は、実施例1の撮像装置の動作処理の例を説明するフローチャートである。CPU131が、ライブビュー開始/終了ボタン164の押下を検知して、ズームライブビュー撮影を開始する(ステップS100)。続いて、CPU131が、特定領域を設定する設定手段として機能する(ステップS101)。   FIG. 6 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the first embodiment. The CPU 131 detects that the live view start / end button 164 is pressed, and starts zoom live view shooting (step S100). Subsequently, the CPU 131 functions as a setting unit that sets a specific area (step S101).

図7は、特定領域の設定を説明する図である。図7中の太線で囲まれた領域Rが、ステップS101において設定される特定領域である。特定領域Rは、撮像素子上の水平方向にX2からX3までの区間に対応する領域である。ハッチングを施した領域である表示領域は、表示用データを生成するための領域である。図7に示す例では、表示領域は、特定領域Rと一致している。もちろん、表示領域を、特定領域Rに含まれ、かつ特定領域Rより小さい領域に設定してもよい。CPU131は、垂直選択回路202及び水平選択回路204によって、特定領域以外の領域からの読み出しがスキップされるように制御する。   FIG. 7 is a diagram for explaining the setting of the specific area. A region R surrounded by a thick line in FIG. 7 is a specific region set in step S101. The specific region R is a region corresponding to a section from X2 to X3 in the horizontal direction on the image sensor. A display area that is a hatched area is an area for generating display data. In the example shown in FIG. 7, the display area matches the specific area R. Of course, the display area may be set to an area included in the specific area R and smaller than the specific area R. The CPU 131 controls the vertical selection circuit 202 and the horizontal selection circuit 204 so that reading from an area other than the specific area is skipped.

次に、CPU131が、上下左右選択ボタン166が押され、ズームライブビューの表示位置が変更されているかを判断する(ステップS102)。表示位置が変更されている場合は、処理がステップS101に戻り、CPU131が、撮像素子103の特定領域の再設定を行う。具体的には、CPU131は、図8(A)に示すように、特定領域を、X2aからX3aの範囲を有する第1の特定領域(特定領域R1)に設定する。CPU131は、変更された表示位置に相当する画像データを撮像素子103から取り込み、VRAMへ配置する。   Next, the CPU 131 determines whether the up / down / left / right selection button 166 has been pressed and the display position of the zoom live view has been changed (step S102). If the display position has been changed, the process returns to step S <b> 101, and the CPU 131 resets the specific area of the image sensor 103. Specifically, as illustrated in FIG. 8A, the CPU 131 sets the specific area as a first specific area (specific area R1) having a range from X2a to X3a. The CPU 131 fetches image data corresponding to the changed display position from the image sensor 103 and arranges it in the VRAM.

表示位置が変更されていない場合、すなわち左右選択ボタン166の操作が完了した場合、位相差検出部601が、ステップS101で設定された特定領域R1から読み出された2像(左画像信号と右画像信号)の位相差を検出する。位相差検出部601は、位相差とその信頼度を出力結果としてメモリ132に記憶する。そして、処理がステップS103に進む。   When the display position is not changed, that is, when the operation of the left / right selection button 166 is completed, the phase difference detecting unit 601 reads two images (left image signal and right image) read from the specific region R1 set in step S101. The phase difference of the image signal is detected. The phase difference detection unit 601 stores the phase difference and its reliability in the memory 132 as an output result. Then, the process proceeds to step S103.

ステップS103において、CPU131が、位相差検出部601の出力結果をメモリ132から読み出す(ステップS103)。続いて、CPU131が、位相差検出部601の出力結果に含まれる位相差の信頼性に基づいて、位相差の検出に成功したかを判断する(ステップS104)。位相差の信頼度が閾値を超える場合に、CPU131は、位相差の検出が成功したと判断する。また、位相差の信頼度が閾値以下の場合に、CPU131は、位相差の検出が失敗したと判断する。CPU131が、位相差の検出に成功したと判断した場合は、ステップS105に進む。そして、CPU131が、検出した位相差に基づいて、撮像レンズ101のフォーカス制御量を算出し、レンズ駆動部141を通じて、フォーカス制御を行い(ステップS105)、ステップS102に戻る。すなわち、CPU131が、検出された位相差に基づいて焦点調節処理を実行する調節手段として機能する。   In step S103, the CPU 131 reads the output result of the phase difference detection unit 601 from the memory 132 (step S103). Subsequently, the CPU 131 determines whether the phase difference has been successfully detected based on the reliability of the phase difference included in the output result of the phase difference detection unit 601 (step S104). When the reliability of the phase difference exceeds the threshold, the CPU 131 determines that the phase difference has been successfully detected. Further, when the reliability of the phase difference is equal to or less than the threshold, the CPU 131 determines that the detection of the phase difference has failed. If the CPU 131 determines that the phase difference has been successfully detected, the process proceeds to step S105. Then, the CPU 131 calculates the focus control amount of the imaging lens 101 based on the detected phase difference, performs focus control through the lens driving unit 141 (step S105), and returns to step S102. That is, the CPU 131 functions as an adjustment unit that executes the focus adjustment process based on the detected phase difference.

CPU131が、位相差の検出に失敗したと判断した場合は、ステップS107に進む。そして、CPU131が、特定領域をステップS101で設定した第1の特定領域から、第1の特定領域の範囲より広い範囲を有する第2の特定領域に変更する(ステップS107)。具体的には、CPU131は、例えば、図8(B)に示すように、図8(A)中の特定領域R1より水平方向に広い、X1、X4の区間に対応する特定領域R2を、次の位相差の検出処理対象の特定領域として設定する。特定領域R2は、撮像素子の全画角の領域のうち、垂直方向(Y方向)に所定の幅を持つ、水平方向(X方向)の全領域である。CPU131は、垂直選択回路202によって特定領域以外の領域からの読み出しがスキップされ、水平選択回路204によって、水平ラインの全てが読み出されるように制御する。   If the CPU 131 determines that the phase difference detection has failed, the process proceeds to step S107. Then, the CPU 131 changes the specific area from the first specific area set in step S101 to the second specific area having a range wider than the range of the first specific area (step S107). Specifically, for example, as illustrated in FIG. 8B, the CPU 131 proceeds to the specific area R2 corresponding to the section of X1 and X4 that is wider in the horizontal direction than the specific area R1 in FIG. Is set as a specific area to be detected. The specific region R2 is the entire region in the horizontal direction (X direction) having a predetermined width in the vertical direction (Y direction) among the entire field angle regions of the image sensor. The CPU 131 performs control so that reading from an area other than the specific area is skipped by the vertical selection circuit 202 and all horizontal lines are read by the horizontal selection circuit 204.

なお、CPU131が、水平選択回路204によって、特定領域R2から、所定の水平ラインを間引いて画像信号を読み出すようにしてもよい。   Note that the CPU 131 may read out the image signal by thinning a predetermined horizontal line from the specific region R2 by the horizontal selection circuit 204.

次に、ステップS108において、CPU131が、トリミング処理部603の設定を、ステップS101時点での表示領域と等しくなるように変更する。具体的には、CPU131は、図8(B)に示す特定領域R2のうち、ハッチングを施した表示領域以外の領域を、トリミング対象に設定する。これにより、TFT152に表示される画像の画角を変化しないようにすることができる。   Next, in step S108, the CPU 131 changes the setting of the trimming processing unit 603 so as to be equal to the display area at the time of step S101. Specifically, the CPU 131 sets a region other than the hatched display region in the specific region R2 illustrated in FIG. As a result, the angle of view of the image displayed on the TFT 152 can be prevented from changing.

図6に戻って、位相差検出部601が、ステップS107における変更後の特定領域に基づいて、位相差を検出し、位相差の信頼度を出力して、出力結果をメモリ132に記憶する(ステップS108)。続いて、CPU131が、位相差検出部601の出力結果をメモリ132から読み出す。   Returning to FIG. 6, the phase difference detection unit 601 detects the phase difference based on the changed specific area in step S <b> 107, outputs the reliability of the phase difference, and stores the output result in the memory 132 ( Step S108). Subsequently, the CPU 131 reads out the output result of the phase difference detection unit 601 from the memory 132.

ステップS110において、CPU131が、特定領域を、上記ステップS101において設定された特定領域に戻す。そして、CPU131が、上記ステップS107において行ったトリミング処理の設定を解除する(ステップS110)。   In step S110, the CPU 131 returns the specific area to the specific area set in step S101. Then, the CPU 131 cancels the setting of the trimming process performed in step S107 (step S110).

次に、CPU131が、ステップS108において読み出した位相差検出部601の出力結果に基づいて、上記ステップS104の判断処理と同様の方法で、位相差の検出に成功したかを判断する(ステップS111)。位相差の検出に成功した場合は、ステップS105に進む。位相差の検出に失敗した場合は、ステップS103に戻る。   Next, based on the output result of the phase difference detection unit 601 read in step S108, the CPU 131 determines whether the phase difference has been successfully detected by the same method as the determination process in step S104 (step S111). . If the phase difference is successfully detected, the process proceeds to step S105. If the phase difference detection fails, the process returns to step S103.

なお、上記のステップS102の判断処理で、ズームライブビューの表示位置が変更されているか否かを判断し、表示位置が変更されていないと判断された場合、CPU131が、所定時間経過後にステップS103で位相差検出処理を行うようにしてもよい。これにより、ユーザによって頻繁に表示位置が変更される場合であっても、その都度位相差検出処理を行うことがなくなるため、レンズ駆動により画面が乱れる回数を減らすことが可能となる。   In the determination process of step S102, it is determined whether or not the display position of the zoom live view has been changed. If it is determined that the display position has not been changed, the CPU 131 performs step S103 after a predetermined time has elapsed. Alternatively, the phase difference detection process may be performed. As a result, even when the display position is frequently changed by the user, the phase difference detection process is not performed each time, so that the number of times that the screen is disturbed by lens driving can be reduced.

実施例1の撮像装置によれば、部分読み出しでのライブビューにおいて、表示領域の位置がユーザによって変更されることに伴って部分読出しの位置が変更になった場合でも、以下の効果を奏することができる。すなわち、表示画質を低下させずに位相差の検出精度を確保しながら、連続的なオートフォーカス動作を実現することが可能となる。   According to the image pickup apparatus of the first embodiment, the following effects can be achieved even when the position of the partial reading is changed in accordance with the change of the position of the display area in the live view by the partial reading. Can do. That is, it is possible to realize a continuous autofocus operation while ensuring the phase difference detection accuracy without degrading the display image quality.

(実施例2)
次に、実施例2の撮像装置について説明する。図9(A)は、図6のステップS101において設定される特定領域R1を示す。
(Example 2)
Next, an imaging apparatus according to the second embodiment will be described. FIG. 9A shows the specific region R1 set in step S101 of FIG.

実施例2では、図6のステップS106において、CPU131は、図9(B)中の太枠で示す、特定領域R3を設定する。特定領域R3は、X2a、X3aの区間より広い、X1、X4の区間を有する。特定領域R3が、撮像素子の全画角の領域であってもよい。つまり、特定領域R3は、特定領域R1より、X方向およびY方向に広い範囲を有する。このときCPU131は、垂直選択回路202または水平選択回路204によって、特定領域R3に含まれる所定のラインを間引いて、特定領域R3から画像信号を読み出す。例えば、CPU131は、垂直選択回路202により、所定の水平ライン(行)を間引いて特定領域R3から画像信号を読み出す。CPU131が、水平選択回路204により、所定の垂直ライン(列)を間引いて特定領域R3から画像信号を読み出すようにしてもよい。   In the second embodiment, in step S106 in FIG. 6, the CPU 131 sets a specific region R3 indicated by a thick frame in FIG. 9B. The specific region R3 has sections X1 and X4 that are wider than sections X2a and X3a. The specific region R3 may be a region with a full angle of view of the image sensor. That is, the specific region R3 has a wider range in the X direction and the Y direction than the specific region R1. At this time, the CPU 131 reads out an image signal from the specific region R3 by thinning out a predetermined line included in the specific region R3 by the vertical selection circuit 202 or the horizontal selection circuit 204. For example, the CPU 131 reads out an image signal from the specific region R3 by thinning out a predetermined horizontal line (row) by the vertical selection circuit 202. The CPU 131 may read out an image signal from the specific region R3 by thinning out predetermined vertical lines (columns) by the horizontal selection circuit 204.

実施例2の撮像装置によれば、フレームレートを低下させずに、位相差の検出精度を確保しながら、連続的なオートフォーカス動作を実現することが可能となる。   According to the image pickup apparatus of the second embodiment, it is possible to realize a continuous autofocus operation while ensuring the phase difference detection accuracy without reducing the frame rate.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

100 撮像装置
103 撮像素子
131 CPU
DESCRIPTION OF SYMBOLS 100 Imaging device 103 Image pick-up element 131 CPU

Claims (9)

一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子と、
前記画素部から画像信号を読み出す特定領域を設定する設定手段と、
前記特定領域から画像信号を読み出す読み出し手段と、
ズーム撮影時の表示領域を変更する変更手段と、
前記表示領域が変更された場合に、第1の特定領域から読み出された画像信号により得られる2像の位相差の信頼度に基づいて、前記位相差の検出に成功したかを判断する判断手段とを備え、
前記設定手段は、前記位相差の検出に失敗したと判断された場合に、前記画像信号が読み出される特定領域を、前記第1の特定領域の範囲より広い範囲の第2の特定領域に変更する
ことを特徴とする撮像装置。
An imaging device including a pixel unit having a plurality of photoelectric conversion units that photoelectrically convert light beams that have passed through different regions divided by the exit pupil of the imaging optical system with respect to one microlens;
Setting means for setting a specific area for reading an image signal from the pixel unit;
Reading means for reading an image signal from the specific area;
Change means for changing the display area during zoom shooting,
Judgment whether or not the phase difference has been successfully detected based on the reliability of the phase difference between the two images obtained from the image signal read from the first specific area when the display area is changed Means and
When it is determined that the detection of the phase difference has failed, the setting unit changes the specific area from which the image signal is read out to a second specific area that is wider than the range of the first specific area. An imaging apparatus characterized by that.
前記第2の特定領域は、前記第1の特定領域より水平方向に広い領域を有する
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the second specific area has a larger area in the horizontal direction than the first specific area.
前記第2の特定領域は、前記第1の特定領域より水平方向および垂直方向に広い領域を有する
ことを特徴とする請求項2に記載の撮像装置。
The imaging apparatus according to claim 2, wherein the second specific area has a wider area in a horizontal direction and a vertical direction than the first specific area.
前記第2の特定領域は、前記撮像素子の全画角の領域である
ことを特徴とする請求項3に記載の撮像装置。
The imaging device according to claim 3, wherein the second specific region is a region with a full angle of view of the imaging device.
前記読み出し手段は、前記第2の特定領域の画素部を間引いて前記第2の特定領域から画像信号を読み出す
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
5. The imaging apparatus according to claim 1, wherein the readout unit reads out an image signal from the second specific area by thinning out the pixel portion of the second specific area.
前記判断手段は、前記位相差の信頼度が閾値を超える場合に、前記位相差の検出が成功したと判断し、前記位相差の信頼度が閾値以下の場合に、前記位相差の検出が失敗したと判断する
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
The determination unit determines that the detection of the phase difference is successful when the reliability of the phase difference exceeds a threshold value, and fails to detect the phase difference when the reliability of the phase difference is equal to or less than the threshold value. The imaging apparatus according to any one of claims 1 to 4, wherein the imaging apparatus is determined to be.
前記判断手段は、前記表示領域が変更された場合に、所定の時間が経過した後に前記位相差の検出に成功したかを判断する
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The determination unit according to any one of claims 1 to 5, wherein when the display area is changed, the determination unit determines whether the phase difference has been successfully detected after a predetermined time has elapsed. The imaging device described.
前記設定手段は、前記表示領域が変更された場合に、当該変更後の表示領域を含む所定の領域を前記第1の特定領域として設定する
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
The said setting means sets the predetermined area | region containing the said display area after the said change as said 1st specific area, when the said display area is changed. The imaging device according to item.
一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子を備える撮像装置の制御方法であって、
前記画素部から画像信号を読み出す特定領域を設定する設定工程と、
前記特定領域から画像信号を読み出す読み出し工程と、
ズーム撮影時の表示領域を変更する変更工程と、
前記表示領域が変更された場合に、第1の特定領域から読み出された画像信号により得られる2像の位相差の信頼度に基づいて、前記位相差の検出に成功したかを判断する判断工程とを有し、
前記設定工程では、前記位相差の検出に失敗したと判断された場合に、前記画像信号が読み出される特定領域を、前記第1の特定領域の範囲より広い範囲の第2の特定領域に変更する
ことを特徴とする制御方法。
An imaging apparatus including an imaging device including a pixel unit having a plurality of photoelectric conversion units that photoelectrically convert light beams that have passed through different regions divided by an exit pupil of an imaging optical system with respect to one microlens. Control method,
A setting step for setting a specific region for reading an image signal from the pixel unit;
A reading step of reading an image signal from the specific area;
Change process to change the display area at the time of zoom shooting,
Judgment whether or not the phase difference has been successfully detected based on the reliability of the phase difference between the two images obtained from the image signal read from the first specific area when the display area is changed A process,
In the setting step, when it is determined that the detection of the phase difference has failed, the specific area from which the image signal is read is changed to a second specific area that is wider than the range of the first specific area. A control method characterized by that.
JP2013101182A 2012-11-07 2013-05-13 Imaging device and imaging device control method Pending JP2014222268A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013101182A JP2014222268A (en) 2013-05-13 2013-05-13 Imaging device and imaging device control method
US14/067,391 US20140125861A1 (en) 2012-11-07 2013-10-30 Imaging apparatus and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013101182A JP2014222268A (en) 2013-05-13 2013-05-13 Imaging device and imaging device control method

Publications (1)

Publication Number Publication Date
JP2014222268A true JP2014222268A (en) 2014-11-27

Family

ID=52121824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013101182A Pending JP2014222268A (en) 2012-11-07 2013-05-13 Imaging device and imaging device control method

Country Status (1)

Country Link
JP (1) JP2014222268A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11115581B2 (en) 2019-03-15 2021-09-07 Olympus Corporation Focus adjustment method and device using a determined reliability of a detected phase difference

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11115581B2 (en) 2019-03-15 2021-09-07 Olympus Corporation Focus adjustment method and device using a determined reliability of a detected phase difference

Similar Documents

Publication Publication Date Title
JP5424679B2 (en) Imaging apparatus and signal processing apparatus
KR102121531B1 (en) Apparatus and Method for Controlling a Focus Detectable Image Sensor
JP6944846B2 (en) Imaging device, control method of imaging device
US20130278730A1 (en) Single-eye stereoscopic imaging device, correction method thereof, and recording medium thereof
JP5911252B2 (en) Imaging apparatus and image processing method
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
US10003734B2 (en) Image capturing apparatus and control method of image sensor
JP2013218297A (en) Focus adjustment device and focus adjustment method
US8902294B2 (en) Image capturing device and image capturing method
US20140125861A1 (en) Imaging apparatus and method for controlling same
JP5627438B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US9693037B2 (en) Imaging apparatus having an imaging element in which a plurality of light receiving elements is arranged with respect to a micro lens and method for controlling same
JP6071748B2 (en) Imaging apparatus and control method thereof
JP5871535B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US12238260B2 (en) Device, capturing device, control method, and storage medium operable for outputting pair of captured images pertaining to binocular stereopsis
JP5864989B2 (en) Imaging device and imaging apparatus
JP5963550B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014222268A (en) Imaging device and imaging device control method
JP2015166799A (en) Imaging apparatus, imaging method, and program thereof
JP2014102400A (en) Imaging apparatus and method for controlling imaging apparatus
JP6289515B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US12238434B2 (en) Imaging device and imaging method for autofocus control
JP7307837B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP2015052662A (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014095874A (en) Image capturing device and control method therefor