[go: up one dir, main page]

JP2018174543A - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP2018174543A
JP2018174543A JP2018109784A JP2018109784A JP2018174543A JP 2018174543 A JP2018174543 A JP 2018174543A JP 2018109784 A JP2018109784 A JP 2018109784A JP 2018109784 A JP2018109784 A JP 2018109784A JP 2018174543 A JP2018174543 A JP 2018174543A
Authority
JP
Japan
Prior art keywords
unit
image
region
imaging
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018109784A
Other languages
Japanese (ja)
Inventor
英史 太田
Hidefumi Ota
英史 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018109784A priority Critical patent/JP2018174543A/en
Publication of JP2018174543A publication Critical patent/JP2018174543A/en
Pending legal-status Critical Current

Links

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像素子の撮像領域のうち撮影光学系に応じた領域を使用する。【解決手段】交換可能な撮影光学系11からの光束が結像する撮像素子100を有する撮像部20と、撮影光学系11の情報に応じて、撮像素子100の撮像領域においてアクティブ状態とする領域を設定する制御部71と、を備える。【選択図】図6An area corresponding to a photographing optical system is used in an imaging area of an imaging element. An imaging unit having an imaging element that forms an image of a light beam from a replaceable imaging optical system, and an area to be activated in an imaging area of the imaging element according to information of the imaging optical system. And a control unit 71 for setting. [Selection] Figure 6

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、この撮像素子を積層型撮像素子という。)を備えた電子機器が提案されている(例えば特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、複数画素をまとめたブロック単位ごとにマイクロバンプを介して接続されるように積層されている。   There has been proposed an electronic apparatus provided with an imaging element in which a back-illuminated imaging chip and a signal processing chip are laminated (hereinafter, this imaging element is referred to as a laminated imaging element) (for example, see Patent Document 1). The multilayer imaging element is laminated so that the back-illuminated imaging chip and the signal processing chip are connected via a micro bump for each block unit including a plurality of pixels.

特開2006−49361号公報JP 2006-49361 A

しかし、従来の積層型撮像素子を備えた電子機器において、複数のブロック単位ごとに撮像して画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分ではなかった。   However, there are not many proposals for acquiring an image by capturing an image for each of a plurality of block units in an electronic device including a conventional multilayer image sensor, and the usability of the electronic device including the multilayer image sensor is not sufficient.

本発明の態様では、撮像素子の撮像領域のうち撮影光学系に応じた領域を使用することを目的とする。   In an aspect of the present invention, an object is to use an area corresponding to a photographing optical system in an imaging area of an imaging element.

本発明の第1態様によれば、交換可能な複数種類の撮影光学系からの光束が結像する撮像素子を有する撮像部と、交換可能なレンズ部からの撮影光学系の特性に関するレンズ情報に応じて、撮像素子の撮像領域においてアクティブ状態とする領域を設定する制御部と、を備える電子機器が提供される。   According to the first aspect of the present invention, the lens information relating to the characteristics of the imaging optical system from the imaging unit having the imaging element on which the light beams from the plurality of types of interchangeable imaging optical systems form an image and the interchangeable lens unit is included. Accordingly, an electronic device is provided that includes a control unit that sets a region to be activated in the imaging region of the imaging device.

本発明の第2態様によれば、交換可能な撮影光学系からの光束が結像する複数種類の撮影光学系に対応可能な撮像素子を有する電子機器の制御方法であって、交換可能なレンズ部からの撮影光学系の特性に関するレンズ情報を取得することと、撮影光学系のレンズ情報に応じて、撮像素子の撮像領域においてアクティブ状態とする領域を設定することと、を含む電子機器の制御方法が提供される。   According to the second aspect of the present invention, there is provided a method for controlling an electronic apparatus having an imaging device that can handle a plurality of types of imaging optical systems in which a light beam from an interchangeable imaging optical system forms an image. Control of an electronic device including: acquiring lens information relating to characteristics of a photographing optical system from a unit; and setting an active region in an imaging region of an image sensor in accordance with lens information of the photographing optical system A method is provided.

本発明の第3態様によれば、交換可能な撮影光学系からの光束が結像する複数種類の撮影光学系に対応可能な撮像素子を有する制御装置に、交換可能なレンズ部からの撮影光学系の特性に関するレンズ情報を取得する取得処理と、撮影光学系のレンズ情報に応じて、撮像素子の撮像領域においてアクティブ状態とする領域を設定する設定処理と、を実行させる制御プログラムが提供される。   According to the third aspect of the present invention, the imaging optical from the interchangeable lens unit is added to the control device having the imaging device that can handle a plurality of types of imaging optical systems in which the light flux from the interchangeable imaging optical system forms an image. There is provided a control program for executing an acquisition process for acquiring lens information related to the characteristics of the system, and a setting process for setting an area to be activated in the imaging area of the imaging device according to the lens information of the imaging optical system. .

本発明の態様によれば、撮像素子の撮像領域のうち撮影光学系に応じた領域を使用することができる。   According to the aspect of the present invention, it is possible to use an area corresponding to the imaging optical system in the imaging area of the imaging element.

積層型撮像素子の断面図である。It is sectional drawing of a multilayer type image pick-up element. 撮像チップの画素配列と単位グループを説明する図である。It is a figure explaining the pixel arrangement | sequence and unit group of an imaging chip. 撮像チップの単位グループに対応する回路図である。It is a circuit diagram corresponding to the unit group of an imaging chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image pick-up element. 第1実施形態に係るデジタルカメラ(電子機器)の概略構成を示す横断面図である。1 is a cross-sectional view illustrating a schematic configuration of a digital camera (electronic device) according to a first embodiment. 第1実施形態に係るデジタルカメラ(電子機器)の構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera (electronic device) which concerns on 1st Embodiment. サイズ規格の異なるイメージサークルとイメージサークル内に設定される領域とを示す図である。It is a figure which shows the image circle from which a size standard differs, and the area | region set in an image circle. 撮影前処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of imaging | photography pre-processing. 第1実施形態における領域ごとの動作状態を示す図である。It is a figure which shows the operation state for every area | region in 1st Embodiment. 歪曲収差に対応する領域を示す図である。It is a figure which shows the area | region corresponding to a distortion aberration. 第2実施形態における領域ごとの動作状態を示す図である。It is a figure which shows the operation state for every area | region in 2nd Embodiment. 撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of an imaging | photography process. 主要被写体の焦点位置の検出を説明するための図である。It is a figure for demonstrating the detection of the focus position of a main to-be-photographed object. 領域選択処理の一例を示すフローチャートである。It is a flowchart which shows an example of an area | region selection process. 撮像領域内の選択領域と非選択領域とを示す図である。It is a figure which shows the selection area | region and non-selection area | region in an imaging region. 撮像領域内の選択領域と非選択領域とを示す図である。It is a figure which shows the selection area | region and non-selection area | region in an imaging region. 主要被写体の焦点位置の検出の他の例を説明するための図である。It is a figure for demonstrating the other example of the detection of the focus position of a main to-be-photographed object. 周辺減光に応じて設定される領域を示す図である。It is a figure which shows the area | region set according to a peripheral light reduction. 第5実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device and electronic device which concern on 5th Embodiment.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現している。なお、以下の各実施形態では、電子機器としてレンズ交換式のデジタルカメラを例に挙げて説明する。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, the scale is appropriately changed and expressed, for example, partly enlarged or emphasized. In each of the following embodiments, a digital camera with interchangeable lenses will be described as an example of an electronic device.

<第1実施形態>
図1は、積層型撮像素子の断面図である。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111、及びメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<First Embodiment>
FIG. 1 is a cross-sectional view of a multilayer image sensor. The multilayer image sensor 100 is described in Japanese Patent Application No. 2012-139026 filed earlier by the applicant of the present application. The imaging device 100 includes an imaging chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and are electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, incident light is incident mainly in the positive direction of the Z-axis indicated by a white arrow. In the present embodiment, in the imaging chip 113, the surface on the side where incident light is incident is referred to as a back surface. Further, as shown in the coordinate axes, the left direction of the paper orthogonal to the Z axis is the X axis plus direction, and the front side of the paper orthogonal to the Z axis and the X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。   An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is disposed on the back side of the wiring layer 108. The PD layer 106 includes a plurality of photodiodes (Photodiode; hereinafter referred to as PD) 104 that are two-dimensionally arranged and accumulate electric charges according to incident light, and a transistor 105 provided corresponding to the PD 104. .

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。   A color filter 102 is provided on the incident side of incident light in the PD layer 106 via a passivation film 103. The color filter 102 is a filter that passes a specific wavelength region of visible light. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104. The arrangement of the color filter 102 will be described later. A set of the color filter 102, the PD 104, and the transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。   On the incident light incident side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   The wiring layer 108 includes a wiring 107 that transmits the pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may be multilayer, and a passive element and an active element may be provided. A plurality of bumps 109 are disposed on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the opposing surface of the signal processing chip 111. Then, by pressing the imaging chip 113 and the signal processing chip 111, the aligned bumps 109 are joined and electrically connected.

同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   Similarly, a plurality of bumps 109 are disposed on the mutually facing surfaces of the signal processing chip 111 and the memory chip 112. These bumps 109 are aligned with each other. Then, when the signal processing chip 111 and the memory chip 112 are pressurized or the like, the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。   The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be employed. Further, for example, about one bump 109 may be provided for one unit group described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. In addition, a bump larger than the bump 109 corresponding to the pixel region may be provided in a peripheral region other than the pixel region where the pixels are arranged (the pixel region 113A shown in FIG. 2).

信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。   The signal processing chip 111 includes a TSV (Through-Silicon Via) 110 that connects circuits provided on the front surface and the back surface to each other. The TSV 110 is provided in the peripheral area. The TSV 110 may be provided in the peripheral area of the imaging chip 113 or the memory chip 112.

図2は、撮像チップの画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域(撮像領域)113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。   FIG. 2 is a diagram for explaining a pixel array and a unit group of the imaging chip. FIG. 2 particularly shows a state where the imaging chip 113 is observed from the back side. An area where pixels are arranged in the imaging chip 113 is referred to as a pixel area (imaging area) 113A. In the pixel region 113A, 20 million or more pixels are arranged in a matrix. In the example shown in FIG. 2, 16 pixels of 4 pixels × 4 pixels adjacent to each other form one unit group 131. The grid lines in FIG. 2 indicate a concept in which adjacent pixels are grouped to form a unit group 131. The number of pixels forming the unit group 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, or more or less.

画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region 113A, the unit group 131 includes four so-called Bayer arrays including four pixels of green pixels Gb and Gr, a blue pixel B, and a red pixel R in the vertical and horizontal directions. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band of incident light. Similarly, the blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band. The red pixel is a pixel having a red filter as the color filter 102 and receives light in the red wavelength band.

図3は、撮像チップの単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。   FIG. 3 is a circuit diagram corresponding to the unit group of the imaging chip. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. Note that at least some of the transistors described below correspond to the transistor 105 in FIG.

上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。   As described above, the unit group 131 is formed of 16 pixels. The 16 PDs 104 corresponding to the respective pixels are each connected to the transfer transistor 302. The gate of each transfer transistor 302 is connected to a TX wiring 307 to which a transfer pulse is supplied. In the present embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。   The drain of each transfer transistor 302 is connected to the source of the corresponding reset transistor 303, and a so-called floating diffusion FD (charge detection unit) between the drain of the transfer transistor 302 and the source of each reset transistor 303 is connected to the amplifier transistor 304. Connected to the gate. The drain of each reset transistor 303 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. The gate of each reset transistor 303 is connected to a reset wiring 306 to which a reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。   The drain of each amplification transistor 304 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. The source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. The gate of each selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In the present embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. The source of each selection transistor 305 is connected to a common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by a source follower. Note that the load current source 311 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。   Here, the flow from the start of charge accumulation to pixel output after the end of accumulation will be described. A reset pulse is applied to the reset transistor 303 through the reset wiring 306. At the same time, a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307. As a result, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。   When the application of the transfer pulse is canceled, the PD 104 converts the incident light to be received into electric charge and accumulates it. Thereafter, when the transfer pulse is applied again without the reset pulse being applied, the charge accumulated in the PD 104 is transferred to the floating diffusion FD. As a result, the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. When a selection pulse is applied to the selection transistor 305 through the decoder wiring 308, the change in the signal potential of the floating diffusion FD is transmitted to the output wiring 309 through the amplification transistor 304 and the selection transistor 305. By such an operation of the circuit, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。   As shown in FIG. 3, in the present embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit group 131. That is, the reset pulse and the transfer pulse are simultaneously applied to all 16 pixels. Therefore, all the pixels forming the unit group 131 start charge accumulation at the same timing and end charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output to the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. In addition, the reset wiring 306, the TX wiring 307, and the output wiring 309 are provided separately for each unit group 131.

このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。   By configuring the circuit with the unit group 131 as a reference in this way, the charge accumulation time can be controlled for each unit group 131. In other words, pixel signals with different charge accumulation times can be output between the unit groups 131. More specifically, while one unit group 131 performs charge accumulation once, the other unit group 131 repeats charge accumulation several times and outputs a pixel signal each time, so that Each frame for moving images can be output at a different frame rate between the unit groups 131.

図4は、撮像素子の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。   FIG. 4 is a block diagram illustrating a functional configuration of the image sensor. The analog multiplexer 411 sequentially selects the 16 PDs 104 that form the unit group 131. Then, the multiplexer 411 outputs each pixel signal of the 16 PDs 104 to the output wiring 309 provided corresponding to the unit group 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。   The analog pixel signal output through the multiplexer 411 is amplified by an amplifier 412 formed in the signal processing chip 111. Then, the pixel signal amplified by the amplifier 412 is formed in the signal processing chip 111 by a signal processing circuit 413 that performs correlated double sampling (CDS) / analog / digital (Analog / Digital) conversion. Correlated double sampling signal processing is performed, and A / D conversion (conversion from an analog signal to a digital signal) is performed. The pixel signal is subjected to correlated double sampling signal processing in the signal processing circuit 413, whereby noise of the pixel signal is reduced. The A / D converted pixel signal is transferred to the demultiplexer 414 and stored in the pixel memory 415 corresponding to each pixel. The demultiplexer 414 and the pixel memory 415 are formed in the memory chip 112.

演算回路416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。   The arithmetic circuit 416 processes the pixel signal stored in the pixel memory 415 and passes it to the subsequent image processing unit. The arithmetic circuit 416 may be provided in the signal processing chip 111 or may be provided in the memory chip 112. Note that FIG. 4 shows connections for one unit group 131, but actually these exist for each unit group 131 and operate in parallel. However, the arithmetic circuit 416 may not exist for each unit group 131. For example, one arithmetic circuit 416 may perform sequential processing while sequentially referring to the values in the pixel memory 415 corresponding to each unit group 131.

上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。   As described above, the output wiring 309 is provided corresponding to each of the unit groups 131. The image sensor 100 is formed by stacking an image pickup chip 113, a signal processing chip 111, and a memory chip 112. For this reason, by using the electrical connection between the chips using the bumps 109 for the output wirings 309, the wirings can be routed without enlarging each chip in the surface direction.

次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。   Next, blocks set in the pixel region 113A (see FIG. 2) of the image sensor 100 will be described. In the present embodiment, the pixel region 113A of the image sensor 100 is divided into a plurality of blocks. The plurality of blocks are defined to include at least one unit group 131 per block. In each block, pixels included in each block are controlled by different control parameters. That is, pixel signals having different control parameters are acquired for a pixel group included in a block and a pixel group included in another block. Examples of the control parameter include a charge accumulation time or accumulation count, a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which pixel signals are added, the number of digitization bits, and the like. Furthermore, the control parameter may be a parameter in image processing after obtaining an image signal from a pixel.

ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。この電荷蓄積時間のことを露光時間又はシャッター速度(シャッタースピード)ともいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体(すなわち撮像される対象物)の動きが滑らかになる。   Here, the charge accumulation time refers to the time from when PD 104 starts to accumulate charge until it ends. This charge accumulation time is also referred to as exposure time or shutter speed (shutter speed). The number of times of charge accumulation refers to the number of times the PD 104 accumulates charges per unit time. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The higher the frame rate, the smoother the movement of the subject (that is, the object to be imaged) in the moving image.

また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。   The gain means a gain factor (amplification factor) of the amplifier 412. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 100. In this case, the ISO sensitivity is a value representing the ability of the image sensor 100 to capture light. Increasing the gain improves the ISO sensitivity. For example, when the gain is doubled, the electrical signal (pixel signal) is also doubled, and the brightness is appropriate even when the amount of incident light is half. However, when the gain is increased, noise included in the electric signal is also amplified, so that noise increases.

また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者(撮影者)にとって解像度の低下は気にならないものと考えられる。   The thinning-out rate is the ratio of the number of pixels that do not read out pixel signals with respect to the total number of pixels in a predetermined area. For example, when the thinning rate of a predetermined area is 0, it means that pixel signals are read from all pixels in the predetermined area. Further, when the thinning rate of the predetermined area is 0.5, it means that the pixel signal is read from half of the pixels in the predetermined area. Specifically, when the unit group 131 is a Bayer array, it is read as a pixel from which pixel signals are alternately read out every other unit of the Bayer array in the vertical direction, that is, every two pixels (two rows) of the pixel unit. Pixels that are not output are set. It should be noted that the resolution of the image is reduced when the pixel signal readout is thinned out. However, since 20 million or more pixels are arranged in the image sensor 100, for example, even if thinning is performed at a thinning rate of 0.5, an image can be displayed with 10 million or more pixels. For this reason, it is considered that the reduction in resolution is not a concern for the user (photographer).

また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。   Further, the number of added rows refers to the number of vertical pixels (number of rows) to be added when pixel signals of pixels adjacent in the vertical direction are added. Further, the number of added columns refers to the number of horizontal pixels (number of columns) to be added when pixel signals of pixels adjacent in the horizontal direction are added. Such addition processing is performed in the arithmetic circuit 416, for example. The arithmetic circuit 416 performs the process of adding the pixel signals of a predetermined number of pixels adjacent in the vertical direction or the horizontal direction, thereby obtaining the same effect as the process of reading out the pixel signals by thinning out at a predetermined thinning rate. In the addition process described above, the average value may be calculated by dividing the added value by the number of rows or columns added by the arithmetic circuit 416.

また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。   The number of bits for digitization refers to the number of bits when the signal processing circuit 413 converts an analog signal into a digital signal in A / D conversion. As the number of bits of the digital signal increases, brightness, color change, and the like are expressed in more detail.

本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。   In the present embodiment, the accumulation condition refers to a condition related to charge accumulation in the image sensor 100. Specifically, the accumulation condition refers to the charge accumulation time or number of accumulations, the frame rate, and the gain among the control parameters described above. Since the frame rate can change according to the charge accumulation time and the number of times of accumulation, the frame rate is included in the accumulation condition. Further, the amount of light for proper exposure changes according to the gain, and the charge accumulation time or number of times of accumulation can also change according to the amount of light for proper exposure. For this reason, the gain is included in the accumulation condition.

また、撮像条件とは、被写体の撮像に関する条件をいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率)、撮像素子100からの信号を処理するための制御パラメータ(例えば、画素信号を加算する加算行数又は加算列数、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。   The imaging condition is a condition related to imaging of a subject. Specifically, the imaging condition refers to a control parameter including the above accumulation condition. The imaging conditions include control parameters (for example, charge accumulation time or accumulation count, frame rate, gain) for controlling the image sensor 100, as well as control parameters (for controlling reading of signals from the image sensor 100). For example, a thinning rate), a control parameter for processing a signal from the image sensor 100 (for example, the number of addition rows or addition columns for adding pixel signals, the number of digitization bits, the image processing unit 30 described later performs image processing) Is also included.

図5は、第1実施形態に係るデジタルカメラ(電子機器)の概略構成を示す横断面図である。第1実施形態に係る電子機器としてのデジタルカメラ1は、交換式レンズとしてのレンズ部10と、カメラ本体としてのカメラボディ2とを有している。カメラボディ2には、レンズ部10を装着するためのボディ側マウント部80Aが設けられている。また、レンズ部10には、ボディ側マウント部80Aと対応するレンズ側マウント部80Bが設けられている。使用者がボディ側マウント部80Aとレンズ側マウント部80Bとを接合することにより、レンズ部10がカメラボディ2に装着される。レンズ部10がカメラボディ2に装着されると、ボディ側マウント部80Aに設けられた電気接点81Aと、レンズ側マウント部80Bに設けられた電気接点81Bとが電気的に接続される。   FIG. 5 is a cross-sectional view illustrating a schematic configuration of the digital camera (electronic device) according to the first embodiment. A digital camera 1 as an electronic apparatus according to the first embodiment includes a lens unit 10 as an interchangeable lens and a camera body 2 as a camera body. The camera body 2 is provided with a body side mount portion 80A for mounting the lens portion 10. Further, the lens unit 10 is provided with a lens side mount unit 80B corresponding to the body side mount unit 80A. The lens unit 10 is attached to the camera body 2 when the user joins the body side mount 80A and the lens side mount 80B. When the lens unit 10 is mounted on the camera body 2, the electrical contact 81A provided on the body side mount 80A and the electrical contact 81B provided on the lens side mount 80B are electrically connected.

レンズ部10は、レンズ11a、ズーミング用レンズ11b、フォーカシング用レンズ11c、絞り14、レンズ駆動制御装置15などを備えている。図5に示すように、レンズ11a、ズーミング用レンズ11b、及びフォーカシング用レンズ11cは、撮影光学系11を構成する。なお、撮影光学系11には、図5に示すレンズ群よりも多い数のレンズが設けられてもよい。本実施形態では、カメラボディ2は、異なる種類の撮影光学系11を有する異なる交換式レンズ(レンズ部10)が装着可能である。   The lens unit 10 includes a lens 11a, a zooming lens 11b, a focusing lens 11c, a diaphragm 14, a lens drive control device 15, and the like. As shown in FIG. 5, the lens 11 a, the zooming lens 11 b, and the focusing lens 11 c constitute a photographing optical system 11. The photographing optical system 11 may be provided with a larger number of lenses than the lens group shown in FIG. In the present embodiment, the camera body 2 can be mounted with different interchangeable lenses (lens portions 10) having different types of photographing optical systems 11.

絞り14は、光量及びボケ量調整のために光軸中心に開口径が可変な開口を形成する。レンズ駆動制御装置15は、CPU(Central Processing Unit)、メモリ、駆動制御回路などを有している。なお、後述するように、CPUは図6に示すレンズ制御部13に相当する。また、後述するように、メモリは図6に示すレンズ記憶部12に相当する。   The aperture 14 forms an aperture with a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur. The lens drive control device 15 includes a CPU (Central Processing Unit), a memory, a drive control circuit, and the like. As will be described later, the CPU corresponds to the lens control unit 13 shown in FIG. Further, as will be described later, the memory corresponds to the lens storage unit 12 shown in FIG.

レンズ駆動制御装置15は、電気接点81A,81Bを介してカメラボディ2側のシステム制御部70との間で通信を行うことにより、撮影光学系11の特性に関するレンズ情報の送信と、制御情報(フォーカシング用レンズ11cの移動量、絞り14の絞り値など)の受信とを行う。また、レンズ駆動制御装置15は、システム制御部70からの制御情報に基づいて、フォーカシング用レンズ11cの焦点調節、絞り14の開口径調節のための駆動制御を行う。また、レンズ駆動制御装置15は、フォーカシング用レンズ11cの位置情報、及び絞り14の状態検出なども行う。なお、ズーミング用レンズ11bがマニュアル操作ではなく、パワーズーム操作の場合には、ズーミング用レンズ11bの制御情報や駆動制御を加えるようにしてもよい。   The lens drive control device 15 communicates with the system control unit 70 on the camera body 2 side via the electrical contacts 81A and 81B, thereby transmitting lens information related to the characteristics of the photographing optical system 11 and control information ( The amount of movement of the focusing lens 11c, the aperture value of the aperture 14 and the like). Further, the lens drive control device 15 performs drive control for adjusting the focus of the focusing lens 11 c and adjusting the aperture diameter of the stop 14 based on the control information from the system control unit 70. The lens drive control device 15 also performs position information of the focusing lens 11c, state detection of the diaphragm 14, and the like. When the zooming lens 11b is not operated manually but by a power zoom operation, control information and drive control of the zooming lens 11b may be added.

ここで、レンズ駆動制御装置15から送信されるレンズ情報としては、種別データ及び歪曲収差データを含んでいる。種別データは、レンズ部10に搭載されている撮影光学系11の種別(サイズ規格)に関する情報である。例えば、撮影光学系11の種別として、APS−Cサイズに対応した撮影光学系(レンズ)と、35mmフルサイズに対応した撮影光学系(レンズ)とがある。   Here, the lens information transmitted from the lens drive control device 15 includes type data and distortion aberration data. The type data is information related to the type (size standard) of the photographing optical system 11 mounted on the lens unit 10. For example, the types of the photographing optical system 11 include a photographing optical system (lens) corresponding to the APS-C size and a photographing optical system (lens) corresponding to the 35 mm full size.

APS−Cサイズは、撮像素子のサイズ規格の一つである。そのサイズがAPSシステム(APS:Advanced Photo System)のAPS−Cタイプフォーマットに近いことから、APS−Cサイズと呼ばれている。また、35mmフルサイズも、撮像素子のサイズ規格の一つである。そのサイズが135フィルム(35mmフィルム)を使用するデジタルカメラで広く用いられるサイズに近いことから、35mmフルサイズと呼ばれている。レンズ部10のメモリには、撮影光学系11がどのような種別の撮影光学系であるかを示す情報(すなわち、APS−Cサイズに対応した撮影光学系であるか、35mmフルサイズに対応した撮影光学系であるかを示す情報)が種別データとして記憶されている。なお、本実施形態においては、撮像部20には、35mmフルサイズの撮像素子(図1等に示す撮像素子100)が搭載されている。   The APS-C size is one of the size standards of the image sensor. Since the size is close to the APS-C type format of the APS system (APS: Advanced Photo System), it is called the APS-C size. The 35 mm full size is also one of the size standards of the image sensor. Since its size is close to the size widely used in digital cameras using 135 film (35 mm film), it is called 35 mm full size. In the memory of the lens unit 10, information indicating what type of photographing optical system the photographing optical system 11 is (that is, whether it is a photographing optical system corresponding to the APS-C size or 35 mm full size). Information indicating whether the optical system is a photographing optical system) is stored as type data. In the present embodiment, the imaging unit 20 is mounted with a 35 mm full-size imaging device (the imaging device 100 shown in FIG. 1 and the like).

歪曲収差データは、レンズ部10に搭載されている撮影光学系11の歪曲収差(ディストーション)に関する情報である。歪曲収差は、撮影光学系11の周辺部の像が歪む収差である。撮影光学系11によっては、長方形の像が形成されるべき個所において「たる型」の像が形成される。この歪曲収差は「たる型収差」と呼ばれる。レンズ部10のメモリには、撮影光学系11の設計段階で予め取得される歪曲収差に関する情報(すなわち、周辺部でどの程度の歪曲収差が生じるかを示す情報)が歪曲収差データとして記憶されている。   The distortion aberration data is information regarding distortion aberration (distortion) of the photographing optical system 11 mounted on the lens unit 10. The distortion aberration is an aberration in which an image in the peripheral portion of the photographing optical system 11 is distorted. Depending on the photographing optical system 11, a “ball shape” image is formed at a position where a rectangular image is to be formed. This distortion is called “barrel aberration”. In the memory of the lens unit 10, information on distortion aberration acquired in advance at the design stage of the photographing optical system 11 (that is, information indicating how much distortion aberration occurs in the peripheral portion) is stored as distortion aberration data. Yes.

カメラボディ2は、撮像素子100を含む撮像部20、画像処理部30、表示部50、記憶部60、システム制御部70などを備えている。レンズ部10を通過した光束により、撮像部20の撮像素子の受光面上に被写体像が形成される。この被写体像は撮像素子により光電変換され、撮像素子の各画素の画素信号が画像処理部30に送られる。画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、画像データを生成する。表示部50は、画像処理部30が生成した画像データを表示する。記憶部60は、画像処理部30が生成した画像データを記憶する。   The camera body 2 includes an imaging unit 20 including the imaging element 100, an image processing unit 30, a display unit 50, a storage unit 60, a system control unit 70, and the like. A subject image is formed on the light receiving surface of the imaging element of the imaging unit 20 by the light beam that has passed through the lens unit 10. This subject image is photoelectrically converted by the image sensor, and the pixel signal of each pixel of the image sensor is sent to the image processing unit 30. The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel to generate image data. The display unit 50 displays the image data generated by the image processing unit 30. The storage unit 60 stores the image data generated by the image processing unit 30.

なお、本明細書において、「画像データ」は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)を構成するデータであり、画像処理部30において画像処理が行われる前のデータ(すなわちRAWデータ)と画像処理が行われた後のデータとを含む。また、本明細書において、「RAWデータ」とは、画像処理部30において画像処理が行われる前の画像データのことをいう。また、本明細書において、「画像データ」のことを「画像信号」ということがある。   In this specification, “image data” is data constituting an image (still image, moving image, live view image) captured by the image capturing unit 20, and before image processing is performed in the image processing unit 30. Data (that is, RAW data) and data after image processing is performed. In the present specification, “RAW data” refers to image data before image processing is performed in the image processing unit 30. In the present specification, “image data” may be referred to as “image signal”.

また、本明細書において、ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。   In this specification, a live view image is an image that is displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 20. The live view image is also called a through image or a preview image.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。なお、システム制御部70の処理及び動作の詳細、及びカメラボディ2内の構成の詳細については、以下の図6において説明する。   The system control unit 70 controls the overall processing and operation of the digital camera 1. Details of processing and operation of the system control unit 70 and details of the configuration in the camera body 2 will be described with reference to FIG.

図6は、第1実施形態に係るデジタルカメラ(電子機器)の構成を示すブロック図である。図6に示すように、電子機器としてのデジタルカメラ1は、カメラボディ2と、レンズ部10とを備える。上述したように、レンズ部10は、カメラボディ2に対して着脱可能な交換式レンズである。   FIG. 6 is a block diagram illustrating a configuration of the digital camera (electronic device) according to the first embodiment. As shown in FIG. 6, a digital camera 1 as an electronic device includes a camera body 2 and a lens unit 10. As described above, the lens unit 10 is an interchangeable lens that can be attached to and detached from the camera body 2.

レンズ部10は、カメラボディ2に接続された状態において、被写体からの光束を撮像部20へ導く。このレンズ部10は、撮影光学系11、レンズ記憶部12、及びレンズ制御部13を有している。レンズ記憶部12は、上述した撮影光学系11の特性に関するレンズ情報(種別データ、歪曲収差データ)を記憶している。このレンズ記憶部12は、レンズ駆動制御装置15のメモリに相当する。   The lens unit 10 guides the luminous flux from the subject to the imaging unit 20 in a state where the lens unit 10 is connected to the camera body 2. The lens unit 10 includes a photographing optical system 11, a lens storage unit 12, and a lens control unit 13. The lens storage unit 12 stores lens information (type data, distortion aberration data) regarding the characteristics of the photographing optical system 11 described above. The lens storage unit 12 corresponds to a memory of the lens drive control device 15.

レンズ制御部13は、レンズ部10の処理及び動作を制御する。このレンズ制御部13は、レンズ駆動制御装置15のCPUが制御プログラムに基づいて実行する処理に相当する。本実施形態では、レンズ制御部13は、レンズ部10がカメラボディ2に接続されたか否かを判定する。そして、レンズ制御部13は、レンズ部10がカメラボディ2に接続されたと判定した場合に、レンズ記憶部12に記憶されているレンズ情報(種別データ、歪曲収差データ)をカメラボディ2のシステム制御部70に送信する。また、レンズ制御部13は、システム制御部70からの制御情報(移動量や絞り値など)に基づいて、AF(Automatic Focusing)処理やAE(Automatic Exposure)処理などに対応する制御も行う。すなわち、レンズ制御部13は、システム制御部70からの制御信号に基づいて、フォーカシング用レンズ11cの焦点調節や、絞り14の開口径調節のための駆動制御などを行う。図6に示すように、CPU(レンズ制御部13)を内蔵したレンズ部10のことをCPUレンズという。   The lens control unit 13 controls processing and operation of the lens unit 10. The lens control unit 13 corresponds to processing executed by the CPU of the lens drive control device 15 based on a control program. In the present embodiment, the lens control unit 13 determines whether or not the lens unit 10 is connected to the camera body 2. When the lens control unit 13 determines that the lens unit 10 is connected to the camera body 2, the lens control (type data, distortion aberration data) stored in the lens storage unit 12 is controlled by the system control of the camera body 2. To the unit 70. The lens control unit 13 also performs control corresponding to AF (Automatic Focusing) processing, AE (Automatic Exposure) processing, and the like based on control information (movement amount, aperture value, etc.) from the system control unit 70. That is, the lens control unit 13 performs focus control of the focusing lens 11c, drive control for adjusting the aperture diameter of the diaphragm 14, and the like based on a control signal from the system control unit 70. As shown in FIG. 6, the lens unit 10 incorporating the CPU (lens control unit 13) is called a CPU lens.

図6に示すように、カメラボディ2は、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、及びシステム制御部70を備える。   As shown in FIG. 6, the camera body 2 includes an imaging unit 20, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, and a system control unit 70.

撮像部20は、撮像素子100及び駆動部21を有している。撮像素子100は、少なくとも35mmフルサイズの画素領域(図2に示す画素領域113A参照)を備えている。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。   The imaging unit 20 includes an imaging element 100 and a drive unit 21. The image sensor 100 includes at least a 35 mm full-size pixel region (see the pixel region 113A shown in FIG. 2). The drive unit 21 is a control circuit that controls driving of the image sensor 100 in accordance with an instruction from the system control unit 70. Here, the drive unit 21 controls the timing (or timing cycle) at which the reset pulse and the transfer pulse are applied to the reset transistor 303 and the transfer transistor 302, respectively, thereby reducing the charge accumulation time or accumulation count as a control parameter. Control. In addition, the drive unit 21 controls the frame rate by controlling the timing (or timing cycle) at which the reset pulse, the transfer pulse, and the selection pulse are applied to the reset transistor 303, the transfer transistor 302, and the selection transistor 305, respectively. To do. The drive unit 21 controls the thinning rate by setting pixels to which the reset pulse, the transfer pulse, and the selection pulse are applied.

また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおいて、レンズ情報の種別データに応じた領域をブロック単位で設定する。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。   In addition, the drive unit 21 controls the ISO sensitivity of the image sensor 100 by controlling the gain (also referred to as gain factor or amplification factor) of the amplifier 412. In addition, the driving unit 21 sends an instruction to the arithmetic circuit 416 to set the number of added rows or the number of added columns to which the pixel signals are added. Further, the drive unit 21 sets the number of bits for digitization by sending an instruction to the signal processing circuit 413. Furthermore, in the pixel area (imaging area) 113 </ b> A of the image sensor 100, the driving unit 21 sets an area corresponding to the lens information type data in units of blocks. In this way, the drive unit 21 functions as an image sensor control unit that causes the image sensor 100 to capture an image under different image capturing conditions for each of a plurality of blocks and output a pixel signal. The system control unit 70 instructs the drive unit 21 on the block position, shape, range, and the like.

撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、画像データを生成する。画像処理部30は、以下の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。   The image sensor 100 delivers the pixel signal from the image sensor 100 to the image processing unit 30. The image processing unit 30 uses the work memory 40 as a work space, performs various image processing on the RAW data including the pixel signals of the respective pixels, and generates image data. The image processing unit 30 executes the following image processing. For example, the image processing unit 30 generates an RGB image signal by performing color signal processing (color tone correction) on a signal obtained by the Bayer array. The image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image signal. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50.

画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理(色調補正)、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。   Parameters that are referred to when the image processing unit 30 performs image processing are also included in the control parameters (imaging conditions). For example, parameters such as color signal processing (tone correction), white balance adjustment, gradation adjustment, and compression rate are included in the control parameters. The signal read from the image sensor 100 changes according to the charge accumulation time, and the parameters referred to when performing image processing also change according to the change in the signal. The image processing unit 30 sets different control parameters for each block, and executes image processing such as color signal processing based on these control parameters.

本実施形態では、画像処理部30は、図6に示すように、画像生成部31及び被写体検出部32を含む。画像生成部31は、撮像部20から出力される各画素の画素信号からなるRAWデータに対して種々の画像処理を施すことにより画像データを生成する。被写体検出部32は、画像生成部31で生成した画像データから主要被写体を検出する。本実施形態では、被写体検出部32は、公知の顔検出機能を用いて主要被写体の検出を行う。なお、被写体検出部32は、画像生成部31から時系列的に得られる複数の画像データを比較して、移動する被写体(移動被写体)を主要被写体として検出してもよい。また、被写体検出部32は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を主要被写体として検出してもよい。   In the present embodiment, the image processing unit 30 includes an image generation unit 31 and a subject detection unit 32 as shown in FIG. The image generation unit 31 generates image data by performing various kinds of image processing on the RAW data including pixel signals of each pixel output from the imaging unit 20. The subject detection unit 32 detects the main subject from the image data generated by the image generation unit 31. In the present embodiment, the subject detection unit 32 detects a main subject using a known face detection function. The subject detection unit 32 may detect a moving subject (moving subject) as a main subject by comparing a plurality of image data obtained in time series from the image generation unit 31. In addition to face detection, the subject detection unit 32 may detect a human body included in image data as a main subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940). Good.

ここで、「主要被写体」とは、撮像される対象物である被写体のうち、使用者(撮影者)に注目される被写体又は使用者に注目されると推定される被写体のことをいう。主要被写体は、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。   Here, the “main subject” refers to a subject that is an object to be imaged, a subject that is noticed by the user (photographer), or a subject that is estimated to be noticed by the user. The number of main subjects is not limited to one in the image data, and there may be a plurality of main subjects.

ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。この表示部50は、例えば液晶表示パネルによって構成されている。表示部50の表示画面上にはタッチパネル51が形成されている。タッチパネル51は、使用者がメニューの選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。   The work memory 40 temporarily stores image data and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays images (still images, moving images, live view images) and various types of information captured by the imaging unit 20. The display unit 50 is constituted by a liquid crystal display panel, for example. A touch panel 51 is formed on the display screen of the display unit 50. The touch panel 51 outputs a signal indicating a position touched by the user to the system control unit 70 when the user performs an operation such as menu selection.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動作の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。   The operation unit 55 is a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting an operation), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(図2に示す画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。   The system control unit 70 controls the overall processing and operation of the digital camera 1. The system control unit 70 has a CPU (Central Processing Unit). In the present embodiment, the system control unit 70 divides the imaging surface (pixel area 113A shown in FIG. 2) of the imaging device 100 (imaging chip 113) into a plurality of blocks, and different charge accumulation times (or charge accumulation times) among the blocks. ), And acquire the image at the frame rate and gain. Therefore, the system control unit 70 instructs the drive unit 21 about the block position, shape, range, and accumulation condition for each block.

また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。   In addition, the system control unit 70 causes an image to be acquired with a different thinning rate between blocks, the number of addition rows or addition columns to which pixel signals are added, and the number of digitization bits. For this reason, the system control unit 70 instructs the drive unit 21 on the imaging conditions for each block (the thinning rate, the number of added rows or columns to which pixel signals are added, and the number of digitization bits). Further, the image processing unit 30 executes image processing under imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate) that are different between blocks. For this reason, the system control unit 70 instructs the image processing unit 30 on the imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力させることにより、表示部50に画像を表示させる。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させることにより、表示部50に画像を表示させる。表示部50に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。   Further, the system control unit 70 causes the recording unit 60 to record the image data generated by the image processing unit 30. Further, the system control unit 70 causes the display unit 50 to display an image by causing the display unit 50 to output the image data generated in the image processing unit 30. Further, the system control unit 70 causes the display unit 50 to display an image by reading out the image data recorded in the recording unit 60 and causing the display unit 50 to output the image data. The images displayed on the display unit 50 include still images, moving images, and live view images.

本実施形態では、システム制御部70は、図6に示すように、制御部71、AF処理部(焦点調節部)72、及びAE処理部73を含む。制御部71は、レンズ部10がカメラボディ2に接続されたときに、電気接点81A,81Bを介してレンズ部10から送信されるレンズ情報を受信する。制御部71は、受信したレンズ情報の種別データに基づいて、レンズ部10に搭載されている撮影光学系11の種別を確認する。また、制御部71は、撮影光学系11の種別に応じて、撮像素子100の撮像領域(図2に示す画素領域113A)において撮影光学系11の種別に応じた領域をブロック単位で設定する(図7及び図9参照)。また、制御部71は、レンズ情報の歪曲収差データに基づいて、ブロック単位で設定した領域を歪曲収差に対応する領域に設定する(図10(A)参照)。   In the present embodiment, the system control unit 70 includes a control unit 71, an AF processing unit (focus adjustment unit) 72, and an AE processing unit 73, as shown in FIG. The control unit 71 receives lens information transmitted from the lens unit 10 through the electrical contacts 81A and 81B when the lens unit 10 is connected to the camera body 2. The control unit 71 confirms the type of the photographing optical system 11 mounted on the lens unit 10 based on the received lens data type data. Further, the control unit 71 sets an area corresponding to the type of the imaging optical system 11 in block units in the imaging area (the pixel area 113A shown in FIG. 2) of the imaging element 100 according to the type of the imaging optical system 11. (See FIG. 7 and FIG. 9). Further, the control unit 71 sets a region set in units of blocks to a region corresponding to the distortion aberration based on the distortion aberration data of the lens information (see FIG. 10A).

また、制御部71は、画素領域113Aに設定した領域ごとに異なる動作を実行させる。すなわち、制御部71は、画素領域113Aに設定した領域ごとの動作状態を「アクティブ状態」又は「スリープ状態」に設定する。なお、この第1実施形態では、制御部71は、撮影光学系11のイメージサークル内の矩形の領域(この領域は、表示部50において実際に画像が表示される領域に対応する撮像素子100上の領域である。)をアクティブ状態に設定し、その領域以外の領域(イメージサークル内の矩形の領域以外の領域、及びイメージサークル外の領域)をスリープ状態に設定する。なお、イメージサークルとは、撮影光学系11を通った光が撮像素子100の撮像面において結像する円形の範囲のことをいう。   Further, the control unit 71 executes different operations for each region set in the pixel region 113A. That is, the control unit 71 sets the operation state for each region set in the pixel region 113A to “active state” or “sleep state”. In the first embodiment, the control unit 71 controls the rectangular region in the image circle of the photographing optical system 11 (this region is on the image sensor 100 corresponding to the region where an image is actually displayed on the display unit 50). Is set to the active state, and regions other than that region (regions other than the rectangular region in the image circle and regions outside the image circle) are set to the sleep state. The image circle refers to a circular range in which light that has passed through the photographing optical system 11 forms an image on the imaging surface of the image sensor 100.

ここで、「アクティブ状態」は、領域内の各画素が動作可能な状態(撮像可能な状態)であることを意味する。このアクティブ状態の領域においては、駆動部21により各画素が駆動制御され、各画素から画素信号の読み出しが行われる。また、「スリープ状態」は、領域内の各画素が動作停止の状態(撮像停止の状態)であることを意味する。動作停止の状態としては、領域内の各画素において駆動部21による駆動制御が行われていない状態を含む。すなわち、駆動部21がリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305にパルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号の読み出しを行わない状態を含む。すなわち、駆動部21が選択トランジスタ305に対して選択パルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号を読み出すが、読み出した画素信号を使用しない状態を含む。例えば、信号処理チップ111などにおいて領域内の各画素から読み出した画素信号を廃棄する状態を含む。   Here, the “active state” means that each pixel in the region is operable (capable of imaging). In the active region, each pixel is driven and controlled by the drive unit 21 and a pixel signal is read from each pixel. Further, “sleep state” means that each pixel in the region is in an operation stop state (image pickup stop state). The operation stop state includes a state in which drive control by the drive unit 21 is not performed in each pixel in the region. That is, it includes a state in which the driving unit 21 does not apply a pulse to the reset transistor 303, the transfer transistor 302, and the selection transistor 305. Further, the operation stop state includes a state in which no pixel signal is read from each pixel in the region. That is, this includes a state in which the drive unit 21 does not apply a selection pulse to the selection transistor 305. The operation stop state includes a state in which a pixel signal is read from each pixel in the region, but the read pixel signal is not used. For example, the signal processing chip 111 or the like includes a state in which the pixel signal read from each pixel in the area is discarded.

また、制御部71は、アクティブ状態に設定した領域に対して撮像条件を設定する。第1実施形態では、制御部71は、例えば予め定められたライブビュー画像の撮像時の撮像条件(シャッター速度、フレームレート、ゲインなど)を設定する。また、制御部71は、アクティブ状態に設定した領域において撮像が行われるように、撮像素子100の駆動制御を実行する。また、制御部71は、画像生成部31によって生成された画像データを表示部50に出力させ、表示部50の表示画面に画像(静止画、動画、ライブビュー画像)を表示させる制御を行う。また、制御部71は、画像生成部31によって生成された画像データを記憶部60に出力させ、表示部50に画像データを記憶させる制御を行う。   In addition, the control unit 71 sets an imaging condition for the region set in the active state. In the first embodiment, the control unit 71 sets, for example, predetermined imaging conditions (shutter speed, frame rate, gain, etc.) at the time of capturing a live view image. In addition, the control unit 71 performs drive control of the imaging element 100 so that imaging is performed in the region set to the active state. In addition, the control unit 71 controls the display unit 50 to output the image data generated by the image generation unit 31 and display an image (still image, moving image, live view image) on the display screen of the display unit 50. In addition, the control unit 71 performs control for causing the storage unit 60 to output the image data generated by the image generation unit 31 and storing the image data in the display unit 50.

AF処理部72は、レリーズスイッチの半押し操作が行われたことに基づいて、コントラストAFと呼ばれる被写体のコントラストが最大となるように焦点調節処理(AF処理)を実行する(第2実施形態における図12のステップS24参照)。具体的には、AF処理部72は、電気接点81A,81Bを介して制御情報をレンズ制御部13に対して送信することにより、レンズ制御部13にフォーカシング用レンズ11cを移動させる。また、AF処理部72は、撮像部20が撮像した被写体の像のコントラスト(ここで、被写体検出部32が主要被写体を検出した場合は、その主要被写体の像のコントラスト)を表すコントラスト信号を画像処理部30から取得する。AF処理部72は、フォーカシング用レンズ11cを移動させながら、画像処理部30からのコントラスト信号に基づいて、被写体の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部72は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御信号をレンズ制御部13に送信する。   The AF processing unit 72 performs focus adjustment processing (AF processing) so that the contrast of the subject called contrast AF is maximized based on the half-press operation of the release switch (in the second embodiment). (See step S24 in FIG. 12). Specifically, the AF processing unit 72 moves the focusing lens 11c to the lens control unit 13 by transmitting control information to the lens control unit 13 via the electrical contacts 81A and 81B. In addition, the AF processing unit 72 outputs a contrast signal representing the contrast of the subject image captured by the imaging unit 20 (where the subject detection unit 32 detects the main subject, the contrast of the main subject image). Obtained from the processing unit 30. The AF processing unit 72 detects the position of the focusing lens 11c at which the contrast of the subject image is the highest as the focal position based on the contrast signal from the image processing unit 30 while moving the focusing lens 11c. The AF processing unit 72 transmits a control signal to the lens control unit 13 so as to move the focusing lens 11c to the detected focal position.

AE処理部73は、レリーズスイッチの半押し操作が行われたことに基づいてAE処理を実行する(第2実施形態における図12のステップS25参照)。具体的には、AE処理部73は、画像の輝度分布を示す輝度分布データを画像処理部30から取得する。そして、AE処理部73は、輝度分布データに基づいて、適正露出となるような撮像条件(シャッター速度(露光時間、電荷蓄積時間)、絞り値、及びゲイン(ISO感度)を決定する。また、AE処理部73は、動画を撮像する場合は、輝度分布データに基づいて、適正露出となるようなフレームレート、シャッター速度、絞り値、及びゲイン(ISO感度)を決定する。このとき、AE処理部73は、輝度分布データに基づいて、撮像素子100の撮像領域113Aにおけるブロックごとに適正露出となるような撮像条件を決定することが可能である。   The AE processing unit 73 performs AE processing based on the half-pressing operation of the release switch (see step S25 in FIG. 12 in the second embodiment). Specifically, the AE processing unit 73 acquires luminance distribution data indicating the luminance distribution of the image from the image processing unit 30. Then, the AE processing unit 73 determines an imaging condition (shutter speed (exposure time, charge accumulation time), aperture value, and gain (ISO sensitivity) based on the luminance distribution data. When capturing a moving image, the AE processing unit 73 determines a frame rate, a shutter speed, an aperture value, and a gain (ISO sensitivity) that achieves proper exposure based on the luminance distribution data. Based on the luminance distribution data, the unit 73 can determine an imaging condition that provides appropriate exposure for each block in the imaging region 113A of the imaging device 100.

AE処理部73は、決定した適正露出に応じた絞り値を示す制御情報をレンズ制御部13(すなわち、レンズ駆動制御装置15)に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部73は、適正露出に応じたシャッター速度(電荷蓄積時間)、ゲイン(ISO感度)、及びフレームレートを指示する指示信号を駆動部21に出力する。駆動部21は、指示信号により指示されたシャッター速度、ゲイン、及びフレームレートで撮像素子100を駆動制御する。   The AE processing unit 73 transmits control information indicating an aperture value corresponding to the determined appropriate exposure to the lens control unit 13 (that is, the lens drive control device 15), thereby driving control for adjusting the aperture diameter of the aperture 14. Is executed. Further, the AE processing unit 73 outputs an instruction signal for instructing a shutter speed (charge accumulation time), a gain (ISO sensitivity), and a frame rate according to appropriate exposure to the drive unit 21. The drive unit 21 drives and controls the image sensor 100 at the shutter speed, gain, and frame rate specified by the instruction signal.

なお、システム制御部70において、制御部71、AF処理部72、及びAE処理部73は、それぞれCPUが制御プログラムに基づいて処理を実行することにより実現される。   In the system control unit 70, the control unit 71, the AF processing unit 72, and the AE processing unit 73 are realized by the CPU executing processing based on the control program.

なお、上記した例では、AF処理部72は、レリーズスイッチの半押し操作が行われたことに基づいてAF処理を実行するように構成していたが、AF処理部72は、ライブビュー画像の撮影中、及び動画の撮影中においてもAF処理を実行するようにしてもよい。また、AE処理部73は、レリーズスイッチの半押し操作が行われたことに基づいてAE処理を実行するように構成していたが、AE処理部73は、ライブビュー画像の撮影中、及び動画の撮影中においてもAE処理を実行するようにしてもよい。   In the example described above, the AF processing unit 72 is configured to execute the AF processing based on the half-press operation of the release switch. The AF process may be executed even during shooting and during moving image shooting. Further, the AE processing unit 73 is configured to execute the AE processing based on the half-press operation of the release switch. However, the AE processing unit 73 is configured to capture the live view image and the moving image. The AE process may be executed even during shooting.

図7は、サイズ規格の異なるイメージサークルとイメージサークル内に設定される領域とを示す図である。図7(A)は、35mmフルサイズに対応した撮影光学系のイメージサークル200と、そのイメージサークル200内に設定される矩形の領域210とを示す。また、図7(B)は、APS−Cサイズに対応した撮影光学系のイメージサークル220と、そのイメージサークル220内に設定される矩形の領域230とを示す。また、図7(C)は、2つのイメージサークル200,220の中心を一致させつつ、図7(A)と図7(B)とを重ね合わせた状態を示す。   FIG. 7 is a diagram illustrating image circles having different size standards and regions set in the image circle. FIG. 7A shows an image circle 200 of the photographing optical system corresponding to the full size of 35 mm, and a rectangular region 210 set in the image circle 200. FIG. FIG. 7B shows an image circle 220 of the photographing optical system corresponding to the APS-C size, and a rectangular area 230 set in the image circle 220. FIG. 7C shows a state in which FIGS. 7A and 7B are overlapped while the centers of the two image circles 200 and 220 are matched.

図7(A)における領域210は、35mmフルサイズに対応した撮影光学系11を搭載したレンズ部10がカメラボディ2に装着された場合に、表示部50に表示可能な画像の領域に対応する。また、図7(B)における領域230は、APS−Cサイズに対応した撮影光学系11を搭載したレンズ部10がカメラボディ2に装着された場合に、表示部50に表示可能な画像の領域に対応する。   A region 210 in FIG. 7A corresponds to a region of an image that can be displayed on the display unit 50 when the lens unit 10 on which the photographing optical system 11 corresponding to the full size of 35 mm is mounted on the camera body 2. . An area 230 in FIG. 7B is an image area that can be displayed on the display unit 50 when the lens unit 10 equipped with the imaging optical system 11 corresponding to the APS-C size is attached to the camera body 2. Corresponding to

本実施形態において、撮像素子100として35mmフルサイズの撮像素子が搭載されている。35mmフルサイズの撮像素子100は、その撮像領域が広いため、35mmフルサイズに対応した撮影光学系を通した被写体像を撮像することが可能であるとともに、APS−Cサイズに対応した撮影光学系を通した被写体像を撮像することが可能である。しかし、35mmフルサイズの撮像素子にとっては、APS−Cサイズに対応した撮影光学系のイメージサークルは小さすぎる。この場合、従来は、35mmフルサイズの撮像素子においてAPS−Cサイズの領域だけを使用することができなかった。そのため、35mmフルサイズの撮像素子の全画素から信号の読み出しを行い、必要な領域(APS−Cサイズの領域)以外の領域の信号については、画像処理部30における後処理などでトリミングを行う必要があった。このような構成では、撮像素子において消費電力が増大するとともに、撮像素子の過度の発熱をまねくおそれがある。また、撮像素子からの信号処理や、画像データの画像処理の高速化に不利になってしまう。   In the present embodiment, a 35 mm full-size image sensor is mounted as the image sensor 100. The 35 mm full-size imaging device 100 has a wide imaging area, so that it can capture a subject image through a photographing optical system compatible with the 35 mm full size and also has a photographing optical system compatible with the APS-C size. It is possible to capture a subject image that passes through. However, the image circle of the photographing optical system corresponding to the APS-C size is too small for a 35 mm full size image sensor. In this case, conventionally, only an APS-C size region could not be used in a 35 mm full-size image sensor. Therefore, it is necessary to read out signals from all pixels of the 35 mm full-size image sensor, and to perform trimming of signals in regions other than the necessary region (APS-C size region) by post-processing in the image processing unit 30 or the like. was there. In such a configuration, power consumption increases in the image sensor, and excessive heat generation of the image sensor may occur. In addition, it is disadvantageous for speeding up signal processing from the image sensor and image processing of image data.

これに対して、本実施形態では、制御部71は、異なるサイズ規格の撮影光学系11に対応した領域210又は230を画素領域113Aに設定する。そして、制御部71は、異なるサイズ規格の撮影光学系11に対応した領域210又は230をアクティブ状態に設定する。このような構成により、35mmフルサイズの撮像素子100を搭載したデジタルカメラ1において、イメージサークルの小さいAPS−Cサイズに対応した撮影光学系11を用いた場合であっても、撮像素子100の全画素からの信号の読み出しを行う必要はない。従って、撮像素子100において省電力化を実現することができるとともに、撮像素子100の過度の発熱を防止することができる。また、余分な信号処理や画像処理を省略することができるため、信号処理や画像処理の高速化を実現することができる。   On the other hand, in the present embodiment, the control unit 71 sets the area 210 or 230 corresponding to the photographing optical system 11 having a different size standard as the pixel area 113A. Then, the control unit 71 sets the area 210 or 230 corresponding to the photographing optical system 11 having a different size standard to the active state. With such a configuration, in the digital camera 1 in which the 35 mm full-size image sensor 100 is mounted, even when the imaging optical system 11 corresponding to the APS-C size with a small image circle is used, the entire image sensor 100 is used. There is no need to read out signals from the pixels. Therefore, power saving can be realized in the image sensor 100, and excessive heat generation of the image sensor 100 can be prevented. In addition, since extra signal processing and image processing can be omitted, it is possible to increase the speed of signal processing and image processing.

次に、デジタルカメラ1の撮影前処理について説明する。図8は、撮影前処理の一例を示すシーケンス図である。なお、図8に示す撮影前処理は、例えば、使用者によりカメラボディ2にレンズ部10が装着されるととともに、カメラボディ2の電源が投入されることにより実行される。ただし、この撮影前処理は、カメラボディ2の電源が投入された後に、カメラボディ2にレンズ部10が装着されることにより実行されてもよい。   Next, pre-shooting processing of the digital camera 1 will be described. FIG. 8 is a sequence diagram illustrating an example of pre-shooting processing. Note that the pre-shooting process shown in FIG. 8 is executed, for example, when the user attaches the lens unit 10 to the camera body 2 and powers on the camera body 2. However, this pre-shooting process may be executed by attaching the lens unit 10 to the camera body 2 after the camera body 2 is powered on.

図8に示す処理では、カメラボディ2において、システム制御部70の制御部71は、レンズ部10との接続確認を行う(ステップS1)。また、レンズ部10において、レンズ制御部13は、カメラボディ2との接続確認を行う(ステップS11)。制御部71及びレンズ制御部13は、それぞれ、電気接点81A,81Bが接続されたことを確認することにより、ステップS1及びS11の接続確認を行う。   In the process shown in FIG. 8, in the camera body 2, the control unit 71 of the system control unit 70 confirms the connection with the lens unit 10 (step S1). Further, in the lens unit 10, the lens control unit 13 confirms connection with the camera body 2 (step S11). The control unit 71 and the lens control unit 13 confirm the connection in steps S1 and S11 by confirming that the electrical contacts 81A and 81B are connected, respectively.

レンズ制御部13は、カメラボディ2との接続確認(ステップS1)を行った後、レンズ記憶部12に記憶されているレンズ部10固有のレンズ情報(種別データ、歪曲収差データ)を、電気接点81A,81Bを介してシステム制御部70に送信する(ステップS12)。制御部71は、レンズ制御部13から送信されたレンズ情報を受信する(ステップS2)。そして、制御部71は、レンズ情報の種別データに基づいて、撮影光学系11の種別を確認する(ステップS3)。すなわち、制御部71は、撮影光学系11の種別がAPS−Cサイズに対応した撮影光学系であるか、35mmフルサイズに対応した撮影光学系であるかを確認する。そして、制御部71は、撮影光学系11の種別に応じて、撮像素子100の撮像領域113Aにおいて撮影光学系11の種別に応じた領域(領域210又は領域230)を設定する(ステップS4)。   After confirming the connection with the camera body 2 (step S1), the lens control unit 13 uses the lens information (type data, distortion aberration data) unique to the lens unit 10 stored in the lens storage unit 12 as an electrical contact. The data is transmitted to the system control unit 70 via 81A and 81B (step S12). The control unit 71 receives the lens information transmitted from the lens control unit 13 (step S2). And the control part 71 confirms the classification of the imaging optical system 11 based on the classification data of lens information (step S3). That is, the control unit 71 confirms whether the type of the photographing optical system 11 is a photographing optical system corresponding to the APS-C size or a photographing optical system corresponding to the 35 mm full size. And the control part 71 sets the area | region (area | region 210 or area | region 230) according to the classification of the imaging optical system 11 in the imaging area 113A of the image pick-up element 100 according to the classification of the imaging optical system 11 (step S4).

具体的には、図7に示すように、撮影光学系11の種別が35mmフルサイズに対応した撮影光学系である場合は、制御部71は、その撮影光学系のイメージサークル200内の矩形の領域210を、35mmフルサイズの領域として設定する。また、図7に示すように、撮影光学系11の種別がAPS−Cサイズに対応した撮影光学系である場合は、制御部71は、その撮影光学系のイメージサークル220内の矩形の領域230を、APS−Cサイズの領域として設定する。なお、領域210は、少なくとも撮像素子100の画素領域(撮像領域)113Aよりも小さい領域であればよく、画素領域113Aと同じ又は近い大きさの領域であってもよい。   Specifically, as shown in FIG. 7, when the type of the photographing optical system 11 is a photographing optical system corresponding to the full size of 35 mm, the control unit 71 has a rectangular shape in the image circle 200 of the photographing optical system. Region 210 is set as a 35 mm full size region. As shown in FIG. 7, when the type of the photographing optical system 11 is a photographing optical system corresponding to the APS-C size, the control unit 71 has a rectangular area 230 in the image circle 220 of the photographing optical system. Is set as an APS-C size area. The area 210 may be an area that is at least smaller than the pixel area (imaging area) 113A of the image sensor 100, and may be an area that is the same as or close to the pixel area 113A.

また、制御部71は、ステップS4の処理において、撮像素子100の画素領域113Aにおける領域ごとの動作状態を設定する。図9は、第1実施形態における領域ごとの動作状態を示す図である。図9に示すように、制御部71は、画素領域113Aにおいて領域230を設定した場合は、領域230をアクティブ状態に設定し、画素領域113Aにおける領域230以外の領域をスリープ状態に設定する。一方、図9には示していないが、制御部71は、画素領域113Aにおいて領域210を設定した場合は、領域210をアクティブ状態に設定し、画素領域113Aにおける領域210以外の領域をスリープ状態に設定する。   Further, the control unit 71 sets an operation state for each region in the pixel region 113A of the image sensor 100 in the process of step S4. FIG. 9 is a diagram illustrating an operation state for each region in the first embodiment. As illustrated in FIG. 9, when the region 230 is set in the pixel region 113A, the control unit 71 sets the region 230 to an active state and sets a region other than the region 230 in the pixel region 113A to a sleep state. On the other hand, although not shown in FIG. 9, when the region 210 is set in the pixel region 113A, the control unit 71 sets the region 210 to the active state, and sets the region other than the region 210 in the pixel region 113A to the sleep state. Set.

次に、制御部71は、レンズ情報の歪曲収差データに基づいて、ステップS4で設定した領域210又は領域230に対して、歪曲収差に対応する領域を設定する(ステップS5)。図10は、歪曲収差に対応する領域を示す図である。ステップS5において、制御部71は、歪曲収差データに基づいて、撮影光学系11の周辺部においてどの程度の歪曲収差(たる型収差)が生じるかを確認する。制御部71は、領域210又は領域230に対して、歪曲収差に対応する領域を設定する。矩形の領域210又は領域230と、歪曲収差に対応する領域とによって、被写体の撮像を行う領域がたる型に変形される。   Next, the control unit 71 sets a region corresponding to the distortion aberration for the region 210 or the region 230 set in step S4 based on the distortion data of the lens information (step S5). FIG. 10 is a diagram illustrating a region corresponding to distortion. In step S <b> 5, the control unit 71 confirms how much distortion (ball aberration) occurs in the peripheral part of the photographing optical system 11 based on the distortion aberration data. The control unit 71 sets a region corresponding to distortion aberration for the region 210 or the region 230. The area where the subject is imaged is transformed into a barrel shape by the rectangular area 210 or area 230 and the area corresponding to the distortion.

図10(A)に示す例では、撮像素子100の画素領域113Aにおいて領域230が設定されている。制御部71は、歪曲収差データに基づいて、領域230の外周側に、たる型収差に対応する領域220A〜220Dを設定する。このように、矩形の領域230と、たる型収差に対応する領域220A〜220Dとによって、撮像素子100における被写体の撮像を行う領域が領域230の周囲が膨らんだ「たる型」の形となる。   In the example illustrated in FIG. 10A, the region 230 is set in the pixel region 113 </ b> A of the image sensor 100. The control unit 71 sets regions 220 </ b> A to 220 </ b> D corresponding to barrel aberration on the outer peripheral side of the region 230 based on the distortion aberration data. As described above, the rectangular region 230 and the regions 220 </ b> A to 220 </ b> D corresponding to the barrel aberration become a “ball shape” in which the region where the subject is imaged in the image sensor 100 swells around the region 230.

また、制御部71は、ステップS5においてたる型収差に対応する領域220A〜220Dを設定した場合は、たる型収差に対応する領域220A〜220Dをアクティブ状態に設定する。これにより、撮像素子100において被写体の撮像を行う領域が歪曲収差に応じたたる型の形となる。このように、撮像素子100がたる型の領域(領域230及び領域220A〜220D)において撮像を行うことにより、画像処理部30において容易に歪曲収差による画像の歪みの補正を容易に実行することができる。すなわち、図10(A)に示すように、撮像素子100は、歪曲収差によって、たる型に歪曲(拡大)し得る領域(領域230及び領域220A〜220D)を予め撮像しておく。そして、画像処理部30は、歪曲収差による実際の画像の歪みを判定し、判定した実際の画像の歪みに基づいて画像の歪みの補正を行う。この場合、仮に、撮像素子100が領域230について撮像していた場合は、画像処理部30が画像の歪みの補正を行うと、図10(B)に示すように、表示部50の表示画面における周囲の領域50A〜50Dの画像が欠損してしまう。一方、撮像素子100が領域230及び領域220A〜220Dについて撮像していた場合は、画像処理部30が画像の歪みの補正を行うと、図10(B)に示すように、画像処理部30によって表示部50の表示画面の全面における画像データが生成され、表示部50の全面において画像が表示される。なお、画像処理部30は、画像の歪み補正に必要な画像データ以外の余分な画像データについてはトリミングを行う。   Further, when the regions 220A to 220D corresponding to the barrel aberration are set in step S5, the control unit 71 sets the regions 220A to 220D corresponding to the barrel aberration to the active state. As a result, the area where the subject is imaged in the image sensor 100 has a barrel shape corresponding to the distortion. As described above, by performing imaging in the region where the image sensor 100 is a barrel (region 230 and regions 220A to 220D), the image processing unit 30 can easily execute correction of image distortion due to distortion. it can. That is, as shown in FIG. 10A, the image sensor 100 captures in advance an area (area 230 and areas 220A to 220D) that can be distorted (enlarged) into a barrel shape by distortion. Then, the image processing unit 30 determines the actual image distortion due to the distortion, and corrects the image distortion based on the determined actual image distortion. In this case, if the image pickup device 100 is picking up an image of the region 230, when the image processing unit 30 corrects the distortion of the image, as shown in FIG. The images in the surrounding areas 50A to 50D are lost. On the other hand, when the image sensor 100 captures the region 230 and the regions 220A to 220D, when the image processing unit 30 corrects the distortion of the image, as illustrated in FIG. Image data on the entire display screen of the display unit 50 is generated, and an image is displayed on the entire display unit 50. Note that the image processing unit 30 trims extra image data other than the image data necessary for image distortion correction.

次に、制御部71は、ステップS4,S5でアクティブ状態に設定した領域(領域210又は領域230)における撮像条件(電荷蓄積時間、ゲインなど)を設定する(ステップS6)。このとき、制御部71は、例えば、予め定められている撮像条件を指示する指示信号を駆動部21に出力する。駆動部21は、制御部71からの指示信号に基づいて、アクティブ状態に設定した領域における撮像条件を設定する。なお、制御部71は、使用者の操作部55又はタッチパネル51の操作に応じて、撮像条件を設定するように構成されてもよい。なお、本実施形態では、制御部71は、ステップS4,S5でアクティブ状態に設定した領域(領域210又は領域230)に対して同じ撮像条件を設定する。   Next, the control unit 71 sets imaging conditions (charge accumulation time, gain, etc.) in the region (region 210 or region 230) set to the active state in steps S4 and S5 (step S6). At this time, the control unit 71 outputs, for example, an instruction signal for instructing a predetermined imaging condition to the drive unit 21. Based on the instruction signal from the control unit 71, the drive unit 21 sets the imaging condition in the region set to the active state. The control unit 71 may be configured to set the imaging condition in accordance with the operation of the operation unit 55 or the touch panel 51 by the user. In the present embodiment, the control unit 71 sets the same imaging condition for the region (region 210 or region 230) set to the active state in steps S4 and S5.

なお、制御部が図8に示すデジタルカメラ1の撮影前処理を実行した後に、デジタルカメラ1の撮影処理を実行する。ただし、デジタルカメラ1の撮影処理については、第2実施形態以降において説明する(図11〜図13参照)。   Note that after the control unit executes the pre-shooting process of the digital camera 1 shown in FIG. 8, the shooting process of the digital camera 1 is executed. However, the photographing process of the digital camera 1 will be described in the second and subsequent embodiments (see FIGS. 11 to 13).

以上に説明したように、第1実施形態によれば、複数種類の撮影光学系11に対応可能な撮像素子100を有する撮像部20と、交換可能なレンズ部10からの撮影光学系の特性に関するレンズ情報に応じて、撮像素子100の撮像領域113Aにおいてアクティブ状態とする領域210又は230を設定する制御部71とを備える。このような構成によれば、撮像素子100の撮像領域113Aにおいて撮影光学系11に応じた領域(領域210、領域230)を使用することができる。その結果、撮像素子100において省電力化を実現することができるとともに、撮像素子100の過度の発熱を防止することができる。また、撮像部20や画像処理部30において余分な信号処理や画像処理を省略することができるため、信号処理や画像処理の高速化を実現することができる。   As described above, according to the first embodiment, the imaging unit 20 having the imaging element 100 capable of handling a plurality of types of imaging optical systems 11 and the characteristics of the imaging optical system from the interchangeable lens unit 10 are described. A control unit 71 that sets an area 210 or 230 to be activated in the imaging area 113A of the imaging element 100 according to lens information. According to such a configuration, it is possible to use areas (area 210 and area 230) corresponding to the imaging optical system 11 in the imaging area 113 </ b> A of the imaging device 100. As a result, power saving can be realized in the image sensor 100, and excessive heat generation of the image sensor 100 can be prevented. Further, since extra signal processing and image processing can be omitted in the imaging unit 20 and the image processing unit 30, it is possible to realize speeding up of signal processing and image processing.

また、第1実施形態によれば、レンズ情報は、撮影光学系11のサイズに関する情報を含み、制御部71は、サイズに関する情報に基づいて、撮像領域113Aのうち撮影光学系11のイメージサークル220内の領域とイメージサークル220外の領域とを設定する。このような構成によれば、撮影光学系11のサイズに応じたイメージサークルに対応する領域(領域210、領域230)を使用することができる。   Further, according to the first embodiment, the lens information includes information regarding the size of the photographing optical system 11, and the control unit 71, based on the information regarding the size, the image circle 220 of the photographing optical system 11 in the imaging region 113A. An inner area and an area outside the image circle 220 are set. According to such a configuration, it is possible to use areas (area 210 and area 230) corresponding to the image circle corresponding to the size of the photographing optical system 11.

また、第1実施形態によれば、レンズ情報は、撮影光学系11の歪曲収差に関する情報を含み、制御部71は、歪曲収差に関する情報に基づいて、矩形の領域(例えば図10の領域230)を撮影光学系11の歪曲収差に対応する領域(例えば、図10の領域220A〜220D)に設定する。このような構成によれば、画像処理部30において歪曲収差による画像の歪みの補正を容易に実行することができる。   Further, according to the first embodiment, the lens information includes information related to the distortion aberration of the photographing optical system 11, and the control unit 71 has a rectangular area (for example, the area 230 in FIG. 10) based on the information related to the distortion aberration. Is set in a region (for example, regions 220A to 220D in FIG. 10) corresponding to the distortion aberration of the photographing optical system 11. According to such a configuration, the image processing unit 30 can easily execute correction of image distortion due to distortion.

<第2実施形態>
上記した第1実施形態では、図7(B)及び図9に示したように、制御部71は、イメージサークル220内の矩形の領域230をアクティブ状態に設定し、その領域230以外の領域をスリープ状態に設定していた。しかし、第2実施形態では、制御部71は、イメージサークル220内の領域をアクティブ状態に設定し、イメージサークル220外の領域をスリープ状態に設定する。また、第2実施形態では、制御部71は、イメージサークル220内の矩形の領域230と、イメージサークル220内の矩形の領域230以外の領域とで異なる撮像条件を設定する。また、第2実施形態では、被写体検出部32がイメージサークル220内の領域において主要被写体の検出を行うとともに、AF処理部72がイメージサークル220内の領域の主要被写体に対して焦点調節を行う。なお、第2実施形態では、APS−Cサイズに対応する撮影光学系11を有するレンズ部10がカメラボディ2に装着されたものとして説明する。
Second Embodiment
In the first embodiment described above, as shown in FIGS. 7B and 9, the control unit 71 sets the rectangular area 230 in the image circle 220 to the active state, and sets the areas other than the area 230 to the active area. It was set to sleep. However, in the second embodiment, the control unit 71 sets the area inside the image circle 220 to the active state and sets the area outside the image circle 220 to the sleep state. In the second embodiment, the control unit 71 sets different imaging conditions for the rectangular region 230 in the image circle 220 and the region other than the rectangular region 230 in the image circle 220. In the second embodiment, the subject detection unit 32 detects a main subject in an area in the image circle 220, and the AF processing unit 72 performs focus adjustment on the main subject in the area in the image circle 220. In the second embodiment, description will be made assuming that the lens unit 10 having the photographing optical system 11 corresponding to the APS-C size is attached to the camera body 2.

図11は、第2実施形態における領域ごとの動作状態を示す図である。図11に示すように、イメージサークル220内の領域は、矩形の領域230と、矩形の領域230以外の領域(矩形の領域230の周囲の領域)すなわち領域221A,221B,221C,221Dとからなる。以下の各実施形態においては、イメージサークル220内の矩形の領域230のことを「第1領域」といい、イメージサークル220内の領域221A,221B,221C,221Dのことを「第2領域」という。図11に示すように、第2実施形態では、撮像素子100の画素領域(撮像領域)113A(図11に示す例では領域210)において、イメージサークル220内の領域(第1領域230、第2領域221A,221B,221C,221D)がアクティブ状態に設定され、イメージサークル220外の領域がスリープ状態に設定されている。   FIG. 11 is a diagram illustrating an operation state for each region in the second embodiment. As shown in FIG. 11, the area in the image circle 220 includes a rectangular area 230 and areas other than the rectangular area 230 (areas around the rectangular area 230), that is, areas 221A, 221B, 221C, and 221D. . In each of the following embodiments, the rectangular region 230 in the image circle 220 is referred to as a “first region”, and the regions 221A, 221B, 221C, and 221D in the image circle 220 are referred to as “second regions”. . As shown in FIG. 11, in the second embodiment, in the pixel region (imaging region) 113 </ b> A (region 210 in the example shown in FIG. 11) of the image sensor 100, the regions (first region 230, second region) in the image circle 220. Regions 221A, 221B, 221C, and 221D) are set to the active state, and regions outside the image circle 220 are set to the sleep state.

表示部50に表示される画像の領域に対応する領域は、イメージサークル220内の矩形の領域(第1領域)230である。従って、本来、第1領域230で撮像を行えばよく、第2領域221A〜221Dにおいて撮像を行う必要がない。しかし、この第2実施形態では、被写体検出部32は、第1領域230における画像データに基づいて主要被写体の検出を行うだけでなく、第2領域221A〜221Dにおける画像データに基づいて主要被写体の検出を行う。また、AF処理部72は、第1領域230における主要被写体に対して焦点調節を行うだけでなく、第2領域221A〜221Dにおける主要被写体に対しても焦点調節を行う。このことから、制御部71は、第1領域230だけでなく、第2領域221A〜221Dについてもアクティブ状態に設定し、その第2領域221A〜221Dにおいて撮像部20に撮像を実行させる。   A region corresponding to the region of the image displayed on the display unit 50 is a rectangular region (first region) 230 in the image circle 220. Therefore, it is only necessary to perform imaging in the first region 230, and it is not necessary to perform imaging in the second regions 221A to 221D. However, in the second embodiment, the subject detection unit 32 not only detects the main subject based on the image data in the first region 230 but also detects the main subject based on the image data in the second regions 221A to 221D. Perform detection. The AF processing unit 72 not only performs focus adjustment on the main subject in the first region 230 but also performs focus adjustment on the main subject in the second regions 221A to 221D. Therefore, the control unit 71 sets not only the first region 230 but also the second regions 221A to 221D to the active state, and causes the imaging unit 20 to perform imaging in the second regions 221A to 221D.

次に、デジタルカメラ1の撮影処理について説明する。図12は、撮影処理の一例を示すフローチャートである。図12に示す撮影処理は、第1実施形態で説明した撮影前処理(図8参照)が行われた後に実行される。   Next, the photographing process of the digital camera 1 will be described. FIG. 12 is a flowchart illustrating an example of the shooting process. The photographing process shown in FIG. 12 is executed after the pre-shooting process (see FIG. 8) described in the first embodiment is performed.

第2実施形態では、第1実施形態で説明した撮影前処理において、制御部71は以下のような設定を行ったものとする。まず、制御部71は、図8のステップS3において、撮影光学系11の種別がAPS−Cサイズに対応した撮影光学系であることを確認し、ステップS4において、画素領域113Aにイメージサークル220内に第1領域230を設定したものとする。また、制御部71は、図8のステップS4において、イメージサークル220内の第1領域230をアクティブ状態に設定し、イメージサークル220外の領域をスリープ状態に設定したものとする。また、制御部71は、図8のステップS6において、イメージサークル220内の第1領域230と、イメージサークル220内の第2領域221A〜221Dとで異なる撮像条件を設定したものとする。このとき、制御部71は、第1領域230については、例えば予め定められたライブビュー画像撮像時の撮像条件(シャッター速度、フレームレート、ゲインなど)を設定したものとする。また、制御部71は、第2領域221A〜221Dについては、第1領域230よりも高いフレームレートでかつ高いゲイン(ISO感度)を設定したものとする。   In the second embodiment, it is assumed that the control unit 71 performs the following settings in the pre-shooting process described in the first embodiment. First, in step S3 of FIG. 8, the control unit 71 confirms that the type of the photographing optical system 11 is a photographing optical system corresponding to the APS-C size. In step S4, the control unit 71 includes the pixel region 113A in the image circle 220. It is assumed that the first area 230 is set in Further, it is assumed that the control unit 71 sets the first region 230 in the image circle 220 to the active state and sets the region outside the image circle 220 to the sleep state in step S4 of FIG. Further, it is assumed that the control unit 71 sets different imaging conditions for the first region 230 in the image circle 220 and the second regions 221A to 221D in the image circle 220 in step S6 of FIG. At this time, for the first region 230, for example, it is assumed that the control unit 71 has set imaging conditions (shutter speed, frame rate, gain, etc.) at the time of capturing a live view image, for example. Further, the control unit 71 sets a higher frame rate and higher gain (ISO sensitivity) than the first region 230 for the second regions 221A to 221D.

図12に示す処理において、制御部71は、ライブビュー画像の撮影を開始する(ステップS21)。また、制御部71は、撮像部20で撮像されたライブビュー画像を表示部50の表示画面に表示する(ステップS22)。このとき、表示部50は、撮像素子100の第1領域230において撮像された画像を表示する。ライブビュー画像は被写体の動きの滑らかな画像である必要がないため、制御部71は、低いフレームレートで撮像するように撮像素子100の第1領域230を駆動制御する。一方、制御部71は、第2領域221A〜221Dにおいて、第1領域230よりも高いフレームレートで高いゲインで撮像するように撮像素子100の第2領域221A〜221Dを駆動制御する。   In the process shown in FIG. 12, the control unit 71 starts capturing a live view image (step S21). Moreover, the control part 71 displays the live view image imaged by the imaging part 20 on the display screen of the display part 50 (step S22). At this time, the display unit 50 displays an image captured in the first region 230 of the image sensor 100. Since the live view image does not need to be a smooth image of the movement of the subject, the control unit 71 drives and controls the first region 230 of the image sensor 100 so as to capture an image at a low frame rate. On the other hand, the control unit 71 drives and controls the second areas 221A to 221D of the image sensor 100 so that the second areas 221A to 221D capture an image with a higher gain at a frame rate higher than that of the first area 230.

次に、制御部71は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS23)。制御部71がレリーズスイッチの半押し操作が行われたと判定した場合は、AF処理部72は、撮影準備として自動的に焦点調節を行うAF処理を実行する(ステップS24)。   Next, the control unit 71 determines whether or not a release switch half-press operation (SW1 operation) has been performed (step S23). If the control unit 71 determines that the release switch has been half-pressed, the AF processing unit 72 executes AF processing that automatically performs focus adjustment as preparation for shooting (step S24).

図13は、主要被写体の焦点位置の検出を説明するための図である。図13では、人物O1がイメージサークル220外からイメージサークル220内に入り、また、その人物O1がイメージサークル220内の第2領域221Aから第1領域230に入る状況を示している。人物O1がイメージサークル220内に入ると、被写体検出部32は、画像生成部31で生成した第2領域221Aの画像データから主要被写体である人物O1を検出する。被写体検出部32は、人物O1がイメージサークル220の外に出るまで、人物O1を主要被写体として検出し続ける。すなわち、被写体検出部32による主要被写体の追尾が行われる。また、画像処理部30は、被写体検出部32が検出した人物O1の像のコントラストを表すコントラスト信号をシステム制御部70に出力する。   FIG. 13 is a diagram for explaining the detection of the focal position of the main subject. FIG. 13 shows a situation where the person O1 enters the image circle 220 from outside the image circle 220, and the person O1 enters the first area 230 from the second area 221A in the image circle 220. When the person O1 enters the image circle 220, the subject detection unit 32 detects the person O1 that is the main subject from the image data of the second area 221A generated by the image generation unit 31. The subject detection unit 32 continues to detect the person O1 as the main subject until the person O1 goes out of the image circle 220. That is, the main subject is tracked by the subject detection unit 32. In addition, the image processing unit 30 outputs a contrast signal representing the contrast of the image of the person O1 detected by the subject detection unit 32 to the system control unit 70.

AF処理(ステップS24)において、AF処理部72は、主要被写体である人物O1の像のコントラストを表すコントラスト信号を画像処理部30から取得する。また、AF処理部72は、フォーカシング用レンズ11cの移動を指示する制御情報をレンズ制御部13に対して送信する。これにより、レンズ制御部13は、AF処理部72からの制御情報に基づいて、フォーカシング用レンズ11cを移動させる制御を行う。そして、AF処理部72は、フォーカシング用レンズ11cを移動させながら人物O1の像のコントラストが最も高くなるフォーカシング用レンズ11cのレンズ位置を焦点位置として検出する。AF処理部72は、検出した焦点位置にフォーカシング用レンズ11cを移動させる。   In the AF processing (step S24), the AF processing unit 72 acquires a contrast signal representing the contrast of the image of the person O1 that is the main subject from the image processing unit 30. Further, the AF processing unit 72 transmits control information for instructing the movement of the focusing lens 11 c to the lens control unit 13. Accordingly, the lens control unit 13 performs control to move the focusing lens 11c based on the control information from the AF processing unit 72. Then, the AF processing unit 72 detects the lens position of the focusing lens 11c where the contrast of the image of the person O1 is the highest as the focal position while moving the focusing lens 11c. The AF processing unit 72 moves the focusing lens 11c to the detected focal position.

以上のように、被写体検出部32は、人物O1がイメージサークル220内の第2領域221Aに入った時点から主要被写体の検出を行う。また、AF処理部72は、被写体検出部32が検出した主要被写体に対して焦点を合わせるように、フォーカシング用レンズ11cを駆動させて焦点調節を行う。このように、被写体検出部32は、第1領域230だけでなく第2領域221A〜221Dにおいても主要被写体の検出を行う。また、AF処理部72は、第1領域230だけでなく第2領域221A〜221Dにおいても主要被写体に対する焦点調節を行う。従って、被写体検出部32は、主要被写体が第1領域230に入った時点から主要被写体の検出を行うことができるとともに、AF処理部72も、主要被写体が第1領域230に入った時点から主要被写体の焦点調節を行うことができる。   As described above, the subject detection unit 32 detects the main subject when the person O1 enters the second region 221A in the image circle 220. In addition, the AF processing unit 72 adjusts the focus by driving the focusing lens 11c so that the main subject detected by the subject detection unit 32 is focused. Thus, the subject detection unit 32 detects the main subject not only in the first region 230 but also in the second regions 221A to 221D. The AF processing unit 72 performs focus adjustment on the main subject not only in the first region 230 but also in the second regions 221A to 221D. Accordingly, the subject detection unit 32 can detect the main subject from the time when the main subject enters the first region 230, and the AF processing unit 72 can also detect the main subject from the time when the main subject enters the first region 230. The focus of the subject can be adjusted.

また、上述したように、制御部71は、第2領域221A〜221Dの撮像条件として、第1領域230よりも高いフレームレートでかつ高いゲイン(ISO感度)を設定している。このように、制御部71が第2領域221A〜221Dにおいて高いフレームレートを設定することにより、被写体検出部32は、第2領域221Aにおいて早く主要被写体の検出を行うことができる。また、制御部71が第2領域221A〜221Dにおいて高いゲインを設定することにより、被写体検出部32は、第2領域221A〜221Dにおいて高い精度で主要被写体の検出を行うことができる。従って、被写体検出部32は、主要被写体が第2領域221Aに入った時点から第1領域230に入るまでの時間が短い場合であっても、第2領域221A〜221Dにおいて主要被写体の検出を確実に行うことができる。また、被写体検出部32が第2領域221A〜221Dにおいて主要被写体の検出を行うことができることから、AF処理部72も、第2領域221A〜221Dにおいて主要被写体に対する焦点調節を行うことができるようになる。   As described above, the control unit 71 sets a higher frame rate and higher gain (ISO sensitivity) than the first region 230 as the imaging conditions of the second regions 221A to 221D. As described above, when the control unit 71 sets a high frame rate in the second regions 221A to 221D, the subject detection unit 32 can quickly detect the main subject in the second region 221A. In addition, when the control unit 71 sets a high gain in the second regions 221A to 221D, the subject detection unit 32 can detect the main subject with high accuracy in the second regions 221A to 221D. Accordingly, the subject detection unit 32 reliably detects the main subject in the second regions 221A to 221D even when the time from when the main subject enters the second region 221A to when it enters the first region 230 is short. Can be done. In addition, since the subject detection unit 32 can detect the main subject in the second regions 221A to 221D, the AF processing unit 72 can also perform focus adjustment on the main subject in the second regions 221A to 221D. Become.

次に、AE処理部73は、適正露出となるように露出を制御するAE処理を実行する(ステップS25)。具体的には、AE処理部73は、画像生成部31が生成した画像データの輝度分布を示す輝度分布データを画像処理部30から取得する。そして、AE処理部73は、輝度分布データに基づいて、適正露出となるような撮像条件(フレームレート、シャッター速度、及びゲイン(ISO感度)など)と絞り値とを決定する。AE処理部73は、決定した適正露出に応じた絞り値を示す制御情報をレンズ制御部13に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部73は、適正露出に応じた撮像条件(フレームレート、シャッター速度、及びゲインなど)を指示する指示信号を駆動部21に出力する。駆動部21は、指示信号により指示された撮像条件を設定する。   Next, the AE processing unit 73 performs an AE process for controlling exposure so as to achieve proper exposure (step S25). Specifically, the AE processing unit 73 acquires luminance distribution data indicating the luminance distribution of the image data generated by the image generation unit 31 from the image processing unit 30. Then, the AE processing unit 73 determines an imaging condition (such as a frame rate, a shutter speed, and a gain (ISO sensitivity)) and an aperture value so as to achieve proper exposure based on the luminance distribution data. The AE processing unit 73 transmits control information indicating an aperture value corresponding to the determined appropriate exposure to the lens control unit 13 to execute drive control for adjusting the aperture diameter of the aperture 14. Further, the AE processing unit 73 outputs an instruction signal for instructing an imaging condition (frame rate, shutter speed, gain, etc.) according to the appropriate exposure to the drive unit 21. The drive unit 21 sets the imaging condition instructed by the instruction signal.

その後、制御部71は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS26)。制御部71がレリーズスイッチの全押し操作が行われていないと判定した場合は、上記したステップS23〜S25の処理を繰り返し実行する。制御部71がレリーズスイッチの全押し操作が行われたと判定した場合は、制御部71は、撮像処理を実行する(ステップS27)。すなわち、制御部71は、撮像を指示する指示信号を撮像部20に出力することにより、駆動部21に撮像素子100を駆動制御させる。   Thereafter, the control unit 71 determines whether or not the release switch is fully pressed (SW2 operation) (step S26). When the control unit 71 determines that the release switch has not been fully pressed, the processes in steps S23 to S25 described above are repeatedly executed. When the control unit 71 determines that the release switch has been fully pressed, the control unit 71 executes an imaging process (step S27). That is, the control unit 71 causes the drive unit 21 to drive and control the imaging element 100 by outputting an instruction signal instructing imaging to the imaging unit 20.

以上に説明したように、第2実施形態によれば、制御部71は、イメージサークル220内の領域をアクティブ状態とし、イメージサークル220外の領域をスリープ状態とする。このような構成によれば、撮像素子100がイメージサークル220内の領域において撮像を実行し、被写体検出部32がイメージサークル220内の画像データを用いて主要被写体の検出などを行うことができる。   As described above, according to the second embodiment, the control unit 71 sets the area inside the image circle 220 to the active state and sets the area outside the image circle 220 to the sleep state. According to such a configuration, the imaging device 100 can perform imaging in a region in the image circle 220, and the subject detection unit 32 can detect a main subject using image data in the image circle 220.

また、第2実施形態によれば、制御部71は、イメージサークル220内の領域のうち、表示部50に表示される画像の領域に対応する第1領域230と、この第1領域230とは異なる第2領域221A〜221Dとを設定する。このような構成によれば、第1領域230外の第2領域221A〜221Dにおいて主要被写体の検出などを行うことができる。また、第2実施形態によれば、制御部71は、第1領域230と第2領域221A〜221Dとで撮像素子100の撮像条件を変更する。このような構成によれば、第2領域221〜221Dにおいて、第1領域230よりも早くかつ高精度で主要被写体の検出などを行うことができる。   Further, according to the second embodiment, the control unit 71 includes the first region 230 corresponding to the region of the image displayed on the display unit 50 among the regions in the image circle 220 and the first region 230. Different second regions 221A to 221D are set. According to such a configuration, it is possible to detect the main subject in the second areas 221A to 221D outside the first area 230. Further, according to the second embodiment, the control unit 71 changes the imaging condition of the imaging device 100 between the first region 230 and the second regions 221A to 221D. According to such a configuration, it is possible to detect the main subject in the second areas 221 to 221D faster and more accurately than the first area 230.

また、第2実施形態によれば、イメージサークル220内の領域の被写体を検出する被写体検出部32を備えるので、第1領域230だけでなく第2領域221A〜221Dにおいても被写体の検出を行うことができる。従って、被写体が第1領域230に入った時点から被写体の検出を行うことができる。また、第2実施形態によれば、イメージサークル220内の領域の被写体に対して焦点調節を行う焦点調節部72を備えるので、第1領域230だけでなく第2領域221A〜221Dにおいても被写体に対する焦点調節を行うことができる。従って、被写体が第1領域230に入った時点から被写体の焦点調節を行うことができる。また、第2実施形態によれば、制御部71は、第2領域221A〜221Dの撮像条件として、第1領域230よりも高いフレームレートでかつ高いゲインに設定するので、被写体が第2領域221A〜221Dに入った時点から第1領域230に入るまでの時間が短い場合であっても、第2領域221Aにおいて被写体の検出を確実に行うことができる。   In addition, according to the second embodiment, since the subject detection unit 32 that detects the subject in the area in the image circle 220 is provided, the subject is detected not only in the first area 230 but also in the second areas 221A to 221D. Can do. Accordingly, the subject can be detected from the time when the subject enters the first region 230. In addition, according to the second embodiment, since the focus adjustment unit 72 that performs focus adjustment on the subject in the area in the image circle 220 is provided, not only in the first area 230 but also in the second areas 221A to 221D. Focus adjustment can be performed. Accordingly, the focus adjustment of the subject can be performed from the time when the subject enters the first region 230. Further, according to the second embodiment, the control unit 71 sets a higher frame rate and higher gain than the first region 230 as the imaging conditions of the second regions 221A to 221D, so that the subject is in the second region 221A. Even when the time from the time of entering 221D to the time of entering the first area 230 is short, the subject can be reliably detected in the second area 221A.

<第3実施形態>
上記した第1実施形態では、制御部71が撮影光学系11の種別に応じて自動的に領域の設定を行っていた(図8のステップS4参照)。これに対し、第3実施形態では、制御部71は使用者の操作に応じて様々な形状の領域を設定する。なお、第3実施形態では、APS−Cサイズに対応する撮影光学系11を有するレンズ部10がカメラボディ2に装着されたものとして説明する。
<Third Embodiment>
In the first embodiment described above, the control unit 71 automatically sets a region according to the type of the photographing optical system 11 (see step S4 in FIG. 8). On the other hand, in 3rd Embodiment, the control part 71 sets the area | region of various shapes according to a user's operation. In the third embodiment, it is assumed that the lens unit 10 having the photographing optical system 11 corresponding to the APS-C size is attached to the camera body 2.

図14は、領域選択処理の一例を示すフローチャートである。ここで、「選択領域」とは、制御部71により設定された領域(ここでは制御部71が図8のステップS4で設定したイメージサークル220内の矩形の領域230)のうち、使用者により選択された領域のことをいう。また、「非選択領域」とは、制御部71により設定された領域(ここでは領域230)のうち、使用者により選択されなかった領域のことをいう。なお、図14に示す領域選択処理は、図8に示す撮影前処理が実行された後に実行される。   FIG. 14 is a flowchart illustrating an example of the area selection process. Here, the “selected area” is selected by the user from the areas set by the control unit 71 (here, the rectangular area 230 in the image circle 220 set by the control unit 71 in step S4 in FIG. 8). It refers to the area that was created. Further, the “non-selected area” refers to an area that is not selected by the user among the areas (here, the area 230) set by the control unit 71. The area selection process shown in FIG. 14 is executed after the pre-shooting process shown in FIG.

図14に示す処理において、制御部71は、例えば使用者によるタッチパネル51の操作に応じて領域230内の領域が選択されたか否かを判定する(ステップS31)。使用者により選択され得る領域の例を図15及び図16に示す。   In the process illustrated in FIG. 14, the control unit 71 determines whether or not an area in the area 230 has been selected in accordance with, for example, an operation on the touch panel 51 by the user (step S <b> 31). Examples of regions that can be selected by the user are shown in FIGS.

図15及び図16は、撮像領域内の選択領域と非選択領域とを示す図である。図15(A)に示す例では、領域230の中に横長の方形状の領域231Aが設定されている。領域231Aが選択領域であり、この領域231A以外の領域231B,231Cが非選択領域である。選択領域231Aは、パノラマ撮影に適した領域である。図15(B)に示す例では、領域230の中に正方形の領域232Aが設定されている。領域232Aが選択領域であり、この領域232A以外の領域232B,232Cが非選択領域である。図15(C)に示す例では、領域230の中に三角形の領域233Aが設定されている。領域233Aが選択領域であり、この領域233A以外の領域233B,233Cが非選択領域である。   15 and 16 are diagrams showing a selected area and a non-selected area in the imaging area. In the example shown in FIG. 15A, a horizontally long rectangular area 231 </ b> A is set in the area 230. The area 231A is a selection area, and the areas 231B and 231C other than the area 231A are non-selection areas. The selection area 231A is an area suitable for panoramic shooting. In the example shown in FIG. 15B, a square area 232 </ b> A is set in the area 230. The region 232A is a selected region, and the regions 232B and 232C other than the region 232A are non-selected regions. In the example shown in FIG. 15C, a triangular area 233 </ b> A is set in the area 230. The region 233A is a selection region, and the regions 233B and 233C other than the region 233A are non-selection regions.

図16(D)に示す例では、領域230の中に円形の領域234Aが設定されている。領域234Aが選択領域であり、この領域234A以外の領域234B,234Cが非選択領域である。図16(E)に示す例では、領域230の中にハート形の領域235Aが設定されている。領域235Aが選択領域であり、この領域235A以外の領域235Bが非選択領域である。図16(F)に示す例では、領域230の中に、領域230に対して斜めの領域(斜めの線で区切られた領域)236Aが設定されている。領域236Aが選択領域であり、この領域236A以外の領域236B,236Cが非選択領域である。図16(G)に示す例では、領域230の中に複数(4つ)の円形の領域237A〜237Dが離散的に設定されている。これらの領域237A〜237Dが選択領域であり、これらの領域237A〜237D以外の領域237Eが非選択領域である。   In the example shown in FIG. 16D, a circular area 234 </ b> A is set in the area 230. The region 234A is a selected region, and the regions 234B and 234C other than the region 234A are non-selected regions. In the example shown in FIG. 16E, a heart-shaped area 235 </ b> A is set in the area 230. The region 235A is a selection region, and the region 235B other than the region 235A is a non-selection region. In the example shown in FIG. 16F, a region 236A that is diagonal to the region 230 (region divided by diagonal lines) is set in the region 230. The region 236A is a selected region, and the regions 236B and 236C other than the region 236A are non-selected regions. In the example shown in FIG. 16G, a plurality (four) of circular regions 237A to 237D are discretely set in the region 230. These regions 237A to 237D are selection regions, and regions 237E other than these regions 237A to 237D are non-selection regions.

制御部71は、図15及び図16に示すような形の選択領域の一覧を表示部50の表示画面に表示する。使用者は、表示部50の表示画面に表示された選択領域をタッチして選択する。タッチパネル51は、使用者によりタッチされた位置を示す信号を制御部71に出力する。制御部71は、タッチパネル51からの信号に基づいて、使用者により選択された領域を認識する。なお、使用者がタッチパネル51(すなわち表示部50の表示画面)を指などでなぞることにより、任意の領域を選択するようにしてもよい。   The control unit 71 displays a list of selection areas in the form as shown in FIGS. 15 and 16 on the display screen of the display unit 50. The user touches and selects the selection area displayed on the display screen of the display unit 50. The touch panel 51 outputs a signal indicating the position touched by the user to the control unit 71. The control unit 71 recognizes an area selected by the user based on a signal from the touch panel 51. The user may select an arbitrary area by tracing the touch panel 51 (that is, the display screen of the display unit 50) with a finger or the like.

制御部71は、使用者により選択領域が選択されたと判定した場合は、その選択領域を設定する(ステップS32)。そして、制御部71は、選択領域についてはアクティブ状態に設定し、選択領域以外の非選択領域についてはスリープ状態に設定する。その後、制御部71は、アクティブ状態に設定された選択領域の撮像条件を設定する(ステップS33)。なお、スリープ状態に設定された非選択領域に対応する表示部50の表示画面上の領域では、画像は表示されず、例えば黒色の表示が行われる。   If the control unit 71 determines that the selection region has been selected by the user, the control unit 71 sets the selection region (step S32). Then, the control unit 71 sets the selected area to the active state, and sets the non-selected areas other than the selected area to the sleep state. Thereafter, the control unit 71 sets imaging conditions for the selected region set to the active state (step S33). In addition, in the area | region on the display screen of the display part 50 corresponding to the non-selection area | region set to the sleep state, an image is not displayed but a black display is performed, for example.

<第3実施形態の変形例>
上記した第3実施形態において、制御部71は、使用者により選択された選択領域をアクティブ状態に設定し、非選択領域をスリープ状態に設定していた(ステップS32参照)。これに対して、第3実施形態の変形例では、制御部71は、非選択領域についてもアクティブ状態に設定する。また、上記した第3実施形態では、制御部71は、アクティブ状態に設定した領域について同じ撮像条件を設定していた(ステップS33参照)。これに対して、第3実施形態の変形例では、選択領域と非選択領域とで異なる撮像条件を設定する。
<Modification of Third Embodiment>
In the third embodiment described above, the control unit 71 sets the selected area selected by the user to the active state and sets the non-selected area to the sleep state (see step S32). On the other hand, in the modification of the third embodiment, the control unit 71 sets the non-selected region to the active state. In the third embodiment described above, the control unit 71 sets the same imaging condition for the region set in the active state (see step S33). On the other hand, in the modification of the third embodiment, different imaging conditions are set for the selected area and the non-selected area.

図17は、焦点位置の検出の他の例を説明するための図である。なお、図17に示す例は、使用者は選択領域として図15(A)に示す領域231Aを選択したものとする。このような場合において、上記した第2実施形態で説明した場合(図12及び図13)と同様に、被写体検出部32は、選択領域231Aだけでなく非選択領域231B,231Cにおいても主要被写体である人物O2の検出を行うことができる。また、AF処理部72は、選択領域231Aだけでなく非選択領域231B,231Cにおいて、被写体検出部32が検出した主要被写体である人物O2の焦点調節を行うことができる(図12のステップS24参照)。このような構成により、被写体検出部32は、人物O2が選択領域231Aに入った時点で直ちに主要被写体の検出を行うことができるとともに、AF処理部72も、人物O2が選択領域231Aに入った時点で直ちに主要被写体の焦点調節を行うことができる。また、被写体検出部32は、人物O2が非選択領域231B,231Cに入った時点から選択領域231Aに入るまでの時間が短い場合であっても、非選択領域231B,231Cにおいて主要被写体の検出を確実に行うことができる。また、AF処理部72も、非選択領域231B,231Cにおいて主要被写体に対する焦点調節を確実に行うことができる。   FIG. 17 is a diagram for explaining another example of focus position detection. In the example shown in FIG. 17, it is assumed that the user has selected the area 231A shown in FIG. 15A as the selection area. In such a case, as in the case described in the second embodiment (FIGS. 12 and 13), the subject detection unit 32 is the main subject not only in the selection region 231A but also in the non-selection regions 231B and 231C. A certain person O2 can be detected. Further, the AF processing unit 72 can adjust the focus of the person O2, which is the main subject detected by the subject detection unit 32, not only in the selection region 231A but also in the non-selection regions 231B and 231C (see step S24 in FIG. 12). ). With such a configuration, the subject detection unit 32 can detect the main subject immediately when the person O2 enters the selection area 231A, and the AF processing unit 72 also includes the person O2 enters the selection area 231A. The focus adjustment of the main subject can be performed immediately at the time. In addition, the subject detection unit 32 detects the main subject in the non-selected areas 231B and 231C even when the time from when the person O2 enters the non-selected areas 231B and 231C to when the person O2 enters the selected area 231A is short. It can be done reliably. Also, the AF processing unit 72 can reliably perform focus adjustment on the main subject in the non-selected areas 231B and 231C.

以上のように、第3実施形態によれば、制御部71は、第1領域230を任意の形状に設定するので、使用者の利用態様などに合わせて領域230の形状を設定することができる。また、第3実施形態によれば、制御部71は、選択領域だけでなく非選択領域においてもアクティブ状態に設定することにより、被写体検出部32が非選択領域において主要被写体の検出を行うことができるとともに、AF処理部72が主要被写体に対する焦点調節を行うことができる。   As described above, according to the third embodiment, since the control unit 71 sets the first region 230 to an arbitrary shape, the shape of the region 230 can be set according to the usage mode of the user. . Further, according to the third embodiment, the control unit 71 sets the active state not only in the selected region but also in the non-selected region, so that the subject detection unit 32 detects the main subject in the non-selected region. In addition, the AF processing unit 72 can adjust the focus on the main subject.

なお、上記した第3実施形態では、使用者はタッチパネル51の操作によって領域の選択を行っていたが、操作部55の操作によって領域を選択するようにしてもよい。また、第3実施形態では、APS−Cサイズに対応する撮影光学系11を有するレンズ部10がカメラボディ2に装着されたものとして説明していたが、35mmフルサイズの対応する撮影光学系11を有するレンズ部10がカメラボディ2に装着された場合であってもよい。すなわち、領域210において様々な形状の領域が設定されてもよい。   In the third embodiment described above, the user selects an area by operating the touch panel 51. However, the user may select an area by operating the operation unit 55. In the third embodiment, the lens unit 10 having the photographing optical system 11 corresponding to the APS-C size is described as being attached to the camera body 2. However, the corresponding photographing optical system 11 having a full size of 35 mm is described. The lens unit 10 having the above may be mounted on the camera body 2. That is, various shapes of areas may be set in the area 210.

<第4実施形態>
第4実施形態では、レンズ部10のレンズ記憶部12には、レンズ情報として種別データ及び歪曲収差データのほかに、周辺減光データも記憶されている。周辺減光データは、レンズ部10に搭載されている撮影光学系11の周辺減光に関する情報である。撮影光学系11の周辺部の光量は中心部の光量よりも少なくなる。すなわち、撮影光学系11の光軸(撮影光学系11の中心軸)から周辺部へ離れるに従い光量が低下して暗くなる。このような性質を周辺減光という。周辺部の光量は、中心部の光量に対する比率(周辺光量比)という値で評価される。レンズ部10のレンズ記憶部12には、撮影光学系11の設計段階で予め取得される周辺減光の変化率(周辺光量比)の情報が周辺減光データとして記憶されている。なお、第4実施形態では、35mmフルサイズに対応する撮影光学系11を有するレンズ部10がカメラボディ2に装着されたものとして説明する。
<Fourth embodiment>
In the fourth embodiment, the lens storage unit 12 of the lens unit 10 stores peripheral dimming data in addition to the type data and distortion data as lens information. The peripheral dimming data is information related to the peripheral dimming of the photographing optical system 11 mounted on the lens unit 10. The amount of light at the periphery of the photographic optical system 11 is less than the amount of light at the center. That is, as the distance from the optical axis of the photographic optical system 11 (the central axis of the photographic optical system 11) increases to the periphery, the light amount decreases and becomes darker. This property is called peripheral dimming. The light quantity at the peripheral part is evaluated by a value called a ratio (peripheral light quantity ratio) to the light quantity at the central part. The lens storage unit 12 of the lens unit 10 stores information on the change rate (peripheral light amount ratio) of peripheral dimming acquired in advance at the design stage of the photographing optical system 11 as peripheral dimming data. In the fourth embodiment, description will be made assuming that the lens unit 10 having the photographing optical system 11 corresponding to the full size of 35 mm is attached to the camera body 2.

図8に示す処理において、レンズ制御部13は、カメラボディ2との接続確認を行った後(ステップS11)、レンズ情報として、種別データ及び歪曲収差データのほかに、周辺減光データもカメラボディ2のシステム制御部70に送信する(ステップS12)。システム制御部70の制御部71は、レンズ制御部13から送信された周辺減光データに応じた領域の設定を行う。   In the process shown in FIG. 8, the lens control unit 13 confirms the connection with the camera body 2 (step S11), and as the lens information, in addition to the type data and the distortion aberration data, the peripheral dimming data includes the camera body. 2 is transmitted to the system control unit 70 (step S12). The control unit 71 of the system control unit 70 sets an area according to the peripheral dimming data transmitted from the lens control unit 13.

図18は、第4実施形態に係る周辺減光に応じて設定される領域を示す図である。なお、図18に示す例では、領域210内において周辺減光に応じて設定される領域を示している。制御部71は、図8のステップS4において領域210を設定する際に、図18に示すように、領域210の中心部に円形の領域211を設定する。また、制御部71は、円形の領域211の周囲に、円形の領域211の径よりも大きな径のリング状の領域212を設定する。また、制御部71は、リング状の領域212の周囲に、リング状の領域212の径よりも大きな径のリング状の領域213を設定する。また、制御部71は、リング状の領域213の周囲に、リング状の領域213の径よりも大きな径のリング状の領域214を設定する。さらに、制御部71は、リング状の領域214の周囲に、リング状の領域214の径よりも大きな径のリング状の領域215を設定する。   FIG. 18 is a diagram illustrating a region set according to the peripheral light reduction according to the fourth embodiment. In the example shown in FIG. 18, an area set in the area 210 according to the peripheral light reduction is shown. When setting the area 210 in step S4 of FIG. 8, the control unit 71 sets a circular area 211 at the center of the area 210 as shown in FIG. Further, the control unit 71 sets a ring-shaped region 212 having a diameter larger than the diameter of the circular region 211 around the circular region 211. Further, the control unit 71 sets a ring-shaped region 213 having a diameter larger than the diameter of the ring-shaped region 212 around the ring-shaped region 212. Further, the controller 71 sets a ring-shaped region 214 having a diameter larger than the diameter of the ring-shaped region 213 around the ring-shaped region 213. Further, the control unit 71 sets a ring-shaped region 215 having a diameter larger than the diameter of the ring-shaped region 214 around the ring-shaped region 214.

制御部71は、図8のステップS6において、周辺減光データに基づいて、領域210内において均一な露光となるように領域210内における各領域211〜215の撮像条件(ゲイン、フレームレート、電荷蓄積時間など)を設定する。例えば、領域210の中の中心から遠くなるほど、撮影光学系11からの光束の光量が低下するので、制御部71は、領域210の中の中心から近い領域よりも遠い領域に対してゲインを高く設定したり、電荷蓄積時間(シャッタースピード)を長くする。   In step S6 of FIG. 8, the control unit 71 sets the imaging conditions (gain, frame rate, charge) of each of the regions 211 to 215 in the region 210 so that uniform exposure is performed in the region 210 based on the peripheral dimming data. Set the accumulation time. For example, as the distance from the center in the area 210 becomes farther, the light amount of the light beam from the photographing optical system 11 decreases. Therefore, the control unit 71 increases the gain for an area far from the area near the center in the area 210. Set or increase the charge accumulation time (shutter speed).

このように、第4実施形態では、周辺減光データに基づいて領域210内における各領域211〜215の撮像条件を設定するので、領域210内において均一な露光を実現することができる。その結果、領域219の周辺部が暗くなるような事態を防止することができる。   As described above, in the fourth embodiment, since the imaging conditions of the areas 211 to 215 in the area 210 are set based on the peripheral dimming data, uniform exposure can be realized in the area 210. As a result, a situation in which the peripheral portion of the region 219 becomes dark can be prevented.

<第5実施形態>
第5実施形態では、上記した第1実施形態におけるデジタルカメラ1のカメラボディ2を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<Fifth Embodiment>
In the fifth embodiment, the camera body 2 of the digital camera 1 in the first embodiment is separated into an imaging device 1A and an electronic device 1B.

図19は、第5実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。図19に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部75を備える。この撮像装置1Aにはレンズ部10を装着可能に構成されている。なお、撮像装置1Aのうち、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図6に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   FIG. 19 is a block diagram illustrating configurations of an imaging apparatus and an electronic apparatus according to the fifth embodiment. In the configuration shown in FIG. 19, the imaging device 1A is a device that captures an image of a subject. The imaging apparatus 1A includes an imaging unit 20, an image processing unit 30, a work memory 40, an operation unit 55, a recording unit 60, and a first system control unit 75. The imaging device 1A is configured so that the lens unit 10 can be attached. Note that, in the imaging apparatus 1A, the configurations of the imaging unit 20, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 are the same as those illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)76を備える。なお、電子機器1Bのうちの表示部50の構成は、図6に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   The electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic apparatus 1B includes a display unit 50 and a second system control unit (control unit) 76. The configuration of the display unit 50 in the electronic device 1B is the same as the configuration illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

第1システム制御部75は、第1通信部75Aを有している。また、第2システム制御部76は、第2通信部76Bを有している。第1通信部75Aと第2通信部76Bとは、互いに有線又は無線で信号を送受信する。図6に示す構成(制御部71、AF処理部72、及びAE処理部73)は、第1システム制御部75と第2システム制御部76のいずれに設けられてもよい。図6に示すすべての構成は、第1システム制御部75又は第2システム制御部76に設けられてもよく、また図6に示す構成の一部が第1システム制御部75に設けられ、図6に示す構成の一部以外の構成が第2システム制御部76に設けられてもよい。   The first system control unit 75 includes a first communication unit 75A. The second system control unit 76 has a second communication unit 76B. The first communication unit 75A and the second communication unit 76B transmit and receive signals to each other in a wired or wireless manner. The configuration illustrated in FIG. 6 (the control unit 71, the AF processing unit 72, and the AE processing unit 73) may be provided in either the first system control unit 75 or the second system control unit 76. 6 may be provided in the first system control unit 75 or the second system control unit 76, and a part of the configuration shown in FIG. 6 is provided in the first system control unit 75. 6 may be provided in the second system control unit 76 other than a part of the configuration shown in FIG.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。   Note that the imaging device 1A includes, for example, a digital camera, a smartphone, a mobile phone, and a personal computer that have an imaging function and a communication function, and the electronic device 1B includes, for example, a smartphone, a mobile phone, and a portable personal computer that have a communication function. Consists of a portable terminal such as a computer.

図19に示す第1システム制御部75は、CPU(図示せず)が制御プログラムに基づいて処理を実行することにより実現される。また、図19に示す第2システム制御部76は、CPU(図示せず)が制御プログラムに基づいて処理を実行することにより実現される。   The first system control unit 75 shown in FIG. 19 is realized by a CPU (not shown) executing processing based on a control program. The second system control unit 76 shown in FIG. 19 is realized by a CPU (not shown) executing processing based on a control program.

なお、図19に示す構成において、画像処理部30と第1システム制御部75とは一体で構成されてもよい。この場合、1つ又は複数のCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部75の機能を担う。   In the configuration illustrated in FIG. 19, the image processing unit 30 and the first system control unit 75 may be configured integrally. In this case, a system control unit having one or more CPUs performs the processing based on the control program, thereby taking on the function of the image processing unit 30 and the function of the first system control unit 75.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations.

上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。   In each of the embodiments described above, the arrangement of the color filters 102 is a Bayer arrangement, but an arrangement other than this arrangement may be used. Further, the number of pixels forming the unit group 131 only needs to include at least one pixel. In addition, the block only needs to include at least one pixel. Therefore, it is possible to execute imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。   In each embodiment described above, part or all of the configuration of the drive unit 21 may be mounted on the imaging chip 113, or part or all of the configuration may be mounted on the signal processing chip 111. Further, a part of the configuration of the image processing unit 30 may be mounted on the imaging chip 113 or the signal processing chip 111. Further, a part of the configuration of the system control unit 70 may be mounted on the imaging chip 113 or the signal processing chip 111.

また、上記した各実施形態において、制御部71が設定可能な撮像条件として、ゲイン、電荷蓄積時間(露光時間、シャッタースピード)、フレームレートに限らず、その他の制御パラメータであってもよい。また、撮像条件が自動的に設定される場合についてのみ説明したが、使用者による操作部55などの操作に応じて設定されるようにしてもよい。   Further, in each of the above-described embodiments, the imaging conditions that can be set by the control unit 71 are not limited to gain, charge accumulation time (exposure time, shutter speed), and frame rate, but may be other control parameters. Although only the case where the imaging condition is automatically set has been described, it may be set according to the operation of the operation unit 55 by the user.

また、上記した各実施形態では、ブロックの領域の大きさが予め設定されている場合について説明したが、使用者がブロックの領域の大きさを設定するように構成してもよい。   In each of the above-described embodiments, the case where the size of the block area is set in advance has been described. However, the user may set the size of the block area.

また、上記した第2実施形態において、AF処理(ステップS24)及びAE処理(ステップS25)は、レリーズスイッチや動画スイッチの半押し操作が行われたときに実行されるように構成されていた。しかし、このような構成に限らず、AF処理部72は、ライブビュー画像の撮像中においてもAF処理を実行するようにしてもよく、また、AE処理部73は、ライブビュー画像の撮像中においてもAE処理を実行するようにしてもよい。また、AF処理部72がライブビュー画像の撮像中にAF処理を実行しない場合でも、被写体検出部32がライブビュー画像の撮像中に主要被写体の検出を行うようにしてもよい。   In the second embodiment described above, the AF process (step S24) and the AE process (step S25) are configured to be executed when a half-press operation of the release switch or the moving image switch is performed. However, the present invention is not limited to this configuration, and the AF processing unit 72 may execute the AF processing even during the capture of the live view image, and the AE processing unit 73 may perform the capture during the capture of the live view image. Also, the AE process may be executed. Further, even when the AF processing unit 72 does not execute the AF process while capturing the live view image, the subject detection unit 32 may detect the main subject while capturing the live view image.

また、上記した第2実施形態において、ライブビュー画像の撮像中にAF処理を実行しない場合は、制御部71は、第2領域221A〜221Dにおいて撮像を実行させないようにしてもよい。この場合、レリーズスイッチなどの半押し操作が行われた場合に、制御部71は、第2領域221A〜221Dにおいて撮像を実行させ、第2領域221A〜221Dにおける画像データに基づいて、被写体検出部32による主要被写体の検出と、AF処理部72によるAF処理とを実行させるように構成してもよい。また、AF処理部72は、ライブビュー画像の撮像中に、第2領域221A〜221Dにおいて主要被写体の焦点位置(デフォーカス量)を検出するが、その主要被写体に対する焦点調節については行わないように構成してもよい。このような構成であっても、主要被写体が第1領域230に入ったときに、AF処理部72は、直ちに主要被写体の焦点位置(デフォーカス量)に基づいて焦点調節を行うことができる。   Further, in the second embodiment described above, when the AF process is not executed during the capturing of the live view image, the control unit 71 may not perform the imaging in the second regions 221A to 221D. In this case, when a half-press operation such as a release switch is performed, the control unit 71 performs imaging in the second regions 221A to 221D, and based on the image data in the second regions 221A to 221D, the subject detection unit It may be configured to execute detection of the main subject by 32 and AF processing by the AF processing unit 72. In addition, the AF processing unit 72 detects the focal position (defocus amount) of the main subject in the second regions 221A to 221D during capturing of the live view image, but does not perform focus adjustment on the main subject. It may be configured. Even with such a configuration, when the main subject enters the first region 230, the AF processing unit 72 can immediately perform focus adjustment based on the focus position (defocus amount) of the main subject.

また、上記した第2実施形態などにおいて、AF処理(焦点検出処理)は、コントラストAFを用いて焦点検出を行うように構成していた。しかし、このような構成に限らず、位相差検出方式によって行う構成でもよい。この場合には、撮像素子100の撮像領域(画素領域113A)において焦点検出用の画素を設ける。そして、AF処理部72は、焦点検出用の画素からの出力信号を用いて位相差検出演算を行うことにより、撮影光学系11による焦点調節状態(具体的にはデフォーカス量)を検出する。焦点検出用の画素及び位相差検出演算については、例えば特開2009−94881号公報に記載されているような技術を用いることができる。   In the second embodiment described above, the AF process (focus detection process) is configured to perform focus detection using contrast AF. However, the configuration is not limited to such a configuration, and may be a configuration performed by a phase difference detection method. In this case, a focus detection pixel is provided in the imaging region (pixel region 113A) of the imaging device 100. Then, the AF processing unit 72 detects a focus adjustment state (specifically, a defocus amount) by the photographing optical system 11 by performing a phase difference detection calculation using an output signal from the focus detection pixel. For the focus detection pixel and the phase difference detection calculation, for example, a technique described in Japanese Patent Laid-Open No. 2009-94881 can be used.

上記した各実施形態におけるデジタルカメラ1は、例えば撮像機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されもよい。   The digital camera 1 in each of the above-described embodiments may be configured by devices such as a digital camera having an imaging function, a smartphone, a mobile phone, and a personal computer, for example.

1…デジタルカメラ(電子機器)、1A…撮像装置(電子機器)、1B…電子機器、11…撮影光学系、20…撮像部、30…画像処理部、31…画像生成部、32…被写体検出部、50…表示部、51…タッチパネル、55…操作部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…制御部、72…AF処理部(焦点調節部)、73…AE処理部、100…撮像素子
DESCRIPTION OF SYMBOLS 1 ... Digital camera (electronic device), 1A ... Imaging device (electronic device), 1B ... Electronic device, 11 ... Imaging optical system, 20 ... Imaging part, 30 ... Image processing part, 31 ... Image generation part, 32 ... Object detection 50, display unit, 51 ... touch panel, 55 ... operation unit, 70 ... system control unit, 70A ... first system control unit, 70B ... second system control unit, 71 ... control unit, 72 ... AF processing unit (focus) Adjusting unit), 73... AE processing unit, 100.

Claims (1)

交換可能な複数種類の撮影光学系からの光束が結像する撮像素子を有する撮像部と、
交換可能なレンズ部からの前記撮影光学系の特性に関するレンズ情報に応じて、前記撮像素子の撮像領域においてアクティブ状態とする領域を設定する制御部と、を備える電子機器。
An imaging unit having an imaging element on which light beams from a plurality of types of interchangeable imaging optical systems are imaged;
An electronic device comprising: a control unit that sets a region to be activated in an imaging region of the imaging element in accordance with lens information relating to characteristics of the imaging optical system from a replaceable lens unit.
JP2018109784A 2018-06-07 2018-06-07 Electronics Pending JP2018174543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018109784A JP2018174543A (en) 2018-06-07 2018-06-07 Electronics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109784A JP2018174543A (en) 2018-06-07 2018-06-07 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013191821A Division JP6349659B2 (en) 2013-09-17 2013-09-17 Electronic device, electronic device control method, and control program

Publications (1)

Publication Number Publication Date
JP2018174543A true JP2018174543A (en) 2018-11-08

Family

ID=64107614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109784A Pending JP2018174543A (en) 2018-06-07 2018-06-07 Electronics

Country Status (1)

Country Link
JP (1) JP2018174543A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005176147A (en) * 2003-12-12 2005-06-30 Canon Inc Imaging apparatus, imaging system, and interchangeable lens
JP2005277963A (en) * 2004-03-25 2005-10-06 Nikon Corp Electronic camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005176147A (en) * 2003-12-12 2005-06-30 Canon Inc Imaging apparatus, imaging system, and interchangeable lens
JP2005277963A (en) * 2004-03-25 2005-10-06 Nikon Corp Electronic camera

Similar Documents

Publication Publication Date Title
JP6780745B2 (en) Electronics
JP6375607B2 (en) Electronic device, electronic device control method, and control program
JP6090425B2 (en) Image sensor and electronic device
CN110086980B (en) Electronic device
JP6413233B2 (en) Imaging device and imaging device
WO2015022900A1 (en) Electronic device, electronic device control method, and control program
JP2014178603A (en) Imaging device
JP6354246B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6561428B2 (en) Electronic device, control method, and control program
JP2014179892A (en) Image pickup device
CN105934944B (en) Imaging element and imaging device
JP2014179778A (en) Signal processing device, imaging device, imaging device, and electronic apparatus
JP6349659B2 (en) Electronic device, electronic device control method, and control program
JP6488545B2 (en) Electronics
JP2021193811A (en) Image sensor and image sensor
JP6781140B2 (en) Imaging device
JP7176591B2 (en) Electronics
JP2020108158A (en) Electronic apparatus
JP2018174543A (en) Electronics
JP2018207544A (en) Imaging device and imaging device
JP2018157602A (en) Imaging device
JP2018152869A (en) Imaging element and imaging device
JP6601465B2 (en) Imaging device
JP2019092220A (en) Electronic device
JP2018207504A (en) Electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917