[go: up one dir, main page]

JP2018160830A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2018160830A
JP2018160830A JP2017057679A JP2017057679A JP2018160830A JP 2018160830 A JP2018160830 A JP 2018160830A JP 2017057679 A JP2017057679 A JP 2017057679A JP 2017057679 A JP2017057679 A JP 2017057679A JP 2018160830 A JP2018160830 A JP 2018160830A
Authority
JP
Japan
Prior art keywords
imaging
imaging condition
unit
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017057679A
Other languages
Japanese (ja)
Inventor
孝 塩野谷
Takashi Shionoya
孝 塩野谷
直樹 關口
Naoki Sekiguchi
直樹 關口
敏之 神原
Toshiyuki Kambara
敏之 神原
昌也 ▲高▼橋
昌也 ▲高▼橋
Masaya Takahashi
宣孝 平間
Nobutaka Hirama
宣孝 平間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017057679A priority Critical patent/JP2018160830A/en
Publication of JP2018160830A publication Critical patent/JP2018160830A/en
Priority to JP2022075764A priority patent/JP7439856B2/en
Priority to JP2024020973A priority patent/JP2024045553A/en
Priority to JP2025120931A priority patent/JP2025142099A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】たとえばブロックごとの撮像条件の違いによって生じるブロック間の画像の不連続性を抑えること。【解決手段】撮像装置は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部と、第1の被写体からの第1の光が入射した第1の領域のブロックに第1の撮像条件を設定し、第2の被写体からの第2の光が入射した第2の領域のブロックに第2の撮像条件を設定し、第1および第2の光が入射した第3の領域のブロックに第3の撮像条件を設定する撮像条件設定部と、第3の領域のブロックの画素からの信号を第1および第2の撮像条件に基づいて補正する補正部と、補正部により補正された信号と、第1の領域のブロックの画素からの信号と、第2の領域のブロックの画素からの信号と、により画像を生成する生成部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To suppress image discontinuity between blocks caused by, for example, a difference in imaging conditions for each block. SOLUTION: An image pickup apparatus has a first image pickup in a block of an image pickup unit in which imaging conditions can be set for each block having a plurality of pixels and a block of a first region in which a first light from a first subject is incident. The conditions are set, the second imaging condition is set in the block of the second region where the second light from the second subject is incident, and the block of the third region where the first and second lights are incident. It was corrected by the image pickup condition setting unit that sets the third image pickup condition, the correction unit that corrects the signal from the pixel of the block in the third region based on the first and second image pickup conditions, and the correction unit. It includes a signal, a signal from the pixels of the block in the first region, a signal from the pixels of the block in the second region, and a generation unit for generating an image. [Selection diagram] Fig. 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

撮像素子からの信号により画像を生成する画像処理技術を搭載した撮像装置が知られている(特許文献1参照)。
従来から画像の画質向上が要求されていた。
An imaging device equipped with an image processing technique for generating an image based on a signal from an imaging element is known (see Patent Document 1).
Conventionally, image quality improvement has been required.

特開2006−197192号公報JP 2006-197192 A

第1の態様によると、撮像装置は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部と、第1の被写体からの第1の光が入射した第1の領域の前記ブロックに第1の撮像条件を設定し、第2の被写体からの第2の光が入射した第2の領域の前記ブロックに第2の撮像条件を設定し、前記第1および第2の光が入射した第3の領域の前記ブロックに第3の撮像条件を設定する撮像条件設定部と、前記第3の領域の前記ブロックの前記画素からの信号を前記第1および第2の撮像条件に基づいて補正する補正部と、前記補正部により補正された前記信号と、前記第1の領域の前記ブロックの前記画素からの信号と、前記第2の領域の前記ブロックの前記画素からの信号と、により画像を生成する生成部と、を備える。   According to the first aspect, the imaging device includes an imaging unit in which imaging conditions can be set for each block having a plurality of pixels, and the block in the first area where the first light from the first subject is incident. A first imaging condition is set, a second imaging condition is set for the block in the second area where the second light from the second subject is incident, and the first and second lights are incident An imaging condition setting unit that sets a third imaging condition for the block in the third area, and a signal from the pixel in the block in the third area is corrected based on the first and second imaging conditions The correction unit, the signal corrected by the correction unit, the signal from the pixel of the block in the first area, and the signal from the pixel of the block in the second area. And a generating unit that generates

第1の実施の形態によるカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera by a 1st embodiment. 積層型の撮像素子の断面図である。It is sectional drawing of a laminated type image pick-up element. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement | sequence and unit area | region of an imaging chip. 単位領域における回路を説明する図である。It is a figure explaining the circuit in a unit area. カメラの撮像素子に結像される被写体の像を模式的に示す図である。It is a figure which shows typically the image of the to-be-photographed object imaged on the image pick-up element of a camera. 撮像条件の設定画面を例示する図である。It is a figure which illustrates the setting screen of imaging conditions. 図7(a)はライブビュー画像における所定範囲を例示する図、図7(b)は所定範囲の拡大図である。FIG. 7A is a diagram illustrating a predetermined range in the live view image, and FIG. 7B is an enlarged view of the predetermined range. 図8は図7(b)に対応する画像データを例示する図である。FIG. 8 is a diagram illustrating image data corresponding to FIG. 図9(a)はライブビュー画像における注目領域を例示する図、図9(b)は注目画素および参照画素Prの拡大図である。FIG. 9A is a diagram illustrating a region of interest in the live view image, and FIG. 9B is an enlarged view of the pixel of interest and the reference pixel Pr. 図10(a)は画素から出力された光電変換信号の並びを例示する図、図10(b)はG色成分の画像データの補間を説明する図、図10(c)は補間後のG色成分の画像データを例示する図である。10A is a diagram illustrating the arrangement of photoelectric conversion signals output from the pixels, FIG. 10B is a diagram illustrating interpolation of G color component image data, and FIG. 10C is a diagram illustrating G after interpolation. It is a figure which illustrates the image data of a color component. 図11(a)は図10(a)からR色成分の画像データを抽出した図、図11(b)は色差成分Crの補間を説明する図、図11(c)は色差成分Crの画像データの補間を説明する図である。11A is a diagram obtained by extracting R color component image data from FIG. 10A, FIG. 11B is a diagram illustrating interpolation of the color difference component Cr, and FIG. 11C is an image of the color difference component Cr. It is a figure explaining the interpolation of data. 図12(a)は図10(a)からB色成分の画像データを抽出した図、図12(b)は色差成分Cbの補間を説明する図、図12(c)は色差成分Cbの画像データの補間を説明する図である。12A is a diagram obtained by extracting B color component image data from FIG. 10A, FIG. 12B is a diagram illustrating interpolation of the color difference component Cb, and FIG. 12C is an image of the color difference component Cb. It is a figure explaining the interpolation of data. 撮像面における焦点検出用画素の位置を例示する図である。It is a figure which illustrates the position of the pixel for focus detection in an imaging surface. 焦点検出画素ラインの一部の領域を拡大した図である。It is the figure which expanded the one part area | region of the focus detection pixel line. フォーカスポイントを拡大した図である。It is the figure which expanded the focus point. 図16(a)は、検出しようとする対象物を表すテンプレート画像を例示する図であり、図16(b)は、ライブビュー画像および探索範囲を例示する図である。FIG. 16A is a diagram illustrating a template image representing an object to be detected, and FIG. 16B is a diagram illustrating a live view image and a search range. 領域ごとに撮像条件を設定して撮像する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which sets an imaging condition for every area and images. 図18(a)〜図18(c)は、図7(b)の所定範囲の一部を含む第2の実施の形態の複数のブロックを示す図である。FIG. 18A to FIG. 18C are diagrams illustrating a plurality of blocks according to the second embodiment including a part of the predetermined range of FIG. 7B. 図19(a)〜図19(c)は、撮像素子の撮像面における第1撮像領域および第2撮像領域の配置を例示する図である。FIG. 19A to FIG. 19C are diagrams illustrating the arrangement of the first imaging region and the second imaging region on the imaging surface of the imaging device. 変形例11による撮像システムの構成を例示するブロック図である。FIG. 20 is a block diagram illustrating a configuration of an imaging system according to Modification 11. モバイル機器へのプログラムの供給を説明する図である。It is a figure explaining supply of the program to a mobile device. 第3の実施の形態によるカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera by a 3rd embodiment. 第3の実施の形態における各ブロックと、複数の補正部との対応関係を模式的に示した図である。It is the figure which showed typically the correspondence of each block in 3rd Embodiment, and several correction | amendment parts. 積層型撮像素子の断面図である。It is sectional drawing of a multilayer type image pick-up element. 画像処理に係る、第1画像データと第2画像データとの処理について模式的に表した図である。It is the figure which represented typically about the process with 1st image data and 2nd image data concerning an image process. 焦点検出処理に係る、第1画像データと第2画像データとの処理について模式的に表した図である。It is the figure which represented typically about the process of 1st image data and 2nd image data which concerns on a focus detection process. 被写体検出処理に係る、第1画像データと第2画像データとの処理について模式的に表した図である。It is the figure which represented typically about the process of 1st image data and 2nd image data regarding a to-be-photographed object detection process. 露出演算処理等の撮像条件の設定に係る、第1画像データと第2画像データとの処理について模式的に表した図である。It is the figure which represented typically about the process of 1st image data and 2nd image data concerning the setting of imaging conditions, such as exposure calculation processing.

−−−第1の実施の形態−−−
第1の実施の形態による画像処理装置を搭載する電子機器の一例として、デジタルカメラを例に挙げて説明する。カメラ1(図1)は、撮像素子32aにおける撮像面の領域ごとに異なる条件で撮像を行うことが可能に構成される。画像処理部33は、撮像条件が異なる領域においてそれぞれ適切な処理を行う。このようなカメラ1の詳細について、図面を参照して説明する。
--- First embodiment ---
A digital camera will be described as an example of an electronic device equipped with the image processing apparatus according to the first embodiment. The camera 1 (FIG. 1) is configured to be able to capture images under different conditions for each region of the imaging surface of the image sensor 32a. The image processing unit 33 performs appropriate processing in areas with different imaging conditions. Details of the camera 1 will be described with reference to the drawings.

<カメラの説明>
図1は、第1の実施の形態によるカメラ1の構成を例示するブロック図である。図1において、カメラ1は、撮像光学系31と、撮像部32と、画像処理部33と、制御部34と、表示部35と、操作部材36と、記録部37とを有する。
<Explanation of camera>
FIG. 1 is a block diagram illustrating the configuration of the camera 1 according to the first embodiment. In FIG. 1, the camera 1 includes an imaging optical system 31, an imaging unit 32, an image processing unit 33, a control unit 34, a display unit 35, an operation member 36, and a recording unit 37.

撮像光学系31は、被写界からの光束を撮像部32へ導く。撮像部32は、撮像素子32aおよび駆動部32bを含み、撮像光学系31によって結像された被写体の像を光電変換する。撮像部32は、撮像素子32aにおける撮像面の全域において同じ条件で撮像したり、撮像素子32aにおける撮像面の領域ごとに異なる条件で撮像したりすることができる。撮像部32の詳細については後述する。駆動部32bは、撮像素子32aに蓄積制御を行わせるために必要な駆動信号を生成する。撮像部32に対する電荷蓄積時間などの撮像指示は、制御部34から駆動部32bへ送信される。   The imaging optical system 31 guides the light beam from the object scene to the imaging unit 32. The imaging unit 32 includes an imaging element 32a and a driving unit 32b, and photoelectrically converts an object image formed by the imaging optical system 31. The imaging unit 32 can capture images under the same conditions over the entire imaging surface of the imaging device 32a, or can perform imaging under different conditions for each region of the imaging surface of the imaging device 32a. Details of the imaging unit 32 will be described later. The drive unit 32b generates a drive signal necessary for causing the image sensor 32a to perform accumulation control. An imaging instruction such as a charge accumulation time for the imaging unit 32 is transmitted from the control unit 34 to the driving unit 32b.

画像処理部33は、入力部33aと、補正部33bと、生成部33cとを含む。入力部33aには、撮像部32によって取得された画像データが入力される。補正部33bは、上記入力された画像データに対して補正を行う前処理を行う。前処理の詳細については後述する。生成部33cは、上記入力された画像データと前処理後の画像データとに対して画像処理を行い、画像を生成する。画像処理には、たとえば、色補間処理、画素欠陥補正処理、輪郭強調処理、ノイズ低減(Noise reduction)処理、ホワイトバランス調整処理、ガンマ補正処理、表示輝度調整処理、彩度調整処理等が含まれる。さらに、生成部33cは、表示部35により表示する画像を生成する。   The image processing unit 33 includes an input unit 33a, a correction unit 33b, and a generation unit 33c. Image data acquired by the imaging unit 32 is input to the input unit 33a. The correction unit 33b performs preprocessing for correcting the input image data. Details of the preprocessing will be described later. The generation unit 33c performs image processing on the input image data and the preprocessed image data to generate an image. Image processing includes, for example, color interpolation processing, pixel defect correction processing, contour enhancement processing, noise reduction processing, white balance adjustment processing, gamma correction processing, display luminance adjustment processing, saturation adjustment processing, and the like. . Further, the generation unit 33 c generates an image to be displayed by the display unit 35.

制御部34は、たとえばCPUによって構成され、カメラ1による全体の動作を制御する。たとえば、制御部34は、撮像部32で取得された光電変換信号に基づいて所定の露出演算を行い、適正露出に必要な撮像素子32aの電荷蓄積時間(露光時間)、撮像光学系31の絞り値、ISO感度等の露出条件を決定して駆動部32bへ指示する。また、カメラ1に設定されている撮像シーンモードや、検出した被写体要素の種類に応じて、彩度、コントラスト、シャープネス等を調整する画像処理条件を決定して画像処理部33へ指示する。被写体要素の検出については後述する。   The control part 34 is comprised by CPU, for example, and controls the whole operation | movement by the camera 1. FIG. For example, the control unit 34 performs a predetermined exposure calculation based on the photoelectric conversion signal acquired by the imaging unit 32, the charge accumulation time (exposure time) of the image sensor 32a necessary for proper exposure, and the aperture of the imaging optical system 31. The exposure conditions such as the value and ISO sensitivity are determined and instructed to the drive unit 32b. In addition, image processing conditions for adjusting saturation, contrast, sharpness, and the like are determined and instructed to the image processing unit 33 according to the imaging scene mode set in the camera 1 and the type of the detected subject element. The detection of the subject element will be described later.

制御部34には、物体検出部34aと、設定部34bと、撮像制御部34cと、レンズ移動制御部34d とが含まれる。これらは、制御部34が不図示の不揮発性メモリに格納されているプログラムを実行することにより、ソフトウェア的に実現されるが、これらをASIC等により構成しても構わない。   The control unit 34 includes an object detection unit 34a, a setting unit 34b, an imaging control unit 34c, and a lens movement control unit 34d. These are realized as software by the control unit 34 executing a program stored in a nonvolatile memory (not shown). However, these may be configured by an ASIC or the like.

物体検出部34aは、公知の物体認識処理を行うことにより、撮像部32によって取得された画像データから、人物(人物の顔)、犬、猫などの動物(動物の顔)、植物、自転車、自動車、電車などの乗物、建造物、静止物、山、雲などの風景、あらかじめ定められた特定の物体などの被写体要素を検出する。設定部34bは、撮像部32により取得した画像データを、上述のように検出した被写体要素を含む複数の領域に分割する。   The object detection unit 34a performs a known object recognition process, and from the image data acquired by the imaging unit 32, a person (person's face), an animal such as a dog or a cat (animal face), a plant, a bicycle, A subject element such as a vehicle, a vehicle such as a train, a building, a stationary object, a landscape such as a mountain or a cloud, or a predetermined specific object is detected. The setting unit 34b divides the image data acquired by the imaging unit 32 into a plurality of regions including the subject element detected as described above.

設定部34bはさらに、複数の領域に対して撮像条件を設定する。撮像条件は、上記露出条件(電荷蓄積時間、ゲイン、ISO感度、フレームレート等)と、上記画像処理条件(たとえば、ホワイトバランス調整用パラメータ、ガンマ補正カーブ、表示輝度調整パラメータ、彩度調整パラメータ等)とを含む。なお、撮像条件は、複数の領域のすべてに同じ撮像条件を設定することも、複数の領域間で異なる撮像条件を設定することも可能である。   The setting unit 34b further sets imaging conditions for a plurality of areas. The imaging conditions include the exposure conditions (charge accumulation time, gain, ISO sensitivity, frame rate, etc.) and the image processing conditions (for example, white balance adjustment parameters, gamma correction curves, display brightness adjustment parameters, saturation adjustment parameters, etc.) ). As the imaging conditions, the same imaging conditions can be set for all of the plurality of areas, or different imaging conditions can be set for the plurality of areas.

撮像制御部34cは、設定部34bによって領域ごとに設定された撮像条件を適用して撮像部32(撮像素子32a)、画像処理部33を制御する。これにより、撮像部32に対しては、複数の領域ごとに異なる露出条件で撮像を行わせることが可能であり、画像処理部33に対しては、複数の領域ごとに異なる画像処理条件で画像処理を行わせることが可能である。領域を構成する画素の数はいくらでもよく、たとえば1000画素でもよいし、1画素でもよい。また、領域間で画素の数が異なっていてもよい。   The imaging control unit 34c controls the imaging unit 32 (imaging element 32a) and the image processing unit 33 by applying the imaging conditions set for each region by the setting unit 34b. Thereby, it is possible to cause the imaging unit 32 to perform imaging under different exposure conditions for each of the plurality of regions, and for the image processing unit 33, images with different image processing conditions for each of the plurality of regions. Processing can be performed. Any number of pixels may be included in the region, for example, 1000 pixels or 1 pixel. Further, the number of pixels may be different between regions.

レンズ移動制御部34dは、撮像画面の所定の位置(フォーカスポイントと呼ぶ)において、対応する被写体に対してフォーカスを合わせる自動焦点調節(オートフォーカス:AF)動作を制御する。フォーカスを合わせると、被写体の像の尖鋭度が高まる。すなわち、撮像光学系31のフォーカスレンズを光軸方向に移動させることによって、撮像光学系31による像を調節する。レンズ移動制御部34dは、演算結果に基づいて、撮像光学系31のフォーカスレンズを合焦位置へ移動させるための駆動信号、たとえば被写体の像を撮像光学系31のフォーカスレンズで調節するための信号を、撮像光学系31のレンズ駆動機構31mに送る。このように、レンズ移動制御部34dは、演算結果に基づいて、撮像光学系31のフォーカスレンズを光軸方向に移動させる移動部として機能する。AF演算部34dがAF動作のために行う処理は、焦点検出処理とも呼ばれる。焦点検出処理の詳細については後述する。   The lens movement control unit 34d controls an automatic focus adjustment (autofocus: AF) operation for focusing on a corresponding subject at a predetermined position (called a focus point) on the imaging screen. When the focus is adjusted, the sharpness of the subject image increases. That is, the image by the imaging optical system 31 is adjusted by moving the focus lens of the imaging optical system 31 in the optical axis direction. The lens movement control unit 34d is a drive signal for moving the focus lens of the imaging optical system 31 to the in-focus position based on the calculation result, for example, a signal for adjusting the subject image with the focus lens of the imaging optical system 31. Is sent to the lens driving mechanism 31m of the imaging optical system 31. In this way, the lens movement control unit 34d functions as a moving unit that moves the focus lens of the imaging optical system 31 in the optical axis direction based on the calculation result. The process performed by the AF calculation unit 34d for the AF operation is also referred to as a focus detection process. Details of the focus detection process will be described later.

表示部35は、画像処理部33によって生成された画像や画像処理された画像、記録部37によって読み出された画像などを再生表示する。表示部35は、操作メニュー画面や、撮像条件を設定するための設定画面等の表示も行う。   The display unit 35 reproduces and displays the image generated by the image processing unit 33, the image processed image, the image read by the recording unit 37, and the like. The display unit 35 also displays an operation menu screen, a setting screen for setting imaging conditions, and the like.

操作部材36は、レリーズボタンやメニューボタン等の種々の操作部材によって構成される。操作部材36は、各操作に対応する操作信号を制御部34へ送出する。操作部材36には、表示部35の表示面に設けられたタッチ操作部材も含まれる。   The operation member 36 includes various operation members such as a release button and a menu button. The operation member 36 sends an operation signal corresponding to each operation to the control unit 34. The operation member 36 includes a touch operation member provided on the display surface of the display unit 35.

記録部37は、制御部34からの指示に応じて、不図示のメモリカードなどで構成される記録媒体に画像データなどを記録する。また、記録部37は、制御部34からの指示に応じて記録媒体に記録されている画像データを読み出す。   In response to an instruction from the control unit 34, the recording unit 37 records image data or the like on a recording medium including a memory card (not shown). The recording unit 37 reads image data recorded on the recording medium in response to an instruction from the control unit 34.

<積層型の撮像素子の説明>
上述した撮像素子32aの一例として積層型の撮像素子100について説明する。図2は、撮像素子100の断面図である。撮像素子100は、撮像チップ111と、信号処理チップ112と、メモリチップ113とを備える。撮像チップ111は、信号処理チップ112に積層されている。信号処理チップ112は、メモリチップ113に積層されている。撮像チップ111および信号処理チップ112、信号処理チップ112およびメモリチップ113は、それぞれ接続部109により電気的に接続されている。接続部109は、たとえばバンプや電極である。撮像チップ111は、被写体からの光像を撮像して画像データを生成する。撮像チップ111は、画像データを撮像チップ111から信号処理チップ112へ出力する。信号処理チップ112は、撮像チップ111から出力された画像データに対して信号処理を施す。メモリチップ113は、複数のメモリを有し、画像データを記憶する。なお、撮像素子100は、撮像チップおよび信号処理チップで構成されてもよい。撮像素子100が撮像チップおよび信号処理チップで構成されている場合、画像データを記憶するための記憶部は、信号処理チップに設けられてもよいし、撮像素子100とは別に設けていてもよい。
<Description of Laminated Image Sensor>
A laminated image sensor 100 will be described as an example of the image sensor 32a described above. FIG. 2 is a cross-sectional view of the image sensor 100. The imaging element 100 includes an imaging chip 111, a signal processing chip 112, and a memory chip 113. The imaging chip 111 is stacked on the signal processing chip 112. The signal processing chip 112 is stacked on the memory chip 113. The imaging chip 111, the signal processing chip 112, the signal processing chip 112, and the memory chip 113 are electrically connected by a connection unit 109. The connecting portion 109 is, for example, a bump or an electrode. The imaging chip 111 captures a light image from a subject and generates image data. The imaging chip 111 outputs image data from the imaging chip 111 to the signal processing chip 112. The signal processing chip 112 performs signal processing on the image data output from the imaging chip 111. The memory chip 113 has a plurality of memories and stores image data. Note that the image sensor 100 may include an image pickup chip and a signal processing chip. When the imaging device 100 is configured by an imaging chip and a signal processing chip, a storage unit for storing image data may be provided in the signal processing chip or may be provided separately from the imaging device 100. .

図2に示すように、入射光は、主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図2の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in FIG. 2, the incident light is incident mainly in the positive direction of the Z-axis indicated by a white arrow. Further, as shown in the coordinate axes, the left direction of the paper orthogonal to the Z axis is the X axis plus direction, and the front side of the paper orthogonal to the Z axis and the X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes in FIG.

撮像チップ111は、たとえば、CMOSイメージセンサである。撮像チップ111は、具体的には、裏面照射型のCMOSイメージセンサである。撮像チップ111は、マイクロレンズ層101、カラーフィルタ層102、パッシベーション層103、半導体層106、および配線層108を有する。撮像チップ111は、Z軸プラス方向に向かってマイクロレンズ層101、カラーフィルタ層102、パッシベーション層103、半導体層106、および配線層108の順に配置されている。   The imaging chip 111 is a CMOS image sensor, for example. Specifically, the imaging chip 111 is a backside illumination type CMOS image sensor. The imaging chip 111 includes a microlens layer 101, a color filter layer 102, a passivation layer 103, a semiconductor layer 106, and a wiring layer 108. The imaging chip 111 is arranged in the order of the microlens layer 101, the color filter layer 102, the passivation layer 103, the semiconductor layer 106, and the wiring layer 108 in the positive Z-axis direction.

マイクロレンズ層101は、複数のマイクロレンズLを有する。マイクロレンズLは、入射した光を後述する光電変換部104に集光する。カラーフィルタ層102は、複数のカラーフィルタFを有する。カラーフィルタ層102は、分光特性の異なる複数種類のカラーフィルタFを有する。カラーフィルタ層102は、具体的には、主に赤色成分の光を透過させる分光特性の第1フィルタ(R)と、主に緑色成分の光を透過させる分光特性の第2フィルタ(Gb、Gr)と、主に青色成分の光を透過させる分光特性の第3フィルタ(B)と、を有する。カラーフィルタ層102は、たとえば、ベイヤー配列により第1フィルタ、第2フィルタおよび第3フィルタが配置されている。パッシベーション層103は、窒化膜や酸化膜で構成され、半導体層106を保護する。   The microlens layer 101 has a plurality of microlenses L. The microlens L condenses incident light on the photoelectric conversion unit 104 described later. The color filter layer 102 includes a plurality of color filters F. The color filter layer 102 has a plurality of types of color filters F having different spectral characteristics. Specifically, the color filter layer 102 includes a first filter (R) having a spectral characteristic that mainly transmits red component light and a second filter (Gb, Gr) that has a spectral characteristic that mainly transmits green component light. ) And a third filter (B) having a spectral characteristic that mainly transmits blue component light. In the color filter layer 102, for example, a first filter, a second filter, and a third filter are arranged in a Bayer arrangement. The passivation layer 103 is made of a nitride film or an oxide film, and protects the semiconductor layer 106.

半導体層106は、光電変換部104および読出回路105を有する。半導体層106は、光の入射面である第1面106aと第1面106aの反対側の第2面106bとの間に複数の光電変換部104を有する。半導体層106は、光電変換部104がX軸方向およびY軸方向に複数配列されている。光電変換部104は、光を電荷に変換する光電変換機能を有する。また、光電変換部104は、光電変換信号による電荷を蓄積する。光電変換部104は、たとえば、フォトダイオードである。半導体層106は、光電変換部104よりも第2面106b側に読出回路105を有する。半導体層106は、読出回路105がX軸方向およびY軸方向に複数配列されている。読出回路105は、複数のトランジスタにより構成され、光電変換部104によって光電変換された電荷により生成される画像データを読み出して配線層108へ出力する。   The semiconductor layer 106 includes a photoelectric conversion unit 104 and a readout circuit 105. The semiconductor layer 106 includes a plurality of photoelectric conversion units 104 between a first surface 106a that is a light incident surface and a second surface 106b opposite to the first surface 106a. The semiconductor layer 106 includes a plurality of photoelectric conversion units 104 arranged in the X-axis direction and the Y-axis direction. The photoelectric conversion unit 104 has a photoelectric conversion function of converting light into electric charge. In addition, the photoelectric conversion unit 104 accumulates charges based on the photoelectric conversion signal. The photoelectric conversion unit 104 is, for example, a photodiode. The semiconductor layer 106 includes a readout circuit 105 on the second surface 106b side of the photoelectric conversion unit 104. In the semiconductor layer 106, a plurality of readout circuits 105 are arranged in the X-axis direction and the Y-axis direction. The readout circuit 105 includes a plurality of transistors, reads out image data generated by the electric charges photoelectrically converted by the photoelectric conversion unit 104, and outputs the image data to the wiring layer 108.

配線層108は、複数の金属層を有する。金属層は、たとえば、Al配線、Cu配線等である。配線層108は、読出回路105により読み出された画像データが出力される。画像データは、接続部109を介して配線層108から信号処理チップ112へ出力される。   The wiring layer 108 has a plurality of metal layers. The metal layer is, for example, an Al wiring or a Cu wiring. The wiring layer 108 outputs the image data read by the reading circuit 105. The image data is output from the wiring layer 108 to the signal processing chip 112 via the connection unit 109.

なお、接続部109は、光電変換部104ごとに設けられていてもよい。また、接続部109は、複数の光電変換部104ごとに設けられていてもよい。接続部109が複数の光電変換部104ごとに設けられている場合、接続部109のピッチは、光電変換部104のピッチよりも大きくてもよい。また、接続部109は、光電変換部104が配置されている領域の周辺領域に設けられていてもよい。   Note that the connection unit 109 may be provided for each photoelectric conversion unit 104. Further, the connection unit 109 may be provided for each of the plurality of photoelectric conversion units 104. When the connection unit 109 is provided for each of the plurality of photoelectric conversion units 104, the pitch of the connection units 109 may be larger than the pitch of the photoelectric conversion units 104. In addition, the connection unit 109 may be provided in a peripheral region of the region where the photoelectric conversion unit 104 is disposed.

信号処理チップ112は、複数の信号処理回路を有する。信号処理回路は、撮像チップ111から出力された画像データに対して信号処理を行う。信号処理回路は、たとえば、画像データの信号値を増幅するアンプ回路、画像データのノイズの低減処理を行う相関二重サンプリング回路およびアナログ信号をデジタル信号に変換するアナログ/デジタル(A/D)変換回路等である。信号処理回路は、光電変換部104ごとに設けられていてもよい。   The signal processing chip 112 has a plurality of signal processing circuits. The signal processing circuit performs signal processing on the image data output from the imaging chip 111. The signal processing circuit includes, for example, an amplifier circuit that amplifies the signal value of the image data, a correlated double sampling circuit that performs noise reduction processing of the image data, and analog / digital (A / D) conversion that converts the analog signal into a digital signal. Circuit etc. A signal processing circuit may be provided for each photoelectric conversion unit 104.

また、信号処理回路は、複数の光電変換部104ごとに設けられていてもよい。信号処理チップ112は、複数の貫通電極110を有する。貫通電極110は、たとえばシリコン貫通電極である。貫通電極110は、信号処理チップ112に設けられた回路を互いに接続する。貫通電極110は、撮像チップ111の周辺領域、メモリチップ113にも設けられてもよい。なお、信号処理回路を構成する一部の素子を撮像チップ111に設けてもよい。たとえば、アナログ/デジタル変換回路の場合、入力電圧と基準電圧の比較を行う比較器を撮像チップ111に設け、カウンター回路やラッチ回路等の回路を、信号処理チップ112に設けてもよい。   In addition, the signal processing circuit may be provided for each of the plurality of photoelectric conversion units 104. The signal processing chip 112 has a plurality of through electrodes 110. The through electrode 110 is, for example, a silicon through electrode. The through electrode 110 connects circuits provided in the signal processing chip 112 to each other. The through electrode 110 may also be provided in the peripheral region of the imaging chip 111 and the memory chip 113. Note that some elements constituting the signal processing circuit may be provided in the imaging chip 111. For example, in the case of an analog / digital conversion circuit, a comparator that compares an input voltage with a reference voltage may be provided in the imaging chip 111, and a circuit such as a counter circuit or a latch circuit may be provided in the signal processing chip 112.

メモリチップ113は、複数の記憶部を有する。記憶部は、信号処理チップ112で信号処理が施された画像データを記憶する。記憶部は、たとえば、DRAM等の揮発性メモリである。記憶部は、光電変換部104ごとに設けられていてもよい。また、記憶部は、複数の光電変換部104ごとに設けられていてもよい。記憶部に記憶された画像データは、後段の画像処理部に出力される。   The memory chip 113 has a plurality of storage units. The storage unit stores image data that has been subjected to signal processing by the signal processing chip 112. The storage unit is, for example, a volatile memory such as a DRAM. A storage unit may be provided for each photoelectric conversion unit 104. In addition, the storage unit may be provided for each of the plurality of photoelectric conversion units 104. The image data stored in the storage unit is output to the subsequent image processing unit.

図3は、撮像チップ111の画素配列と単位領域131を説明する図である。特に、撮像チップ111を裏面(撮像面)側から観察した様子を示す。画素領域にはたとえば2000万個以上の画素がマトリックス状に配列されている。図3の例では、隣接する2画素×2画素の4画素が1つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、たとえば32画素×32画素でもよいし、それ以上でもそれ以下でもよく、1画素であってもよい。   FIG. 3 is a diagram for explaining the pixel array and the unit region 131 of the imaging chip 111. In particular, a state where the imaging chip 111 is observed from the back surface (imaging surface) side is shown. For example, 20 million or more pixels are arranged in a matrix in the pixel region. In the example of FIG. 3, four adjacent pixels of 2 pixels × 2 pixels form one unit region 131. The grid lines in the figure indicate the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 is not limited to this, and may be about 1000, for example, 32 pixels × 32 pixels, more or less, or one pixel.

画素領域の部分拡大図に示すように、図3の単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を内包する。緑色画素Gb、Grは、カラーフィルタFとして緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタFとして青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタFとして赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region, the unit region 131 in FIG. 3 includes a so-called Bayer array composed of four pixels of the green pixels Gb and Gr, the blue pixel B, and the red pixel R. The green pixels Gb and Gr are pixels having a green filter as the color filter F, and receive light in the green wavelength band of incident light. Similarly, the blue pixel B is a pixel having a blue filter as the color filter F and receives light in the blue wavelength band, and the red pixel R is a pixel having a red filter as the color filter F and having a red wavelength band. Receives light.

本実施の形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義される。すなわち、1ブロックの最小単位は1つの単位領域131となる。上述したように、1つの単位領域131を形成する画素の数として取り得る値のうち、最も小さい画素の数は1画素である。したがって、1ブロックを画素単位で定義する場合、1ブロックを定義し得る画素の数のうち最小の画素の数は1画素となる。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。各ブロックは、そのブロック内のすべての単位領域131、すなわち、そのブロック内のすべての画素が同一の撮像条件で制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる光電変換信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、光電変換信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子100は、行方向(撮像チップ111のX軸方向)の間引きのみでなく、列方向(撮像チップ111のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画像処理におけるパラメータであってもよい。   In the present embodiment, a plurality of blocks are defined so as to include at least one unit region 131 per block. That is, the minimum unit of one block is one unit area 131. As described above, of the possible values for the number of pixels forming one unit region 131, the smallest number of pixels is one pixel. Therefore, when one block is defined in units of pixels, the minimum number of pixels among the number of pixels that can define one block is one pixel. Each block can control pixels included in each block with different control parameters. In each block, all the unit areas 131 in the block, that is, all the pixels in the block are controlled under the same imaging condition. That is, photoelectric conversion signals having different imaging conditions can be acquired between a pixel group included in a certain block and a pixel group included in another block. Examples of the control parameters include a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which photoelectric conversion signals are added, a charge accumulation time or accumulation count, a digitization bit number (word length), and the like. The imaging device 100 can freely perform not only thinning in the row direction (X-axis direction of the imaging chip 111) but also thinning in the column direction (Y-axis direction of the imaging chip 111). Furthermore, the control parameter may be a parameter in image processing.

図4は、単位領域131における回路を説明する図である。図4の例では、隣接する2画素×2画素の4画素により1つの単位領域131を形成する。なお、上述したように単位領域131に含まれる画素の数はこれに限られず、1000画素以上でもよいし、最小1画素でもよい。単位領域131の二次元的な位置を符号A〜Dにより示す。   FIG. 4 is a diagram for explaining a circuit in the unit region 131. In the example of FIG. 4, one unit region 131 is formed by four adjacent pixels of 2 pixels × 2 pixels. As described above, the number of pixels included in the unit region 131 is not limited to this, and may be 1000 pixels or more, or may be a minimum of 1 pixel. The two-dimensional position of the unit region 131 is indicated by reference signs A to D.

単位領域131に含まれる画素のリセットトランジスタ(RST)は、画素ごとに個別にオンオフ可能に構成される。図4において、画素Aのリセットトランジスタをオンオフするリセット配線300が設けられており、画素Bのリセットトランジスタをオンオフするリセット配線310が、上記リセット配線300とは別個に設けられている。同様に、画素Cのリセットトランジスタをオンオフするリセット配線320が、上記リセット配線300、310とは別個に設けられている。他の画素Dに対しても、リセットトランジスタをオンオフするための専用のリセット配線330が設けられている。   The reset transistor (RST) of the pixel included in the unit region 131 is configured to be turned on / off individually for each pixel. In FIG. 4, a reset wiring 300 for turning on / off the reset transistor of the pixel A is provided, and a reset wiring 310 for turning on / off the reset transistor of the pixel B is provided separately from the reset wiring 300. Similarly, a reset line 320 for turning on and off the reset transistor of the pixel C is provided separately from the reset lines 300 and 310. A dedicated reset wiring 330 for turning on and off the reset transistor is also provided for the other pixels D.

単位領域131に含まれる画素の転送トランジスタ(TX)についても、画素ごとに個別にオンオフ可能に構成される。図4において、画素Aの転送トランジスタをオンオフする転送配線302、画素Bの転送トランジスタをオンオフする転送配線312、画素Cの転送トランジスタをオンオフする転送配線322が、別個に設けられている。他の画素Dに対しても、転送トランジスタをオンオフするための専用の転送配線332が設けられている。   The pixel transfer transistor (TX) included in the unit region 131 is also configured to be turned on and off individually for each pixel. In FIG. 4, a transfer wiring 302 for turning on / off the transfer transistor of the pixel A, a transfer wiring 312 for turning on / off the transfer transistor of the pixel B, and a transfer wiring 322 for turning on / off the transfer transistor of the pixel C are separately provided. Also for the other pixels D, a dedicated transfer wiring 332 for turning on / off the transfer transistor is provided.

さらに、単位領域131に含まれる画素の選択トランジスタ(SEL)についても、画素ごとに個別にオンオフ可能に構成される。図4において、画素Aの選択トランジスタをオンオフする選択配線306、画素Bの選択トランジスタをオンオフする選択配線316、画素Cの選択トランジスタをオンオフする選択配線326が、別個に設けられている。他の画素Dに対しても、選択トランジスタをオンオフするための専用の選択配線336が設けられている。   Further, the pixel selection transistor (SEL) included in the unit region 131 is also configured to be turned on and off individually for each pixel. In FIG. 4, a selection wiring 306 for turning on / off the selection transistor of the pixel A, a selection wiring 316 for turning on / off the selection transistor of the pixel B, and a selection wiring 326 for turning on / off the selection transistor of the pixel C are separately provided. Also for the other pixels D, a dedicated selection wiring 336 for turning on and off the selection transistor is provided.

なお、電源配線304は、単位領域131に含まれる画素Aから画素Dで共通に接続されている。同様に、出力配線308は、単位領域131に含まれる画素Aから画素Dで共通に接続されている。また、電源配線304は複数の単位領域間で共通に接続されるが、出力配線308は単位領域131ごとに個別に設けられる。負荷電流源309は、出力配線308へ電流を供給する。負荷電流源309は、撮像チップ111側に設けられてもよいし、信号処理チップ112側に設けられてもよい。   The power supply wiring 304 is commonly connected to the pixels A to D included in the unit region 131. Similarly, the output wiring 308 is commonly connected to the pixel D from the pixel A included in the unit region 131. Further, the power supply wiring 304 is commonly connected between a plurality of unit regions, but the output wiring 308 is provided for each unit region 131 individually. The load current source 309 supplies current to the output wiring 308. The load current source 309 may be provided on the imaging chip 111 side or may be provided on the signal processing chip 112 side.

単位領域131のリセットトランジスタおよび転送トランジスタを個別にオンオフすることにより、単位領域131に含まれる画素Aから画素Dに対して、電荷の蓄積開始時間、蓄積終了時間、転送タイミングを含む電荷蓄積を制御することができる。また、単位領域131の選択トランジスタを個別にオンオフすることにより、各画素Aから画素Dの光電変換信号を共通の出力配線308を介して出力することができる。   By individually turning on and off the reset transistor and the transfer transistor in the unit region 131, the charge accumulation including the charge accumulation start time, the accumulation end time, and the transfer timing is controlled from the pixel A to the pixel D included in the unit region 131. can do. In addition, by individually turning on and off the selection transistors in the unit region 131, the photoelectric conversion signals of the pixels A to D can be output via the common output wiring 308.

ここで、単位領域131に含まれる画素Aから画素Dについて、行および列に対して規則的な順序で電荷蓄積を制御する、いわゆるローリングシャッタ方式が公知である。ローリングシャッタ方式により行ごとに画素を選択してから列を指定すると、図4の例では「ABCD」の順序で光電変換信号が出力される。   Here, a so-called rolling shutter system is known in which charge accumulation is controlled in a regular order with respect to rows and columns for pixels A to D included in the unit region 131. When a column is designated after selecting a pixel for each row by the rolling shutter method, photoelectric conversion signals are output in the order of “ABCD” in the example of FIG.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で異なったフレームレートによる光電変換信号をそれぞれ出力させることができる。また、撮像チップ111において一部のブロックに含まれる単位領域131に電荷蓄積(撮像)を行わせる間に他のブロックに含まれる単位領域131を休ませることにより、撮像チップ111の所定のブロックでのみ撮像を行わせて、その光電変換信号を出力させることができる。さらに、フレーム間で電荷蓄積(撮像)を行わせるブロック(蓄積制御の対象ブロック)を切り替えて、撮像チップ111の異なるブロックで逐次撮像を行わせて、光電変換信号を出力させることもできる。   Thus, by configuring the circuit with the unit region 131 as a reference, the charge accumulation time can be controlled for each unit region 131. In other words, it is possible to output photoelectric conversion signals at different frame rates between the unit regions 131. Further, in the imaging chip 111, the unit area 131 included in another block is rested while the unit area 131 included in a part of the block is charged (imaged), so that a predetermined block of the imaging chip 111 can be used. Only the imaging can be performed, and the photoelectric conversion signal can be output. Furthermore, it is also possible to switch a block (accumulation control target block) where charge accumulation (imaging) is performed between frames, sequentially perform imaging with different blocks of the imaging chip 111, and output a photoelectric conversion signal.

上記のとおり、単位領域131のそれぞれに対応して出力配線308が設けられている。撮像素子100は撮像チップ111、信号処理チップ112およびメモリチップ113を積層しているので、これら出力配線308に接続部109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。   As described above, the output wiring 308 is provided corresponding to each of the unit regions 131. Since the image pickup device 100 includes the image pickup chip 111, the signal processing chip 112, and the memory chip 113, each chip is arranged in the surface direction by using the electrical connection between the chips using the connection portion 109 for the output wiring 308. The wiring can be routed without increasing the size.

<撮像素子のブロック制御>
本実施の形態では、撮像素子32aにおける複数のブロックごとに撮像条件を設定可能に構成される。制御部34の撮像制御部34cは、上記複数の領域を上記ブロックに対応させて、領域ごとに設定された撮像条件で撮像を行わせる。
<Block control of image sensor>
In the present embodiment, an imaging condition can be set for each of a plurality of blocks in the imaging device 32a. The imaging control unit 34c of the control unit 34 causes the plurality of areas to correspond to the block and performs imaging under imaging conditions set for each area.

図5は、カメラ1の撮像素子32aに結像される被写体の像を模式的に示す図である。カメラ1は、撮像指示が行われる前に、被写体像を光電変換してライブビュー画像を取得する。ライブビュー画像は、所定のフレームレート(例えば60fps)で繰り返し撮像するモニタ用画像のことをいう。   FIG. 5 is a diagram schematically showing an image of a subject formed on the image sensor 32 a of the camera 1. The camera 1 photoelectrically converts the subject image to obtain a live view image before an imaging instruction is given. The live view image refers to a monitor image that is repeatedly imaged at a predetermined frame rate (for example, 60 fps).

制御部34は、設定部34bにより領域を分割する前は、撮像チップ111の全域(すなわち撮像画面の全体)に同一の撮像条件を設定する。同一の撮像条件とは、撮像画面の全体に共通の撮像条件を設定することをいい、たとえばアペックス値で0.3段程度に満たないばらつきがあるとしても同じとみなす。撮像チップ111の全域で同一に設定する撮像条件は、被写体輝度の測光値に応じた露出条件、またはユーザーによって手動設定された露出条件に基づいて決定する。   The control unit 34 sets the same imaging condition over the entire area of the imaging chip 111 (that is, the entire imaging screen) before dividing the area by the setting unit 34b. The same imaging condition refers to setting a common imaging condition for the entire imaging screen. For example, even if there is a variation in apex value of less than about 0.3, it is regarded as the same. The imaging conditions set to be the same throughout the imaging chip 111 are determined based on the exposure conditions corresponding to the photometric value of the subject luminance or the exposure conditions manually set by the user.

図5において、撮像チップ111の撮像面に、人物61aと、自動車62aと、バッグ63aと、山64aと、雲65a、66aとを含む像が結像されている。人物61aは、バッグ63aを両手で抱えている。人物61aの右後方に、自動車62aが止まっている。   In FIG. 5, an image including a person 61a, an automobile 62a, a bag 63a, a mountain 64a, and clouds 65a and 66a is formed on the imaging surface of the imaging chip 111. The person 61a holds the bag 63a with both hands. The automobile 62a stops at the right rear of the person 61a.

<領域の分割>
制御部34は、ライブビュー画像に基づき、以下のようにライブビュー画像の画面を複数の領域に分割する。先ず、物体検出部34aによってライブビュー画像から被写体要素を検出する。被写体要素の検出は、公知の被写体認識技術を用いる。図5の例では、物体検出部34aが、人物61aと、自動車62aと、バッグ63aと、山64aと、雲65aと、雲66aとを被写体要素として検出する。
<Division of area>
Based on the live view image, the control unit 34 divides the screen of the live view image into a plurality of regions as follows. First, a subject element is detected from the live view image by the object detection unit 34a. The subject element is detected using a known subject recognition technique. In the example of FIG. 5, the object detection unit 34a detects a person 61a, a car 62a, a bag 63a, a mountain 64a, a cloud 65a, and a cloud 66a as subject elements.

次に、設定部34bによって、ライブビュー画像の画面を、上記被写体要素を含む領域に分割する。本実施の形態では、人物61aを含む領域を第1領域61とし、自動車62aを含む領域を第2領域62とし、バッグ63aを含む領域を第3領域63とし、山64aを含む領域を第4領域64とし、雲65aを含む領域を第5領域65とし、雲66aを含む領域を第6領域66として説明する。
なお、上述の説明では、制御部34は、撮像素子32aで撮像して得られたライブビュー画像を用いて被写体要素の検出および領域の分割を行った。しかし、たとえば一眼レフカメラのように、被写体像を撮像可能な測光センサを備えたカメラであれば、制御部34は、測光センサで撮像して得られたライブビュー画像を用いて被写体要素の検出および領域の分割を行ってもよい。
Next, the setting unit 34b divides the live view image screen into regions including the subject elements. In the present embodiment, the region including the person 61a is defined as the first region 61, the region including the automobile 62a is defined as the second region 62, the region including the bag 63a is defined as the third region 63, and the region including the mountain 64a is defined as the fourth region. The region 64, the region including the cloud 65a is referred to as a fifth region 65, and the region including the cloud 66a is described as a sixth region 66.
In the above description, the control unit 34 detects the subject element and divides the region using the live view image obtained by imaging with the imaging element 32a. However, if the camera is equipped with a photometric sensor capable of capturing a subject image, such as a single-lens reflex camera, for example, the control unit 34 detects subject elements using a live view image obtained by imaging with the photometric sensor. Further, the area may be divided.

<ブロックごとの撮像条件の設定>
制御部34は、設定部34bによって画面を複数の領域に分割すると、図6に例示するような設定画面を表示部35に表示させる。図6において、ライブビュー画像60aが表示され、ライブビュー画像60aの右側に撮像条件の設定画面70が表示される。
<Setting imaging conditions for each block>
When the setting unit 34b divides the screen into a plurality of areas, the control unit 34 causes the display unit 35 to display a setting screen as illustrated in FIG. In FIG. 6, a live view image 60a is displayed, and an imaging condition setting screen 70 is displayed on the right side of the live view image 60a.

設定画面70には、撮像条件の設定項目の一例として、上から順にフレームレート、シャッタースピード(TV)、ゲイン(ISO)が挙げられている。フレームレートは、1秒間に取得するライブビュー画像やカメラ1により録画される動画像のフレーム数である。ゲインは、ISO感度である。撮像条件の設定項目は、図6に例示した他にも適宜加えて構わない。すべての設定項目が設定画面70の中に収まらない場合は、設定項目を上下にスクロールさせることによって他の設定項目を表示させるようにしてもよい。   In the setting screen 70, as an example of setting items of imaging conditions, a frame rate, a shutter speed (TV), and a gain (ISO) are listed in order from the top. The frame rate is the number of frames of a live view image acquired per second or a moving image recorded by the camera 1. Gain is ISO sensitivity. The setting items for the imaging conditions may be added as appropriate in addition to those illustrated in FIG. When all the setting items do not fit in the setting screen 70, other setting items may be displayed by scrolling the setting items up and down.

本実施の形態において、制御部34は、設定部34bによって分割された領域のうち、ユーザーによって選択された領域を撮像条件の設定(変更)の対象にする。たとえば、タッチ操作が可能なカメラ1において、ユーザーは、ライブビュー画像60aが表示されている表示部35の表示面上で、撮像条件を設定(変更)したい主要被写体の表示位置をタップ操作する。制御部34は、たとえば人物61aの表示位置がタップ操作された場合に、ライブビュー画像60aにおいて人物61aを含む第1領域61を撮像条件の設定(変更)対象領域にするとともに、第1領域61の輪郭を強調して表示させる。   In the present embodiment, the control unit 34 sets the region selected by the user among the regions divided by the setting unit 34b as a target for setting (changing) the imaging condition. For example, in the camera 1 capable of touch operation, the user taps the display position of the main subject for which the imaging condition is to be set (changed) on the display surface of the display unit 35 on which the live view image 60a is displayed. For example, when the display position of the person 61a is tapped, the control unit 34 sets the first area 61 including the person 61a in the live view image 60a as an imaging condition setting (changing) target area and the first area 61. The outline is highlighted.

図6において、輪郭を強調して表示(太く表示、明るく表示、色を変えて表示、破線で表示、点滅表示等)する第1領域61は、撮像条件の設定(変更)の対象となる領域を示す。図6の例では、第1領域61の輪郭を強調したライブビュー画像60aが表示されているものとする。この場合は、第1領域61が、撮像条件の設定(変更)の対象である。たとえば、タッチ操作が可能なカメラ1において、ユーザーによってシャッタースピード(TV)の表示71がタップ操作されると、制御部34は、強調して表示されている領域(第1領域61)に対するシャッタースピードの現設定値を画面内に表示させる(符号68)。
以降の説明では、タッチ操作を前提としてカメラ1の説明を行うが、操作部材36を構成するボタン等の操作により、撮像条件の設定(変更)を行うようにしてもよい。
In FIG. 6, a first area 61 that displays an outline with emphasis (thick display, bright display, display with a different color, display with a broken line, blinking display, etc.) is an area for setting (changing) imaging conditions. Indicates. In the example of FIG. 6, it is assumed that a live view image 60 a in which the outline of the first region 61 is emphasized is displayed. In this case, the first area 61 is a target for setting (changing) the imaging condition. For example, in the camera 1 capable of touch operation, when the user taps the shutter speed (TV) display 71, the control unit 34 causes the shutter speed for the highlighted area (first area 61) to be displayed. Is displayed on the screen (reference numeral 68).
In the following description, the camera 1 is described on the premise of a touch operation. However, the imaging condition may be set (changed) by operating a button or the like constituting the operation member 36.

シャッタースピード(TV)の上アイコン71aまたは下アイコン71bがユーザーによってタップ操作されると、設定部34bは、シャッタースピードの表示68を現設定値から上記タップ操作に応じて増減させるとともに、強調して表示されている領域(第1領域61)に対応する撮像素子32aの単位領域131(図3)の撮像条件を、上記タップ操作に応じて変更するように撮像部32(図1)へ指示を送る。決定アイコン72は、設定された撮像条件を確定させるための操作アイコンである。設定部34bは、フレームレートやゲイン(ISO)の設定(変更)についても、シャッタースピード(TV)の設定(変更)の場合と同様に行う。   When the upper icon 71a or the lower icon 71b of the shutter speed (TV) is tapped by the user, the setting unit 34b increases or decreases the shutter speed display 68 from the current setting value according to the tap operation. The imaging unit 32 (FIG. 1) is instructed to change the imaging condition of the unit area 131 (FIG. 3) of the imaging element 32a corresponding to the displayed area (first area 61) according to the tap operation. send. The decision icon 72 is an operation icon for confirming the set imaging condition. The setting unit 34b performs the setting (change) of the frame rate and gain (ISO) in the same manner as the setting (change) of the shutter speed (TV).

なお、設定部34bは、ユーザーの操作に基づいて撮像条件を設定するように説明したが、これに限定されない。設定部34bは、ユーザーの操作に基づかずに、制御部34の判断により撮像条件を設定するようにしてもよい。
強調表示されていない領域(第1領域61以外の他の領域)については、後述するように一部のブロックを除いて、設定されている撮像条件が維持される。
Although the setting unit 34b has been described as setting the imaging condition based on the user's operation, the setting unit 34b is not limited to this. The setting unit 34b may set the imaging condition based on the determination of the control unit 34 without being based on a user operation.
As for an area that is not highlighted (an area other than the first area 61), the set imaging conditions are maintained except for some blocks as described later.

制御部34は、撮像条件の設定(変更)の対象となる領域の輪郭を強調表示する代わりに、対象領域全体を明るく表示させたり、対象領域全体のコントラストを高めて表示させたり、対象領域全体を点滅表示させたりしてもよい。また、対象領域を枠で囲ってもよい。対象領域を囲う枠の表示は、二重枠や一重枠でもよく、囲う枠の線種、色や明るさ等の表示態様は、適宜変更して構わない。また、制御部34は、対象領域の近傍に矢印などの撮像条件の設定の対象となる領域を指し示す表示をしてもよい。制御部34は、撮像条件の設定(変更)の対象となる対象領域以外を暗く表示させたり、対象領域以外のコントラストを低く表示させたりしてもよい。   Instead of highlighting the outline of the area for which the imaging condition is set (changed), the control unit 34 displays the entire target area brightly, increases the contrast of the entire target area, or displays the entire target area. May be displayed blinking. Further, the target area may be surrounded by a frame. The display of the frame surrounding the target area may be a double frame or a single frame, and the display mode such as the line type, color, and brightness of the surrounding frame may be appropriately changed. In addition, the control unit 34 may display an indication of an area for which an imaging condition is set, such as an arrow, in the vicinity of the target area. The control unit 34 may darkly display a region other than the target region for which the imaging condition is set (changed), or may display a low contrast other than the target region.

<領域の境界を含むブロックの撮像条件の設定>
設定部34bは、少なくとも一部の領域についての撮像条件が上述のように他の領域の撮像条件と異なるように設定された場合には、領域の境界を含むブロックの撮像条件を次のように設定する。
図7(a)は、ライブビュー画像60aにおける人物に対応する第1領域61と山に対応する第4領域64との境界を含む所定範囲80を例示する図である。図7(b)は、図7(a)の所定範囲80を拡大した図である。図7(b)において、所定範囲80に複数のブロック81〜89が含まれている。
図7(b)の白地部は、人物に対応する部分を示す。また、図7(b)の斜線部および網掛け部は、山に対応する部分を示す。ブロック82、ブロック85、およびブロック87には、第1領域61と第4領域64との境界B1が含まれている。すなわち、図7(b)では、山に対応する部分のうち、境界B1が存在するブロック82、85、87内の山に対応する部分が斜線が施されている。
<Setting of imaging conditions for blocks including area boundaries>
When the imaging condition for at least a part of the area is set to be different from the imaging conditions of the other areas as described above, the setting unit 34b sets the imaging conditions of the block including the boundary of the area as follows. Set.
FIG. 7A is a diagram illustrating a predetermined range 80 including a boundary between the first region 61 corresponding to the person and the fourth region 64 corresponding to the mountain in the live view image 60a. FIG. 7B is an enlarged view of the predetermined range 80 in FIG. In FIG. 7B, the predetermined range 80 includes a plurality of blocks 81 to 89.
The white background portion in FIG. 7B indicates a portion corresponding to a person. In addition, the hatched portion and the shaded portion in FIG. 7 (b) indicate portions corresponding to mountains. The block 82, the block 85, and the block 87 include a boundary B1 between the first area 61 and the fourth area 64. That is, in FIG. 7B, among the portions corresponding to the peaks, the portions corresponding to the peaks in the blocks 82, 85 and 87 where the boundary B1 exists are shaded.

人物に対応する第1領域61を第1撮像条件に設定し、山に対応する第4領域64を第4撮像条件に設定した場合に、第1領域61と第4領域64との境界B1を含むブロック82、85、87を第1撮像条件に設定するべきか、それとも第4撮像条件に設定するべきかという問題が生じる。   When the first area 61 corresponding to the person is set as the first imaging condition and the fourth area 64 corresponding to the mountain is set as the fourth imaging condition, a boundary B1 between the first area 61 and the fourth area 64 is set. There arises a problem whether the blocks 82, 85, and 87 to be set should be set to the first imaging condition or the fourth imaging condition.

ところが、境界B1を含むブロック82、85、87の撮像条件を第1撮像条件に設定すると、第1撮像条件がブロック82、85、87の斜線部の撮像、すなわち、各ブロック82、85、87内の第4領域部分の撮像には適していないおそれがある。たとえば、極端な例では、上記斜線部に相当する画像データに白飛びまたは黒潰れが生じてしまうことも想定される。逆に、ブロック82、85、87の撮像条件を第4撮像条件に設定すると、第4撮像条件がブロック82、85、87の白地部の撮像、すなわち各ブロック82、85、87内の第1領域部分の撮像には適していないおそれがある。極端な例では、上記白地部に相当する画像データに白飛びまたは黒潰れが生じてしまうことも想定される。白飛びは、オーバー露光によって画像の高輝度部分のデータの階調が失われることをいう。また、黒潰れは、アンダー露光によって画像の低輝度部分のデータの階調が失われることをいう。   However, if the imaging conditions of the blocks 82, 85, and 87 including the boundary B1 are set to the first imaging condition, the first imaging condition is imaging of the shaded portion of the blocks 82, 85, and 87, that is, the blocks 82, 85, and 87 There is a possibility that it is not suitable for imaging of the fourth region portion. For example, in an extreme example, it may be assumed that the image data corresponding to the shaded area is whiteout or blackout. Conversely, when the imaging conditions of the blocks 82, 85, and 87 are set to the fourth imaging condition, the fourth imaging condition is imaging of the white background of the blocks 82, 85, and 87, that is, the first in each of the blocks 82, 85, and 87. There is a possibility that it is not suitable for imaging a region portion. In an extreme example, it is assumed that whiteout or blackout occurs in the image data corresponding to the white background. Overexposure means that the gradation of data in a high-luminance portion of an image is lost due to overexposure. Further, blackout means that the gradation of data in the low-luminance portion of the image is lost due to underexposure.

そこで、本実施の形態では、設定部34bは、領域の境界部分が存在するブロックについての撮像条件を次のように設定する。以下の説明では、同一の被写体(同一の領域)内のブロックのうち、隣接する領域との境界を含むブロックを境界ブロックと呼び、境界を含まないブロックを主ブロックと呼ぶ。すなわち、図7(b)の例では、ブロック82、85、87が境界ブロックであり、残りのブロック81、83、84、86、88、89が主ブロックである。また、説明の便宜上、境界ブロック82、85、87の属する領域を境界領域67 と呼ぶ。すなわち、境界領域67は、2つの領域(第1領域61および第4領域64)の境界(境界B1)を含む境界ブロックが存在する領域であり、第1領域61の周縁部分の一部および第4領域64の周縁部分の一部を含む。図7(b)および後述する図8において、太線の破線で囲んだ領域が境界領域67である。   Therefore, in the present embodiment, the setting unit 34b sets the imaging conditions for the block in which the boundary portion of the region exists as follows. In the following description, among blocks in the same subject (same area), a block including a boundary with an adjacent area is referred to as a boundary block, and a block including no boundary is referred to as a main block. That is, in the example of FIG. 7B, the blocks 82, 85, and 87 are boundary blocks, and the remaining blocks 81, 83, 84, 86, 88, and 89 are main blocks. For convenience of explanation, an area to which the boundary blocks 82, 85, and 87 belong is referred to as a boundary area 67. That is, the boundary region 67 is a region where a boundary block including the boundary (boundary B1) between the two regions (the first region 61 and the fourth region 64) exists. 4 A part of the peripheral portion of the region 64 is included. In FIG. 7B and FIG. 8 to be described later, a region surrounded by a thick broken line is a boundary region 67.

設定部34bは、一方の領域の主ブロックの撮像条件(たとえば撮像条件A)と、他方の領域の主ブロックの撮像条件(たとえば撮像条件B)との間の撮像条件(たとえば撮像条件C)を2つの領域の境界部分が存在するブロックの撮像条件として設定する。すなわち、設定部34bは、境界ブロックの画素からの信号から階調情報が喪失しないように境界ブロックの撮像条件を設定する。   The setting unit 34b sets an imaging condition (for example, imaging condition C) between the imaging condition (for example, imaging condition A) of the main block in one area and the imaging condition (for example, imaging condition B) of the main block in the other area. It is set as an imaging condition for a block in which a boundary portion between two regions exists. That is, the setting unit 34b sets the imaging condition of the boundary block so that the gradation information is not lost from the signal from the pixel of the boundary block.

図7を参照して説明すると、設定部34bは、第1領域61内の主ブロック81,84について設定した第1撮像条件と、第4領域64内の主ブロック83、86、88、89について設定した第4撮像条件との間の撮像条件を第7撮像条件として算出する。設定部34bは、算出した第7撮像条件を境界ブロック82、85、87の撮像条件として設定する。すなわち、設定部34bは、境界領域67を除く第1領域61の撮像条件を第1撮像条件に設定し、境界領域67を除く第4領域64の撮像条件を第4撮像条件に設定し、境界領域67の撮像条件を第7撮像条件に設定する。   Referring to FIG. 7, the setting unit 34 b sets the first imaging conditions set for the main blocks 81 and 84 in the first area 61 and the main blocks 83, 86, 88, and 89 in the fourth area 64. An imaging condition between the set fourth imaging condition is calculated as a seventh imaging condition. The setting unit 34b sets the calculated seventh imaging condition as the imaging condition for the boundary blocks 82, 85, and 87. That is, the setting unit 34b sets the imaging condition of the first area 61 excluding the boundary area 67 as the first imaging condition, sets the imaging condition of the fourth area 64 excluding the boundary area 67 as the fourth imaging condition, and sets the boundary The imaging condition of the area 67 is set to the seventh imaging condition.

たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800の場合、設定部34bは、第7撮像条件のISO感度を100と800との間の値として、たとえば400に設定する。   For example, when only the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, and the ISO sensitivity of the fourth imaging condition is 800, the setting unit 34b The ISO sensitivity of the 7 imaging conditions is set to 400, for example, as a value between 100 and 800.

また、たとえば、第1撮像条件と第4撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第4撮像条件のシャッター速度が1/100秒の場合、設定部34bは、第7撮像条件のシャッター速度を1/1000秒と1/100秒との間の値として、たとえば1/500秒に設定する。
なお、以上のように、第7撮像条件として、ISO感度やシャッター速度を、第1撮像条件と第4撮像条件との間の値に設定する場合に、第1撮像条件と第4撮像条件とのちょうど中間の値に設定してもよい。
Further, for example, only the shutter speed is different between the first imaging condition and the fourth imaging condition, the shutter speed of the first imaging condition is 1/1000 second, and the shutter speed of the fourth imaging condition is 1/100 second. In this case, the setting unit 34b sets the shutter speed of the seventh imaging condition as a value between 1/1000 seconds and 1/100 seconds, for example, 1/500 seconds.
As described above, when the ISO sensitivity and the shutter speed are set to values between the first imaging condition and the fourth imaging condition as the seventh imaging condition, the first imaging condition and the fourth imaging condition It may be set to a value just in between.

また、第1撮像条件と第4撮像条件との間でフレームレートのみが異なり(電荷蓄積時間は同じ)、第1撮像条件のフレームレートが30fpsで、第4撮像条件のフレームレートが60fpsの場合、設定部34bは、第7撮像条件のフレームレートを30fpsと60fpsとの間の値として、たとえば45fpsに設定する。   Further, when only the frame rate is different between the first imaging condition and the fourth imaging condition (the charge accumulation time is the same), the frame rate of the first imaging condition is 30 fps, and the frame rate of the fourth imaging condition is 60 fps. The setting unit 34b sets the frame rate of the seventh imaging condition as a value between 30 fps and 60 fps, for example, 45 fps.

このように、設定部34bは、他の境界ブロックについても同様に、撮像条件を設定する。なお、設定部34bは、境界ブロックに関わる複数の領域(たとえば第1領域61および第4領域64)のそれぞれの撮像条件(たとえば第1および第4撮像条件)が同一であれば、その撮像条件(たとえば第1撮像条件)を境界ブロックの撮像条件として設定する。
上述したように、たとえば、境界ブロックに関わる二つの領域のそれぞれの撮像条件の差がアペックス値で0.3段程度以下である場合にはその二つの領域の撮像条件を同一の撮像条件とみなす。したがって、境界ブロックに関わる複数の領域のそれぞれの撮像条件が、このようなアペックス値で0.3段程度のばらつきの範囲内で異なっている場合には、境界ブロックの撮像条件は、このばらつきの範囲内のいずれの撮像条件に設定してもよい。
As described above, the setting unit 34b similarly sets the imaging conditions for the other boundary blocks. In addition, if the imaging conditions (for example, the 1st and 4th imaging conditions) of each of the plurality of areas (for example, the first area 61 and the fourth area 64) related to the boundary block are the same, the setting unit 34b (For example, the first imaging condition) is set as the imaging condition for the boundary block.
As described above, for example, when the difference between the imaging conditions of the two areas related to the boundary block is about 0.3 or less in apex value, the imaging conditions of the two areas are regarded as the same imaging condition. . Therefore, when the imaging conditions of each of the plurality of regions related to the boundary block are different within the range of variation of about 0.3 in such apex values, the imaging conditions of the boundary block are Any imaging condition within the range may be set.

なお、第7撮像条件を設定するにあたって、上述の説明では、設定部34bは、第1撮像条件と第4撮像条件との中間、または略中間の値を第7撮像条件として算出した。しかし、白飛びや黒潰れが生じない範囲で、第7撮像条件を第1撮像条件または第4撮像条件に近づけてもよい。この場合、後述する第1および第2補正処理やその後の画像処理等が良好に行われるように第7撮像条件を設定することが望ましく、たとえば、次の(a)から(d)のいずれかのようにして第7撮像条件を設定してもよい。   In setting the seventh imaging condition, in the above description, the setting unit 34b calculates an intermediate value or a substantially intermediate value between the first imaging condition and the fourth imaging condition as the seventh imaging condition. However, the seventh imaging condition may be brought close to the first imaging condition or the fourth imaging condition within a range where no whiteout or blackout occurs. In this case, it is desirable to set the seventh imaging condition so that the first and second correction processes, which will be described later, and the subsequent image processing are performed satisfactorily. For example, any one of the following (a) to (d) In this way, the seventh imaging condition may be set.

(a)被写体としての重要度が高い方の領域についての撮像条件に近づけように第7撮像条件を設定することが望ましい。たとえば、第1領域61が主要被写体である人物61aに対応し、第4領域64が背景である山64aに対応することから、第7撮像条件は、白飛びや黒潰れが生じない範囲で、主要被写体である人物61aに対応する第1領域61についての主ブロックに設定された第1撮像条件に近づけることが望ましい。
たとえば、顔認識によって顔を認識することができた場合、境界ブロックの撮像条件は、認識できた顔が属する領域についての主ブロックに設定された撮像条件に近づけることが望ましい。
(A) It is desirable to set the seventh imaging condition so as to be close to the imaging condition for the region with higher importance as the subject. For example, since the first area 61 corresponds to the person 61a as the main subject and the fourth area 64 corresponds to the mountain 64a as the background, the seventh imaging condition is within a range in which whiteout and blackout do not occur. It is desirable to approach the first imaging condition set in the main block for the first area 61 corresponding to the person 61a that is the main subject.
For example, when a face can be recognized by face recognition, it is desirable that the imaging condition of the boundary block be close to the imaging condition set in the main block for the region to which the recognized face belongs.

(b)たとえば、境界ブロック毎に境界ブロック内の第1領域61に対応する画素の数と第4領域64に対応する画素の数とを比較し、当該境界ブロックの撮像条件を白飛びや黒潰れが生じない範囲で画素の数が多い方の領域の撮像条件に近づけてもよい。 (B) For example, for each boundary block, the number of pixels corresponding to the first area 61 in the boundary block is compared with the number of pixels corresponding to the fourth area 64, and the imaging condition of the boundary block is set to whiteout or black You may approach the imaging condition of the area | region where there are many pixels in the range which does not collapse.

(c)たとえば図5に示すように、画像上において、第1領域61の面積よりも第4領域64の面積が大きい。この場合、第1領域61と第4領域64とについての境界ブロックの撮像条件を、白飛びや黒潰れが生じない範囲で、面積が大きい第4領域についての主ブロックに設定された第4撮像条件に近づけてもよい。 (C) For example, as shown in FIG. 5, the area of the fourth region 64 is larger than the area of the first region 61 on the image. In this case, the imaging condition of the boundary block for the first area 61 and the fourth area 64 is the fourth imaging set to the main block for the fourth area having a large area within a range in which no whiteout or blackout occurs. You may approach conditions.

(d)たとえば、画素からの信号の階調数を大きくするために、第1領域61の第1撮像条件の感度と第4領域64の第4撮像条件の感度とを比較して、境界ブロックの撮像条件を、白飛びが生じない範囲内で高感度側に設定してもよい。 (D) For example, in order to increase the number of gradations of the signal from the pixel, the sensitivity of the first imaging condition in the first region 61 and the sensitivity of the fourth imaging condition in the fourth region 64 are compared, and the boundary block The imaging conditions may be set on the high sensitivity side within a range where whiteout does not occur.

なお、第7撮像条件を設定するにあたって、上述の説明では、設定部34bは、第1撮像条件と第4撮像条件との間の値を第7撮像条件として算出した。しかし、領域の境界を含むブロックにおいて、白飛びや黒潰れが生じないのであれば、第7撮像条件を第1撮像条件または第4撮像条件と同一としてもよい。この場合には、次の(e)から(h)のいずれかのようにして第7撮像条件を設定してもよい。   In setting the seventh imaging condition, in the above description, the setting unit 34b calculates a value between the first imaging condition and the fourth imaging condition as the seventh imaging condition. However, the seventh imaging condition may be the same as the first imaging condition or the fourth imaging condition as long as no whiteout or blackout occurs in the block including the boundary of the region. In this case, the seventh imaging condition may be set in any of the following (e) to (h).

(e)第1領域61が主要被写体である人物61aに対応し、第4領域64が背景である山64aに対応することから、第7撮像条件は、白飛びや黒潰れが生じないのであれば、主要被写体である人物61aに対応する第1領域61についての主ブロックに設定された第1撮像条件と同一としてもよい。 (E) Since the first area 61 corresponds to the person 61a that is the main subject and the fourth area 64 corresponds to the mountain 64a that is the background, the seventh imaging condition may be that no whiteout or blackout occurs. For example, it may be the same as the first imaging condition set in the main block for the first area 61 corresponding to the person 61a as the main subject.

(f)たとえば、境界ブロック毎に境界ブロック内の第1領域61に対応する画素の数と第4領域64に対応する画素の数とを比較し、白飛びや黒潰れが生じないのであれば、当該境界ブロックの撮像条件を画素の数が多い方の領域の撮像条件と同一としてもよい。 (F) For example, for each boundary block, the number of pixels corresponding to the first area 61 in the boundary block is compared with the number of pixels corresponding to the fourth area 64, and if whiteout or blackout does not occur The imaging conditions for the boundary block may be the same as the imaging conditions for the region with the larger number of pixels.

(g)たとえば図5に示すように、画像上において、第1領域61の面積よりも第4領域64の面積が大きい。この場合、白飛びや黒潰れが生じないのであれば、第1領域61と第4領域とについての境界ブロックの撮像条件を、面積が大きい第4領域についての主ブロックに設定された第4撮像条件と同一としてもよい。 (G) For example, as shown in FIG. 5, the area of the fourth region 64 is larger than the area of the first region 61 on the image. In this case, if whiteout or blackout does not occur, the imaging condition of the boundary block for the first area 61 and the fourth area is set as the main imaging for the fourth area having a large area. It may be the same as the conditions.

(h)たとえば、白飛びが生じないのであれば、画素からの信号の階調数を大きくするために、第1領域61の第1撮像条件の感度と第4領域64の第4撮像条件の感度とを比較して、境界ブロックの撮像条件を、第1撮像条件と第4撮像条件のうち、高感度側となる方の撮像条件と同一としてもよい。 (H) For example, if whiteout does not occur, the sensitivity of the first imaging condition of the first region 61 and the fourth imaging condition of the fourth region 64 are increased in order to increase the number of gradations of the signal from the pixel. By comparing the sensitivity, the imaging condition of the boundary block may be the same as the imaging condition on the higher sensitivity side of the first imaging condition and the fourth imaging condition.

なお、白飛びが生じてしまった場合には、その画素からの信号値を参照することができないが、黒潰れが生じてしまった場合であっても、その画素からの信号値を参照することができる場合がある。そこで、第7撮像条件の設定にあたって、第1撮像条件または第4撮像条件または両者の間の撮像条件のいずれに設定したとしても境界ブロックにおいて白飛びまたは黒潰れが生じでしまう場合には、境界ブロックにおいて黒潰れの発生を許容して白飛びが生じないように第7撮像条件を設定することが望ましい。   Note that if whiteout occurs, the signal value from that pixel cannot be referenced, but even if blackout occurs, refer to the signal value from that pixel. May be possible. Therefore, when setting the seventh imaging condition, even if the first imaging condition, the fourth imaging condition, or the imaging condition between the two is set, if the overexposure or blackout occurs in the boundary block, the boundary It is desirable to set the seventh imaging condition so that blackout is allowed in the block and whiteout does not occur.

以上説明したように、領域ごとの撮像条件が設定された後に、操作部材36を構成する不図示のレリーズボタン、または撮像開始を指示する表示(レリーズアイコン)が操作されると、制御部34が撮像部32を制御することにより、上記分割された領域に対してそれぞれ設定されている撮像条件で撮像を行わせる。そして、画像処理部33は、撮像部32によって取得された画像データに対して画像処理を行う。画像処理は、上述したように、領域ごとに異なる画像処理条件で行うことができる。   As described above, when an image capturing condition for each region is set and a release button (not shown) constituting the operation member 36 or a display (release icon) for instructing start of imaging is operated, the control unit 34 is operated. By controlling the imaging unit 32, imaging is performed under the imaging conditions set for each of the divided areas. The image processing unit 33 performs image processing on the image data acquired by the imaging unit 32. As described above, the image processing can be performed under different image processing conditions for each region.

上記画像処理部33による画像処理の後、制御部34から指示を受けた記録部37が、画像処理後の画像データを不図示のメモリカードなどで構成される記録媒体に記録する。これにより、一連の撮像処理が終了する。   After the image processing by the image processing unit 33, the recording unit 37 that receives an instruction from the control unit 34 records the image data after the image processing on a recording medium including a memory card (not shown). Thereby, a series of imaging processes is completed.

<第1補正処理>
画像処理部33の補正部33bは、画像処理、焦点検出処理、被写体検出(被写体要素の検出)処理、および撮像条件を設定する処理の前に行う前処理の1つとして、第1補正処理を行う。
<First correction process>
The correction unit 33b of the image processing unit 33 performs the first correction process as one of the preprocessing performed before the image processing, the focus detection processing, the subject detection (subject element detection) processing, and the processing for setting the imaging conditions. Do.

上述したように、本実施の形態では、設定部34bは、撮像画面の領域を分割し、各領域に対して撮像条件をそれぞれ設定する。また、設定部34bは、境界ブロックに対しては、上述したように撮像条件を設定する。したがって、同一の被写体であっても境界ブロックで撮像された部分と、主ブロックで撮像された部分とでは撮像条件が異なる場合がある。
そこで、本実施の形態では、境界ブロックに属する画素からの信号に対して以下に述べる補正処理を行うことで、主ブロックにおける撮像条件と同じ撮像条件で撮像した場合と同様の信号を得る。この補正処理を第1補正処理と呼ぶ。第1補正処理は、同じ領域内で撮像条件が異なる部分が存在することに起因して、画像処理後の画像に生じる不連続性を緩和するために行う。
As described above, in the present embodiment, the setting unit 34b divides the area of the imaging screen and sets the imaging conditions for each area. The setting unit 34b sets the imaging conditions for the boundary block as described above. Therefore, even in the same subject, the imaging conditions may differ between the part imaged by the boundary block and the part imaged by the main block.
Therefore, in the present embodiment, a correction signal described below is performed on the signals from the pixels belonging to the boundary block, thereby obtaining a signal similar to that obtained when imaging is performed under the same imaging condition as that in the main block. This correction process is called a first correction process. The first correction processing is performed to alleviate discontinuity that occurs in the image after image processing due to the presence of portions with different imaging conditions in the same region.

図8は図7(b)に対応する画像データを例示する図である。図8において、ブロック81〜89は、それぞれ2画素×2画素の4画素によって構成されているものとする。図8に示した各画素のうち、白抜きした画素81a〜81d、82a〜82c、84a〜84d、85a、87aには人物61aからの被写体光が入射し、網掛けを施した画素82d、83a〜83d、85b〜85d、86a〜86d、87b〜87d、88a〜88d、89a〜89dには山64aからの被写体光が入射するものとする。すなわち、ブロック81およびブロック84の各画素には、人物61aからの被写体光が入射し、山64aからの被写体光が入射していない。したがってブロック81およびブロック84は、第1領域についての主ブロックである。同様に、ブロック83、ブロック86、ブロック88およびブロック89の各画素には、山64aからの被写体光が入射し、人物61aからの被写体光が入射していない。したがってブロック83、ブロック86、ブロック88およびブロック89は、第4領域についての主ブロックである。   FIG. 8 is a diagram illustrating image data corresponding to FIG. In FIG. 8, it is assumed that blocks 81 to 89 are each composed of 4 pixels of 2 pixels × 2 pixels. Of the pixels shown in FIG. 8, the white pixels 81a to 81d, 82a to 82c, 84a to 84d, 85a, and 87a receive subject light from the person 61a and are shaded pixels 82d and 83a. It is assumed that subject light from the mountain 64a is incident on .about.83d, 85b to 85d, 86a to 86d, 87b to 87d, 88a to 88d, and 89a to 89d. That is, the subject light from the person 61a is incident on each pixel of the block 81 and the block 84, and the subject light from the mountain 64a is not incident. Therefore, the block 81 and the block 84 are main blocks for the first area. Similarly, the subject light from the mountain 64a is incident on each pixel of the block 83, the block 86, the block 88, and the block 89, and the subject light from the person 61a is not incident. Therefore, the block 83, the block 86, the block 88, and the block 89 are main blocks for the fourth area.

ブロック82の画素82a、画素82bおよび画素82cには人物61aからの被写体光が入射し、画素82dには山64aからの被写体光が入射する。ブロック85の画素85aには人物61aからの被写体光が入射し、画素85b、画素85cおよび画素85dには山64aからの被写体光が入射する。ブロック87の画素87aには人物61aからの被写体光が入射し、画素87b、画素87cおよび画素87dには山64aからの被写体光が入射する。したがってブロック82、ブロック85およびブロック87は、第1および第4領域についての境界ブロックである。   Subject light from the person 61a enters the pixel 82a, pixel 82b, and pixel 82c of the block 82, and subject light from the mountain 64a enters the pixel 82d. Subject light from the person 61a enters the pixel 85a of the block 85, and subject light from the mountain 64a enters the pixel 85b, the pixel 85c, and the pixel 85d. Subject light from the person 61a enters the pixel 87a of the block 87, and subject light from the mountain 64a enters the pixel 87b, the pixel 87c, and the pixel 87d. Therefore, the block 82, the block 85, and the block 87 are boundary blocks for the first and fourth regions.

補正部33bは、境界ブロックに属する各画素に対して、どの被写体領域からの光が入射しているのかを判断する。具体的には、補正部33bは、物体検出部34aによる被写体要素の検出結果から撮像素子32aの撮像面における境界の位置を算出する。そして、補正部33bは、算出した境界の位置に基づいて境界ブロックを抽出するとともに、抽出した境界ブロックに属する各画素に対してどの被写体要素からの被写体光が入射しているかを算出する。   The correction unit 33b determines which subject area is incident on each pixel belonging to the boundary block. Specifically, the correction unit 33b calculates the position of the boundary on the imaging surface of the imaging element 32a from the detection result of the subject element by the object detection unit 34a. Then, the correction unit 33b extracts a boundary block based on the calculated boundary position, and calculates which subject element from which subject light is incident on each pixel belonging to the extracted boundary block.

たとえば、図7,8を例に挙げて説明すると、補正部33bは、物体検出部34aによる被写体要素の検出結果から第1領域61と第4領域64との境界B1の位置を算出する。そして補正部33bは、算出した境界B1の位置に基づいてブロック82、ブロック85およびブロック87を境界ブロックとして抽出する。そして補正部33bは、算出した境界B1の位置に基づいて、境界ブロック82の画素82a、画素82bおよび画素82c、境界ブロック85の画素85a、ならびに境界ブロック87の画素87aに対して人物61aからの被写体光が入射していることを算出する。また、補正部33bは、算出した境界B1の位置に基づいて、境界ブロック82の画素82d、境界ブロック85の画素85b、画素85cおよび画素85d、ならびに境界ブロック87の画素87b、画素87cおよび画素87dに対して山64aからの被写体光が入射していることを算出する。   For example, referring to FIGS. 7 and 8, the correction unit 33b calculates the position of the boundary B1 between the first region 61 and the fourth region 64 from the detection result of the subject element by the object detection unit 34a. Then, the correcting unit 33b extracts the block 82, the block 85, and the block 87 as boundary blocks based on the calculated position of the boundary B1. Then, based on the calculated position of the boundary B1, the correcting unit 33b applies the pixel 82a, the pixel 82b and the pixel 82c of the boundary block 82, the pixel 85a of the boundary block 85, and the pixel 87a of the boundary block 87 from the person 61a. Calculate that subject light is incident. The correction unit 33b also determines the pixel 82d of the boundary block 82, the pixel 85b, the pixel 85c, and the pixel 85d of the boundary block 85, and the pixel 87b, the pixel 87c, and the pixel 87d of the boundary block 87 based on the calculated position of the boundary B1. Is calculated that the subject light from the mountain 64a is incident.

境界ブロック82の画素82a、画素82bおよび画素82cは、第1撮像条件と第4撮像条件との間の撮像条件である第7撮像条件によって人物61aからの被写体光を撮像している。一方、第1領域61についての主ブロックであるブロック81およびブロック84の各画素では、第1撮像条件によって人物61aからの被写体光を撮像している。
そこで、補正部33bは、画素82a、画素82bおよび画素82cからの信号に対して、人物61aからの被写体光を第1撮像条件で撮像した場合と同様の信号を得られるように第1補正処理を行う。
同様に、境界ブロック82の画素82dは、第7撮像条件によって山64aからの被写体光を撮像している。一方、第4領域64についての主ブロックであるブロック83、ブロック86、ブロック88およびブロック89の各画素では、第4撮像条件によって山64aからの被写体光を撮像している。
そこで、補正部33bは、画素82dからの信号に対して、山64aからの被写体光を第4撮像条件で撮像した場合と同様の信号を得られるように第1補正処理を行う。
The pixels 82a, 82b, and 82c of the boundary block 82 image subject light from the person 61a according to a seventh imaging condition that is an imaging condition between the first imaging condition and the fourth imaging condition. On the other hand, in each pixel of the block 81 and the block 84 which are main blocks for the first region 61, the subject light from the person 61a is imaged according to the first imaging condition.
Therefore, the correction unit 33b performs the first correction process so that signals similar to those obtained when the subject light from the person 61a is imaged under the first imaging condition can be obtained for the signals from the pixels 82a, 82b, and 82c. I do.
Similarly, the pixel 82d of the boundary block 82 images the subject light from the mountain 64a according to the seventh imaging condition. On the other hand, in each pixel of the block 83, the block 86, the block 88, and the block 89, which are main blocks for the fourth region 64, the subject light from the mountain 64a is imaged according to the fourth imaging condition.
Therefore, the correction unit 33b performs a first correction process on the signal from the pixel 82d so that a signal similar to that obtained when the subject light from the mountain 64a is imaged under the fourth imaging condition.

たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800で、第7撮像条件のISO感度が400である場合に、第1補正処理は、以下のように行われる。すなわち、補正部33bは、第1補正処理として、画素82a、画素82bおよび画素82cからの信号に対して100/400を掛け、画素82dからの信号に対して800/400を掛ける。   For example, only the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, the ISO sensitivity of the fourth imaging condition is 800, and the ISO sensitivity of the seventh imaging condition. Is 400, the first correction process is performed as follows. That is, the correction unit 33b multiplies signals from the pixels 82a, 82b, and 82c by 100/400 and multiplies signals from the pixel 82d by 800/400 as the first correction processing.

たとえば、第1撮像条件と第4撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第4撮像条件のシャッター速度が1/100秒で、第7撮像条件のシャッター速度が1/500秒である場合、第1補正処理は、以下のように行われる。すなわち、補正部33bは、第1補正処理として、画素82a、画素82bおよび画素82cからの信号に対して(1/1000)/(1/500)=1/2を掛け、画素82dからの信号に対して(1/100)/(1/500)=5を掛ける。   For example, only the shutter speed is different between the first imaging condition and the fourth imaging condition, the shutter speed of the first imaging condition is 1/1000 second, the shutter speed of the fourth imaging condition is 1/100 second, When the shutter speed of the seven imaging conditions is 1/500 second, the first correction process is performed as follows. That is, as the first correction process, the correction unit 33b multiplies the signals from the pixel 82a, the pixel 82b, and the pixel 82c by (1/1000) / (1/500) = 1/2 to obtain a signal from the pixel 82d. Is multiplied by (1/100) / (1/500) = 5.

たとえば、第1撮像条件と第4撮像条件との間でフレームレートのみが異なり、第1撮像条件のフレームレートが30fpsで、第4撮像条件のフレームレートが60fpsで、第7撮像条件のフレームレートが45fpsである場合、第1補正処理は、以下のように行われる。すなわち、補正部33bは、第1補正処理として、画素82a、画素82bおよび画素82cからのフレームレートが45fpsのフレーム画像の信号を、一部間引いてフレームレート30fpsのフレーム画像の信号に変換する。このフレームレートの変換は、画素82a〜82cからのフレーム画像の信号のうち、第1撮像条件の30fpsのフレーム画像信号の発生タイミングに近いフレーム画像信号を選択することによって行う。また、上記のフレームレートの変換は、第1撮像条件の30fpsのフレーム画像信号の発生タイミングの前後に発生した画素82a〜82cからのフレーム画像の信号に基づき、第1撮像条件の30fpsのフレーム画像信号の発生タイミングに同期したフレーム画像信号を、補間算出してもよい。
また、補正部33bは、第1補正処理として、画素82dからのフレームレート45fpsのフレーム画像の信号をフレームレート60fpsのフレーム画像の信号に変換する。このフレームレートの変換は、たとえば画素82dから相前後して読み出されたフレーム画像信号を合成することによって、すなわち、前後のフレーム画像信号に基づき、新たなフレーム画像信号を補間算出することによって、フレーム画像信号の数を増大して行われる。
For example, only the frame rate differs between the first imaging condition and the fourth imaging condition, the frame rate of the first imaging condition is 30 fps, the frame rate of the fourth imaging condition is 60 fps, and the frame rate of the seventh imaging condition Is 45 fps, the first correction process is performed as follows. That is, as the first correction process, the correction unit 33b thins out part of the frame image signal with a frame rate of 45 fps from the pixel 82a, the pixel 82b, and the pixel 82c and converts it into a frame image signal with a frame rate of 30 fps. This frame rate conversion is performed by selecting a frame image signal close to the generation timing of the 30 fps frame image signal of the first imaging condition from the frame image signals from the pixels 82a to 82c. Also, the frame rate conversion described above is based on the frame image signal from the pixels 82a to 82c generated before and after the generation timing of the 30 fps frame image signal of the first imaging condition, and the 30 fps frame image of the first imaging condition. A frame image signal synchronized with the signal generation timing may be calculated by interpolation.
Further, as the first correction process, the correction unit 33b converts a frame image signal with a frame rate of 45 fps from the pixel 82d into a frame image signal with a frame rate of 60 fps. This frame rate conversion is performed by, for example, synthesizing frame image signals read from the pixel 82d one after the other, that is, by interpolating a new frame image signal based on the previous and next frame image signals, This is done by increasing the number of frame image signals.

このようにして、補正部33bは、すべての境界ブロックの各画素からの信号に対して必要に応じて第1補正処理を行う。すなわち、補正部33bは、境界ブロックに属するある画素からの信号に対して、当該画素と同じ被写体要素についての主ブロックに適用された撮像条件と当該境界ブロックに適用された撮像条件とが異なれば第1補正処理を行う。しかし、当該画素と同じ被写体要素についての主ブロックに適用された撮像条件と当該境界ブロックに適用された撮像条件とが同一であれば第1補正処理を行う必要がないので、補正部33bは、第1補正処理を行わない。
上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
なお、境界ブロックや境界ブロックの近隣の主ブロックで撮像して得られた画像データに対してシャープネスやコントラストを下げるような画像処理を行うことで、画像に生じる不連続性を緩和できるのであれば、第1補正処理を行わなくてもよい。
In this way, the correction unit 33b performs the first correction process on the signals from the respective pixels of all the boundary blocks as necessary. That is, for the signal from a certain pixel belonging to the boundary block, the correction unit 33b determines that the imaging condition applied to the main block for the same subject element as the pixel is different from the imaging condition applied to the boundary block. A first correction process is performed. However, if the imaging condition applied to the main block for the same subject element as the pixel is the same as the imaging condition applied to the boundary block, it is not necessary to perform the first correction process. The first correction process is not performed.
As described above, even if there are some differences in imaging conditions, they are regarded as the same imaging conditions.
In addition, if discontinuity that occurs in the image can be alleviated by performing image processing that lowers the sharpness and contrast on the image data obtained by imaging with the boundary block and the main block adjacent to the boundary block The first correction process may not be performed.

<第2補正処理>
画像処理部33の補正部33bはさらに、画像処理、焦点検出処理、被写体検出(被写体要素を検出)処理、および撮像条件を設定する処理の前に、以下の第2補正処理を必要に応じて行う。なお、補正部33bは、上述したように必要に応じて行われた第1補正処理の後に第2の補正処理を行う。
なお、第2補正処理では、第1補正処理によって補正された境界ブロックの画素からの信号は、境界ブロックに設定された撮像条件ではなく、主ブロックに設定された撮像条件が適用されて撮像されて得られた信号として処理される。たとえば、第2補正処理を行う際には、第1補正処理によって補正された境界ブロック82の画素82a、画素82bおよび画素82cからの信号は、第7撮像条件ではなく第1撮像条件が適用されて撮像されて得られた信号として補正部33bで処理される。同様に、第1補正処理によって補正された境界ブロック82の画素82dからの信号は、第7撮像条件ではなく第4撮像条件が適用されて撮像されて得られた信号として補正部33bで処理される。
<Second correction process>
The correction unit 33b of the image processing unit 33 further performs the following second correction processing as necessary before image processing, focus detection processing, subject detection (subject element detection) processing, and processing for setting imaging conditions, as necessary. Do. The correction unit 33b performs the second correction process after the first correction process performed as necessary as described above.
In the second correction process, the signal from the pixel of the boundary block corrected by the first correction process is imaged by applying the imaging condition set in the main block, not the imaging condition set in the boundary block. It is processed as a signal obtained. For example, when the second correction process is performed, signals from the pixels 82a, 82b, and 82c of the boundary block 82 corrected by the first correction process are applied with the first imaging condition instead of the seventh imaging condition. As a signal obtained by imaging, the correction unit 33b processes the signal. Similarly, the signal from the pixel 82d of the boundary block 82 corrected by the first correction process is processed by the correction unit 33b as a signal obtained by being imaged by applying the fourth imaging condition instead of the seventh imaging condition. The

1.画像処理を行う場合
画像処理部33の補正部33bは、分割した領域間で異なる撮像条件を適用して取得された画像データに対する画像処理が所定の画像処理である場合において、領域の境界部に位置する画像データに対し、画像処理の前処理として第2補正処理を行う。所定の画像処理は、画像において処理対象とする注目位置の画像データを、注目位置の周囲の複数の参照位置の画像データを参照して算出する処理であり、たとえば、画素欠陥補正処理、色補間処理、輪郭強調処理、ノイズ低減処理などが該当する。
1. In the case of performing image processing The correction unit 33b of the image processing unit 33 uses a predetermined image processing for image data acquired by applying different imaging conditions between the divided regions. A second correction process is performed on the positioned image data as a pre-process of the image process. The predetermined image processing is processing for calculating image data of a target position to be processed in an image with reference to image data of a plurality of reference positions around the target position. For example, pixel defect correction processing, color interpolation Processing, contour enhancement processing, noise reduction processing, and the like are applicable.

第2補正処理は、分割した領域間で撮像条件が異なることに起因して、画像処理後の画像に生じる不連続性を緩和するために行う。一般に、注目位置が、分割した領域の境界部に位置する場合、注目位置の周囲の複数の参照位置には、注目位置の画像データと同じ撮像条件が適用された画像データと、注目位置の画像データと異なる撮像条件が適用された画像データとが混在する場合がある。本実施の形態では、異なる撮像条件が適用された参照位置の画像データをそのまま参照して注目位置の画像データを算出するよりも、撮像条件の相違による画像データ間の差異を抑えるように第2補正処理を施した参照位置の画像データを参照して注目位置の画像データを算出する方が好ましいという考え方に基づき、以下のように第2補正処理を行う。   The second correction process is performed to alleviate discontinuity that occurs in the image after the image processing due to the difference in imaging conditions between the divided areas. In general, when the target position is located at the boundary portion of the divided area, image data in which the same imaging condition as the image data of the target position is applied to the plurality of reference positions around the target position, and the image of the target position Data and image data to which different imaging conditions are applied may be mixed. In the present embodiment, rather than referring to the image data at the reference position to which the different imaging conditions are applied as it is to calculate the image data at the target position, the second is to suppress the difference between the image data due to the difference in the imaging conditions. Based on the idea that it is preferable to calculate the image data of the target position with reference to the image data of the reference position subjected to the correction process, the second correction process is performed as follows.

図9(a)は、図7(a)のライブビュー画像60aにおける第1領域61と第4領域64との境界部の注目領域90を拡大した図である。第1撮像条件が適用された第1領域61に対応する撮像素子32a上の画素からの画像データを白地で示し、第4撮像条件が適用された第4領域64に対応する撮像素子32a上の画素からの画像データを網掛けで示す。図9(a)では、第1領域61上であって、第1領域61と第4領域64との境界91の近傍部分、すなわち境界部に注目画素Pからの画像データが位置する。注目画素Pを中心とする注目領域90(例えば3×3画素)に含まれる注目画素Pの周囲の画素(本例では8画素)を参照画素Prとする。図9(b)は、注目画素Pおよび参照画素Pr1〜Pr8の拡大図である。注目画素Pの位置が注目位置であり、注目画素Pを囲む参照画素Pr1〜Pr8の位置が参照位置である。第1領域61に対応する参照画素Pr1〜Pr6および注目画素Pに対して第1撮像条件が適用されており、第4領域64に対応する参照画素Pr7およびPr8に対して第4撮像条件が適用されている。
なお、以下の説明では、参照画素Pr1〜Pr8を総称する場合に符号Prを付与する。
FIG. 9A is an enlarged view of a region of interest 90 at the boundary between the first region 61 and the fourth region 64 in the live view image 60a of FIG. The image data from the pixels on the image sensor 32a corresponding to the first area 61 to which the first image capturing condition is applied is shown in white, and the image data on the image sensor 32a corresponding to the fourth area 64 to which the fourth image capturing condition is applied. The image data from the pixel is shaded. In FIG. 9A, the image data from the target pixel P is located on the first region 61 and in the vicinity of the boundary 91 between the first region 61 and the fourth region 64, that is, the boundary portion. Pixels around the pixel of interest P (eight pixels in this example) included in the region of interest 90 (eg, 3 × 3 pixels) centered on the pixel of interest P are set as reference pixels Pr. FIG. 9B is an enlarged view of the target pixel P and the reference pixels Pr1 to Pr8. The position of the target pixel P is the target position, and the positions of the reference pixels Pr1 to Pr8 surrounding the target pixel P are reference positions. The first imaging condition is applied to the reference pixels Pr1 to Pr6 and the target pixel P corresponding to the first area 61, and the fourth imaging condition is applied to the reference pixels Pr7 and Pr8 corresponding to the fourth area 64. Has been.
In the following description, the reference symbol Pr is given when the reference pixels Pr1 to Pr8 are collectively referred to.

画像処理部33の生成部33cは、通常、第2補正処理を行わずに参照画素Prの画像データをそのまま参照して画像処理を行う。しかしながら、注目画素Pにおいて適用された撮像条件(第1撮像条件とする)と、注目画素Pの周囲の参照画素Prにおいて適用された撮像条件(第4撮像条件とする)とが異なる場合には、補正部33bが、参照画素Prの画像データのうちの第4撮像条件の画像データに対して以下の(例1)〜(例3)のように第2補正処理を行う。そして、生成部33cは、第2補正処理後の参照画素Prの画像データを参照して注目画素Pの画像データを算出する画像処理を行う。   The generation unit 33c of the image processing unit 33 normally performs image processing by referring to the image data of the reference pixel Pr without performing the second correction processing. However, when the imaging condition applied to the target pixel P (referred to as the first imaging condition) is different from the imaging condition applied to the reference pixels Pr around the target pixel P (referred to as the fourth imaging condition). The correction unit 33b performs the second correction process on the image data of the fourth imaging condition in the image data of the reference pixel Pr as in the following (Example 1) to (Example 3). Then, the generation unit 33c performs image processing for calculating image data of the target pixel P with reference to the image data of the reference pixel Pr after the second correction processing.

(例1)
画像処理部33の補正部33bは、たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800の場合、参照画素Prの画像データのうちの第4撮像条件の参照画素Pr7、Pr8の画像データに対し、第2補正処理として100/800を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。
なお、注目画素Pへの入射光量と参照画素Prへの入射光量とが同じ場合には画像データの差異が小さくなるが、もともと注目画素Pへの入射光量と参照画素Prへの入射光量とが異なっている場合などには、画像データの差異が小さくならない場合もある。後述する例も同様である。
(Example 1)
For example, the correction unit 33b of the image processing unit 33 differs only in ISO sensitivity between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, and the ISO sensitivity of the fourth imaging condition is In the case of 800, the image data of the reference pixels Pr7 and Pr8 of the fourth imaging condition in the image data of the reference pixel Pr is multiplied by 100/800 as the second correction process. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.
Note that when the amount of incident light on the target pixel P and the amount of incident light on the reference pixel Pr are the same, the difference in image data is reduced, but the amount of incident light on the target pixel P and the amount of incident light on the reference pixel Pr are originally different. If they are different, the difference in the image data may not be reduced. The same applies to the examples described later.

(例2)
画像処理部33の補正部33bは、たとえば、第1撮像条件と第4撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第4撮像条件のシャッター速度が1/100秒の場合、参照画素Prの画像データのうちの第4撮像条件の参照画素Pr7、Pr8の画像データに対し、第2補正処理として(1/1000)/(1/100)=1/10を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。
(Example 2)
For example, the correction unit 33b of the image processing unit 33 differs only in the shutter speed between the first imaging condition and the fourth imaging condition, and the shutter speed of the first imaging condition is 1/1000 second. When the shutter speed is 1/100 second, the second correction processing (1/1000) / (1/100) is performed on the image data of the reference pixels Pr7 and Pr8 of the fourth imaging condition among the image data of the reference pixel Pr. ) = 1/10. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.

(例3)
画像処理部33の補正部33bは、たとえば、第1撮像条件と第4撮像条件との間でフレームレートのみが異なり(電荷蓄積時間は同じ)、第1撮像条件のフレームレートが30fpsで、第4撮像条件のフレームレートが60fpsの場合、参照画素Prの画像データのうちの第4撮像条件(60fps)の画像データについて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の画像データを採用することを第2補正処理とする。これにより、撮像条件の相違による画像データ間の差異を小さくする。
なお、第4撮像条件(60fps)で取得した前後する複数のフレーム画像に基づいて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の画像データを補間算出することを第2補正処理としてもよい。
(Example 3)
For example, the correction unit 33b of the image processing unit 33 differs only in the frame rate between the first imaging condition and the fourth imaging condition (the charge accumulation time is the same), and the first imaging condition has a frame rate of 30 fps. When the frame rate of the four imaging conditions is 60 fps, the frame image acquired under the first imaging condition (30 fps) and the acquisition start timing for the image data of the fourth imaging condition (60 fps) among the image data of the reference pixel Pr. Employing image data of a close frame image is a second correction process. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.
It should be noted that, based on a plurality of preceding and following frame images acquired under the fourth imaging condition (60 fps), interpolation calculation is performed on the frame image acquired under the first imaging condition (30 fps) and the frame image whose acquisition start timing is close. This may be the second correction process.

一方、画像処理部33の補正部33bは、注目画素Pにおいて適用された撮像条件(第1撮像条件とする)と、注目画素Pの周囲のすべての参照画素Prにおいて適用された撮像条件(第4撮像条件とする)とが同一である場合には、参照画素Prの画像データに対する第2補正処理を行わない。つまり、生成部33cは、参照画素Prの画像データをそのまま参照して注目画素Pの画像データを算出する画像処理を行う。
なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
On the other hand, the correction unit 33b of the image processing unit 33 captures the imaging condition (first imaging condition) applied to the target pixel P and the imaging condition (first imaging condition) applied to all the reference pixels Pr around the target pixel P. 4 imaging conditions) is the same, the second correction process is not performed on the image data of the reference pixel Pr. That is, the generation unit 33c performs image processing for calculating the image data of the target pixel P by referring to the image data of the reference pixel Pr as it is.
As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.

<画像処理の例示>
第2補正処理を伴う画像処理について例示する。
(1)画素欠陥補正処理
本実施の形態において、画素欠陥補正処理は、撮像時に行う画像処理の1つである。一般に、固体撮像素子である撮像素子32aは、製造過程や製造後において画素欠陥が生じ、異常なレベルの画像データを出力する場合がある。そこで、画像処理部33の生成部33cは、画素欠陥が生じた画素から出力された画像データを補正することにより、画素欠陥が生じた画素位置における画像データを目立たないようにする。
<Example of image processing>
An example of image processing that accompanies the second correction processing will be described.
(1) Pixel Defect Correction Process In the present embodiment, the pixel defect correction process is one of image processes performed during imaging. In general, the image pickup element 32a, which is a solid-state image pickup element, may produce pixel defects in the manufacturing process or after manufacturing, and output abnormal level image data. Therefore, the generation unit 33c of the image processing unit 33 corrects the image data output from the pixel in which the pixel defect has occurred, thereby making the image data in the pixel position in which the pixel defect has occurred inconspicuous.

画素欠陥補正処理の一例を説明する。画像処理部33の生成部33cは、たとえば、1フレームの画像においてあらかじめ不図示の不揮発性メモリに記録されている画素欠陥の位置の画素を注目画素P(処理対象画素)とし、注目画素Pを中心とする注目領域90(例えば3×3画素)に含まれる注目画素Pの周囲の画素(本例では8画素)を参照画素Prとする。   An example of pixel defect correction processing will be described. The generation unit 33c of the image processing unit 33 uses, for example, a pixel at the position of a pixel defect recorded in advance in a non-illustrated nonvolatile memory in one frame image as a target pixel P (processing target pixel), and sets the target pixel P as a target pixel P. Pixels around the pixel of interest P (eight pixels in this example) included in the central region of interest 90 (for example, 3 × 3 pixels) are set as reference pixels Pr.

画像処理部33の生成部33cは、参照画素Prにおける画像データの最大値、最小値を算出し、注目画素Pから出力された画像データがこれら最大値または最小値を超えるときは注目画素Pから出力された画像データを上記最大値または最小値で置き換えるMax,Minフィルタ処理を行う。このような処理を、不図示の不揮発性メモリに位置情報が記録されているすべての画素欠陥に対して行う。   The generation unit 33c of the image processing unit 33 calculates the maximum value and the minimum value of the image data in the reference pixel Pr. When the image data output from the target pixel P exceeds the maximum value or the minimum value, the generation unit 33c starts from the target pixel P. Max and Min filter processing is performed to replace the output image data with the maximum value or the minimum value. Such a process is performed for all pixel defects whose position information is recorded in a nonvolatile memory (not shown).

本実施の形態において、画像処理部33の補正部33bは、注目画素Pに適用された第1撮像条件と異なる第4撮像条件が適用された画素が上記参照画素Prに含まれる場合に、第4撮像条件が適用された画像データに対して第2補正処理を行う。その後、画像処理部33の生成部33cが上述したMax,Minフィルタ処理を行う。   In the present embodiment, the correction unit 33b of the image processing unit 33 includes the reference pixel Pr when the pixel to which the fourth imaging condition different from the first imaging condition applied to the target pixel P is included is included in the reference pixel Pr. The second correction process is performed on the image data to which the four imaging conditions are applied. Thereafter, the generation unit 33c of the image processing unit 33 performs the Max and Min filter processing described above.

(2)色補間処理
本実施の形態において、色補間処理は、撮像時に行う画像処理の1つである。図3に例示したように、撮像素子100の撮像チップ111は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rがベイヤー配列されている。画像処理部33の生成部33cは、各画素位置において配置されたカラーフィルタFの色成分と異なる色成分の画像データが不足するので、周辺の画素位置の画像データを参照して不足する色成分の画像データを生成する色補間処理を行う。
(2) Color Interpolation Processing In the present embodiment, color interpolation processing is one of image processing performed at the time of imaging. As illustrated in FIG. 3, in the imaging chip 111 of the imaging device 100, green pixels Gb and Gr, a blue pixel B, and a red pixel R are arranged in a Bayer array. Since the generation unit 33c of the image processing unit 33 lacks image data having a color component different from the color component of the color filter F arranged at each pixel position, the insufficient color component with reference to the image data at the surrounding pixel positions. The color interpolation processing for generating the image data is performed.

色補間処理の一例を説明する。図10(a)は、撮像素子32aから出力された画像データの並びを例示する図である。各画素位置に対応して、ベイヤー配列の規則にしたがってR、G、Bのいずれかの色成分を有する。
<G色補間>
まず、一般的なG色補間について説明する。G色補間を行う画像処理部33の生成部33cは、R色成分およびB色成分の位置を順番に注目位置として、注目位置の周囲の参照位置の4つのG色成分の画像データを参照して注目位置におけるG色成分の画像データを生成する。たとえば、図10(b)の太枠(左上位置から数えて2行目2列目。以降も同様に、左上位置から数えて注目位置を表すものとする)で示す注目位置においてG色成分の画像データを生成する場合、注目位置(2行目2列目)の近傍に位置する4つのG色成分の画像データG1〜G4を参照する。画像処理部33の生成部33cは、たとえば(aG1+bG2+cG3+dG4)/4を、注目位置(2行目2列目)におけるG色成分の画像データとする。なお、a〜dは参照位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。
An example of color interpolation processing will be described. FIG. 10A is a diagram illustrating the arrangement of image data output from the image sensor 32a. Corresponding to each pixel position, it has one of R, G, and B color components according to the rules of the Bayer array.
<G color interpolation>
First, general G color interpolation will be described. The generation unit 33c of the image processing unit 33 that performs the G color interpolation refers to the image data of the four G color components at the reference positions around the target position, with the positions of the R color component and the B color component in turn as the target position. The G color component image data at the target position is generated. For example, the G color component at the target position indicated by the thick frame in FIG. 10B (second row and second column counting from the upper left position. Similarly, the target position is counted from the upper left position). When generating the image data, the four G color component image data G1 to G4 located in the vicinity of the target position (second row and second column) are referred to. The generation unit 33c of the image processing unit 33 sets, for example, (aG1 + bG2 + cG3 + dG4) / 4 as image data of the G color component at the target position (second row, second column). Note that a to d are weighting coefficients provided according to the distance between the reference position and the target position and the image structure.

次に、本実施の形態のG色補間について説明する。図10(a)〜図10(c)において、太線に対して左および上の領域に第1撮像条件が適用されており、太線に対して右および下の領域に第4撮像条件が適用されているものとする。なお、図10(a)〜図10(c)において、第1撮像条件と第4撮像条件は異なる。また、図10(b)中のG色成分の画像データG1〜G4が、注目位置(2行目2列目)の画素を画像処理するための参照位置である。図10(b)において、注目位置(2行目2列目)には第1撮像条件が適用されている。参照位置のうち、画像データG1〜G3には第1撮像条件が適用されている。また、参照位置のうち、画像データG4には第4撮像条件が適用されている。そのため、画像処理部33の補正部33bは、画像データG4に対して第2補正処理を行う。その後、画像処理部33の生成部33cが注目位置(2行目2列目)におけるG色成分の画像データを算出する。   Next, the G color interpolation of this embodiment will be described. 10A to 10C, the first imaging condition is applied to the left and upper regions with respect to the thick line, and the fourth imaging condition is applied to the right and lower regions with respect to the thick line. It shall be. In FIGS. 10A to 10C, the first imaging condition and the fourth imaging condition are different. Further, the G color component image data G1 to G4 in FIG. 10B are reference positions for image processing of the pixel at the target position (second row and second column). In FIG. 10B, the first imaging condition is applied to the target position (second row, second column). Among the reference positions, the first imaging condition is applied to the image data G1 to G3. Of the reference positions, the fourth imaging condition is applied to the image data G4. Therefore, the correction unit 33b of the image processing unit 33 performs the second correction process on the image data G4. Thereafter, the generation unit 33c of the image processing unit 33 calculates the image data of the G color component at the target position (second row and second column).

画像処理部33の生成部33cは、図10(a)におけるB色成分の位置およびR色成分の位置においてそれぞれG色成分の画像データを生成することにより、図10(c)に示すように、各画素位置においてG色成分の画像データを得ることができる。   The generation unit 33c of the image processing unit 33 generates image data of the G color component at the position of the B color component and the position of the R color component in FIG. 10A, as shown in FIG. 10C. The image data of the G color component can be obtained at each pixel position.

<R色補間>
図11(a)は、図10(a)からR色成分の画像データを抽出した図である。画像処理部33の生成部33cは、図10(c)に示すG色成分の画像データと図11(a)に示すR色成分の画像データとに基づいて図11(b)に示す色差成分Crの画像データを算出する。
<R color interpolation>
FIG. 11A is a diagram obtained by extracting R color component image data from FIG. The generation unit 33c of the image processing unit 33 uses the color difference component shown in FIG. 11B based on the G color component image data shown in FIG. 10C and the R color component image data shown in FIG. Cr image data is calculated.

まず、一般的な色差成分Crの補間について説明する。画像処理部33の生成部33cは、たとえば図11(b)の太枠(2行目2列目)で示す注目位置において色差成分Crの画像データを生成する場合、注目位置(2行目2列目)の近傍に位置する4つの色差成分の画像データCr1〜Cr4を参照する。画像処理部33の生成部33cは、たとえば(eCr1+fCr2+gCr3+hCr4)/4を、注目位置(2行目2列目)における色差成分Crの画像データとする。なお、e〜hは参照位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   First, general interpolation of the color difference component Cr will be described. For example, when generating the image data of the color difference component Cr at the position of interest indicated by the thick frame (second row and second column) in FIG. Reference is made to the image data Cr1 to Cr4 of the four color difference components located in the vicinity of the (column). The generation unit 33c of the image processing unit 33 sets, for example, (eCr1 + fCr2 + gCr3 + hCr4) / 4 as image data of the color difference component Cr at the target position (second row and second column). Note that e to h are weighting coefficients provided according to the distance between the reference position and the target position and the image structure.

同様に、画像処理部33の生成部33cは、たとえば図11(c)の太枠(2行目3列目)で示す注目位置において色差成分Crの画像データを生成する場合、注目位置(2行目3列目)の近傍に位置する4つの色差成分の画像データCr2、Cr4〜Cr6を参照する。画像処理部33の生成部33cは、たとえば(qCr2+rCr4+sCr5+tCr6)/4を、注目位置(2行目3列目)における色差成分Crの画像データとする。なお、q〜tは、参照位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。こうして、各画素位置について色差成分Crの画像データが生成される。   Similarly, the generation unit 33c of the image processing unit 33 generates image data of the color difference component Cr at the position of interest indicated by the thick frame (second row and third column) of FIG. Reference is made to the image data Cr2, Cr4 to Cr6 of the four color difference components located in the vicinity of the third row). The generation unit 33c of the image processing unit 33 sets, for example, (qCr2 + rCr4 + sCr5 + tCr6) / 4 as image data of the color difference component Cr at the target position (second row, third column). Note that q to t are weighting coefficients provided according to the distance between the reference position and the target position and the image structure. Thus, image data of the color difference component Cr is generated for each pixel position.

次に、本実施の形態の色差成分Crの補間について説明する。図11(a)〜図11(c)において、たとえば、太線に対して左および上の領域に第1撮像条件が適用されており、太線に対して右および下の領域に第4撮像条件が適用されているものとする。なお、図11(a)〜図11(c)において、第1撮像条件と第4撮像条件は異なる。図11(b)において、太枠(2行目2列目)で示す位置が色差成分Crの注目位置である。また、図11(b)中の色差成分の画像データCr1〜Cr4が注目位置(2行目2列目)の画素を画像処理するための参照位置である。図11(b)において、注目位置(2行目2列目)には第1撮像条件が適用されている。参照位置のうち、画像データCr1、Cr3、Cr4には第1撮像条件が適用されている。また、参照位置のうち、画像データCr2には第4撮像条件が適用されている。そのため、画像処理部33の補正部33bは、画像データCr2に対して第2補正処理を行う。その後、画像処理部33の生成部33cが注目位置(2行目2列目)における色差成分Crの画像データを算出する。
また、図11(c)において、太枠(2行目3列目)で示す位置が色差成分Crの注目位置である。また、図11(c)中の色差成分の画像データCr2、Cr4、Cr5、Cr6が注目位置(2行目3列目)の画素を画像処理するための参照位置である。図11(c)において、注目位置(2行目3列目)には第4撮像条件が適用されている。参照位置のうち、画像データCr4、Cr5には第1撮像条件が適用されている。また、参照位置のうち、画像データCr2、Cr6には第4撮像条件が適用されている。そのため、画像処理部33の補正部33bは、画像データCr4およびCr5に対してそれぞれ第2補正処理を行う。その後、画像処理部33の生成部33cが注目位置(2行目3列目)における色差成分Crの画像データを算出する。
Next, interpolation of the color difference component Cr according to the present embodiment will be described. In FIG. 11A to FIG. 11C, for example, the first imaging condition is applied to the left and upper regions with respect to the thick line, and the fourth imaging condition is applied to the right and lower regions with respect to the thick line. It shall be applied. In FIGS. 11A to 11C, the first imaging condition and the fourth imaging condition are different. In FIG. 11B, the position indicated by the thick frame (second row, second column) is the target position of the color difference component Cr. Further, the color difference component image data Cr1 to Cr4 in FIG. 11B is a reference position for image processing of the pixel at the target position (second row and second column). In FIG. 11B, the first imaging condition is applied to the target position (second row, second column). Among the reference positions, the first imaging condition is applied to the image data Cr1, Cr3, and Cr4. Of the reference positions, the fourth imaging condition is applied to the image data Cr2. Therefore, the correction unit 33b of the image processing unit 33 performs the second correction process on the image data Cr2. Thereafter, the generation unit 33c of the image processing unit 33 calculates the image data of the color difference component Cr at the position of interest (second row and second column).
In FIG. 11C, the position indicated by the thick frame (second row, third column) is the target position of the color difference component Cr. Also, the color difference component image data Cr2, Cr4, Cr5, and Cr6 in FIG. 11C are reference positions for image processing of the pixel at the target position (second row and third column). In FIG. 11C, the fourth imaging condition is applied to the target position (second row, third column). Among the reference positions, the first imaging condition is applied to the image data Cr4 and Cr5. Of the reference positions, the fourth imaging condition is applied to the image data Cr2 and Cr6. Therefore, the correction unit 33b of the image processing unit 33 performs the second correction process on the image data Cr4 and Cr5, respectively. Thereafter, the generation unit 33c of the image processing unit 33 calculates the image data of the color difference component Cr at the position of interest (second row and third column).

画像処理部33の生成部33cは、各画素位置において色差成分Crの画像データを得たのち、各画素位置に対応させて図10(c)に示すG色成分の画像データを加算することにより、各画素位置においてR色成分の画像データを得ることができる。   The generation unit 33c of the image processing unit 33 obtains the image data of the color difference component Cr at each pixel position, and then adds the image data of the G color component shown in FIG. 10 (c) corresponding to each pixel position. The image data of the R color component can be obtained at each pixel position.

<B色補間>
図12(a)は、図10(a)からB色成分の画像データを抽出した図である。画像処理部33の生成部33cは、図10(c)に示すG色成分の画像データと図12(a)に示すB色成分の画像データとに基づいて図12(b)に示す色差成分Cbの画像データを算出する。
<B color interpolation>
FIG. 12A is a diagram in which image data of the B color component is extracted from FIG. The generation unit 33c of the image processing unit 33 uses the color difference component shown in FIG. 12B based on the G color component image data shown in FIG. 10C and the B color component image data shown in FIG. Cb image data is calculated.

まず、一般的な色差成分Cbの補間について説明する。画像処理部33の生成部33cは、たとえば図12(b)の太枠(3行目3列目)で示す注目位置において色差成分Cbの画像データを生成する場合、注目位置(3行目3列目)の近傍に位置する4つの色差成分の画像データCb1〜Cb4を参照する。画像処理部33の生成部33cは、たとえば(uCb1+vCb2+wCb3+xCb4)/4を、注目位置(3行目3列目)における色差成分Cbの画像データとする。なお、u〜xは参照位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   First, general interpolation of the color difference component Cb will be described. The generation unit 33c of the image processing unit 33 generates the image data of the color difference component Cb at the target position indicated by the thick frame (third row and third column) in FIG. 12B, for example. Reference is made to the image data Cb1 to Cb4 of the four color difference components located in the vicinity of the (column). The generation unit 33c of the image processing unit 33 uses, for example, (uCb1 + vCb2 + wCb3 + xCb4) / 4 as image data of the color difference component Cb at the target position (third row, third column). Note that u to x are weighting coefficients provided according to the distance between the reference position and the target position and the image structure.

同様に、画像処理部33の生成部33cは、たとえば図12(c)の太枠(3行目4列目)で示す注目位置において色差成分Cbの画像データを生成する場合、注目位置(3行目4列目)の近傍に位置する4つの色差成分の画像データCb2、Cb4〜Cb6を参照する。画像処理部33の生成部33cは、たとえば(yCb2+zCb4+αCb5+βCb6)/4を、注目位置(3行目4列目)における色差成分Cbの画像データとする。なお、y、z、α、βは、参照位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。こうして、各画素位置について色差成分Cbの画像データが生成される。   Similarly, the generation unit 33c of the image processing unit 33 generates the image data of the color difference component Cb at the target position indicated by the thick frame (third row and fourth column) in FIG. Reference is made to the image data Cb2 and Cb4 to Cb6 of the four color difference components located in the vicinity of the fourth row and the fourth row). The generation unit 33c of the image processing unit 33 sets, for example, (yCb2 + zCb4 + αCb5 + βCb6) / 4 as image data of the color difference component Cb at the target position (third row, fourth column). Note that y, z, α, and β are weighting coefficients provided according to the distance between the reference position and the target position and the image structure. Thus, image data of the color difference component Cb is generated for each pixel position.

次に、本実施の形態の色差成分Cbの補間について説明する。図12(a)〜図12(c)において、たとえば、太線に対して左および上の領域に第1撮像条件が適用されており、太線に対して右および下の領域に第4撮像条件が適用されているものとする。なお、図12(a)〜図12(c)において、第1撮像条件と第4撮像条件は異なる。図12(b)において、太枠(3行目3列目)で示す位置が色差成分Cbの注目位置である。また、図12(b)中の色差成分の画像データCb1〜Cb4が注目位置(3行目3列目)の画素を画像処理するための参照位置である。図12(b)において、注目位置(3行目3列目)には第4撮像条件が適用されている。参照位置のうち、画像データCb1、Cb3には第1撮像条件が適用されている。また、参照位置のうち、画像データCb2、Cb4には第4撮像条件が適用されている。そのため、画像処理部33の補正部33bは、データCb1およびCb3に対してそれぞれ第2補正処理を行う。その後、画像処理部33の生成部33cが注目位置(3行目3列目)における色差成分Cbの画像データを算出する。
また、図12(c)において、太枠(3行目4列目)で示す位置が色差成分Cbの注目位置である。また、図12(c)中の色差成分の画像データCb2、Cb4〜Cb6が注目位置(3行目4列目)の画素を画像処理するための参照位置である。図12(c)において、注目位置(3行目4列目)には第4撮像条件が適用されている。また、すべての参照位置の画像データCb2、Cb4〜Cb6に第4撮像条件が適用されている。そのため、画像処理部33の生成部33cは、画像処理部33の補正部33bによって第2補正処理が行われていない参照位置の画像データCb2、Cb4〜Cb6を参照して、注目位置(3行目4列目)における色差成分Cbの画像データを算出する。
Next, the interpolation of the color difference component Cb according to the present embodiment will be described. In FIG. 12A to FIG. 12C, for example, the first imaging condition is applied to the left and upper regions with respect to the thick line, and the fourth imaging condition is applied to the right and lower regions with respect to the thick line. It shall be applied. In FIGS. 12A to 12C, the first imaging condition and the fourth imaging condition are different. In FIG. 12B, the position indicated by the thick frame (third row, third column) is the target position of the color difference component Cb. Also, the color difference component image data Cb1 to Cb4 in FIG. 12B is a reference position for image processing of the pixel at the target position (third row, third column). In FIG. 12B, the fourth imaging condition is applied to the position of interest (third row, third column). Among the reference positions, the first imaging condition is applied to the image data Cb1 and Cb3. Of the reference positions, the fourth imaging condition is applied to the image data Cb2 and Cb4. Therefore, the correction unit 33b of the image processing unit 33 performs the second correction process on the data Cb1 and Cb3, respectively. Thereafter, the generation unit 33c of the image processing unit 33 calculates the image data of the color difference component Cb at the target position (third row, third column).
In FIG. 12C, the position indicated by the thick frame (third row, fourth column) is the target position of the color difference component Cb. In addition, the color difference component image data Cb2 and Cb4 to Cb6 in FIG. 12C are reference positions for image processing of the pixel at the target position (third row and fourth column). In FIG. 12C, the fourth imaging condition is applied to the target position (third row, fourth column). The fourth imaging condition is applied to the image data Cb2 and Cb4 to Cb6 at all reference positions. Therefore, the generation unit 33c of the image processing unit 33 refers to the image data Cb2 and Cb4 to Cb6 at the reference position that has not been subjected to the second correction process by the correction unit 33b of the image processing unit 33, and the target position (three rows). The image data of the color difference component Cb in the fourth column) is calculated.

画像処理部33の生成部33cは、各画素位置において色差成分Cbの画像データを得たのち、各画素位置に対応させて図10(c)に示すG色成分の画像データを加算することにより、各画素位置においてB色成分の画像データを得ることができる。
なお、上記「G色補間」では、たとえば、図10(b)の太枠(2行目2列目)で示す注目位置においてG色成分の画像データを生成する場合、注目位置の近傍に位置する4つのG色成分の画像データG1〜G4を参照するとしているが、画像構造によって参照するG色成分の画像データの数を変更してもよい。たとえば、注目位置付近の画像が縦方向に類似性を有している(たとえば、縦縞のパターン)場合は、注目位置の上下の画像データ(図10(b)のG1とG2)だけを用いて補間処理を行う。また、たとえば、注目位置付近の画像が横方向に類似性を有している(たとえば、横縞のパターン)場合は、注目位置の左右の画像データ(図10(b)のG3とG4)だけを用いて補間処理を行う。これらの場合、補正部33bにより補正を行う画像データG4を用いる場合と用いない場合がある。
The generation unit 33c of the image processing unit 33 obtains the image data of the color difference component Cb at each pixel position, and then adds the image data of the G color component shown in FIG. 10C corresponding to each pixel position. The image data of the B color component can be obtained at each pixel position.
In the “G color interpolation”, for example, when generating G color component image data at the target position indicated by the thick frame (second row, second column) in FIG. The four G color component image data G1 to G4 are referred to, but the number of G color component image data to be referred to may be changed depending on the image structure. For example, when the image near the target position has similarity in the vertical direction (for example, vertical stripe pattern), only the image data above and below the target position (G1 and G2 in FIG. 10B) are used. Perform interpolation processing. Further, for example, when the image near the target position has similarity in the horizontal direction (for example, a horizontal stripe pattern), only the left and right image data (G3 and G4 in FIG. 10B) of the target position are used. To perform interpolation processing. In these cases, the image data G4 that is corrected by the correction unit 33b may or may not be used.

(3)輪郭強調処理
輪郭強調処理の一例を説明する。画像処理部33の生成部33cは、たとえば、1フレームの画像において、注目画素P(処理対象画素)を中心とする所定サイズのカーネルを用いた公知の線形フィルタ(Linear filter)演算を行う。線型フィルタの一例である尖鋭化フィルタのカーネルサイズがN×N画素の場合、注目画素Pの位置が注目位置であり、注目画素Pを囲む(N−1)個の参照画素Prの位置が参照位置である。
なお、カーネルサイズはN×M画素であってもよい。
(3) Outline Enhancement Process An example of the outline enhancement process will be described. The generation unit 33c of the image processing unit 33 performs, for example, a known linear filter operation using a kernel of a predetermined size centered on the target pixel P (processing target pixel) in one frame image. When the kernel size of the sharpening filter which is an example of the linear filter is N × N pixels, the position of the target pixel P is the target position, and the positions of (N 2 −1) reference pixels Pr surrounding the target pixel P are Reference position.
The kernel size may be N × M pixels.

画像処理部33の生成部33cは、注目画素Pにおける画像データを線型フィルタ演算結果で置き換えるフィルタ処理を、たとえばフレーム画像の上部の水平ラインから下部の水平ラインへ向けて、各水平ライン上で注目画素を左から右へずらしながら行う。   The generation unit 33c of the image processing unit 33 performs filter processing for replacing the image data in the target pixel P with the linear filter calculation result on each horizontal line, for example, from the upper horizontal line to the lower horizontal line of the frame image. This is done while shifting the pixels from left to right.

本実施の形態において、画像処理部33の補正部33bは、注目画素Pに適用された第1撮像条件と異なる第4撮像条件が適用された画素が上記参照画素Prに含まれる場合に、第4撮像条件が適用された画像データに対して第2補正処理を行う。その後、画像処理部33の生成部33cが上述した線型フィルタ処理を行う。   In the present embodiment, the correction unit 33b of the image processing unit 33 includes the reference pixel Pr when the pixel to which the fourth imaging condition different from the first imaging condition applied to the target pixel P is included is included in the reference pixel Pr. The second correction process is performed on the image data to which the four imaging conditions are applied. Thereafter, the generation unit 33c of the image processing unit 33 performs the linear filter processing described above.

(4)ノイズ低減処理
ノイズ低減処理の一例を説明する。画像処理部33の生成部33cは、たとえば、1フレームの画像において、注目画素P(処理対象画素)を中心とする所定サイズのカーネルを用いた公知の線形フィルタ(Linear filter)演算を行う。線型フィルタの一例である平滑化フィルタのカーネルサイズがN×N画素の場合、注目画素Pの位置が注目位置であり、注目画素Pを囲む(N−1)個の参照画素Prの位置が参照位置である。
なお、カーネルサイズはN×M画素であってもよい。
(4) Noise reduction processing An example of noise reduction processing will be described. The generation unit 33c of the image processing unit 33 performs, for example, a known linear filter operation using a kernel of a predetermined size centered on the target pixel P (processing target pixel) in one frame image. When the kernel size of the smoothing filter as an example of the linear filter is N × N pixels, the position of the target pixel P is the target position, and the positions of the (N 2 −1) reference pixels Pr surrounding the target pixel P are Reference position.
The kernel size may be N × M pixels.

画像処理部33の生成部33cは、注目画素Pにおける画像データを線型フィルタ演算結果で置き換えるフィルタ処理を、たとえばフレーム画像の上部の水平ラインから下部の水平ラインへ向けて、各水平ライン上で注目画素を左から右へずらしながら行う。   The generation unit 33c of the image processing unit 33 performs filter processing for replacing the image data in the target pixel P with the linear filter calculation result on each horizontal line, for example, from the upper horizontal line to the lower horizontal line of the frame image. This is done while shifting the pixels from left to right.

本実施の形態において、画像処理部33の補正部33bは、注目画素Pに適用された第1撮像条件と異なる第4撮像条件が適用された画素が上記参照画素Prに含まれる場合に、第4撮像条件が適用された画像データに対して第2補正処理を行う。その後、画像処理部33の生成部33cが上述した線型フィルタ処理を行う。   In the present embodiment, the correction unit 33b of the image processing unit 33 includes the reference pixel Pr when the pixel to which the fourth imaging condition different from the first imaging condition applied to the target pixel P is included is included in the reference pixel Pr. The second correction process is performed on the image data to which the four imaging conditions are applied. Thereafter, the generation unit 33c of the image processing unit 33 performs the linear filter processing described above.

2.焦点検出処理を行う場合
制御部34のレンズ移動制御部34dは、撮像画面の所定の位置(フォーカスポイント)に対応する信号データ(画像データ)を用いて焦点検出処理を行う。制御部34のレンズ移動制御部34dは、分割した領域間で異なる撮像条件が設定されており、AF動作のフォーカスポイントが分割された領域の境界部分に位置する場合、少なくとも1つの領域の焦点検出用の信号データに対し、焦点検出処理の前処理として第2補正処理を行う。
2. When performing focus detection processing The lens movement control unit 34d of the control unit 34 performs focus detection processing using signal data (image data) corresponding to a predetermined position (focus point) on the imaging screen. The lens movement control unit 34d of the control unit 34 sets focus detection of at least one region when different imaging conditions are set for the divided regions and the focus point of the AF operation is located at the boundary portion of the divided regions. The second correction process is performed on the signal data for use as a pre-process for the focus detection process.

第2補正処理は、設定部34bが分割した撮像画面の領域間で撮像条件が異なることに起因して、焦点検出処理の精度が低下することを抑制するために行う。たとえば、画像において像ズレ量(位相差)を検出するフォーカスポイントの焦点検出用の信号データが、分割した領域の境界部に位置する場合、焦点検出用の信号データの中に異なる撮像条件が適用された信号データが混在する場合がある。本実施の形態では、異なる撮像条件が適用された信号データをそのまま用いて像ズレ量(位相差)の検出を行うよりも、撮像条件の相違による信号データ間の差異を抑えるように第2補正処理を施した信号データを用いて像ズレ量(位相差)の検出を行う方が好ましいという考え方に基づき、以下のように第2補正処理を行う。   The second correction process is performed in order to suppress a decrease in the accuracy of the focus detection process due to a difference in imaging conditions between areas of the imaging screen divided by the setting unit 34b. For example, if the focus point focus detection signal data for detecting the image shift amount (phase difference) in the image is located at the boundary of the divided area, different imaging conditions are applied to the focus detection signal data. Signal data may be mixed. In the present embodiment, the second correction is performed so as to suppress the difference between the signal data due to the difference in the imaging conditions, rather than detecting the image shift amount (phase difference) using the signal data to which the different imaging conditions are applied as it is. Based on the idea that it is preferable to detect the amount of image shift (phase difference) using the processed signal data, the second correction process is performed as follows.

<焦点検出処理の例示>
第2補正処理を伴う焦点検出処理について例示する。本実施の形態のAF動作は、たとえば、撮像画面における複数のフォーカスポイントの中からユーザーが選んだフォーカスポイントに対応する被写体にフォーカスを合わせる。制御部34のレンズ移動制御部34d(生成部)は、撮像光学系31の異なる瞳領域を通過した光束による複数の被写体像の像ズレ量(位相差)を検出することにより、撮像光学系31のデフォーカス量を算出する。制御部34のレンズ移動制御部34dは、デフォーカス量をゼロ(許容値以下)にする位置、すなわち合焦位置へ、撮像光学系31のフォーカスレンズを移動させ、撮像光学系31の焦点を調節する。
<Example of focus detection processing>
An example of the focus detection process with the second correction process will be described. In the AF operation of the present embodiment, for example, the subject corresponding to the focus point selected by the user from a plurality of focus points on the imaging screen is focused. The lens movement control unit 34 d (generation unit) of the control unit 34 detects image shift amounts (phase differences) of a plurality of subject images due to light beams that have passed through different pupil regions of the imaging optical system 31, so that the imaging optical system 31. The defocus amount of is calculated. The lens movement control unit 34d of the control unit 34 adjusts the focus of the imaging optical system 31 by moving the focus lens of the imaging optical system 31 to a position where the defocus amount is zero (allowable value or less), that is, a focus position. To do.

図13は、撮像素子32aの撮像面における焦点検出用画素の位置を例示する図である。本実施の形態では、撮像チップ111のX軸方向(水平方向)に沿って離散的に焦点検出用画素が並べて設けられている。図13の例では、15本の焦点検出画素ライン160が所定の間隔で設けられる。焦点検出画素ライン160を構成する焦点検出用画素は、焦点検出用の光電変換信号を出力する。撮像チップ111において焦点検出画素ライン160以外の画素位置には通常の撮像用画素が設けられている。撮像用画素は、ライブビュー画像や記録用の光電変換信号を出力する。   FIG. 13 is a diagram illustrating the position of the focus detection pixel on the imaging surface of the imaging element 32a. In the present embodiment, focus detection pixels are discretely arranged along the X-axis direction (horizontal direction) of the imaging chip 111. In the example of FIG. 13, fifteen focus detection pixel lines 160 are provided at predetermined intervals. The focus detection pixels constituting the focus detection pixel line 160 output a photoelectric conversion signal for focus detection. In the imaging chip 111, normal imaging pixels are provided at pixel positions other than the focus detection pixel line 160. The imaging pixel outputs a live view image or a photoelectric conversion signal for recording.

図14は、図13に示すフォーカスポイント80Aに対応する上記焦点検出画素ライン160の一部の領域を拡大した図である。図14において、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bと、焦点検出用画素S1、および焦点検出用画素S2とが例示される。赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bは、上述したベイヤー配列の規則にしたがって配される。   FIG. 14 is an enlarged view of a part of the focus detection pixel line 160 corresponding to the focus point 80A shown in FIG. In FIG. 14, a red pixel R, a green pixel G (Gb, Gr), and a blue pixel B, a focus detection pixel S1, and a focus detection pixel S2 are illustrated. The red pixel R, the green pixel G (Gb, Gr), and the blue pixel B are arranged according to the rules of the Bayer arrangement described above.

赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bについて例示した正方形状の領域は、撮像用画素の受光領域を示す。各撮像用画素は、撮像光学系31(図1)の射出瞳を通る光束を受光する。すなわち、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bはそれぞれ正方形状のマスク開口部を有し、これらのマスク開口部を通った光が撮像用画素の受光部に到達する。   The square area illustrated for the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B indicates a light receiving area of the imaging pixel. Each imaging pixel receives a light beam passing through the exit pupil of the imaging optical system 31 (FIG. 1). That is, the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B each have a square-shaped mask opening, and light passing through these mask openings reaches the light-receiving portion of the imaging pixel. .

なお、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bの受光領域(マスク開口部)の形状は四角形に限定されず、たとえば円形であってもよい。   The shapes of the light receiving regions (mask opening portions) of the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B are not limited to a quadrangle, and may be, for example, a circle.

焦点検出用画素S1、および焦点検出用画素S2について例示した半円形状の領域は、焦点検出用画素の受光領域を示す。すなわち、焦点検出用画素S1は、図14において画素位置の左側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素S1の受光部に到達する。一方、焦点検出用画素S2は、図14において画素位置の右側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素S2の受光部に到達する。このように、焦点検出用画素S1および焦点検出用画素S2は、撮像光学系31(図1)の射出瞳の異なる領域を通る一対の光束をそれぞれ受光する。   The semicircular region exemplified for the focus detection pixel S1 and the focus detection pixel S2 indicates a light receiving region of the focus detection pixel. That is, the focus detection pixel S1 has a semicircular mask opening on the left side of the pixel position in FIG. 14, and the light passing through the mask opening reaches the light receiving portion of the focus detection pixel S1. On the other hand, the focus detection pixel S2 has a semicircular mask opening on the right side of the pixel position in FIG. 14, and light passing through the mask opening reaches the light receiving portion of the focus detection pixel S2. As described above, the focus detection pixel S1 and the focus detection pixel S2 respectively receive a pair of light beams passing through different areas of the exit pupil of the imaging optical system 31 (FIG. 1).

なお、撮像チップ111における焦点検出画素ライン160の位置は、図13に例示した位置に限定されない。また、焦点検出画素ライン160の数についても、図13の例に限定されるものではない。さらに、焦点検出用画素S1および焦点検出用画素S2におけるマスク開口部の形状は半円形に限定されず、たとえば撮像用画素R、撮像用画素G、撮像用画素Bにおける四角形状受光領域(マスク開口部)を横方向に分割した長方形状としてもよい。   Note that the position of the focus detection pixel line 160 in the imaging chip 111 is not limited to the position illustrated in FIG. Further, the number of focus detection pixel lines 160 is not limited to the example of FIG. Further, the shape of the mask opening in the focus detection pixel S1 and the focus detection pixel S2 is not limited to a semicircular shape. For example, a rectangular light receiving region (mask opening) in the imaging pixel R, the imaging pixel G, and the imaging pixel B is used. Part) may be a rectangular shape divided in the horizontal direction.

また、撮像チップ111における焦点検出画素ライン160は、撮像チップ111のY軸方向(鉛直方向)に沿って焦点検出用画素を並べて設けたものであってもよい。図14のように撮像用画素と焦点検出用画素とを二次元状に配列した撮像素子は公知であり、これらの画素の詳細な図示および説明は省略する。   Further, the focus detection pixel line 160 in the imaging chip 111 may be a line in which focus detection pixels are arranged along the Y-axis direction (vertical direction) of the imaging chip 111. An imaging device in which imaging pixels and focus detection pixels are two-dimensionally arranged as shown in FIG. 14 is known, and detailed illustration and description of these pixels are omitted.

なお、図14の例では、焦点検出用画素S1、S2がそれぞれ焦点検出用の一対の光束のうちの一方を受光する構成、いわゆる1PD構造を説明した。この代わりに、焦点検出用画素がそれぞれ焦点検出用の一対の光束の双方を受光する構成、いわゆる2PD構造にしてもよい。2PD構造にすることにより、焦点検出用画素で得られた光電変換信号を記録用の光電変換信号として用いることが可能になる。   In the example of FIG. 14, the configuration in which the focus detection pixels S <b> 1 and S <b> 2 each receive one of a pair of focus detection light beams, the so-called 1PD structure, has been described. Instead of this, the focus detection pixels may be configured to receive both of a pair of light beams for focus detection, that is, a so-called 2PD structure. With the 2PD structure, the photoelectric conversion signal obtained by the focus detection pixel can be used as a recording photoelectric conversion signal.

制御部34のレンズ移動制御部34dは、焦点検出用画素S1および焦点検出用画素S2から出力される焦点検出用の光電変換信号に基づいて、撮像光学系31(図1)の異なる領域を通る一対の光束による一対の像の像ズレ量(位相差)を検出する。そして、像ズレ量(位相差)に基づいてデフォーカス量を演算する。このような瞳分割位相差方式によるデフォーカス量演算は、カメラの分野において公知であるので詳細な説明は省略する。   The lens movement control unit 34d of the control unit 34 passes through different regions of the imaging optical system 31 (FIG. 1) based on the focus detection photoelectric conversion signals output from the focus detection pixel S1 and the focus detection pixel S2. An image shift amount (phase difference) between the pair of images by the pair of light beams is detected. Then, the defocus amount is calculated based on the image shift amount (phase difference). Such defocus amount calculation by the pupil division phase difference method is well known in the field of cameras, and thus detailed description thereof is omitted.

フォーカスポイント80A(図13)は、図7(a)に例示したライブビュー画像60aにおいて、たとえば第1領域61および第4領域64の境界部の注目領域90に対応する位置に、ユーザーによって選ばれているものとする。図15は、フォーカスポイント80Aを拡大した図である。白地の画素は第1撮像条件が適用されていることを示し、網掛けの画素は第4撮像条件が適用されていることを示す。図15において枠170で囲む位置は、焦点検出画素ライン160(図13)に対応する。   The focus point 80A (FIG. 13) is selected by the user at a position corresponding to the attention area 90 at the boundary between the first area 61 and the fourth area 64 in the live view image 60a illustrated in FIG. It shall be. FIG. 15 is an enlarged view of the focus point 80A. A white pixel indicates that the first imaging condition is applied, and a shaded pixel indicates that the fourth imaging condition is applied. In FIG. 15, the position surrounded by the frame 170 corresponds to the focus detection pixel line 160 (FIG. 13).

制御部34のレンズ移動制御部34dは、通常、第2補正処理を行わずに枠170で示す焦点検出用画素による信号データをそのまま用いて焦点検出処理を行う。しかしながら、枠170で囲む信号データに、第1撮像条件が適用された信号データと第4撮像条件が適用された信号データが混在する場合には、制御部34のレンズ移動制御部34dが、枠170で囲む信号データのうちの第4撮像条件の信号データに対して、以下の(例1)〜(例3)のように第2補正処理を行う。そして、制御部34のレンズ移動制御部34dは、第2補正処理後の信号データを用いて焦点検出処理を行う。   The lens movement control unit 34d of the control unit 34 normally performs the focus detection process using the signal data from the focus detection pixels indicated by the frame 170 without performing the second correction process. However, when signal data to which the first imaging condition is applied and signal data to which the fourth imaging condition is applied are mixed in the signal data surrounded by the frame 170, the lens movement control unit 34d of the control unit 34 The second correction process is performed on the signal data of the fourth imaging condition among the signal data surrounded by 170 as in the following (Example 1) to (Example 3). The lens movement control unit 34d of the control unit 34 performs focus detection processing using the signal data after the second correction processing.

(例1)
制御部34のレンズ移動制御部34dは、たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800の場合、第4撮像条件の信号データに対し、第2補正処理として100/800を掛ける。これにより、撮像条件の相違による信号データ間の差異を小さくする。
なお、第1撮像条件が適用された画素への入射光量と第4撮像条件が適用された画素への入射光量とが同じ場合には信号データの差異が小さくなるが、もともと第1撮像条件が適用された画素への入射光量と第4撮像条件が適用された画素への入射光量とが異なっている場合などには、信号データの差異が小さくならない場合もある。後述する例も同様である。
(Example 1)
For example, the lens movement control unit 34d of the control unit 34 differs only in ISO sensitivity between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, and the ISO sensitivity of the fourth imaging condition. Is 800/100, the signal data of the fourth imaging condition is multiplied by 100/800 as the second correction process. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.
Note that when the amount of incident light to the pixel to which the first imaging condition is applied is the same as the amount of incident light to the pixel to which the fourth imaging condition is applied, the difference in the signal data is reduced, but the first imaging condition is originally When the amount of incident light on the applied pixel and the amount of incident light on the pixel to which the fourth imaging condition is applied are different, the difference in signal data may not be reduced. The same applies to the examples described later.

(例2)
制御部34のレンズ移動制御部34dは、たとえば、第1撮像条件と第4撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第4撮像条件のシャッター速度が1/100秒の場合、第4撮像条件の信号データに対し、第2補正処理として1/1000/1/100=1/10を掛ける。これにより、撮像条件の相違による信号データ間の差異を小さくする。
(Example 2)
For example, the lens movement control unit 34d of the control unit 34 differs only in the shutter speed between the first imaging condition and the fourth imaging condition, and the shutter speed of the first imaging condition is 1/1000 second. When the shutter speed is 1/100 second, the signal data of the fourth imaging condition is multiplied by 1/1000/1/100 = 1/10 as the second correction process. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.

(例3)
制御部34のレンズ移動制御部34dは、たとえば、第1撮像条件と第4撮像条件との間でフレームレートのみが異なり(電荷蓄積時間は同じ)、第1撮像条件のフレームレートが30fpsで、第4撮像条件のフレームレートが60fpsの場合、第4撮像条件(60fps)の信号データについて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の信号データを採用することを第2補正処理とする。これにより、撮像条件の相違による信号データ間の差異を小さくする。
なお、第4撮像条件(60fps)で取得した前後する複数のフレーム画像に基づいて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の信号データを補間算出することを第2補正処理としてもよい。
(Example 3)
For example, the lens movement control unit 34d of the control unit 34 differs only in the frame rate (the charge accumulation time is the same) between the first imaging condition and the fourth imaging condition, and the frame rate of the first imaging condition is 30 fps. When the frame rate of the fourth imaging condition is 60 fps, the signal data of the frame image acquired at the first imaging condition (30 fps) and the frame image whose acquisition start timing is close are used for the signal data of the fourth imaging condition (60 fps). This is the second correction process. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.
In addition, based on a plurality of preceding and following frame images acquired under the fourth imaging condition (60 fps), interpolation calculation is performed on the signal data of the frame image acquired under the first imaging condition (30 fps) and the acquisition start timing is similar. This may be the second correction process.

一方、制御部34のレンズ移動制御部34dは、枠170で囲む信号データにおいて適用された撮像条件が同一である場合には上記第2補正処理を行わない。つまり、制御部34のレンズ移動制御部34dは、枠170で示す焦点検出用画素による信号データをそのまま用いて焦点検出処理を行う。   On the other hand, the lens movement control unit 34d of the control unit 34 does not perform the second correction process when the imaging conditions applied in the signal data surrounded by the frame 170 are the same. That is, the lens movement control unit 34d of the control unit 34 performs focus detection processing using the signal data from the focus detection pixels indicated by the frame 170 as they are.

なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
また、上記の例では、信号データのうちの第4撮像条件の信号データに対して第1撮像条件により第2補正処理を行う例を説明したが、信号データのうちの第1撮像条件の信号データに対して第4撮像条件により第2補正処理を行ってもよい。
制御部34のレンズ移動制御部34dが、第1撮像条件の信号データに対して第2補正処理を行うか、第4撮像条件の信号データに対して第2補正処理を行うかを、たとえば、ISO感度に基づいて決定するようにしてもよい。第1撮像条件と第4撮像条件とでISO感度が異なる場合、ISO感度が高い方の撮像条件で得られた信号データが飽和していなければ、ISO感度が低い方の撮像条件で得られた信号データに対して第2補正処理を行うことが望ましい。すなわち、第1撮像条件と第4撮像条件とでISO感度が異なる場合、明るい方の信号データとの差を小さくするように暗い方の信号データを第2補正処理することが望ましい。
As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.
In the above example, the example in which the second correction process is performed on the signal data of the fourth imaging condition in the signal data according to the first imaging condition is described. However, the signal of the first imaging condition in the signal data is described. The second correction process may be performed on the data according to the fourth imaging condition.
Whether the lens movement control unit 34d of the control unit 34 performs the second correction process on the signal data of the first imaging condition or the second correction process on the signal data of the fourth imaging condition, for example, The determination may be made based on the ISO sensitivity. When the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, the signal data obtained under the imaging condition with the higher ISO sensitivity is obtained under the imaging condition with the lower ISO sensitivity unless the signal data is saturated. It is desirable to perform the second correction process on the signal data. That is, when the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, it is desirable to perform the second correction process on the darker signal data so as to reduce the difference from the brighter signal data.

さらにまた、信号データのうちの第1撮像条件の信号データおよび第4撮像条件の信号データに対してそれぞれ第2補正処理を行うことにより、第2補正処理後の双方の信号データ間の差を小さくするようにしてもよい。   Furthermore, by performing the second correction process on the signal data of the first imaging condition and the signal data of the fourth imaging condition in the signal data, the difference between both signal data after the second correction process is obtained. It may be made smaller.

以上の説明では、瞳分割位相差方式を用いた焦点検出処理を例示したが、被写体像のコントラストの大小に基づいて、撮像光学系31のフォーカスレンズを合焦位置へ移動させるコントラスト検出方式の場合も同様に行うことができる。   In the above description, the focus detection process using the pupil division phase difference method is exemplified. However, in the case of the contrast detection method in which the focus lens of the imaging optical system 31 is moved to the in-focus position based on the contrast of the subject image. Can be done in the same way.

コントラスト検出方式を用いる場合、制御部34は、撮像光学系31のフォーカスレンズを移動させながら、フォーカスレンズのそれぞれの位置において、フォーカスポイントに対応する撮像素子32aの撮像用画素から出力された信号データに基づいて公知の焦点評価値演算を行う。そして、焦点評価値を最大にするフォーカスレンズの位置を合焦位置として求める。   When the contrast detection method is used, the control unit 34 moves the focus lens of the imaging optical system 31 and outputs signal data output from the imaging pixels of the imaging element 32a corresponding to the focus point at each position of the focus lens. Based on this, a known focus evaluation value calculation is performed. Then, the position of the focus lens that maximizes the focus evaluation value is obtained as the focus position.

制御部34は、通常、第2補正処理を行わずにフォーカスポイントに対応する撮像用画素から出力された信号データをそのまま用いて焦点評価値演算を行う。しかしながら、フォーカスポイントに対応する信号データに、第1撮像条件が適用された信号データと第4撮像条件が適用された信号データが混在する場合には、制御部34が、フォーカスポイントに対応する信号データのうちの第4撮像条件の信号データに対して、上述したような第2補正処理を行う。そして、制御部34は、第2補正処理後の信号データを用いて焦点評価値演算を行う。
上記の例では、焦点調節処理を第2補正処理を行った後に行ったが、第2補正処理を行わず、第1補正処理により得られた画像データにより焦点調節を行ってもよい。
The control unit 34 normally performs the focus evaluation value calculation using the signal data output from the imaging pixel corresponding to the focus point without performing the second correction process. However, when the signal data corresponding to the focus point is mixed with the signal data to which the first imaging condition is applied and the signal data to which the fourth imaging condition is applied, the control unit 34 determines the signal corresponding to the focus point. The second correction process as described above is performed on the signal data of the fourth imaging condition in the data. Then, the control unit 34 performs a focus evaluation value calculation using the signal data after the second correction process.
In the above example, the focus adjustment process is performed after the second correction process. However, the second correction process may not be performed, and the focus adjustment may be performed using the image data obtained by the first correction process.

3.被写体検出処理を行う場合
図16(a)は、検出しようとする対象物を表すテンプレート画像を例示する図であり、図16(b)は、ライブビュー画像60(a)および探索範囲190を例示する図である。制御部34の物体検出部34aは、ライブビュー画像から対象物(たとえば、図5の被写体要素の1つであるバッグ63a)を検出し、検出した対象物のテンプレート画像180を生成する。制御部34の物体検出部34aは、対象物を検出する範囲をライブビュー画像60aの全範囲としてもよいが、検出処理を軽くするために、ライブビュー画像60aの一部を探索範囲190としてもよい。
3. When Subject Detection Processing is Performed FIG. 16A illustrates a template image representing an object to be detected, and FIG. 16B illustrates a live view image 60 (a) and a search range 190. It is a figure to do. The object detection unit 34a of the control unit 34 detects an object (for example, a bag 63a that is one of the subject elements in FIG. 5) from the live view image, and generates a template image 180 of the detected object. The object detection unit 34a of the control unit 34 may set the range in which the object is detected as the entire range of the live view image 60a. However, in order to reduce the detection process, a part of the live view image 60a may be used as the search range 190. Good.

制御部34の物体検出部34aは、分割した領域間で異なる撮像条件が適用されており、探索範囲190が分割された領域の境界を含む場合、探索範囲190内の少なくとも1つの領域の画像データに対し、被写体検出処理の前処理として第2補正処理を行う。   In the object detection unit 34a of the control unit 34, when different imaging conditions are applied to the divided areas, and the search range 190 includes the boundaries of the divided areas, the image data of at least one area in the search range 190 On the other hand, a second correction process is performed as a pre-process of the subject detection process.

第2補正処理は、設定部34bが分割した撮像画面の領域間で撮像条件が異なることに起因して、被写体要素の検出処理の精度低下を抑制するために行う。一般に、被写体要素の検出に用いる探索範囲190に、分割された領域の境界を含む場合、探索範囲190の画像データの中に異なる撮像条件が適用された画像データが混在する場合がある。本実施の形態では、異なる撮像条件が適用された画像データをそのまま用いて被写体要素の検出を行うよりも、撮像条件の相違による画像データ間の差異を抑えるように第2補正処理を施した画像データを用いて被写体要素の検出を行う方が好ましいという考え方に基づき、以下のように第2補正処理を行う。   The second correction process is performed in order to suppress a decrease in accuracy of the subject element detection process due to a difference in imaging conditions between areas of the imaging screen divided by the setting unit 34b. In general, when the search range 190 used for detecting the subject element includes a boundary of divided areas, image data to which different imaging conditions are applied may be mixed in the image data of the search range 190. In the present embodiment, the image subjected to the second correction processing so as to suppress the difference between the image data due to the difference in the imaging conditions, rather than performing detection of the subject element using the image data to which the different imaging conditions are applied as it is. Based on the idea that it is preferable to detect subject elements using data, the second correction processing is performed as follows.

図5に例示したライブビュー画像60aにおいて、人物61aの持ち物であるバッグ63aを検出する場合を説明する。制御部34の物体検出部34aは、人物61aを含む領域の近傍に探索範囲190を設定する。なお、人物61aを含む領域61を探索範囲に設定してもよい。   A case will be described in which the bag 63a that is the belonging of the person 61a is detected in the live view image 60a illustrated in FIG. The object detection unit 34a of the control unit 34 sets the search range 190 in the vicinity of the region including the person 61a. In addition, you may set the area | region 61 containing the person 61a as a search range.

制御部34の物体検出部34aは、探索範囲190が撮像条件の異なる2つの領域によって分断されていない場合には、第2補正処理を行わずに探索範囲190を構成する画像データをそのまま用いて被写体検出処理を行う。しかしながら、仮に、探索範囲190の画像データに、第1撮像条件が適用された画像データと第4撮像条件が適用された画像データが混在する場合には、制御部34の物体検出部34aは、探索範囲190の画像データのうちの第4撮像条件の画像データに対して、焦点検出処理を行う場合として上述した(例1)〜(例3)のように第2補正処理を行う。そして、制御部34の物体検出部34aは、第2補正処理後の画像データを用いて被写体検出処理を行う。
なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
また、上記の例では、画像データのうちの第4撮像条件の画像データに対して第1撮像条件により第2補正処理を行う例を説明したが、画像データのうちの第1撮像条件の画像データに対して第4撮像条件により第2補正処理を行ってもよい。
When the search range 190 is not divided by two regions having different imaging conditions, the object detection unit 34a of the control unit 34 uses the image data constituting the search range 190 as it is without performing the second correction process. Subject detection processing is performed. However, if the image data to which the first imaging condition is applied and the image data to which the fourth imaging condition is applied are mixed in the image data in the search range 190, the object detection unit 34a of the control unit 34 As in the case of performing the focus detection process on the image data of the fourth imaging condition in the image data in the search range 190, the second correction process is performed as in (Example 1) to (Example 3) described above. Then, the object detection unit 34a of the control unit 34 performs subject detection processing using the image data after the second correction processing.
As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.
In the above example, the example in which the second correction process is performed based on the first imaging condition on the image data on the fourth imaging condition in the image data has been described. However, the image on the first imaging condition in the image data is described. The second correction process may be performed on the data according to the fourth imaging condition.

上述した探索範囲190の画像データに対する第2補正処理は、人物の顔のような特定被写体を検出するために用いる探索範囲や、撮像シーンの判定に用いる領域に対して適用してもよい。   The second correction processing for the image data in the search range 190 described above may be applied to a search range used for detecting a specific subject such as a human face or an area used for determination of an imaging scene.

また、上述した探索範囲190の画像データに対する第2補正処理は、テンプレート画像を用いたパターンマッチング法に用いる探索範囲に限らず、画像の色やエッジなどに基づく特徴量を検出する際の探索範囲においても同様に適用してよい。   The second correction processing for the image data in the search range 190 described above is not limited to the search range used for the pattern matching method using the template image, but the search range when detecting the feature amount based on the color or edge of the image. Similarly, the above may be applied.

また、取得時刻が異なる複数フレームの画像データを用いて公知のテンプレートマッチング処理を施すことにより、先に取得されたフレーム画像における追尾対象物と類似する領域を後から取得されたフレーム画像から探索する移動体の追尾処理に適用してもよい。この場合において、制御部34は、後から取得されたフレーム画像に設定する探索範囲において、第1撮像条件が適用された画像データと第4撮像条件が適用された画像データが混在する場合には、探索範囲の画像データのうちの第4撮像条件の画像データに対して、上述した(例1)〜(例3)のように第2補正処理を行う。そして、制御部34は、第2補正処理後の画像データを用いて追尾処理を行う。   Further, by performing a known template matching process using image data of a plurality of frames having different acquisition times, a region similar to the tracking target in the previously acquired frame image is searched from the frame image acquired later. You may apply to the tracking process of a mobile body. In this case, when the image data to which the first imaging condition is applied and the image data to which the fourth imaging condition is applied are mixed in the search range set for the frame image acquired later, the control unit 34. The second correction processing is performed on the image data of the fourth imaging condition in the search range image data as in (Example 1) to (Example 3) described above. Then, the control unit 34 performs a tracking process using the image data after the second correction process.

さらにまた、取得時刻が異なる複数フレームの画像データを用いて公知の動きベクトルを検出する場合も同様である。制御部34は、動きベクトルの検出に用いる検出領域において、第1撮像条件が適用された画像データと第4撮像条件が適用された画像データが混在する場合には、動きベクトルの検出に用いる検出領域の画像データのうちの第4撮像条件の画像データに対して、上述した(例1)〜(例3)のように第2補正処理を行う。そして、制御部34は、第2補正処理後の画像データを用いて動きベクトルを検出する。
上記の例では、被写体検出処理を第2補正処理を行った後に行ったが、第2補正処理を行わず、第1補正処理により得られた画像データにより被写体検出を行ってもよい。
The same applies to the case where a known motion vector is detected using image data of a plurality of frames having different acquisition times. In the detection region used for detecting the motion vector, when the image data to which the first imaging condition is applied and the image data to which the fourth imaging condition is applied are mixed, the control unit 34 detects the motion vector. The second correction process is performed on the image data of the fourth imaging condition in the image data of the area as in (Example 1) to (Example 3) described above. Then, the control unit 34 detects a motion vector using the image data after the second correction process.
In the above example, the subject detection processing is performed after the second correction processing is performed. However, subject detection may be performed based on the image data obtained by the first correction processing without performing the second correction processing.

4.撮像条件を設定する場合
制御部34の設定部34bは、撮像画面の領域を分割し、分割した領域間で異なる撮像条件を設定した状態で、新たに測光し直して露出条件を決定する場合、少なくとも1つの領域の画像データに対し、露出条件を設定する前処理として第2補正処理を行う。
4). When setting the imaging conditions When the setting unit 34b of the control unit 34 divides the area of the imaging screen and sets different imaging conditions between the divided areas, the exposure condition is determined by newly performing photometry, A second correction process is performed as a pre-process for setting an exposure condition for image data of at least one region.

第2補正処理は、設定部34bが分割した撮像画面の領域間で撮像条件が異なることに起因して、露出条件を決定する処理の精度低下を抑制するために行う。たとえば、撮像画面の中央部に設定された測光範囲に、分割された領域の境界を含む場合、測光範囲の画像データの中に異なる撮像条件が適用された画像データが混在する場合がある。本実施の形態では、異なる撮像条件が適用された画像データをそのまま用いて露出演算処理を行うよりも、撮像条件の相違による画像データ間の差異を抑えるように第2補正処理を施した画像データを用いて露出演算処理を行う方が好ましいという考え方に基づき、以下のように第2補正処理を行う。   The second correction process is performed in order to suppress a decrease in accuracy of the process for determining the exposure condition due to the imaging condition being different between the areas of the imaging screen divided by the setting unit 34b. For example, when the photometric range set in the center of the imaging screen includes the boundary of the divided areas, image data to which different imaging conditions are applied may be mixed in the photometric range image data. In the present embodiment, the image data subjected to the second correction process so as to suppress the difference between the image data due to the difference in the imaging conditions, rather than performing the exposure calculation process using the image data to which the different imaging conditions are applied as it is. Based on the idea that it is preferable to perform the exposure calculation process using, the second correction process is performed as follows.

制御部34の設定部34bは、測光範囲が撮像条件の異なる複数の領域によって分断されていない場合には、第2補正処理を行わずに測光範囲を構成する画像データをそのまま用いて露出演算処理を行う。しかしながら、仮に、測光範囲の画像データに、第1撮像条件が適用された画像データと第4撮像条件が適用された画像データが混在する場合には、制御部34の設定部34bは、測光範囲の画像データのうちの第4撮像条件の画像データに対して、焦点検出処理や被写体検出処理を行う場合として上述した(例1)〜(例3)のように第2補正処理を行う。そして、制御部34の設定部34bは、第2補正処理後の画像データを用いて露出演算処理を行う。
なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
また、上記の例では、画像データのうちの第4撮像条件の画像データに対して第1撮像条件により第2補正処理を行う例を説明したが、画像データのうちの第1撮像条件の画像データに対して第4撮像条件により第2補正処理を行ってもよい。
When the photometry range is not divided by a plurality of regions having different imaging conditions, the setting unit 34b of the control unit 34 uses the image data constituting the photometry range as it is without performing the second correction process, and performs an exposure calculation process. I do. However, if the image data to which the first imaging condition is applied and the image data to which the fourth imaging condition is applied are mixed in the image data in the photometric range, the setting unit 34b of the control unit 34 determines the photometric range. As in the case of performing the focus detection process and the subject detection process on the image data of the fourth imaging condition among the image data, the second correction process is performed as in (Example 1) to (Example 3) described above. Then, the setting unit 34b of the control unit 34 performs an exposure calculation process using the image data after the second correction process.
As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.
In the above example, the example in which the second correction process is performed based on the first imaging condition on the image data on the fourth imaging condition in the image data has been described. However, the image on the first imaging condition in the image data is described. The second correction process may be performed on the data according to the fourth imaging condition.

上述した露出演算処理を行う際の測光範囲に限らず、ホワイトバランス調整値を決定する際に行う測光(測色)範囲や、撮影補助光を発する光源による撮影補助光の発光要否を決定する際に行う測光範囲、さらには、上記光源による撮影補助光の発光量を決定する際に行う測光範囲においても同様である。   Not only the photometric range when performing the exposure calculation process described above, but also the photometric (colorimetric) range used when determining the white balance adjustment value and the necessity of emission of the auxiliary photographing light by the light source that emits the auxiliary photographing light are determined. The same applies to the photometric range performed at the time, and further to the photometric range performed at the time of determining the light emission amount of the photographing auxiliary light by the light source.

また、撮像画面を分割した領域間で、光電変換信号の読み出し解像度を異ならせる場合において、領域ごとの読み出し解像度を決定する際に行う撮像シーンの判定に用いる領域に対しても同様に扱うことができる。
上記の例では、撮影条件の設定を第2補正処理を行った後に行ったが、第2補正処理を行わず、第1補正処理により得られた画像データにより撮影条件の設定を行ってもよい。
Further, when the readout resolution of the photoelectric conversion signal is made different between areas obtained by dividing the imaging screen, the same applies to the area used for determination of the imaging scene performed when determining the readout resolution for each area. it can.
In the above example, the shooting conditions are set after performing the second correction process. However, the shooting conditions may be set based on the image data obtained by the first correction process without performing the second correction process. .

<フローチャートの説明>
図17は、領域ごとに撮像条件を設定して撮像する処理の流れを説明するフローチャートである。カメラ1のメインスイッチがオン操作されると、制御部34は、図17に示す処理を実行するプログラムを起動させる。ステップS10において、制御部34は、表示部35にライブビュー表示を開始させて、ステップS20へ進む。
<Description of flowchart>
FIG. 17 is a flowchart for explaining the flow of processing for setting an imaging condition for each area and imaging. When the main switch of the camera 1 is turned on, the control unit 34 activates a program that executes the process shown in FIG. In step S10, the control unit 34 causes the display unit 35 to start live view display, and proceeds to step S20.

具体的には、制御部34が撮像部32へライブビュー画像の取得開始を指示し、取得されたライブビュー画像を逐次表示部35に表示させる。上述したように、この時点では撮像チップ111の全域、すなわち画面の全体に同一の撮像条件が設定されている。
なお、ライブビュー表示中にAF動作を行う設定がなされている場合、制御部34のレンズ移動制御部34dは、焦点検出処理を行うことにより、所定のフォーカスポイントに対応する被写体要素にフォーカスを合わせるAF動作を制御する。レンズ移動制御部34dは、必要に応じて、上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理が行われてから焦点検出処理を行う。
また、ライブビュー表示中にAF動作を行う設定がなされていない場合、制御部34のレンズ移動制御部34dは、後にAF動作が指示された時点でAF動作を行う。
Specifically, the control unit 34 instructs the imaging unit 32 to start acquiring a live view image, and causes the display unit 35 to sequentially display the acquired live view image. As described above, at this time, the same imaging condition is set for the entire imaging chip 111, that is, the entire screen.
When the setting for performing the AF operation is performed during live view display, the lens movement control unit 34d of the control unit 34 performs focus detection processing to focus on the subject element corresponding to the predetermined focus point. Control the AF operation. The lens movement control unit 34d performs the focus detection process after the first correction process and the second correction process, or the first correction process or the second correction process, as necessary.
If the setting for performing the AF operation is not performed during live view display, the lens movement control unit 34d of the control unit 34 performs the AF operation when the AF operation is instructed later.

ステップS20において、制御部34の物体検出部34aは、ライブビュー画像から被写体要素を検出してステップS30へ進む。物体検出部34aは、必要に応じて、上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理が行われてから被写体検出処理を行う。ステップS30において、制御部34の設定部34bは、ライブビュー画像の画面を、被写体要素を含む領域に分割してステップS40へ進む。   In step S20, the object detection unit 34a of the control unit 34 detects the subject element from the live view image and proceeds to step S30. The object detection unit 34a performs the subject detection process after the first correction process and the second correction process, or the first correction process or the second correction process, as necessary. In step S30, the setting unit 34b of the control unit 34 divides the screen of the live view image into regions including subject elements, and proceeds to step S40.

ステップS40において、制御部34は表示部35に領域の表示を行う。制御部34は、分割された領域のうちの撮像条件の設定(変更)の対象となる領域を強調表示させる。また、制御部34は、図6に例示したように、撮像条件の設定画面70を表示部35に表示させてステップS50へ進む。
なお、制御部34は、ユーザーの指で表示画面上の他の主要被写体の表示位置がタップ操作された場合は、その主要被写体を含む領域を撮像条件の設定(変更)の対象となる領域に変更して強調表示させる。
In step S <b> 40, the control unit 34 displays an area on the display unit 35. The control unit 34 highlights an area to be set (changed) for the imaging condition among the divided areas. In addition, as illustrated in FIG. 6, the control unit 34 displays the imaging condition setting screen 70 on the display unit 35, and proceeds to step S <b> 50.
Note that, when the display position of another main subject on the display screen is tapped with the user's finger, the control unit 34 sets the region including the main subject as a region for setting (changing) the imaging condition. Change and highlight.

ステップS50において、制御部34は、AF動作が必要か否かを判定する。制御部34は、たとえば、被写体が動いたことによって焦点調節状態が変化した場合や、ユーザー操作によってフォーカスポイントの位置が変更された場合、またはユーザー操作によってAF動作の実行が指示された場合に、ステップS50を肯定判定してステップS70へ進む。制御部34は、焦点調節状態が変化せず、ユーザー操作によりフォーカスポイントの位置が変更されず、ユーザー操作によってAF動作の実行も指示されない場合には、ステップS50を否定判定してステップ60へ進む。   In step S50, the control unit 34 determines whether an AF operation is necessary. The control unit 34, for example, when the focus adjustment state changes due to the movement of the subject, when the position of the focus point is changed by a user operation, or when execution of the AF operation is instructed by a user operation, An affirmative decision is made in step S50 and the process proceeds to step S70. If the focus adjustment state does not change, the position of the focus point is not changed by the user operation, and the execution of the AF operation is not instructed by the user operation, the control unit 34 makes a negative determination in step S50 and proceeds to step 60. .

ステップS70において、制御部34は、AF動作を行わせてステップS40へ戻る。レンズ移動制御部34dは、必要に応じて、上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理が行われてからAF動作である焦点検出処理を行う。ステップS40へ戻った制御部34は、AF動作後に取得されるライブビュー画像に基づき、上述した処理と同様の処理を繰り返す。   In step S70, the controller 34 performs an AF operation and returns to step S40. The lens movement control unit 34d performs a focus detection process that is an AF operation after the first correction process and the second correction process, or the first correction process or the second correction process, as necessary. Do. The control unit 34 that has returned to step S40 repeats the same processing as described above based on the live view image acquired after the AF operation.

ステップS60において、制御部34の設定部34bは、ユーザー操作に応じて、強調して表示されている領域に対する撮像条件を設定する。また、制御部34の設定部34bは、他の領域とは異なる撮像条件に設定された領域が生じた場合、境界ブロックの撮像条件を上述したように設定する。なお、ステップS60におけるユーザー操作に応じた表示部35の表示遷移や撮像条件の設定については、上述したとおりである。制御部34の設定部34bは、必要に応じて、上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理が行われてから露出演算処理を行う。ステップS60が実行されるとステップS80へ進む。   In step S60, the setting unit 34b of the control unit 34 sets an imaging condition for the highlighted area in response to a user operation. The setting unit 34b of the control unit 34 sets the imaging condition of the boundary block as described above when an area set to an imaging condition different from the other area occurs. Note that the display transition of the display unit 35 and the setting of the imaging conditions according to the user operation in step S60 are as described above. The setting unit 34b of the control unit 34 performs the exposure calculation process after the first correction process and the second correction process, or the first correction process or the second correction process, as necessary. When step S60 is executed, the process proceeds to step S80.

ステップS80において、制御部34は、撮像指示の有無を判定する。制御部34は、操作部材36を構成する不図示のレリーズボタン、または撮像を指示する表示アイコンが操作された場合、ステップS80を肯定判定してステップS90へ進む。制御部34は、撮像指示が行われない場合には、ステップS80を否定判定してステップS20へ戻る。   In step S80, the control unit 34 determines the presence / absence of an imaging instruction. When a release button (not shown) constituting the operation member 36 or a display icon for instructing imaging is operated, the control unit 34 makes a positive determination in step S80 and proceeds to step S90. When the imaging instruction is not performed, the control unit 34 makes a negative determination in step S80 and returns to step S20.

ステップS90において、制御部34は、所定の撮像処理を行う。すなわち、撮像制御部34cが上記領域ごとに設定された撮像条件で撮像するように撮像素子32aを制御してステップS100へ進む。   In step S90, the control unit 34 performs predetermined imaging processing. That is, the imaging control unit 34c controls the imaging element 32a so as to perform imaging under the imaging conditions set for each region, and the process proceeds to step S100.

ステップS100において、制御部34の撮像制御部34cは画像処理部33へ指示を送り、上記撮像によって得られた画像データに対して所定の画像処理を行わせてステップS110へ進む。画像処理は、上記画素欠陥補正処理、色補間処理、輪郭強調処理、ノイズ低減処理を含む。
なお、画像処理部33の補正部33bは、必要に応じて、領域の境界部に位置する画像データに対して、上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理を行ってから画像処理を行う。
In step S100, the imaging control unit 34c of the control unit 34 sends an instruction to the image processing unit 33, performs predetermined image processing on the image data obtained by the imaging, and proceeds to step S110. Image processing includes the pixel defect correction processing, color interpolation processing, contour enhancement processing, and noise reduction processing.
Note that the correction unit 33b of the image processing unit 33 performs the first correction processing and the second correction processing, or the first correction processing or the first correction processing on the image data located at the boundary portion of the region as necessary. Image processing is performed after performing the second correction processing.

ステップS110において、制御部34は記録部37へ指示を送り、画像処理後の画像データを不図示の記録媒体に記録させてステップS120へ進む。   In step S110, the control unit 34 sends an instruction to the recording unit 37, records the image data after image processing on a recording medium (not shown), and proceeds to step S120.

ステップS120において、制御部34は、終了操作が行われたか否かを判断する。制御部34は、終了操作が行われた場合にステップS120を肯定判定して図17による処理を終了する。制御部34は、終了操作が行われない場合には、ステップS120を否定判定してステップS20へ戻る。ステップS20へ戻った場合、制御部34は、上述した処理を繰り返す。   In step S120, the control unit 34 determines whether an end operation has been performed. When the end operation is performed, the control unit 34 makes a positive determination in step S120 and ends the process illustrated in FIG. When the end operation is not performed, the control unit 34 makes a negative determination in step S120 and returns to step S20. When returning to step S20, the control unit 34 repeats the above-described processing.

以上の説明では、撮像素子32aとして積層型の撮像素子100を例示したが、撮像素子(撮像チップ111)における複数のブロックごとに撮像条件を設定可能であれば、必ずしも積層型の撮像素子として構成する必要はない。   In the above description, the multilayer image sensor 100 is illustrated as the image sensor 32a. However, if the imaging condition can be set for each of a plurality of blocks in the image sensor (imaging chip 111), the image sensor 32a is not necessarily configured as a multilayer image sensor. do not have to.

以上説明した第1の実施の形態によれば、次の作用効果が得られる。
(1)カメラ1は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部32と、人物61aからの第1の光が入射した第1領域61のブロックに第1撮像条件を設定し、山64aからの第2の光が入射した第4領域64のブロックに第4撮像条件を設定し、第1および第2の光が入射した境界領域67のブロックに第7撮像条件を設定する制御部34(設定部34b)と、境界領域67のブロックの画素からの信号を第1および第4撮像条件に基づいて補正する画像処理部33(補正部33b)と、補正部33bにより補正された信号と、第1領域61のブロックの画素からの信号と、第4領域64のブロックの画素からの信号と、により画像を生成する画像処理部33(生成部33c)と、を備える。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された画像データによる画像を適切に生成することができる。たとえば、領域ごとの撮像条件の違いによって、生成される画像に現れる不連続性や違和感を抑制できる。
また、境界ブロックにおける撮像条件を適切に設定できるので、境界ブロックにおける画素からの画像データの白飛びや黒潰れを防止でき、適切に画像データを生成することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The camera 1 sets the first imaging condition for the block in the first area 61 where the first light from the person 61a is incident and the imaging unit 32 in which the imaging condition can be set for each block having a plurality of pixels. Then, the fourth imaging condition is set for the block of the fourth region 64 where the second light from the mountain 64a is incident, and the seventh imaging condition is set for the block of the boundary region 67 where the first and second light is incident. The control unit 34 (setting unit 34b) that performs correction, the image processing unit 33 (correction unit 33b) that corrects signals from the pixels in the block of the boundary region 67 based on the first and fourth imaging conditions, and the correction unit 33b corrects the signal. And an image processing unit 33 (generation unit 33c) that generates an image based on the generated signal, the signal from the pixel in the block of the first area 61, and the signal from the pixel in the block of the fourth area 64.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. That is, it is possible to appropriately generate an image based on the image data generated in each region. For example, discontinuity and discomfort appearing in the generated image can be suppressed due to differences in imaging conditions for each region.
In addition, since the imaging condition in the boundary block can be set appropriately, it is possible to prevent whiteout or blackout of the image data from the pixels in the boundary block, and to generate image data appropriately.

(2)境界領域67は、人物61aからの第1の光および山64aからの第2の光が入射する境界ブロック82、85、87を有する。補正部33bは、前記第1および第2の光が入射する境界ブロック82、85、87の複数の画素の一部からの信号を第1撮像条件に基づいて補正し、前記第1および第2の光が入射する境界ブロック82、85、87の複数の画素の他部からの信号を第4撮像条件に基づいて補正する。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された画像データによる画像を適切に生成することができる。たとえば、領域ごとの撮像条件の違いによって、生成される画像に現れる不連続性や違和感を抑制できる。
(2) The boundary region 67 includes boundary blocks 82, 85, and 87 on which the first light from the person 61a and the second light from the mountain 64a are incident. The correction unit 33b corrects signals from some of the plurality of pixels of the boundary blocks 82, 85, and 87 on which the first and second lights are incident based on a first imaging condition, and the first and second Are corrected based on the fourth imaging condition.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. That is, it is possible to appropriately generate an image based on the image data generated in each region. For example, discontinuity and discomfort appearing in the generated image can be suppressed due to differences in imaging conditions for each region.

(3)設定部34bは、第1撮像条件と第4撮像条件とに基づいて第7撮像条件を設定する。これにより、境界ブロックにおける撮像条件を適切に設定できるので、境界ブロックにおける画素からの画像データの白飛びや黒潰れを防止でき、適切に画像データを生成することができる。 (3) The setting unit 34b sets the seventh imaging condition based on the first imaging condition and the fourth imaging condition. Thereby, since the imaging condition in the boundary block can be set appropriately, whiteout and blackout of the image data from the pixels in the boundary block can be prevented, and the image data can be generated appropriately.

(4)設定部34bは、境界領域67の境界ブロック82、85、87の画素からの信号から階調情報が喪失しないように第7撮像条件を設定する。これにより、境界ブロックにおける撮像条件を適切に設定できるので、境界ブロックにおける画素からの画像データの白飛びや黒潰れを防止でき、適切に画像データを生成することができる。 (4) The setting unit 34b sets the seventh imaging condition so that gradation information is not lost from signals from the pixels of the boundary blocks 82, 85, and 87 of the boundary region 67. Thereby, since the imaging condition in the boundary block can be set appropriately, whiteout and blackout of the image data from the pixels in the boundary block can be prevented, and the image data can be generated appropriately.

(5)カメラ1は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部32と、撮像光学系31を介して人物61aからの第1の光が入射した第1領域61のブロックに第1撮像条件を設定し、撮像光学系31を介して山64aからの第2の光が入射した第4領域64のブロックに第4撮像条件を設定し、撮像光学系31を介して第1および第2の光が入射した境界領域67のブロックに第7撮像条件を設定する制御部34(設定部34b)と、境界領域67のブロックの画素からの信号を第1および第4撮像条件に基づいて補正する画像処理部33(補正部33b)と、補正部33bにより補正された信号と、第1領域61のブロックの画素からの信号と、第4領域のブロックの画素からの信号とに基づいて、撮像光学系31を駆動するための信号を生成する制御部34(レンズ移動制御部34d)と、を備える。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された焦点検出用の信号データに基づいて、デフォーカス量を適切に検出することができる。たとえば、領域ごとの撮像条件の違いによって、焦点検出精度が低下することを抑制できる。
(5) The camera 1 includes an imaging unit 32 in which imaging conditions can be set for each block having a plurality of pixels, and a block of the first region 61 in which the first light from the person 61a is incident via the imaging optical system 31. The first imaging condition is set for the fourth area 64 where the second light from the mountain 64 a is incident via the imaging optical system 31, and the fourth imaging condition is set via the imaging optical system 31. A control unit 34 (setting unit 34b) for setting a seventh imaging condition in the block of the boundary region 67 on which the first and second light beams are incident, and signals from the pixels in the block of the boundary region 67 in the first and fourth imaging conditions. An image processing unit 33 (correction unit 33b) that performs correction based on the signal, a signal corrected by the correction unit 33b, a signal from a pixel in a block in the first area 61, and a signal from a pixel in a block in the fourth area Based on the imaging optical system 31 A control unit 34 which generates a signal for driving the (lens movement control section 34d), the.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. In other words, the defocus amount can be appropriately detected based on the focus detection signal data generated in each region. For example, it is possible to suppress a decrease in focus detection accuracy due to a difference in imaging conditions for each region.

(6)カメラ1は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部32と、人物61aからの第1の光が入射した第1領域61のブロックに第1撮像条件を設定し、山64aからの第2の光が入射した第4領域64のブロックに第4撮像条件を設定し、第1および第2の光が入射した境界領域67のブロックに第7撮像条件を設定する制御部34(設定部34b)と、境界領域67のブロックの画素からの信号を第1および第4撮像条件に基づいて補正する画像処理部33(補正部33b)と、補正部33bにより補正された信号による画像データと、第1領域61のブロックの画素からの信号による画像データと、第4領域64のブロックの画素からの信号による画像データとに基づいて、人物61aおよび山64aの被写体を検出する制御部34(物体検出部34a)と、を備える。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された画像データに基づいて、被写体要素を適切に検出することができる。たとえば、領域ごとの撮像条件の違いによって、検出精度が低下することを抑制できる。
(6) The camera 1 sets the first imaging condition for the block in the first area 61 where the first light from the person 61a is incident and the imaging unit 32 in which the imaging condition can be set for each block having a plurality of pixels. Then, the fourth imaging condition is set for the block of the fourth region 64 where the second light from the mountain 64a is incident, and the seventh imaging condition is set for the block of the boundary region 67 where the first and second light is incident. The control unit 34 (setting unit 34b) that performs correction, the image processing unit 33 (correction unit 33b) that corrects signals from the pixels in the block of the boundary region 67 based on the first and fourth imaging conditions, and the correction unit 33b corrects the signal. The image data of the person 61a and the mountain 64a is based on the image data based on the generated signal, the image data based on the signal from the block pixel in the first area 61, and the image data based on the signal from the pixel in the block in the fourth area 64. A control unit 34 for detecting the body and (object detection unit 34a), a.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. That is, the subject element can be appropriately detected based on the image data generated in each region. For example, it is possible to suppress a decrease in detection accuracy due to a difference in imaging conditions for each region.

(7)カメラ1は、複数の画素を有するブロックごとに撮像条件が設定可能な撮像部32と、人物61aからの第1の光が入射した第1領域61のブロックに第1撮像条件を設定し、山64aからの第2の光が入射した第4領域64のブロックに第4撮像条件を設定し、第1および第2の光が入射した境界領域67のブロックに第7撮像条件を設定する制御部34(設定部34b)と、境界領域67のブロックの画素からの信号を第1および第4撮像条件に基づいて補正する画像処理部33(補正部33b)と、を備える。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された画像データに基づいて、適切に撮像条件の設定を行うことができる。たとえば、領域ごとの撮像条件の違いによって、露出条件の設定精度が低下することを抑制できる。
(7) The camera 1 sets the first imaging condition for the block of the imaging unit 32 in which the imaging condition can be set for each block having a plurality of pixels and the first area 61 where the first light from the person 61a is incident. Then, the fourth imaging condition is set for the block of the fourth region 64 where the second light from the mountain 64a is incident, and the seventh imaging condition is set for the block of the boundary region 67 where the first and second light is incident. A control unit 34 (setting unit 34b), and an image processing unit 33 (correction unit 33b) that corrects signals from the pixels of the block in the boundary region 67 based on the first and fourth imaging conditions.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. That is, it is possible to appropriately set the imaging conditions based on the image data generated in each region. For example, it can suppress that the setting precision of exposure conditions falls by the difference in the imaging conditions for every area | region.

(8)設定部34bは、補正部33bにより補正された信号と、第1領域61のブロックの画素からの信号と、第4領域のブロックの画素からの信号とに基づいて、第7撮像条件を設定する。すなわち設定部34bは、上述した第1および第2補正処理を行った後に。新たに測光し直して露出条件を決定する。
これにより、撮像条件が異なる領域で、それぞれ適切に処理を行うことができる。すなわち、各領域でそれぞれ生成された画像データに基づいて、適切に撮像条件の設定を行うことができる。たとえば、領域ごとの撮像条件の違いによって、露出条件の設定精度が低下することを抑制できる。
(8) The setting unit 34b generates the seventh imaging condition based on the signal corrected by the correction unit 33b, the signal from the pixel in the block in the first area 61, and the signal from the pixel in the block in the fourth area. Set. That is, the setting unit 34b performs the first and second correction processes described above. New exposure metering is performed to determine the exposure conditions.
Thereby, it is possible to appropriately perform processing in areas where imaging conditions are different. That is, it is possible to appropriately set the imaging conditions based on the image data generated in each region. For example, it can suppress that the setting precision of exposure conditions falls by the difference in the imaging conditions for every area | region.

上述した第2補正処理を前処理として行うモード1と、第2補正処理を前処理として行わないモード2とを切り替え可能に構成してもよい。モード1が選択された場合、制御部34は、上述した前処理を行った上で画像処理などの処理を行う。一方、モード2が選択された場合、制御部34は、上述した前処理を行わずに画像処理などの処理を行う。たとえば、被写体要素として検出されている顔の一部に陰がある場合において、顔の陰の部分の明るさが顔の陰以外の部分の明るさと同程度となるように、顔の陰の部分を含む領域の撮像条件と顔の陰以外の部分を含む領域の撮像条件とを異なる設定で撮像して生成された画像に対して、第2補正処理を行ってから色補間処理をすると、設定されている撮像条件の違いにより陰の部分に対して意図しない色補間が行われる場合がある。第2補正処理をすることなく画像データをそのまま用いて色補間処理を行い得るように、モード1とモード2とを切り替え可能に構成しておくことにより、意図しない色補間を避けることが可能になる。   It may be configured to be able to switch between mode 1 in which the above-described second correction processing is performed as preprocessing and mode 2 in which the second correction processing is not performed as preprocessing. When mode 1 is selected, the control unit 34 performs processing such as image processing after performing the above-described preprocessing. On the other hand, when mode 2 is selected, the control unit 34 performs processing such as image processing without performing the above-described preprocessing. For example, when a part of the face detected as the subject element is shaded, the shadowed part of the face is set so that the brightness of the shadowed part of the face is the same as the brightness of the part other than the shadow of the face. If the color interpolation process is performed after the second correction process is performed on an image generated by imaging with different settings of the imaging condition of the area including the area and the imaging condition of the area including the portion other than the shadow of the face, the setting is performed. In some cases, unintentional color interpolation is performed on the shadow portion due to a difference in imaging conditions. It is possible to avoid unintended color interpolation by configuring the mode 1 and the mode 2 so that the color interpolation process can be performed using the image data as it is without performing the second correction process. Become.

−−−第2の実施の形態−−−
図18を参照して、第2の実施の形態による画像処理装置を搭載する電子機器の一例として、デジタルカメラを例に挙げて説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、領域ブロックに隣接する主ブロックの撮像条件の設定方法が第1の実施の形態と異なる。
--- Second Embodiment ---
With reference to FIG. 18, a digital camera will be described as an example of an electronic apparatus equipped with the image processing apparatus according to the second embodiment. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. In the present embodiment, the imaging condition setting method for the main block adjacent to the area block is mainly different from that of the first embodiment.

図18(a)は、第1の実施の形態における所定範囲80の一部を含む複数のブロックを示す図である。ブロック86の右隣には山64aからの被写体光が入射するブロック92が存在する。なお、図示はしないが、ブロック92の右方には山64aからの被写体光が入射する複数のブロックが存在する。図18(a)では、白地部は、人物61aに対応する部分を模式的に示し、網掛け部は、山64aに対応する部分を模式的に示す。すなわち、白地部は第1領域61に対応し、網掛け部は第4領域64に対応する。なお、図18において、太線の破線で囲んだ領域が境界領域67である。   FIG. 18A is a diagram illustrating a plurality of blocks including a part of the predetermined range 80 in the first embodiment. Right next to the block 86 is a block 92 on which subject light from the mountain 64a is incident. Although not shown, there are a plurality of blocks on the right side of the block 92 where the subject light from the mountain 64a is incident. In FIG. 18A, the white background portion schematically shows a portion corresponding to the person 61a, and the shaded portion schematically shows a portion corresponding to the mountain 64a. That is, the white background portion corresponds to the first region 61, and the shaded portion corresponds to the fourth region 64. In FIG. 18, a region surrounded by a thick broken line is a boundary region 67.

上述した第1の実施の形態では、設定部34bは、第1領域61の主ブロックであるブロック84の撮像条件を第1撮像条件に設定し、第4領域64の主ブロックであるブロック86の撮像条件を第4撮像条件に設定した。そして、設定部34bは、第1領域61および第4領域64の境界ブロックであるブロック85の撮像条件を、第1撮像条件と第4撮像条件の間である第7撮像条件に設定した。すなわち、第1の実施の形態では、ある領域における撮像条件は、境界ブロックを除いて同一である。   In the first embodiment described above, the setting unit 34b sets the imaging condition of the block 84, which is the main block of the first area 61, to the first imaging condition, and sets the imaging condition of the block 86, which is the main block of the fourth area 64. The imaging condition was set to the fourth imaging condition. Then, the setting unit 34b sets the imaging condition of the block 85, which is a boundary block between the first area 61 and the fourth area 64, to a seventh imaging condition that is between the first imaging condition and the fourth imaging condition. In other words, in the first embodiment, the imaging conditions in a certain region are the same except for the boundary block.

これに対し、第2の実施の形態では、設定部34bは、第1領域61の主ブロックであるブロック84の撮像条件を第1撮像条件に設定し、第4領域64の主ブロックであるブロック92の撮像条件を第4撮像条件に設定する。そして、図18(b)に示すように設定部34bは、境界ブロック85の撮像条件を、第1撮像条件と第4撮像条件の間の第8撮像条件に設定し、境界ブロック85に隣接する主ブロックであるブロック86の撮像条件を第8撮像条件と第4撮像条件との間の第9撮像条件に設定する。図18(b)では、境界ブロック85および主ブロック86に付した斜め線のハッチングの密度が高いほど、設定された撮像条件が第1撮像条件寄りであることを模式的に示している。すなわち、本実施の形態では、ある領域における主ブロックの撮像条件は、他の領域との境界の近傍において当該他の領域における撮像条件との差が少なくなるように段階的に設定される。   On the other hand, in the second embodiment, the setting unit 34b sets the imaging condition of the block 84 that is the main block of the first area 61 to the first imaging condition, and the block that is the main block of the fourth area 64. 92 imaging conditions are set to the fourth imaging condition. Then, as illustrated in FIG. 18B, the setting unit 34 b sets the imaging condition of the boundary block 85 to the eighth imaging condition between the first imaging condition and the fourth imaging condition, and is adjacent to the boundary block 85. The imaging condition of the main block block 86 is set to a ninth imaging condition between the eighth imaging condition and the fourth imaging condition. FIG. 18B schematically shows that the set imaging condition is closer to the first imaging condition as the hatching density of the diagonal lines attached to the boundary block 85 and the main block 86 is higher. That is, in the present embodiment, the imaging condition of the main block in a certain area is set stepwise so that the difference from the imaging condition in the other area is reduced in the vicinity of the boundary with the other area.

たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800の場合、設定部34bは、第8撮像条件のISO感度を100と800との間の値として、たとえば200に設定する。そして、設定部34bは、第9撮像条件のISO感度を200と800との間の値として、たとえば400に設定する。   For example, when only the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, and the ISO sensitivity of the fourth imaging condition is 800, the setting unit 34b For example, the ISO sensitivity of the eight imaging conditions is set to 200 as a value between 100 and 800. Then, the setting unit 34b sets the ISO sensitivity of the ninth imaging condition as a value between 200 and 800, for example, 400.

このように、設定部34bは、第1領域61および第4領域64についての他の境界ブロック、および、境界ブロックに隣接する第4領域64の主ブロックについても同様に、撮像条件を設定する。   In this manner, the setting unit 34b similarly sets the imaging conditions for the other boundary blocks for the first region 61 and the fourth region 64 and the main block of the fourth region 64 adjacent to the boundary block.

すなわち、本実施の形態では、設定部34bは、異なる撮像条件が設定される2つの領域が接している場合、白飛びや黒潰れが生じない範囲で、一方の撮像条件から他方の撮像条件に徐々に近づくように、境界ブロックおよび境界ブロックに隣接する主ブロックの撮像条件を設定する。
上述の説明では、境界ブロック85に隣接するブロックとして、第1領域61の主ブロック84と第4領域64の主ブロック86とが存在する。本実施の形態では、第1領域61の主ブロック84の撮像条件(第1撮像条件)は、第1領域61の他の主ブロックの撮像条件と同一であり、第4領域64の主ブロック86の撮像条件(第9撮像条件)は、第4領域64の他の主ブロック(ブロック92等)の撮像条件(第4撮像条件)と異なる。すなわち、本実施の形態では、主要被写体である人物61aに対応するブロックについては、境界ブロックを除いて同一の撮像条件に設定することが望ましい。そこで、本実施の形態では、人物61aよりも被写体としての重要度が低い山64aに対応する第4領域64において、境界ブロック85に隣接するブロック86の撮像条件を第4領域64の他の主ブロック(ブロック92等)の撮像条件(第4撮像条件)と異ならせた。
以下の説明では、隣接する2つの領域のうち、一方の領域(第4領域64)の主ブロック(主ブロック86)ではあるが、その領域(第4領域64)の他の主ブロック(主ブロック92)と比較して、他方の領域(第1領域61)の主ブロック84または他方の領域(第1領域61)との境界ブロック(境界ブロック85)に設定された撮像条件(第1または第8撮像条件)に近づくように撮像条件(第9撮像条件)が設定された主ブロック(主ブロック86)を準境界ブロックと呼ぶ。また、本実施の形態では、境界ブロック85と準境界ブロック86とを含む領域を境界領域67Aと呼ぶ。
That is, in the present embodiment, the setting unit 34b changes from one imaging condition to the other imaging condition within a range in which whiteout and blackout do not occur when two areas where different imaging conditions are set are in contact with each other. The imaging conditions of the boundary block and the main block adjacent to the boundary block are set so as to gradually approach.
In the above description, the main block 84 in the first area 61 and the main block 86 in the fourth area 64 exist as blocks adjacent to the boundary block 85. In the present embodiment, the imaging condition (first imaging condition) of the main block 84 in the first area 61 is the same as the imaging condition of other main blocks in the first area 61, and the main block 86 in the fourth area 64. The imaging condition (the ninth imaging condition) is different from the imaging conditions (the fourth imaging condition) of other main blocks (the block 92 and the like) of the fourth area 64. In other words, in the present embodiment, it is desirable that the blocks corresponding to the person 61a as the main subject are set to the same imaging condition except for the boundary block. Therefore, in the present embodiment, in the fourth area 64 corresponding to the mountain 64a that is less important as a subject than the person 61a, the imaging condition of the block 86 adjacent to the boundary block 85 is set to the other main areas of the fourth area 64. Different from the imaging conditions (fourth imaging conditions) of the blocks (block 92, etc.).
In the following description, it is the main block (main block 86) of one area (fourth area 64) of two adjacent areas, but the other main block (main block) of that area (fourth area 64). 92) and the imaging condition (first or first) set in the main block 84 of the other area (first area 61) or the boundary block (boundary block 85) with the other area (first area 61). The main block (main block 86) for which the imaging condition (the ninth imaging condition) is set so as to approach the (8 imaging conditions) is referred to as a quasi-boundary block. In the present embodiment, an area including the boundary block 85 and the quasi-boundary block 86 is referred to as a boundary area 67A.

このように、隣接する2つの領域(第1領域61および第4領域64)のうち、被写体としての重要度が低い方の領域(第4領域64)において準境界ブロックを設けることで、撮像条件を段階的に設定することが望ましい。設定部34bは、境界ブロックを挟んで異なる撮像条件に設定された2つの領域が接する場合、たとえば次の条件に基づいて、どちらの領域に準境界ブロックを設けるか、すなわち、どちらの領域の主ブロックで撮像条件を段階的に設定するのかを判断する。
なお、以下の条件(a)から(c)は、例示であり、これ以外の条件を排除するものではない。
(a)たとえば、被写体認識の結果に基づいて一方の領域に顔を含むと判断された場合、設定部34bは、一方の領域が他方の領域よりも重要な被写体領域であると判断して、他方の領域に準境界ブロックを設ける。
(b)たとえば、焦点検出の結果に基づいて一方の領域の被写体までの距離が他方の領域の被写体までの距離よりも近いと判断された場合、設定部34bは、一方の領域が他方の領域よりも重要な被写体領域であると判断して、他方の領域に準境界ブロックを設ける。
(c)たとえば、被写体要素の検出結果に基づいて一方の領域が他方の領域よりも撮像面の中央に近い位置に存在すると判断された場合、設定部34bは、一方の領域が他方の領域よりも重要な被写体領域であると判断して、他方の領域に準境界ブロックを設ける。
As described above, by providing the quasi-boundary block in the region (the fourth region 64) having the lower importance as the subject among the two adjacent regions (the first region 61 and the fourth region 64), the imaging condition It is desirable to set step by step. When two regions set to different imaging conditions are in contact with each other with the boundary block interposed therebetween, the setting unit 34b determines which region is provided with the quasi-boundary block based on, for example, the following conditions, that is, which region has the main block It is determined whether the imaging conditions are set step by step in the block.
In addition, the following conditions (a) to (c) are examples, and conditions other than this are not excluded.
(A) For example, when it is determined that one region includes a face based on the result of subject recognition, the setting unit 34b determines that one region is a subject region more important than the other region, A quasi-boundary block is provided in the other region.
(B) For example, when it is determined that the distance to the subject in one region is closer than the distance to the subject in the other region based on the focus detection result, the setting unit 34b determines that one region is the other region. It is determined that the subject area is more important, and a quasi-boundary block is provided in the other area.
(C) For example, when it is determined that one region exists closer to the center of the imaging surface than the other region based on the detection result of the subject element, the setting unit 34b determines that one region is more than the other region. Is determined to be an important subject area, and a quasi-boundary block is provided in the other area.

上述の説明では、準境界ブロック86の第9撮像条件を第4領域64の主ブロックについての第4撮像条件よりも第1撮像条件寄りに設定し、準境界ブロック86の右隣の主ブロック92の撮像条件は第4撮像条件に設定した。しかし、図18(c)に示すように、準境界ブロック86に隣接する主ブロック92の撮像条件を第4撮像条件と第9撮像条件との間の第10撮像条件に設定してもよい。すなわち、準境界ブロック86に隣接する主ブロック92も準境界ブロックとして境界領域67Aを構成するようにしてもよい。
図18(c)では、境界ブロック85、準境界ブロック86および準境界ブロック92に付した斜め線のハッチングの密度が高いほど、設定された撮像条件が第1撮像条件寄りであることを模式的に示している。
In the above description, the ninth imaging condition of the quasi-boundary block 86 is set closer to the first imaging condition than the fourth imaging condition for the main block of the fourth region 64, and the main block 92 adjacent to the right of the quasi-boundary block 86 is set. The imaging condition was set to the fourth imaging condition. However, as shown in FIG. 18C, the imaging condition of the main block 92 adjacent to the quasi-boundary block 86 may be set to the tenth imaging condition between the fourth imaging condition and the ninth imaging condition. That is, the main block 92 adjacent to the quasi-boundary block 86 may also constitute the boundary region 67A as a quasi-boundary block.
In FIG. 18C, it is schematically shown that the set imaging condition is closer to the first imaging condition as the hatching density of the diagonal lines attached to the boundary block 85, the quasi-boundary block 86, and the quasi-boundary block 92 is higher. It shows.

すなわち、境界領域67A内で、境界ブロック85の右隣の準境界ブロック86、準境界ブロック86の右隣の準境界ブロック92、準境界ブロック92の右隣の主ブロック93の順に、第1撮像条件側から第4撮像条件に徐々に近づくように各ブロック86、92、93の撮像条件を段階的に設定するようにしてもよい。すなわち、互いに隣接する2つの領域(第1領域61および第4領域64)のうち、他方の領域(第4領域64)から一方の領域(第1領域61)に近づくにつれて、他方の領域(第4領域64)の主ブロックの撮像条件が徐々に一方の領域(第1領域61)の撮像条件に近づくようにしてもよい。このように、互いに隣接する2つの領域のうち、他方の領域の主ブロックの撮像条件をグラデーション状に設定するようにしてもよい。   That is, in the boundary region 67A, the first imaging is performed in the order of the quasi-boundary block 86 on the right side of the boundary block 85, the quasi-boundary block 92 on the right side of the quasi-boundary block 86, and the main block 93 on the right side of the quasi-boundary block 92. The imaging conditions of the blocks 86, 92, and 93 may be set in stages so as to gradually approach the fourth imaging condition from the condition side. That is, of the two regions adjacent to each other (the first region 61 and the fourth region 64), as the other region (the fourth region 64) approaches one region (the first region 61), the other region (the first region 61). The imaging conditions of the main block of the four areas 64) may gradually approach the imaging conditions of one area (first area 61). In this way, the imaging condition of the main block in the other area of the two areas adjacent to each other may be set in a gradation.

図18(b)に示す例では、第4領域64の主ブロックの撮像条件を主ブロック86において1段階変化させ、図18(c)に示す例では、第4領域64の主ブロックの撮像条件を主ブロック86と主ブロック92との2段階変化させたが、3段階以上変化させてもよい。なお、第4領域64の主ブロックの撮像条件を何段階変化させるかについては、たとえば第4領域64の面積や第1撮像条件と第4撮像条件との差などに基づいて、適宜設定すればよい。たとえば、第4領域64の面積が大きくなるにつれて、段階数を増やしてもよい。また、第1撮像条件と第4撮像条件との差が大きくなるにつれて、段階数を増やしてもよい。   In the example shown in FIG. 18B, the imaging condition of the main block in the fourth area 64 is changed by one step in the main block 86, and in the example shown in FIG. The main block 86 and the main block 92 are changed in two steps, but may be changed in three steps or more. Note that how many steps the imaging condition of the main block in the fourth area 64 is changed may be set as appropriate based on, for example, the area of the fourth area 64 or the difference between the first imaging condition and the fourth imaging condition. Good. For example, the number of steps may be increased as the area of the fourth region 64 increases. Further, the number of steps may be increased as the difference between the first imaging condition and the fourth imaging condition increases.

なお、上述したように、主ブロックの撮像条件を段階的に設定した場合には、撮像条件の差異に基づく画像の不連続性が問題とならなければ、第1補正処理や第2補正処理を行わなくてもよい。   As described above, when the imaging conditions of the main block are set in stages, if the discontinuity of the image based on the difference in the imaging conditions is not a problem, the first correction process and the second correction process are performed. It does not have to be done.

以上説明した第2の実施の形態によれば、第1の実施の形態の作用効果に加えて次の作用効果が得られる。
(1)境界領域67Aは、人物61aからの第1の光および山64aからの第2の光の一方が入射する準境界ブロック86をさらに有する。設定部34bは、第1および第2の光が入射する境界ブロック85に第8撮像条件を設定し、第1の光および第2の光の一方が入射する準境界ブロック86に第9撮像条件を設定する。これにより、領域の境界の近傍のブロックにおける撮像条件をさらに適切に設定できるので、さらに適切に画像データを生成することができる。
According to the second embodiment described above, the following operational effects can be obtained in addition to the operational effects of the first embodiment.
(1) The boundary region 67A further includes a quasi-boundary block 86 into which one of the first light from the person 61a and the second light from the mountain 64a is incident. The setting unit 34b sets the eighth imaging condition in the boundary block 85 where the first and second lights are incident, and the ninth imaging condition in the quasi-boundary block 86 where one of the first light and the second light is incident. Set. As a result, the imaging conditions in the blocks near the boundary of the region can be set more appropriately, so that the image data can be generated more appropriately.

−−−第1および第2の実施の形態の変形例−−−
次のような変形も本発明の範囲内であり、変形例の1つ、もしくは複数を上述の実施の形態と組み合わせることも可能である。
(変形例1)
図19(a)〜図19(c)は、撮像素子32aの撮像面における第1撮像領域および第2撮像領域の配置を例示する図である。図19(a)の例によれば、第1撮像領域は偶数列によって構成され、第2撮像領域は奇数列によって構成される。すなわち、撮像面が偶数列と奇数列とに分割されている。
--- Modification of the first and second embodiments ---
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
FIG. 19A to FIG. 19C are diagrams illustrating the arrangement of the first imaging region and the second imaging region on the imaging surface of the imaging element 32a. According to the example of FIG. 19 (a), the first imaging area is configured by even columns, and the second imaging area is configured by odd columns. That is, the imaging surface is divided into even columns and odd columns.

図19(b)の例によれば、第1撮像領域は奇数行によって構成され、第2撮像領域は偶数行によって構成される。すなわち、撮像面が奇数行と偶数行とに分割されている。   According to the example of FIG. 19B, the first imaging region is configured by odd rows, and the second imaging region is configured by even rows. That is, the imaging surface is divided into odd rows and even rows.

図19(c)の例によれば、第1撮像領域は、奇数列における偶数行のブロックと、偶数列における奇数行のブロックとによって構成される。また、第2撮像領域は、偶数列における偶数行のブロックと、奇数列における奇数行のブロックとによって構成される。すなわち、撮像面が市松模様状に分割されている。   According to the example of FIG. 19 (c), the first imaging region is composed of even-numbered blocks in odd columns and odd-numbered blocks in even columns. In addition, the second imaging region is configured by blocks of even rows in even columns and blocks of odd rows in odd columns. That is, the imaging surface is divided into a checkered pattern.

図19(a)〜図19(c)のいずれの場合も、1フレームの撮像を行った撮像素子32aから読み出した光電変換信号によって、第1撮像領域から読み出した光電変換信号に基づく第1画像および第2撮像領域から読み出した光電変換信号に基づく第2画像がそれぞれ生成される。変形例1によれば、第1画像および第2画像は同じ画角で撮像され、共通の被写体像を含む。   19A to 19C, the first image based on the photoelectric conversion signal read from the first imaging region by the photoelectric conversion signal read from the image sensor 32a that has captured one frame. A second image based on the photoelectric conversion signal read from the second imaging region is generated. According to the first modification, the first image and the second image are captured at the same angle of view and include a common subject image.

変形例1において、制御部34は、第1画像を表示用として用いるとともに、第2画像を検出用として用いる。具体的には、制御部34は、第1画像をライブビュー画像として表示部35に表示させる。また、制御部34は、物体検出部34aによって第2画像を用いて被写体検出処理を行わせ、レンズ移動制御部34によって第2画像を用いて焦点検出処理を行わせ、設定部34bによって第2画像を用いて露出演算処理を行わせる。   In the first modification, the control unit 34 uses the first image for display and the second image for detection. Specifically, the control unit 34 causes the display unit 35 to display the first image as a live view image. The control unit 34 causes the object detection unit 34a to perform subject detection processing using the second image, causes the lens movement control unit 34 to perform focus detection processing using the second image, and causes the setting unit 34b to perform second detection. Exposure calculation processing is performed using an image.

変形例1においては、第1画像を撮像する第1撮像領域に設定する撮像条件を第1撮像条件と呼び、第2画像を撮像する第2撮像領域に設定する撮像条件を第2撮像条件と呼ぶこととする。制御部34は、第1撮像条件と、第2撮像条件とを異ならせてもよい。   In the first modification, the imaging condition set in the first imaging area for capturing the first image is called the first imaging condition, and the imaging condition set in the second imaging area for capturing the second image is the second imaging condition. I will call it. The control unit 34 may make the first imaging condition different from the second imaging condition.

1.一例として、制御部34は、第1撮像条件を、表示部35による表示に適した条件に設定する。たとえば、第1撮像領域に設定される第1撮像条件を撮像画面の第1撮像領域の全体で同一にする。一方、制御部34は、第2撮像領域に設定される第2撮像条件を、焦点検出処理、被写体検出処理、および露出演算処理に適した条件に設定する。第2撮像条件は、撮像画面の第2撮像領域の全体で同一にする。
なお、焦点検出処理、被写体検出処理、および露出演算処理に適した条件がそれぞれ異なる場合は、制御部34は、第2撮像領域に設定する第2撮像条件をフレームごとに異ならせてもよい。たとえば、1フレーム目の第2撮像条件を焦点検出処理に適した条件とし、2フレーム目の第2撮像条件を被写体検出処理に適した条件とし、3フレーム目の第2撮像条件を露出演算処理に適した条件とする。これらの場合において、各フレームにおける第2撮像条件を撮像画面の第2撮像領域の全体で同一にする。
1. As an example, the control unit 34 sets the first imaging condition to a condition suitable for display by the display unit 35. For example, the first imaging condition set for the first imaging area is the same for the entire first imaging area of the imaging screen. On the other hand, the control unit 34 sets the second imaging condition set in the second imaging region to a condition suitable for the focus detection process, the subject detection process, and the exposure calculation process. The second imaging condition is the same for the entire second imaging area of the imaging screen.
When the conditions suitable for the focus detection process, the subject detection process, and the exposure calculation process are different, the control unit 34 may change the second imaging condition set in the second imaging area for each frame. For example, the second imaging condition of the first frame is a condition suitable for the focus detection process, the second imaging condition of the second frame is a condition suitable for the subject detection process, and the second imaging condition of the third frame is the exposure calculation process. Conditions suitable for In these cases, the second imaging condition in each frame is the same in the entire second imaging area of the imaging screen.

2.他の一例として、制御部34は、第1撮像領域に設定される第1撮像条件を領域により異ならせてもよい。制御部34の設定部34bは、設定部34bが分割した被写体要素を含む領域ごとに異なる第1撮像条件を設定する。一方、制御部34は、第2撮像領域に設定される第2撮像条件を撮像画面の第2撮像領域の全体で同一にする。制御部34は、第2撮像条件を、焦点検出処理、被写体検出処理、および露出演算処理に適した条件に設定するが、焦点検出処理、被写体検出処理、および露出演算処理に適した条件がそれぞれ異なる場合は、第2撮像領域に設定する撮像条件をフレームごとに異ならせてもよい。 2. As another example, the control unit 34 may vary the first imaging condition set in the first imaging area depending on the area. The setting unit 34b of the control unit 34 sets different first imaging conditions for each region including the subject element divided by the setting unit 34b. On the other hand, the control unit 34 makes the second imaging condition set in the second imaging area the same for the entire second imaging area of the imaging screen. The control unit 34 sets the second imaging condition to a condition suitable for the focus detection process, the subject detection process, and the exposure calculation process. However, the conditions suitable for the focus detection process, the subject detection process, and the exposure calculation process are set. If they are different, the imaging conditions set in the second imaging area may be different for each frame.

3.また、他の一例として、制御部34は、第1撮像領域に設定される第1撮像条件を撮像画面の第1撮像領域の全体で同一とする一方で、第2撮像領域に設定される第2撮像条件を撮像画面において異ならせてもよい。たとえば、設定部34bが分割した被写体要素を含む領域ごとに異なる第2撮像条件を設定する。この場合においても、焦点検出処理、被写体検出処理、および露出演算処理に適した条件がそれぞれ異なる場合は、第2撮像領域に設定する撮像条件をフレームごとに異ならせてもよい。 3. As another example, the control unit 34 sets the first imaging condition set in the first imaging area to be the same in the entire first imaging area of the imaging screen, while setting the second imaging area. The two imaging conditions may be different on the imaging screen. For example, a different second imaging condition is set for each region including the subject element divided by the setting unit 34b. Even in this case, if the conditions suitable for the focus detection process, the subject detection process, and the exposure calculation process are different, the imaging conditions set in the second imaging area may be different for each frame.

4.さらにまた、他の一例として、制御部34は、第1撮像領域に設定される第1撮像条件を撮像画面において異ならせるとともに、第2撮像領域に設定される第2撮像条件を撮像画面において異ならせる。たとえば、設定部34bが分割した被写体要素を含む領域ごとに異なる第1撮像条件を設定しつつ、設定部34bが分割した被写体要素を含む領域ごとに異なる第2撮像条件を設定する。 4). Furthermore, as another example, the control unit 34 changes the first imaging condition set in the first imaging area on the imaging screen, and changes the second imaging condition set on the second imaging area on the imaging screen. Make it. For example, the setting unit 34b sets different first imaging conditions for each region including the subject element divided, and the setting unit 34b sets different second imaging conditions for each region including the subject element divided.

図19(a)〜図19(c)において、第1撮像領域と第2撮像領域との面積比を異ならせてもよい。制御部34は、たとえば、ユーザーによる操作または制御部34の判断に基づき、第1撮像領域の比率を第2撮像領域よりも高く設定したり、第1撮像領域と第2撮像領域の比率を図19(a)〜図19(c)に例示したように同等に設定したり、第1撮像領域の比率を第2撮像領域よりも低く設定したりする。第1撮像領域と第2撮像領域とで面積比を異ならせることにより、第1画像を第2画像に比べて高精細にしたり、第1画像および第2画像の解像度を同等にしたり、第2画像を第1画像に比べて高精細にしたりすることができる。   In FIG. 19A to FIG. 19C, the area ratio between the first imaging region and the second imaging region may be different. For example, the control unit 34 sets the ratio of the first imaging region to be higher than that of the second imaging region based on the operation by the user or the determination of the control unit 34, or displays the ratio between the first imaging region and the second imaging region. As illustrated in FIGS. 19 (a) to 19 (c), they are set equal, or the ratio of the first imaging area is set lower than that of the second imaging area. By making the area ratios different between the first imaging region and the second imaging region, the first image can be made to have a higher definition than the second image, the resolution of the first image and the second image can be made equal, The image can be made higher in definition than the first image.

(変形例2)
上述した実施の形態では、画像処理を行う場合の第2補正処理は、注目位置において適用された撮像条件(第1撮像条件とする)と、注目位置の周囲の参照位置において適用された撮像条件(第4撮像条件とする)とが異なる場合において、画像処理部33の補正部33bが、第4撮像条件の画像データ(参照位置の画像データのうちの第4撮像条件の画像データ)を第1撮像条件に基づいて補正した。すなわち、参照位置の第4撮像条件の画像データを第2補正処理することによって、第1撮像条件と第4撮像条件との差異に基づく画像の不連続性を緩和するようにした。
(Modification 2)
In the above-described embodiment, the second correction processing when performing image processing includes the imaging condition applied at the position of interest (referred to as the first imaging condition) and the imaging condition applied at the reference position around the position of interest. In the case where (the fourth imaging condition is different), the correction unit 33b of the image processing unit 33 converts the image data of the fourth imaging condition (the image data of the fourth imaging condition among the image data of the reference position) to the first. Correction was performed based on one imaging condition. That is, the second correction process is performed on the image data of the fourth imaging condition at the reference position, thereby reducing the discontinuity of the image based on the difference between the first imaging condition and the fourth imaging condition.

この代わりに、変形例2では、画像処理部33の補正部33bが、第1撮像条件の画像データ(注目位置の画像データと参照位置の画像データのうちの第1撮像条件の画像データ)を第4撮像条件に基づいて補正してもよい。この場合にも、第1撮像条件と第4撮像条件との差異に基づく画像の不連続性を緩和できる。   Instead, in Modification 2, the correction unit 33b of the image processing unit 33 receives the image data of the first imaging condition (the image data of the first imaging condition among the image data of the target position and the image data of the reference position). You may correct | amend based on 4th imaging conditions. Also in this case, the discontinuity of the image based on the difference between the first imaging condition and the fourth imaging condition can be reduced.

あるいは、画像処理部33の補正部33bが、第1撮像条件の画像データおよび第4撮像条件の画像データの双方を補正してもよい。すなわち、第1撮像条件の注目位置の画像データ、参照位置の画像データのうちの第1撮像条件の画像データ、および参照位置の画像データのうちの第4撮像条件の画像データに対してそれぞれ第2補正処理を施すことにより、第1撮像条件と第4撮像条件との差異に基づく画像の不連続性を緩和するようにしてもよい。
たとえば、上記(例1)において、第1撮像条件(ISO感度が100)である、参照画素Prの画像データに、第2補正処理として400/100を掛け、第4撮像条件(ISO感度が800)である参照画素Prの画像データに、第2補正処理として400/800を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。なお、注目画素の画素データは、色補間処理後に100/400を掛ける第2補正処理を行う。この第2補正処理により色補間処理後の注目画素の画素データを第1撮像条件で撮像した場合と同様の値に変更することができる。さらに、上記(例1)において、第1領域と第4領域との境界からの距離によって第2補正処理の程度を変えても良い。そして上記(例1)の場合に比べて第2補正処理により画像データが増加や減少する割合を少なくすることができ、第2補正処理により生じるノイズを減らすことができる。以上では、上記(例1)について説明したが、上記(例2)にも同様に適用することができる。
Alternatively, the correction unit 33b of the image processing unit 33 may correct both the image data of the first imaging condition and the image data of the fourth imaging condition. That is, the first imaging condition image data of the first imaging condition, the first imaging condition image data of the reference position image data, and the fourth imaging condition image data of the reference position image data respectively. By performing the second correction process, the discontinuity of the image based on the difference between the first imaging condition and the fourth imaging condition may be alleviated.
For example, in the above (Example 1), the image data of the reference pixel Pr, which is the first imaging condition (ISO sensitivity is 100), is multiplied by 400/100 as the second correction process, and the fourth imaging condition (ISO sensitivity is 800). ) Is multiplied by 400/800 as the second correction process. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced. The pixel data of the target pixel is subjected to a second correction process that is multiplied by 100/400 after the color interpolation process. With this second correction process, the pixel data of the pixel of interest after the color interpolation process can be changed to the same value as when the image is captured under the first imaging condition. Furthermore, in the above (Example 1), the degree of the second correction process may be changed depending on the distance from the boundary between the first area and the fourth area. Compared to the case of (Example 1), the rate at which the image data increases or decreases by the second correction process can be reduced, and the noise generated by the second correction process can be reduced. Although the above (Example 1) has been described above, the above (Example 2) can be similarly applied.

変形例2によれば、上述した実施の形態と同様に、撮像条件が異なる領域のそれぞれ生成された画像データに対し、適切に画像処理を行うことができる。   According to the modified example 2, as in the above-described embodiment, it is possible to appropriately perform image processing on the image data generated in each of the regions having different imaging conditions.

(変形例3)
上述した実施の形態では、画像データに対して第2補正処理を行う際に、第1撮像条件と第4撮像条件との差違に基づく演算を行うことにより、補正後の画像データを求めるようにした。演算の代わりに、補正用テーブルを参照することによって補正後の画像データを求めてもよい。たとえば、引数として第1撮像条件および第4撮像条件を入力することにより、補正後の画像データを読み出す。あるいは、引数として第1撮像条件および第4撮像条件を入力することにより、補正係数を読み出す構成にしてもよい。
(Modification 3)
In the above-described embodiment, when the second correction process is performed on the image data, the corrected image data is obtained by performing a calculation based on the difference between the first imaging condition and the fourth imaging condition. did. Instead of calculation, corrected image data may be obtained by referring to a correction table. For example, by inputting the first imaging condition and the fourth imaging condition as arguments, the corrected image data is read out. Alternatively, the correction coefficient may be read out by inputting the first imaging condition and the fourth imaging condition as arguments.

(変形例4)
上述した実施の形態の第2補正処理において、補正後の画像データの上限や下限を定めておいてもよい。上限値、下限値を設けることにより、必要以上の補正をしないように制限することができる。上限値、下限値は、あらかじめ決めておいてもよいし、撮像素子32aと別に測光用センサを備える場合には、測光用センサからの出力信号に基づき決定してもよい。
(Modification 4)
In the second correction process of the embodiment described above, an upper limit and a lower limit of the corrected image data may be determined. By providing an upper limit value and a lower limit value, it is possible to limit so as not to make unnecessary corrections. The upper limit value and the lower limit value may be determined in advance, or may be determined based on an output signal from the photometric sensor when a photometric sensor is provided separately from the image sensor 32a.

(変形例5)
上記実施形態では、制御部34の設定部34bがライブビュー画像に基づき被写体要素を検出し、ライブビュー画像の画面を、被写体要素を含む領域に分割する例を説明した。変形例5において、制御部34は、撮像素子32aと別に測光用センサを備える場合には、測光用センサからの出力信号に基づき領域を分割してもよい。
(Modification 5)
In the embodiment described above, the setting unit 34b of the control unit 34 detects the subject element based on the live view image, and divides the screen of the live view image into regions including the subject element. In the fifth modification, when the control unit 34 includes a photometric sensor in addition to the imaging device 32a, the control unit 34 may divide the region based on an output signal from the photometric sensor.

制御部34は、測光用センサからの出力信号に基づき、前景と背景とに分割する。具体的には、撮像素子32bによって取得されたライブビュー画像を、測光用センサからの出力信号から前景と判断した領域に対応する前景領域と、測光用センサからの出力信号から背景と判断した領域に対応する背景領域とに分割する。   The control unit 34 divides the foreground and the background based on the output signal from the photometric sensor. Specifically, the foreground area corresponding to the area determined to be the foreground from the output signal from the photometric sensor and the area determined to be the background from the output signal from the photometric sensor for the live view image acquired by the image sensor 32b Is divided into background areas corresponding to.

制御部34はさらに、撮像素子32aの撮像面の前景領域に対応する位置に対して、図19(a)〜図19(c)に例示したように、第1撮像領域および第2撮像領域を配置する。一方、制御部34は、撮像素子32aの撮像面の背景領域に対応する位置に対して、撮像素子32aの撮像面に第1撮像領域のみを配置する。制御部34は、第1画像を表示用として用いるとともに、第2画像を検出用として用いる。   The control unit 34 further sets the first imaging region and the second imaging region with respect to the position corresponding to the foreground region on the imaging surface of the imaging device 32a as illustrated in FIGS. 19 (a) to 19 (c). Deploy. On the other hand, the control unit 34 arranges only the first imaging region on the imaging surface of the imaging device 32a with respect to the position corresponding to the background region of the imaging surface of the imaging device 32a. The control unit 34 uses the first image for display and the second image for detection.

変形例5によれば、測光用センサからの出力信号を用いることにより、撮像素子32bによって取得されたライブビュー画像の領域分割を行うことができる。また、前景領域に対しては、表示用の第1画像と検出用の第2画像とを得ることができ、背景領域に対しては、表示用の第1画像のみを得ることができる。   According to the modified example 5, by using the output signal from the photometric sensor, it is possible to perform region division of the live view image acquired by the image sensor 32b. In addition, a first image for display and a second image for detection can be obtained for the foreground area, and only a first image for display can be obtained for the background area.

(変形例6)
変形例6では、画像処理部33の生成部33cが、第2補正処理の一例としてコントラスト調整処理を行う。すなわち、生成部33cは、階調カーブ(ガンマカーブ)を異ならせることにより、第1撮像条件と第4撮像条件との間の差異に基づく画像の不連続性を緩和する。
(Modification 6)
In Modification 6, the generation unit 33c of the image processing unit 33 performs a contrast adjustment process as an example of the second correction process. That is, the generation unit 33c reduces the discontinuity of the image based on the difference between the first imaging condition and the fourth imaging condition by changing the gradation curve (gamma curve).

たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800の場合を想定する。生成部33cは、階調カーブを寝かせることにより、参照位置の画像データのうちの第4撮像条件の画像データの値を1/8に圧縮する。   For example, it is assumed that only the ISO sensitivity is different between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, and the ISO sensitivity of the fourth imaging condition is 800. The generation unit 33c compresses the value of the image data of the fourth imaging condition in the image data at the reference position to 1/8 by laying down the gradation curve.

あるいは、生成部33cが、階調カーブを立たせることにより、注目位置の画像データ、および参照位置の画像データのうちの第1撮像条件の画像データの値を8倍に伸張させてもよい。   Alternatively, the generation unit 33c may extend the value of the image data of the first imaging condition among the image data of the target position and the image data of the reference position by increasing the gradation curve by 8 times.

変形例6によれば、上述した実施の形態と同様に、撮像条件が異なる領域でそれぞれ生成された画像データに対し、適切に画像処理を行うことができる。たとえば、領域の境界における撮像条件の違いによって、画像処理後の画像に現れる不連続性や違和感を抑制することができる。   According to the modified example 6, as in the above-described embodiment, it is possible to appropriately perform image processing on image data generated in regions having different imaging conditions. For example, discontinuity and discomfort appearing in an image after image processing can be suppressed due to a difference in imaging conditions at the boundary between regions.

(変形例7)
変形例7においては、画像処理部33が、上述した画像処理(例えば、ノイズ低減処理)において、被写体要素の輪郭を損なわないようにする。一般に、ノイズ低減を行う場合は平滑化フィルタ処理が採用される。平滑化フィルタを用いる場合、ノイズ低減効果の一方で被写体要素の境界がぼける場合がある。
(Modification 7)
In the modified example 7, the image processing unit 33 does not impair the contour of the subject element in the above-described image processing (for example, noise reduction processing). In general, smoothing filter processing is employed when noise reduction is performed. When the smoothing filter is used, the boundary of the subject element may be blurred while the noise reduction effect.

そこで、画像処理部33の生成部33cは、たとえば、ノイズ低減処理に加えて、またはノイズ低減処理とともに、コントラスト調整処理を行うことによって上記被写体要素の境界のぼけを補う。変形例7において、画像処理部33の生成部33cは、濃度変換(階調変換)曲線として、Sの字を描くようなカーブを設定する(いわゆるS字変換)。画像処理部33の生成部33cは、S字変換を用いたコントラスト調整を行うことにより、明るいデータと暗いデータの階調部分をそれぞれ引き伸ばして明るいデータ(および暗いデータ)の階調数をそれぞれ増やすとともに、中間階調の画像データを圧縮して階調数を減らす。これにより、画像の明るさが中程度の画像データの数が減り、明るい/暗いのいずれかに分類されるデータが増える結果として、被写体要素の境界のぼけを補うことができる。   Therefore, the generation unit 33c of the image processing unit 33 compensates for blurring of the boundary of the subject element by performing contrast adjustment processing in addition to or together with noise reduction processing, for example. In Modification 7, the generation unit 33c of the image processing unit 33 sets a curve that draws an S shape as a density conversion (gradation conversion) curve (so-called S-shaped conversion). The generation unit 33c of the image processing unit 33 increases the number of gradations of bright data (and dark data) by extending the gradation portions of bright data and dark data by performing contrast adjustment using S-shaped conversion. At the same time, the number of gradations is reduced by compressing the intermediate gradation image data. As a result, the number of image data having a medium brightness is reduced, and data classified as either bright / dark is increased. As a result, blurring of the boundary of the subject element can be compensated.

変形例7によれば、画像の明暗をくっきりさせることによって、被写体要素の境界のぼけを補うことができる。   According to the modified example 7, blurring of the boundary of the subject element can be compensated by clearing the contrast of the image.

(変形例8)
変形例8においては、画像処理部33の生成部33cが、第1撮像条件と第4撮像条件との差異に基づく画像の不連続性を緩和するように、ホワイトバランス調整ゲインを変更する。
(Modification 8)
In the modification 8, the generation unit 33c of the image processing unit 33 changes the white balance adjustment gain so as to alleviate the discontinuity of the image based on the difference between the first imaging condition and the fourth imaging condition.

たとえば、注目位置において撮像時に適用された撮像条件(第1撮像条件とする)と、注目位置の周囲の参照位置において撮像時に適用された撮像条件(第4撮像条件とする)とが異なる場合において、画像処理部33の生成部33cが、参照位置の画像データのうちの第4撮像条件の画像データのホワイトバランスを、第1撮像条件で取得された画像データのホワイトバランスに近づけるように、ホワイトバランス調整ゲインを変更する。   For example, when the imaging condition applied at the time of imaging at the target position (referred to as the first imaging condition) and the imaging condition applied at the time of imaging at the reference position around the target position (referred to as the fourth imaging condition) are different. Then, the generation unit 33c of the image processing unit 33 makes the white balance of the image data of the fourth imaging condition out of the image data at the reference position close to the white balance of the image data acquired under the first imaging condition. Change the balance adjustment gain.

なお、画像処理部33の生成部33cが、参照位置の画像データのうちの第1撮像条件の画像データと注目位置の画像データのホワイトバランスを、第4撮像条件で取得された画像データのホワイトバランスに近づけるように、ホワイトバランス調整ゲインを変更してもよい。   The generation unit 33c of the image processing unit 33 sets the white balance between the image data of the first imaging condition and the image data of the target position in the image data of the reference position, and the white of the image data acquired under the fourth imaging condition. The white balance adjustment gain may be changed so as to approach the balance.

変形例8によれば、撮像条件が異なる領域でそれぞれ生成された画像データに対し、ホワイトバランス調整ゲインを撮像条件が異なる領域のどちらかの調整ゲインに揃えることによって、第1撮像条件と第4撮像条件との差異に基づく画像の不連続性を緩和することができる。   According to the modified example 8, by adjusting the white balance adjustment gain to the adjustment gain of one of the areas with different imaging conditions for the image data generated in the areas with different imaging conditions, the first imaging condition and the fourth imaging condition are set. The discontinuity of the image based on the difference from the imaging condition can be reduced.

(変形例9)
画像処理部33を複数備え、画像処理を並列処理してもよい。たとえば、撮像部32の領域Aで撮像された画像データに対して画像処理をしながら、撮像部32の領域Bで撮像された画像データに対して画像処理を行う。複数の画像処理部33は、同じ画像処理を行ってもよいし、異なる画像処理を行ってもよい。すなわち、領域Aおよび領域Bの画像データに対して同じパラメータ等を適用して同様の画像処理をしたり、領域Aおよび領域Bの画像データに対して異なるパラメータ等を適用して異なる画像処理をしたりすることができる。
(Modification 9)
A plurality of image processing units 33 may be provided, and image processing may be performed in parallel. For example, the image processing is performed on the image data captured in the region B of the imaging unit 32 while performing image processing on the image data captured in the region A of the imaging unit 32. The plurality of image processing units 33 may perform the same image processing or different image processing. That is, the same parameters are applied to the image data of the region A and the region B, and the same image processing is performed, or the different parameters are applied to the image data of the region A and the region B to perform different image processing. You can do it.

画像処理部33の数を複数備える場合において、第1撮像条件が適用された画像データに対して1つの画像処理部によって画像処理を行い、第4撮像条件が適用された画像データに対して他の画像処理部によって画像処理を行ってもよい。画像処理部の数は上記2つに限られず、たとえば、設定され得る撮像条件の数と同数を設けるようにしてもよい。すなわち、異なる撮像条件が適用された領域ごとに、それぞれの画像処理部が画像処理を担当する。変形例9によれば、領域ごとの異なる撮像条件による撮像と、上記領域ごとに得られる画像の画像データに対する画像処理とを並行して進行させることができる。   In the case where a plurality of image processing units 33 are provided, image processing is performed by one image processing unit on image data to which the first imaging condition is applied, and other is performed on image data to which the fourth imaging condition is applied. The image processing unit may perform image processing. The number of image processing units is not limited to the above two, and for example, the same number as the number of imaging conditions that can be set may be provided. That is, each image processing unit takes charge of image processing for each region to which different imaging conditions are applied. According to the modification 9, it is possible to proceed in parallel with imaging under different imaging conditions for each area and image processing for image data of the image obtained for each area.

(変形例10)
上述した説明では、カメラ1を例に説明したが、スマートフォンのようにカメラ機能を備えた高機能携帯電話機250(図21)や、タブレット端末などのモバイル機器によって構成してもよい。
(Modification 10)
In the above description, the camera 1 has been described as an example. However, a high-function mobile phone 250 (FIG. 21) having a camera function like a smartphone or a mobile device such as a tablet terminal may be used.

(変形例11)
上述した実施の形態では、撮像部32と制御部34とを単一の電子機器として構成したカメラ1を例に説明した。この代わりに、たとえば、撮像部32と制御部34とを分離して設け、制御部34から通信を介して撮像部32を制御する撮像システム1Bを構成してもよい。
以下、図20を参照して撮像部32を備えた撮像装置1001を、制御部34を備えた制御装置1002から制御する例を説明する。
(Modification 11)
In the above-described embodiment, the camera 1 in which the imaging unit 32 and the control unit 34 are configured as a single electronic device has been described as an example. Instead, for example, the imaging unit 1 and the control unit 34 may be provided separately, and the imaging system 1B that controls the imaging unit 32 from the control unit 34 via communication may be configured.
Hereinafter, an example in which the imaging device 1001 including the imaging unit 32 is controlled from the control device 1002 including the control unit 34 will be described with reference to FIG.

図20は、変形例11に係る撮像システム1Bの構成を例示するブロック図である。図20において、撮像システム1Bは、撮像装置1001と、表示装置1002とによって構成される。撮像装置1001は、上記実施の形態で説明した撮像光学系31と撮像部32とに加えて、第1通信部1003を備える。また、表示装置1002は、上記実施の形態で説明した画像処理部33、制御部34、表示部35、操作部材36、および記録部37に加えて、第2通信部1004を備える。   FIG. 20 is a block diagram illustrating the configuration of an imaging system 1B according to the eleventh modification. In FIG. 20, the imaging system 1 </ b> B includes an imaging device 1001 and a display device 1002. The imaging device 1001 includes a first communication unit 1003 in addition to the imaging optical system 31 and the imaging unit 32 described in the above embodiment. The display device 1002 includes a second communication unit 1004 in addition to the image processing unit 33, the control unit 34, the display unit 35, the operation member 36, and the recording unit 37 described in the above embodiment.

第1通信部1003および第2通信部1004は、たとえば周知の無線通信技術や光通信技術等により、双方向の画像データ通信を行うことができる。
なお、撮像装置1001と表示装置1002とを有線ケーブルにより有線接続し、第1通信部1003および第2通信部1004が双方向の画像データ通信を行う構成にしてもよい。
The first communication unit 1003 and the second communication unit 1004 can perform bidirectional image data communication using, for example, a well-known wireless communication technology or optical communication technology.
Note that the imaging device 1001 and the display device 1002 may be connected by a wired cable, and the first communication unit 1003 and the second communication unit 1004 may perform bidirectional image data communication.

撮像システム1Bは、制御部34が、第2通信部1004および第1通信部1003を介したデータ通信を行うことにより、撮像部32に対する制御を行う。たとえば、撮像装置1001と表示装置1002との間で所定の制御データを送受信することにより、表示装置1002は、上述したように画像に基づいて、画面を複数の領域に分割したり、分割した領域ごとに異なる撮像条件を設定したり、各々の領域で光電変換された光電変換信号を読み出したりする。   In the imaging system 1B, the control unit 34 controls the imaging unit 32 by performing data communication via the second communication unit 1004 and the first communication unit 1003. For example, by transmitting and receiving predetermined control data between the imaging device 1001 and the display device 1002, the display device 1002 divides the screen into a plurality of regions based on the images as described above, or the divided regions. A different imaging condition is set for each area, or a photoelectric conversion signal photoelectrically converted in each area is read out.

変形例11によれば、撮像装置1001側で取得され、表示装置1002へ送信されたライブビュー画像が表示装置1002の表示部35に表示されるので、ユーザーは、撮像装置1001から離れた位置にある表示装置1002から、遠隔操作を行うことができる。
表示装置1002は、たとえば、スマートフォンのような高機能携帯電話機250によって構成することができる。また、撮像装置1001は、上述した積層型の撮像素子100を備える電子機器によって構成することができる。
なお、表示装置1002の制御部34に物体検出部34aと、設定部34bと、撮像制御部34cと、レンズ移動制御部34dとを設ける例を説明したが、物体検出部34a、設定部34b、撮像制御部34c、およびレンズ移動制御部34dの一部について、撮像装置1001に設けるようにしてもよい。
According to the modification 11, since the live view image acquired on the imaging device 1001 side and transmitted to the display device 1002 is displayed on the display unit 35 of the display device 1002, the user is at a position away from the imaging device 1001. Remote control can be performed from a certain display device 1002.
The display device 1002 can be configured by a high-function mobile phone 250 such as a smartphone, for example. In addition, the imaging device 1001 can be configured by an electronic device including the above-described stacked imaging element 100.
In addition, although the example which provides the object detection part 34a, the setting part 34b, the imaging control part 34c, and the lens movement control part 34d in the control part 34 of the display apparatus 1002 was demonstrated, the object detection part 34a, the setting part 34b, A part of the imaging control unit 34c and the lens movement control unit 34d may be provided in the imaging device 1001.

(変形例12)
上述したカメラ1、高機能携帯電話機250、またはタブレット端末などのモバイル機器へのプログラムの供給は、たとえば図21に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってモバイル機器へ送信することができる。
(Modification 12)
The program is supplied to the mobile device such as the camera 1, the high-function mobile phone 250, or the tablet terminal as described above by, for example, infrared communication or short-range wireless communication from the personal computer 205 storing the program as illustrated in FIG. 21. Can be sent to mobile devices.

パーソナルコンピュータ205に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記録媒体204をパーソナルコンピュータ205にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ205へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。   The program may be supplied to the personal computer 205 by setting a recording medium 204 such as a CD-ROM storing the program in the personal computer 205 or by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the storage device 203 of the server 202 connected to the communication line.

また、通信回線201に接続された無線LANのアクセスポイント(不図示)を経由して、モバイル機器へプログラムを直接送信することもできる。さらに、プログラムを格納したメモリカードなどの記録媒体204Bをモバイル機器にセットしてもよい。このように、プログラムは記録媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。   In addition, the program can be directly transmitted to the mobile device via a wireless LAN access point (not shown) connected to the communication line 201. Further, a recording medium 204B such as a memory card storing the program may be set in the mobile device. Thus, the program can be supplied as various forms of computer program products, such as provision via a recording medium or a communication line.

−−−第3の実施の形態−−−
図22〜28を参照して、第3の実施の形態による画像処理装置を搭載する電子機器の一例として、デジタルカメラを例に挙げて説明する。以下の説明では、第1および第2の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1および第2の実施の形態と同じである。本実施の形態では、主に、第1の実施の形態の画像処理部33を設ける代わりに、撮像部32Aが第1および第2の実施の形態の画像処理部33と同様の機能を有する画像処理部32cをさらに含む点で、第1および第2の実施の形態と異なる。
--- Third embodiment ---
With reference to FIGS. 22 to 28, a digital camera will be described as an example of an electronic apparatus equipped with the image processing apparatus according to the third embodiment. In the following description, the same components as those in the first and second embodiments are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first and second embodiments. In the present embodiment, instead of providing the image processing unit 33 according to the first embodiment, an image in which the imaging unit 32A has the same function as the image processing unit 33 according to the first and second embodiments is mainly provided. It differs from the first and second embodiments in that it further includes a processing unit 32c.

図22は、第3の実施の形態によるカメラ1Cの構成を例示するブロック図である。図22において、カメラ1Cは、撮像光学系31と、撮像部32Aと、制御部34と、表示部35と、操作部材36と、記録部37とを有する。撮像部32Aは、第1の実施の形態の画像処理部33と同様の機能を有する画像処理部32cをさらに含む。   FIG. 22 is a block diagram illustrating the configuration of a camera 1C according to the third embodiment. In FIG. 22, the camera 1 </ b> C includes an imaging optical system 31, an imaging unit 32 </ b> A, a control unit 34, a display unit 35, an operation member 36, and a recording unit 37. The imaging unit 32A further includes an image processing unit 32c having the same function as the image processing unit 33 of the first embodiment.

画像処理部32cは、入力部321と、補正部322と、生成部323とを含む。入力部321には、撮像素子32aからの画像データが入力される。補正部322は、上記入力された画像データに対して補正を行う前処理を行う。補正部322が行う前処理は、第1の実施の形態における補正部33bが行う前処理と同じである。生成部323は、上記入力された画像データと前処理後の画像データとに対して画像処理を行い、画像を生成する。生成部323が行う画像処理は、第1の実施の形態における生成部33cが行う画像処理と同じである。   The image processing unit 32 c includes an input unit 321, a correction unit 322, and a generation unit 323. Image data from the image sensor 32 a is input to the input unit 321. The correction unit 322 performs preprocessing for correcting the input image data. The preprocessing performed by the correction unit 322 is the same as the preprocessing performed by the correction unit 33b in the first embodiment. The generation unit 323 performs image processing on the input image data and the pre-processed image data to generate an image. The image processing performed by the generation unit 323 is the same as the image processing performed by the generation unit 33c in the first embodiment.

図23は、本実施の形態における各ブロックと、複数の補正部322との対応関係を模式的に示した図である。図23において、矩形で表した撮像チップ111の1つのマスが1つのブロック111aを表している。同様に、矩形で表した後述する画像処理チップ114の1つのマスが1つの補正部322を表している。   FIG. 23 is a diagram schematically showing the correspondence between each block and a plurality of correction units 322 in the present embodiment. In FIG. 23, one square of the imaging chip 111 represented by a rectangle represents one block 111a. Similarly, one square of an image processing chip 114 described later represented by a rectangle represents one correction unit 322.

本実施の形態では、補正部322は、ブロック111a毎に対応して設けられている。換言すると、補正部322は、撮像面における撮像条件の変更可能な領域の最小単位であるブロック毎にそれぞれ設けられている。たとえば、図23においてハッチングを施したブロック111aと、ハッチングを施した補正部322とは対応関係にある。図23においてハッチングを施した補正部322は、ハッチングを施したブロック111aに含まれる画素からの画像データに前処理を行う。各補正部322は、それぞれ対応するブロック111aに含まれる画素からの画像データに前処理を行う。
これにより、画像データの前処理を複数の補正部322で並列処理できるので、補正部322における処理負担を軽減でき、撮像条件が異なる領域でそれぞれ生成された画像データから適切な画像を短時間で生成することができる。
なお、以下の説明では、あるブロック111aと、当該ブロック111aに含まれる画素との関係について説明する際に、当該ブロック111aのことを、当該画素が属するブロック111aと呼ぶことがある。また、ブロック111aを単位区分と呼ぶことがあり、ブロック111aが複数集まったもの、すなわち単位区分が複数集まったものを複合区分と呼ぶことがある。
In the present embodiment, the correction unit 322 is provided for each block 111a. In other words, the correction unit 322 is provided for each block which is the minimum unit of the area where the imaging condition can be changed on the imaging surface. For example, in FIG. 23, the hatched block 111a and the hatched correction unit 322 have a correspondence relationship. In FIG. 23, the hatched correction unit 322 performs preprocessing on the image data from the pixels included in the hatched block 111a. Each correction unit 322 performs preprocessing on image data from pixels included in the corresponding block 111a.
As a result, the preprocessing of the image data can be processed in parallel by the plurality of correction units 322, so that the processing burden on the correction unit 322 can be reduced, and an appropriate image can be quickly generated from the image data generated in each of the areas with different imaging conditions. Can be generated.
In the following description, when a relationship between a certain block 111a and a pixel included in the block 111a is described, the block 111a may be referred to as a block 111a to which the pixel belongs. The block 111a may be referred to as a unit section, and a plurality of blocks 111a, that is, a plurality of unit sections may be referred to as a composite section.

図24は、積層型撮像素子100Aの断面図である。積層型撮像素子100Aは、裏面照射型撮像チップ111と、信号処理チップ112と、メモリチップ113とに加えて、上述した前処理および画像処理を行う画像処理チップ114をさらに備える。すなわち、上述した画像処理部32cは、画像処理チップ114に設けられている。
これら撮像チップ111、信号処理チップ112、メモリチップ113および画像処理チップ114は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
FIG. 24 is a cross-sectional view of the multilayer imaging element 100A. The multilayer imaging element 100A further includes an image processing chip 114 that performs the above-described preprocessing and image processing in addition to the backside illumination imaging chip 111, the signal processing chip 112, and the memory chip 113. That is, the above-described image processing unit 32c is provided in the image processing chip 114.
The imaging chip 111, the signal processing chip 112, the memory chip 113, and the image processing chip 114 are stacked, and are electrically connected to each other by a conductive bump 109 such as Cu.

メモリチップ113および画像処理チップ114の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、メモリチップ113と画像処理チップ114とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   A plurality of bumps 109 are arranged on the mutually facing surfaces of the memory chip 113 and the image processing chip 114. The bumps 109 are aligned with each other, and the memory chip 113 and the image processing chip 114 are pressurized, so that the aligned bumps 109 are joined and electrically connected.

<第1補正処理>
第1の実施の形態と同様に、第3の実施の形態では、設定部34bにより撮像画面の領域を分割した後は、ユーザーによって選択された領域、または、制御部34が判断した領域に対して撮像条件を設定(変更)することが可能に構成されている。制御部34は、分割した領域において異なる撮像条件を設定した場合、必要に応じて画像処理部32cの補正部322に前処理の1つとして、第1補正処理を行わせる。
<First correction process>
Similar to the first embodiment, in the third embodiment, after the region of the imaging screen is divided by the setting unit 34b, the region selected by the user or the region determined by the control unit 34 is determined. The imaging conditions can be set (changed). When different imaging conditions are set in the divided areas, the control unit 34 causes the correction unit 322 of the image processing unit 32c to perform the first correction process as one of the preprocessing as necessary.

画像処理部32cの補正部322は、境界ブロックに属する各画素に対して、どの被写体領域からの光が入射しているのかを判断する。具体的には、補正部322は、物体検出部34aによる被写体要素の検出結果から撮像素子32aの撮像面における境界の位置を算出する。そして、補正部322は、算出した境界の位置に基づいて境界ブロックを抽出するとともに、抽出した境界ブロックに属する各画素に対してどの被写体要素からの被写体光が入射しているかを算出する。   The correction unit 322 of the image processing unit 32c determines from which subject area the light is incident on each pixel belonging to the boundary block. Specifically, the correction unit 322 calculates the position of the boundary on the imaging surface of the imaging element 32a from the detection result of the subject element by the object detection unit 34a. Then, the correction unit 322 extracts a boundary block based on the calculated boundary position, and calculates which subject element from which subject light is incident on each pixel belonging to the extracted boundary block.

たとえば、図7,8を例に挙げて説明すると、補正部322は、物体検出部34aによる被写体要素の検出結果から第1領域61と第4領域64との境界B1の位置を算出する。そして補正部322は、算出した境界B1の位置に基づいてブロック82、ブロック85およびブロック87を境界ブロックとして抽出する。そして補正部322は、算出した境界B1の位置に基づいて、境界ブロック82の画素82a、画素82bおよび画素82c、境界ブロック85の画素85a、ならびに境界ブロック87の画素87aに対して人物61aからの被写体光が入射していることを算出する。また、補正部322は、算出した境界B1の位置に基づいて、境界ブロック82の画素82d、境界ブロック85の画素85b、画素85cおよび画素85d、ならびに境界ブロック87の画素87b、画素87cおよび画素87dに対して山64aからの被写体光が入射していることを算出する。   For example, referring to FIGS. 7 and 8, the correction unit 322 calculates the position of the boundary B1 between the first region 61 and the fourth region 64 from the detection result of the subject element by the object detection unit 34a. Then, the correcting unit 322 extracts the block 82, the block 85, and the block 87 as boundary blocks based on the calculated position of the boundary B1. Then, based on the calculated position of the boundary B1, the correction unit 322 detects the pixel 82a, the pixel 82b and the pixel 82c of the boundary block 82, the pixel 85a of the boundary block 85, and the pixel 87a of the boundary block 87 from the person 61a. Calculate that subject light is incident. Further, the correction unit 322 determines the pixel 82d of the boundary block 82, the pixel 85b, the pixel 85c, and the pixel 85d of the boundary block 85, and the pixel 87b, the pixel 87c, and the pixel 87d of the boundary block 87 based on the calculated position of the boundary B1. Is calculated that the subject light from the mountain 64a is incident.

境界ブロック82の画素82a、画素82bおよび画素82cは、第1撮像条件と第4撮像条件との間の撮像条件である第7撮像条件によって人物61aからの被写体光を撮像している。一方、第1領域61についての主ブロックであるブロック81およびブロック84の各画素では、第1撮像条件によって人物61aからの被写体光を撮像している。
そこで、補正部322は、画素82a、画素82bおよび画素82cからの信号に対して、人物61aからの被写体光を第1撮像条件で撮像した場合と同様の信号を得られるように第1補正処理を行う。
同様に、境界ブロック82の画素82dは、第7撮像条件によって山64aからの被写体光を撮像している。一方、第4領域64についての主ブロックであるブロック83、ブロック86、ブロック88およびブロック89の各画素では、第4撮像条件によって山64aからの被写体光を撮像している。
そこで、補正部322は、画素82dからの信号に対して、山64aからの被写体光を第4撮像条件で撮像した場合と同様の信号を得られるように第1補正処理を行う。
The pixels 82a, 82b, and 82c of the boundary block 82 image subject light from the person 61a according to a seventh imaging condition that is an imaging condition between the first imaging condition and the fourth imaging condition. On the other hand, in each pixel of the block 81 and the block 84 which are main blocks for the first region 61, the subject light from the person 61a is imaged according to the first imaging condition.
Accordingly, the correction unit 322 performs the first correction process so that the signal from the pixel 82a, the pixel 82b, and the pixel 82c can be obtained with the same signal as when the subject light from the person 61a is imaged under the first imaging condition. I do.
Similarly, the pixel 82d of the boundary block 82 images the subject light from the mountain 64a according to the seventh imaging condition. On the other hand, in each pixel of the block 83, the block 86, the block 88, and the block 89, which are main blocks for the fourth region 64, the subject light from the mountain 64a is imaged according to the fourth imaging condition.
Therefore, the correction unit 322 performs a first correction process on the signal from the pixel 82d so that a signal similar to that obtained when the subject light from the mountain 64a is imaged under the fourth imaging condition.

たとえば、第1撮像条件と第4撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第4撮像条件のISO感度が800で、第7撮像条件のISO感度が400である場合に、第1補正処理は、以下のように行われる。すなわち、補正部322は、第1補正処理として、画素82a、画素82bおよび画素82cからの信号に対して100/400を掛け、画素82dからの信号に対して800/400を掛ける。   For example, only the ISO sensitivity differs between the first imaging condition and the fourth imaging condition, the ISO sensitivity of the first imaging condition is 100, the ISO sensitivity of the fourth imaging condition is 800, and the ISO sensitivity of the seventh imaging condition. Is 400, the first correction process is performed as follows. That is, as the first correction process, the correction unit 322 multiplies the signals from the pixels 82a, 82b, and 82c by 100/400 and multiplies the signals from the pixel 82d by 800/400.

たとえば、第1撮像条件と第4撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第4撮像条件のシャッター速度が1/100秒で、第7撮像条件のシャッター速度が1/500秒である場合、第1補正処理は、以下のように行われる。すなわち、補正部322は、第1補正処理として、画素82a、画素82bおよび画素82cからの信号に対して(1/1000)/(1/500)=1/2を掛け、画素82dからの信号に対して(1/100)/(1/500)=5を掛ける。   For example, only the shutter speed is different between the first imaging condition and the fourth imaging condition, the shutter speed of the first imaging condition is 1/1000 second, the shutter speed of the fourth imaging condition is 1/100 second, When the shutter speed of the seven imaging conditions is 1/500 second, the first correction process is performed as follows. That is, as the first correction process, the correction unit 322 multiplies the signals from the pixel 82a, the pixel 82b, and the pixel 82c by (1/1000) / (1/500) = 1/2 to obtain a signal from the pixel 82d. Is multiplied by (1/100) / (1/500) = 5.

たとえば、第1撮像条件と第4撮像条件との間でフレームレートのみが異なり、第1撮像条件のフレームレートが30fpsで、第4撮像条件のフレームレートが60fpsで、第7撮像条件のフレームレートが45fpsである場合、第1補正処理は、以下のように行われる。すなわち、補正部322は、第1補正処理として、画素82a、画素82bおよび画素82cからのフレームレートが45fpsのフレーム画像の信号を、一部間引いてフレームレート30fpsのフレーム画像の信号に変換する。このフレームレートの変換は、画素82a〜82cからのフレーム画像の信号のうち、第1撮像条件の30fpsのフレーム画像信号の発生タイミングに近いフレーム画像信号を選択することによって行う。また、上記のフレームレートの変換は、第1撮像条件の30fpsのフレーム画像信号の発生タイミングの前後に発生した画素82a〜82cからのフレーム画像の信号に基づき、第1撮像条件の30fpsのフレーム画像信号の発生タイミングに同期したフレーム画像信号を、補間算出してもよい。
また、補正部322は、第1補正処理として、画素82dからのフレームレート45fpsのフレーム画像の信号をフレームレート60fpsのフレーム画像の信号に変換する。このフレームレートの変換は、たとえば画素82dから相前後して読み出されたフレーム画像信号を合成することによって、すなわち、前後のフレーム画像信号に基づき、新たなフレーム画像信号を補間算出することによって、フレーム画像信号の数を増大して行われる。
For example, only the frame rate differs between the first imaging condition and the fourth imaging condition, the frame rate of the first imaging condition is 30 fps, the frame rate of the fourth imaging condition is 60 fps, and the frame rate of the seventh imaging condition Is 45 fps, the first correction process is performed as follows. That is, as the first correction process, the correction unit 322 thins out part of the frame image signal having a frame rate of 45 fps from the pixel 82a, pixel 82b, and pixel 82c and converts the frame image signal to a frame image signal having a frame rate of 30 fps. This frame rate conversion is performed by selecting a frame image signal close to the generation timing of the 30 fps frame image signal of the first imaging condition from the frame image signals from the pixels 82a to 82c. Also, the frame rate conversion described above is based on the frame image signal from the pixels 82a to 82c generated before and after the generation timing of the 30 fps frame image signal of the first imaging condition, and the 30 fps frame image of the first imaging condition. A frame image signal synchronized with the signal generation timing may be calculated by interpolation.
Further, as the first correction process, the correction unit 322 converts a frame image signal having a frame rate of 45 fps from the pixel 82d into a frame image signal having a frame rate of 60 fps. This frame rate conversion is performed by, for example, synthesizing frame image signals read from the pixel 82d one after the other, that is, by interpolating a new frame image signal based on the previous and next frame image signals, This is done by increasing the number of frame image signals.

このようにして、補正部322は、すべての境界ブロックの各画素からの信号に対して必要に応じて第1補正処理を行う。すなわち、補正部322は、境界ブロックに属するある画素からの信号に対して、当該画素と同じ被写体要素についての主ブロックに適用された撮像条件と当該境界ブロックに適用された撮像条件とが異なれば第1補正処理を行う。しかし、当該画素と同じ被写体要素についての主ブロックに適用された撮像条件と当該境界ブロックに適用された撮像条件とが同一であれば第1補正処理を行う必要がないので、補正部322は、第1補正処理を行わない。
上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
In this way, the correction unit 322 performs the first correction process on the signals from the pixels of all the boundary blocks as necessary. That is, the correction unit 322 determines that, for a signal from a pixel belonging to a boundary block, the imaging condition applied to the main block for the same subject element as the pixel is different from the imaging condition applied to the boundary block. A first correction process is performed. However, if the imaging condition applied to the main block for the same subject element as the pixel is the same as the imaging condition applied to the boundary block, it is not necessary to perform the first correction process. The first correction process is not performed.
As described above, even if there are some differences in imaging conditions, they are regarded as the same imaging conditions.

<第2補正処理>
制御部34はさらに、画像処理、焦点検出処理、被写体検出(被写体要素を検出)処理、および撮像条件を設定する処理の前に、補正部322に以下の第2補正処理を必要に応じて行わせる。
なお、第2補正処理では、第1補正処理によって補正された境界ブロックの画素からの信号は、境界ブロックに設定された撮像条件ではなく、主ブロックに設定された撮像条件が適用されて撮像されて得られた信号として処理される。
<Second correction process>
The control unit 34 further performs the following second correction processing on the correction unit 322 as necessary before image processing, focus detection processing, subject detection (subject element detection) processing, and processing for setting imaging conditions. Make it.
In the second correction process, the signal from the pixel of the boundary block corrected by the first correction process is imaged by applying the imaging condition set in the main block, not the imaging condition set in the boundary block. It is processed as a signal obtained.

1.画像処理を行う場合
1−1.注目画素Pの撮像条件と注目画素Pの周囲の複数の参照画素Prの撮像条件とが同一である場合
この場合、画像処理部32cでは、補正部322が第2補正処理を行わず、生成部323が第2補正処理されていない複数の参照画素Prの画像データを利用して画像処理を行う。
1. When performing image processing 1-1. When the imaging condition of the target pixel P and the imaging conditions of the plurality of reference pixels Pr around the target pixel P are the same In this case, in the image processing unit 32c, the correction unit 322 does not perform the second correction process, and the generation unit 323 performs image processing using image data of a plurality of reference pixels Pr that are not subjected to the second correction processing.

1−2.注目画素Pの撮像条件と、注目画素Pの周囲の複数の参照画素Prのうちの少なくとも1つの参照画素Prの撮像条件とが異なる場合
注目画素Pにおいて適用された撮像条件を第1撮像条件とし、複数の参照画素Prの一部に適用された撮像条件が第1撮像条件であり、残りの参照画素Prに適用された撮像条件が第2撮像条件であるとする。
この場合には、第2撮像条件が適用された参照画素Prが属するブロック111aに対応する補正部322は、当該第2撮像条件が適用された参照画素Prの画像データに対して以下の(例1)〜(例3)のように第2補正処理を行う。そして、生成部323は、第1撮像条件が適用された参照画素Prの画像データと、第2補正処理後の参照画素Prの画像データとを参照して注目画素Pの画像データを算出する画像処理を行う。
1-2. When the imaging condition of the target pixel P is different from the imaging condition of at least one reference pixel Pr of the plurality of reference pixels Pr around the target pixel P, the imaging condition applied in the target pixel P is set as the first imaging condition. Assume that the imaging condition applied to some of the plurality of reference pixels Pr is the first imaging condition, and the imaging conditions applied to the remaining reference pixels Pr are the second imaging conditions.
In this case, the correction unit 322 corresponding to the block 111a to which the reference pixel Pr to which the second image capturing condition is applied belongs to the following (example) for the image data of the reference pixel Pr to which the second image capturing condition is applied. The second correction process is performed as in 1) to (Example 3). Then, the generation unit 323 calculates the image data of the target pixel P with reference to the image data of the reference pixel Pr to which the first imaging condition is applied and the image data of the reference pixel Pr after the second correction process. Process.

(例1)
第2撮像条件が適用された参照画素Prが属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第2撮像条件のISO感度が800の場合、当該参照画素Prの画像データに対し、第2補正処理として100/800を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。
(Example 1)
For example, the correction unit 322 corresponding to the block 111a to which the reference pixel Pr to which the second imaging condition is applied belongs only to the ISO sensitivity between the first imaging condition and the second imaging condition, and the ISO of the first imaging condition is different. When the sensitivity is 100 and the ISO sensitivity of the second imaging condition is 800, the image data of the reference pixel Pr is multiplied by 100/800 as the second correction process. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.

(例2)
第2撮像条件が適用された参照画素Prが属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第2撮像条件のシャッター速度が1/100秒の場合、当該参照画素Prの画像データに対し、第2補正処理として1/1000/1/100=1/10を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。
(Example 2)
The correction unit 322 corresponding to the block 111a to which the reference pixel Pr to which the second imaging condition is applied belongs, for example, only the shutter speed is different between the first imaging condition and the second imaging condition, and the shutter of the first imaging condition When the speed is 1/1000 second and the shutter speed of the second imaging condition is 1/100 second, 1/1000/1/100 = 1/10 is set as the second correction process for the image data of the reference pixel Pr. Multiply. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.

(例3)
第2撮像条件が適用された参照画素Prが属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でフレームレートのみが異なり(電荷蓄積時間は同じ)、第1撮像条件のフレームレートが30fpsで、第2撮像条件のフレームレートが60fpsの場合、当該参照画素Prの画像データ、すなわち第2撮像条件(60fps)の画像データについて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の画像データを採用することを第2補正処理とする。これにより、撮像条件の相違による画像データ間の差異を小さくする。
なお、第2撮像条件(60fps)で取得した前後する複数のフレーム画像に基づいて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の画像データを補間算出することを第2補正処理としてもよい。
(Example 3)
For example, the correction unit 322 corresponding to the block 111a to which the reference pixel Pr to which the second imaging condition is applied differs in only the frame rate between the first imaging condition and the second imaging condition (the charge accumulation time is the same). When the frame rate of the first imaging condition is 30 fps and the frame rate of the second imaging condition is 60 fps, the first imaging condition (the image data of the reference imaging Pr, that is, the image data of the second imaging condition (60 fps)) The second correction process is to adopt image data of a frame image acquired at a timing similar to that of the frame image acquired at 30 fps). Thereby, the difference between the image data due to the difference in the imaging conditions is reduced.
It should be noted that, based on a plurality of previous and subsequent frame images acquired under the second imaging condition (60 fps), interpolation calculation is performed on the frame image acquired under the first imaging condition (30 fps) and the frame image whose acquisition start timing is close. This may be the second correction process.

なお、注目画素Pにおいて適用された撮像条件を第2撮像条件とし、注目画素Pの周囲の参照画素Prにおいて適用された撮像条件を第1撮像条件とした場合も同様である。すなわち、この場合には、第1撮像条件が適用された参照画素Prが属するブロック111aに対応する補正部322は、当該参照画素Prの画像データに対して上述した(例1)〜(例3)のように第2補正処理を行う。   The same applies to the case where the imaging condition applied in the pixel of interest P is the second imaging condition, and the imaging condition applied in the reference pixels Pr around the pixel of interest P is the first imaging condition. That is, in this case, the correction unit 322 corresponding to the block 111a to which the reference pixel Pr to which the first imaging condition is applied belongs to the above-described (Example 1) to (Example 3) for the image data of the reference pixel Pr. The second correction process is performed as shown in FIG.

なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件ととみなす。   As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.

生成部323は、注目画素Pの撮像条件と同一の撮像条件が適用された参照画素Prの画像データと補正部322で第2補正処理された参照画素Prの画像データとに基づいて、第1の実施の形態における画像処理部33の生成部33cと同様に、画素欠陥補正処理、色補間処理、輪郭強調処理、およびノイズ低減処理等の画像処理を行う。   Based on the image data of the reference pixel Pr to which the same imaging condition as the imaging condition of the target pixel P is applied and the image data of the reference pixel Pr that has been subjected to the second correction processing by the correction unit 322, the generation unit 323 performs the first processing. Similarly to the generation unit 33c of the image processing unit 33 in the embodiment, image processing such as pixel defect correction processing, color interpolation processing, contour enhancement processing, and noise reduction processing is performed.

図25は、第1および第3撮像条件が適用された撮像面の一部領域(以下、第1撮像領域141と呼ぶ)に含まれる各画素からの画像データ(以下、第1画像データと呼ぶ)と、第2および第3撮像条件が適用された撮像面の一部領域(以下、第2撮像領域142と呼ぶ)に含まれる各画素からの画像データ(以下、第2画像データと呼ぶ)との処理について、模式的に表した図である。なお、第1撮像条件は、第1撮像領域141における主ブロックに設定された撮像条件であり、第2撮像条件は、第2撮像領域142における主ブロックに設定された撮像条件である。第3撮像条件は、第1撮像領域141と第2撮像領域142との境界を含む境界ブロックに設定された撮像条件である。   FIG. 25 shows image data (hereinafter referred to as first image data) from each pixel included in a partial area (hereinafter referred to as first imaging area 141) of the imaging surface to which the first and third imaging conditions are applied. ) And image data from each pixel (hereinafter referred to as second image data) included in a partial area (hereinafter referred to as second imaging area 142) of the imaging surface to which the second and third imaging conditions are applied. FIG. The first imaging condition is an imaging condition set for the main block in the first imaging area 141, and the second imaging condition is an imaging condition set for the main block in the second imaging area 142. The third imaging condition is an imaging condition set for a boundary block including a boundary between the first imaging area 141 and the second imaging area 142.

第1撮像領域141の主ブロックの各画素は、第1撮像条件で撮像された、第1画像データの一部を出力し、境界ブロックの各画素のうち第1撮像領域141に属する各画素は、第3撮像条件で撮像された、第1画像データの残部を出力する。第2撮像領域142の主ブロックの各画素は、第2撮像条件で撮像された、第2画像データの一部を出力し、境界ブロックの各画素のうち第2撮像領域142に属する各画素は、第3撮像条件で撮像された、第2画像データの残部を出力する。第1画像データは、処理チップ114に設けられた補正部322のうち、第1画像データを生成した画素が属するブロック111aに対応する補正部322に出力される。以下の説明では、それぞれの第1画像データを生成した画素が属する複数のブロック111aにそれぞれ対応する複数の補正部322を第1処理部151と呼ぶ。
第1処理部151は、必要に応じて、第1画像データに対して上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理を行う。
Each pixel of the main block of the first imaging area 141 outputs a part of the first image data imaged under the first imaging condition, and each pixel belonging to the first imaging area 141 among the pixels of the boundary block is The remaining part of the first image data imaged under the third imaging condition is output. Each pixel of the main block of the second imaging region 142 outputs a part of the second image data imaged under the second imaging condition, and each pixel belonging to the second imaging region 142 among the pixels of the boundary block is The remaining portion of the second image data imaged under the third imaging condition is output. The first image data is output to the correction unit 322 corresponding to the block 111 a to which the pixel that generated the first image data belongs, among the correction units 322 provided in the processing chip 114. In the following description, the plurality of correction units 322 respectively corresponding to the plurality of blocks 111a to which the pixels that generate the respective first image data belong are referred to as first processing units 151.
The first processing unit 151 performs the first correction process and the second correction process, or the first correction process or the second correction process on the first image data as necessary.

同様に、第2画像データは、処理チップ114に設けられた補正部322のうち、第2画像データを生成した画素が属するブロック111aに対応する補正部322に出力される。以下の説明では、それぞれの第2画像データを生成した各画素が属する複数のブロック111aにそれぞれ対応する複数の補正部322を第2処理部152と呼ぶ。
第2処理部152は、必要に応じて、第2画像データに対して上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理を行う。
なお、第2補正処理を行うにあたり、境界ブロックの各画素から出力される画素からの信号は、第1補正処理によって補正されているものとする。すなわち、第2補正処理を行うにあたり、第1画像データは、すべて第1撮像条件が適用されて撮像して得られたものとして扱われ、第2画像データは、すべて第2撮像条件が適用されて撮像して得られたものとして扱われる。
Similarly, the second image data is output to the correction unit 322 corresponding to the block 111a to which the pixel that generated the second image data belongs among the correction units 322 provided in the processing chip 114. In the following description, the plurality of correction units 322 respectively corresponding to the plurality of blocks 111a to which the respective pixels that generate the respective second image data belong are referred to as second processing units 152.
The second processing unit 152 performs the first correction process and the second correction process, or the first correction process or the second correction process on the second image data as necessary.
In performing the second correction process, it is assumed that signals from pixels output from the pixels of the boundary block are corrected by the first correction process. That is, in performing the second correction process, all the first image data is treated as being obtained by imaging with the first imaging condition applied, and all the second image data is applied with the second imaging condition. It is treated as being obtained by imaging.

上述した第2補正処理において、たとえば、注目画素Pが第1撮像領域141に含まれる場合、第2撮像領域142に含まれる参照画素Prからの第2画像データは、図25に示すように第2処理部152によって上述した第2補正処理が行われる。なお、第2処理部152は、撮像条件の相違による画像データ間の差異を小さくするために必要な第1撮像条件についての情報181を、たとえば、第1処理部151から受信する。
同様に、たとえば、注目画素Pが第2撮像領域142に含まれる場合、第1撮像領域141に含まれる参照画素Prからの第1画像データは、第1処理部151で上述した第2補正処理が行われる。なお、第1処理部151は、撮像条件の相違による画像データ間の差異を小さくするために必要な第2撮像条件についての情報を、第2処理部152から受信する。
In the above-described second correction processing, for example, when the target pixel P is included in the first imaging region 141, the second image data from the reference pixel Pr included in the second imaging region 142 is the second as shown in FIG. The second correction process described above is performed by the second processing unit 152. Note that the second processing unit 152 receives, from the first processing unit 151, for example, information 181 about the first imaging condition necessary to reduce the difference between the image data due to the difference in the imaging condition.
Similarly, for example, when the target pixel P is included in the second imaging region 142, the first image data from the reference pixel Pr included in the first imaging region 141 is the second correction process described above in the first processing unit 151. Is done. The first processing unit 151 receives information on the second imaging condition necessary for reducing the difference between the image data due to the difference in the imaging condition from the second processing unit 152.

なお、注目画素Pと参照画素Prとが第1撮像領域141に含まれる場合、第1処理部151は、当該参照画素Prからの第1画像データに第2補正処理を行わない。同様に、注目画素Pと参照画素Prとが第2撮像領域142に含まれる場合、第2処理部152は、当該参照画素Prからの第2画像データに第2補正処理を行わない。
あるいは、第1処理部151と第2処理部152により、それぞれ第1撮像条件の画像データおよび第2撮像条件の画像データの双方を補正してもよい。すなわち、第1撮像条件の注目位置の画像データ、参照位置の画像データのうちの第1撮像条件の画像データ、および参照位置の画像データのうちの第2撮像条件の画像データに対してそれぞれ第2補正処理を施すことにより、第1撮像条件と第2撮像条件との差異に基づく画像の不連続性を緩和するようにしてもよい。
たとえば、上記(例1)において、第1撮像条件(ISO感度が100)である、参照画素Prの画像データに、第2補正処理として400/100を掛け、第2撮像条件(ISO感度が800)である参照画素Prの画像データに、第2補正処理として400/800を掛ける。これにより、撮像条件の相違による画像データ間の差異を小さくする。なお、注目画素の画素データは、色補間処理後に100/400を掛ける第2補正処理を行う。この第2補正処理により色補間処理後の注目画素の画素データを第1撮像条件で撮像した場合と同様の値に変更することができる。さらに、上記(例1)において、第1領域と第2領域との境界からの距離によって第2補正処理の程度を変えても良い。そして上記(例1)の場合に比べて第2補正処理により画像データが増加や減少する割合を少なくすることができ、第2補正処理により生じるノイズを減らすことができる。以上では、上記(例1)について説明したが、上記(例2)にも同様に適用することができる。
When the target pixel P and the reference pixel Pr are included in the first imaging region 141, the first processing unit 151 does not perform the second correction process on the first image data from the reference pixel Pr. Similarly, when the target pixel P and the reference pixel Pr are included in the second imaging region 142, the second processing unit 152 does not perform the second correction process on the second image data from the reference pixel Pr.
Alternatively, both the image data of the first imaging condition and the image data of the second imaging condition may be corrected by the first processing unit 151 and the second processing unit 152, respectively. That is, the first imaging condition image data of the first imaging condition, the first imaging condition image data of the reference position image data, and the second imaging condition image data of the reference position image data respectively. By performing the two correction processing, the discontinuity of the image based on the difference between the first imaging condition and the second imaging condition may be alleviated.
For example, in the above (Example 1), the image data of the reference pixel Pr which is the first imaging condition (ISO sensitivity is 100) is multiplied by 400/100 as the second correction processing, and the second imaging condition (ISO sensitivity is 800). ) Is multiplied by 400/800 as the second correction process. Thereby, the difference between the image data due to the difference in the imaging conditions is reduced. The pixel data of the target pixel is subjected to a second correction process that is multiplied by 100/400 after the color interpolation process. With this second correction process, the pixel data of the pixel of interest after the color interpolation process can be changed to the same value as when the image is captured under the first imaging condition. Furthermore, in the above (Example 1), the degree of the second correction process may be changed depending on the distance from the boundary between the first area and the second area. Compared to the case of (Example 1), the rate at which the image data increases or decreases by the second correction process can be reduced, and the noise generated by the second correction process can be reduced. Although the above (Example 1) has been described above, the above (Example 2) can be similarly applied.

生成部323は、第1処理部151および第2処理部152からの画像データに基づいて、画素欠陥補正処理、色補間処理、輪郭強調処理、およびノイズ低減処理等の画像処理を行い、画像処理後の画像データを出力する。   The generation unit 323 performs image processing such as pixel defect correction processing, color interpolation processing, contour enhancement processing, and noise reduction processing based on the image data from the first processing unit 151 and the second processing unit 152, and performs image processing. The later image data is output.

なお、第1処理部151は、注目画素Pが第2撮像領域142に位置する場合に、第1撮像領域141に含まれるすべての画素からの第1画像データを第2補正処理してもよく、第1撮像領域141に含まれる画素のうち、第2撮像領域142の注目画素Pの補間に用いられる可能性がある画素からの第1画像データだけを第2補正処理してもよい。同様に、第2処理部152は、注目画素Pが第1撮像領域141に位置する場合に、第2撮像領域142に含まれるすべての画素からの第2画像データを第2補正処理してもよく、第2撮像領域142に含まれる画素のうち、第1撮像領域141の注目画素Pの補間に用いられる可能性がある画素からの第2画像データだけを第2補正処理してもよい。   The first processing unit 151 may perform the second correction process on the first image data from all the pixels included in the first imaging region 141 when the target pixel P is located in the second imaging region 142. Of the pixels included in the first imaging region 141, only the first image data from pixels that may be used for interpolation of the pixel of interest P in the second imaging region 142 may be subjected to the second correction process. Similarly, the second processing unit 152 performs the second correction process on the second image data from all the pixels included in the second imaging region 142 when the target pixel P is located in the first imaging region 141. Of course, only the second image data from pixels that may be used for interpolation of the pixel of interest P in the first imaging region 141 among the pixels included in the second imaging region 142 may be subjected to the second correction process.

2.焦点検出処理を行う場合
第1の実施形態と同様に、制御部34のレンズ移動制御部34dは、撮像画面の所定の位置(フォーカスポイント)に対応する信号データ(画像データ)を用いて焦点検出処理を行う。なお、分割した領域間で異なる撮像条件が設定されており、AF動作のフォーカスポイントが分割された領域の境界部分に位置する場合、すなわちフォーカスポイントが第1領域と第2領域とで2分されている場合、本実施の形態では、以下の2−2.で説明するように、制御部34のレンズ移動制御部34dは、補正部322に対して少なくとも1つの領域の焦点検出用の信号データに対する第2補正処理を行わせる。
なお、第2補正処理を行わせるにあたり、境界ブロックの各画素から出力される画素からの信号は、第1補正処理によって補正されているものとする。すなわち、第2補正処理を行わせるにあたり、第1撮像領域141の各画素からの第1信号データは、すべて第1撮像条件が適用されて撮像して得られたものとして扱われ、第2撮像領域142の各画素からの第2信号データは、すべて第2撮像条件が適用されて撮像して得られたものとして扱われる。
2. When performing focus detection processing As in the first embodiment, the lens movement control unit 34d of the control unit 34 performs focus detection using signal data (image data) corresponding to a predetermined position (focus point) on the imaging screen. Process. Note that when different imaging conditions are set for the divided areas and the focus point of the AF operation is located at the boundary portion of the divided areas, that is, the focus point is divided into two in the first area and the second area. In this embodiment, the following 2-2. As will be described below, the lens movement control unit 34d of the control unit 34 causes the correction unit 322 to perform the second correction process on the signal data for focus detection in at least one region.
In performing the second correction process, it is assumed that signals from pixels output from the pixels of the boundary block are corrected by the first correction process. That is, in performing the second correction process, all the first signal data from each pixel in the first imaging region 141 is treated as being obtained by imaging with the first imaging condition applied, and the second imaging is performed. The second signal data from each pixel in the region 142 is all handled as being obtained by imaging with the second imaging condition applied.

2−1.図15における枠170内の画素からの信号データに、第1撮像条件が適用された信号データと第2撮像条件が適用された信号データが混在しない場合
この場合、補正部322は第2補正処理を行わず、制御部34のレンズ移動制御部34dは枠170で示す焦点検出用画素による信号データをそのまま用いて焦点検出処理を行う。
2-1. When the signal data from the pixels in the frame 170 in FIG. 15 does not include the signal data to which the first imaging condition is applied and the signal data to which the second imaging condition is applied. In this case, the correction unit 322 performs the second correction process. The lens movement control unit 34d of the control unit 34 performs focus detection processing using the signal data from the focus detection pixels indicated by the frame 170 as they are.

2−2.図15における枠170内の画素からの信号データに、第1撮像条件が適用された信号データと第2撮像条件が適用された信号データが混在する場合
この場合には、制御部34のレンズ移動制御部34dは、枠170内の画素のうち、第2撮像条件が適用された画素が属するブロック111aに対応する補正部322に対して以下の(例1)〜(例3)のように第2補正処理を行わせる。そして、制御部34のレンズ移動制御部34dは、第1撮像条件が適用された画素の信号データと、第2補正処理後の信号データとを用いて焦点検出処理を行う。
2-2. When signal data to which the first imaging condition is applied and signal data to which the second imaging condition is applied are mixed in the signal data from the pixels in the frame 170 in FIG. 15, in this case, the lens movement of the control unit 34 The control unit 34d performs the following operations (Example 1) to (Example 3) on the correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs among the pixels in the frame 170. 2 Correction processing is performed. Then, the lens movement control unit 34d of the control unit 34 performs focus detection processing using the pixel signal data to which the first imaging condition is applied and the signal data after the second correction processing.

(例1)
第2撮像条件が適用された画素が属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でISO感度のみが異なり、第1撮像条件のISO感度が100で、第2撮像条件のISO感度が800の場合、第2撮像条件の信号データに対し、第2補正処理として100/800を掛ける。これにより、撮像条件の相違による信号データ間の差異を小さくする。
(Example 1)
For example, the correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs only differs in ISO sensitivity between the first imaging condition and the second imaging condition, and the ISO sensitivity of the first imaging condition is different. When the ISO sensitivity of the second imaging condition is 800 at 100, the signal data of the second imaging condition is multiplied by 100/800 as the second correction process. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.

(例2)
第2撮像条件が適用された画素が属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でシャッター速度のみが異なり、第1撮像条件のシャッター速度が1/1000秒で、第2撮像条件のシャッター速度が1/100秒の場合、第2撮像条件の信号データに対し、第2補正処理として1/1000/1/100=1/10を掛ける。これにより、撮像条件の相違による信号データ間の差異を小さくする。
(Example 2)
The correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs, for example, only the shutter speed is different between the first imaging condition and the second imaging condition, and the shutter speed of the first imaging condition is When the shutter speed of the second imaging condition is 1/100 second at 1/1000 second, 1/1000/1/100 = 1/10 is applied to the signal data of the second imaging condition as the second correction process. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.

(例3)
第2撮像条件が適用された画素が属するブロック111aに対応する補正部322は、たとえば、第1撮像条件と第2撮像条件との間でフレームレートのみが異なり(電荷蓄積時間は同じ)、第1撮像条件のフレームレートが30fpsで、第2撮像条件のフレームレートが60fpsの場合、第2撮像条件(60fps)の信号データについて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の信号データを採用することを第2補正処理とする。これにより、撮像条件の相違による信号データ間の差異を小さくする。
なお、第2撮像条件(60fps)で取得した前後する複数のフレーム画像に基づいて、第1撮像条件(30fps)で取得されたフレーム画像と取得開始タイミングが近いフレーム画像の信号データを補間算出することを第2補正処理としてもよい。
(Example 3)
For example, the correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs differs only in the frame rate (the charge accumulation time is the same) between the first imaging condition and the second imaging condition. When the frame rate of the first imaging condition is 30 fps and the frame rate of the second imaging condition is 60 fps, acquisition of the frame image acquired under the first imaging condition (30 fps) and acquisition of the signal data of the second imaging condition (60 fps) is started. The second correction process is to adopt signal data of frame images that are close in timing. Thereby, the difference between the signal data due to the difference in the imaging conditions is reduced.
In addition, based on a plurality of previous and subsequent frame images acquired under the second imaging condition (60 fps), interpolation calculation is performed on the signal data of the frame image acquired under the first imaging condition (30 fps) and the acquisition start timing is similar. This may be the second correction process.

なお、上述したように、撮像条件に多少の差違があっても同一の撮像条件とみなす。
また、上記の例では、信号データのうちの第2撮像条件の信号データに対して第2補正処理を行う例を説明したが、信号データのうちの第1撮像条件の信号データに対して第2補正処理を行ってもよい。
As described above, even if there are some differences in the imaging conditions, the imaging conditions are regarded as the same.
In the above example, the second correction process is performed on the signal data of the second imaging condition in the signal data. However, the second correction process is performed on the signal data of the first imaging condition in the signal data. Two correction processes may be performed.

さらにまた、信号データのうちの第1撮像条件の信号データおよび第2撮像条件のデータに対してそれぞれ第2補正処理を行うことにより、第2補正処理後の双方の信号データ間の差を小さくするようにしてもよい。   Furthermore, by performing the second correction process on the signal data of the first imaging condition and the data of the second imaging condition in the signal data, the difference between both signal data after the second correction process is reduced. You may make it do.

図26は、焦点検出処理に係る、第1信号データと第2信号データとの処理について模式的に表した図である。   FIG. 26 is a diagram schematically illustrating processing of the first signal data and the second signal data according to the focus detection processing.

第1撮像領域141の主ブロックの各画素は、第1撮像条件で撮像された、第1信号データの一部を出力し、境界ブロックの各画素のうち第1撮像領域141に属する各画素は、第3撮像条件で撮像された、第1信号データの残部を出力する。第2撮像領域142の主ブロックの各画素は、第2撮像条件で撮像された、第2信号データの一部を出力し、境界ブロックの各画素のうち第2撮像領域142に属する各画素は、第3撮像条件で撮像された、第2信号データの残部を出力する。第1撮像領域141からの第1信号データは、第1処理部151に出力される。同様に、第2撮像領域142からの第2信号データは、第2処理部152に出力される。   Each pixel of the main block of the first imaging region 141 outputs a part of the first signal data imaged under the first imaging condition, and each pixel belonging to the first imaging region 141 among the pixels of the boundary block is The remaining portion of the first signal data imaged under the third imaging condition is output. Each pixel of the main block of the second imaging region 142 outputs a part of the second signal data imaged under the second imaging condition, and each pixel belonging to the second imaging region 142 among the pixels of the boundary block is The remainder of the second signal data imaged under the third imaging condition is output. The first signal data from the first imaging area 141 is output to the first processing unit 151. Similarly, the second signal data from the second imaging region 142 is output to the second processing unit 152.

第1処理部151は、必要に応じて、第1画像データに対して上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理を行う。第2処理部152は、必要に応じて、第2画像データに対して上記第1補正処理および上記第2補正処理、または、上記第1補正処理もしくは上記第2補正処理を行う。
なお、上述したように、第2補正処理を行うにあたり、第1信号データは、すべて第1撮像条件が適用されて撮像して得られたものとして扱われ、第2信号データは、すべて第2撮像条件が適用されて撮像して得られたものとして扱われる。
The first processing unit 151 performs the first correction process and the second correction process, or the first correction process or the second correction process on the first image data as necessary. The second processing unit 152 performs the first correction process and the second correction process, or the first correction process or the second correction process on the second image data as necessary.
Note that, as described above, in performing the second correction process, all the first signal data is handled as being obtained by imaging under the first imaging condition, and all the second signal data is the second signal data. It is treated as being obtained by imaging with the imaging conditions applied.

上述した第2補正処理において、信号データのうちの第2撮像条件の信号データに対して第2補正処理を行うことにより、第2補正処理後の信号データと第1撮像条件の信号データとの差を小さくする場合、第2処理部152が処理を行う。第2撮像領域142に含まれる画素からの第2信号データに、第2処理部152は上述した第2補正処理を行う。なお、第2処理部152は、撮像条件の相違による信号データ間の差異を小さくするために必要な第1撮像条件についての情報181を、たとえば、第1処理部151から受信する。
なお、信号データのうちの第2撮像条件の信号データに対して第2補正処理を行うことにより、第2補正処理後の信号データと第1撮像条件の信号データとの差を小さくする場合、第1処理部151は、第1信号データに第2補正処理を行わない。
In the second correction process described above, by performing the second correction process on the signal data of the second imaging condition in the signal data, the signal data after the second correction process and the signal data of the first imaging condition are obtained. When reducing the difference, the second processing unit 152 performs processing. The second processing unit 152 performs the second correction process described above on the second signal data from the pixels included in the second imaging region 142. Note that the second processing unit 152 receives, for example, information 181 about the first imaging condition necessary for reducing the difference between the signal data due to the difference in the imaging condition from the first processing unit 151.
When the difference between the signal data after the second correction process and the signal data of the first imaging condition is reduced by performing the second correction process on the signal data of the second imaging condition of the signal data, The first processing unit 151 does not perform the second correction process on the first signal data.

また、信号データのうちの第1撮像条件の信号データに対して第2補正処理を行うことにより、第2補正処理後の信号データと第1撮像条件の信号データとの差を小さくする場合、第1処理部151が処理を行う。第1撮像領域141に含まれる画素からの第1信号データに、第1処理部151は上述した第2補正処理を行う。なお、第1処理部151は、撮像条件の相違による信号データ間の差異を小さくするために必要な第2撮像条件についての情報を第2処理部152から受信する。
なお、信号データのうちの第1撮像条件の信号データに対して第2補正処理を行うことにより、第2補正処理後の信号データと第1撮像条件の信号データとの差を小さくする場合、第2処理部152は、第2信号データに第2補正処理を行わない。
In the case where the difference between the signal data after the second correction process and the signal data of the first imaging condition is reduced by performing the second correction process on the signal data of the first imaging condition of the signal data, The first processing unit 151 performs processing. The first processing unit 151 performs the second correction process described above on the first signal data from the pixels included in the first imaging region 141. Note that the first processing unit 151 receives information about the second imaging condition necessary for reducing the difference between the signal data due to the difference in the imaging condition from the second processing unit 152.
In the case where the difference between the signal data after the second correction process and the signal data of the first imaging condition is reduced by performing the second correction process on the signal data of the first imaging condition of the signal data, The second processing unit 152 does not perform the second correction process on the second signal data.

さらにまた、信号データのうちの第1撮像条件の信号データおよび第2撮像条件のデータに対してそれぞれ第2補正処理を行うことにより、第2補正処理後の双方の信号データ間の差を小さくする場合、第1処理部151と第2処理部152とが処理を行う。第1処理部151は、第1撮像領域141に含まれる画素からの第1信号データに上述した第2補正処理を行い、第2処理部152は、第2撮像領域142に含まれる画素からの第2信号データに上述した第2補正処理を行う。   Furthermore, by performing the second correction process on the signal data of the first imaging condition and the data of the second imaging condition in the signal data, the difference between both signal data after the second correction process is reduced. In this case, the first processing unit 151 and the second processing unit 152 perform processing. The first processing unit 151 performs the above-described second correction processing on the first signal data from the pixels included in the first imaging region 141, and the second processing unit 152 receives the signals from the pixels included in the second imaging region 142. The second correction process described above is performed on the second signal data.

レンズ移動制御部34dは、第1処理部151および第2処理部152からの信号データに基づいて焦点検出処理を行い、その演算結果に基づいて、撮像光学系31のフォーカスレンズを合焦位置へ移動させるための駆動信号を出力する。   The lens movement control unit 34d performs focus detection processing based on the signal data from the first processing unit 151 and the second processing unit 152, and moves the focus lens of the imaging optical system 31 to the in-focus position based on the calculation result. A drive signal for moving is output.

3.被写体検出処理を行う場合
分割した領域間で異なる撮像条件が設定されており、探索範囲190が分割された領域の境界を含む場合、本実施の形態では、以下の3−2.で説明するように、制御部34の物体検出部34aは、補正部322に対して探索範囲190内の少なくとも1つの領域の画像データに対する第2補正処理を行わせる。
なお、第2補正処理を行わせるにあたり、境界ブロックの各画素から出力される画素からの信号は、第1補正処理によって補正されているものとする。すなわち、第2補正処理を行わせるにあたり、第1画像データは、すべて第1撮像条件が適用されて撮像して得られたものとして扱われ、第2画像データは、すべて第2撮像条件が適用されて撮像して得られたものとして扱われる。
3. When subject detection processing is performed When different imaging conditions are set for the divided areas and the search range 190 includes the boundaries of the divided areas, in the present embodiment, the following 3-2. As will be described, the object detection unit 34a of the control unit 34 causes the correction unit 322 to perform the second correction process on the image data of at least one region within the search range 190.
In performing the second correction process, it is assumed that signals from pixels output from the pixels of the boundary block are corrected by the first correction process. That is, in performing the second correction process, all the first image data is treated as being obtained by imaging with the first imaging condition applied, and all the second image data is applied with the second imaging condition. It is treated as being obtained by imaging.

3−1.図16における探索範囲190の画像データに、第1撮像条件が適用された画像データと第2撮像条件が適用された画像データが混在しない場合
この場合、補正部322は第2補正処理を行わず、制御部34の物体検出部34aは探索範囲190を構成する画像データをそのまま用いて被写体検出処理を行う。
3-1. When the image data to which the first imaging condition is applied and the image data to which the second imaging condition is applied are not mixed in the image data in the search range 190 in FIG. 16. In this case, the correction unit 322 does not perform the second correction process. The object detection unit 34a of the control unit 34 performs subject detection processing using image data constituting the search range 190 as it is.

3−2.図16における探索範囲190の画像データに、第1撮像条件が適用された画像データと第2撮像条件が適用された画像データが混在する場合
この場合、制御部34の物体検出部34aは、探索範囲190の画像のうち、第2撮像条件が適用された画素が属するブロック111aに対応する補正部322に対して、焦点検出処理を行う場合として上述した(例1)〜(例3)のように第2補正処理を行わせる。そして、制御部34の物体検出部34aは、第1条件が適用された画素の画像データと、第2補正処理後の画像データとを用いて被写体検出処理を行う。
3-2. When image data to which the first imaging condition is applied and image data to which the second imaging condition is applied are mixed in the image data in the search range 190 in FIG. 16. In this case, the object detection unit 34 a of the control unit 34 As described above (example 1) to (example 3), the focus detection processing is performed on the correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs among the images in the range 190. To perform the second correction process. Then, the object detection unit 34a of the control unit 34 performs subject detection processing using the image data of the pixels to which the first condition is applied and the image data after the second correction processing.

図27は、被写体検出処理に係る、第1画像データと第2画像データとの処理について模式的に表した図である。   FIG. 27 is a diagram schematically showing processing of the first image data and the second image data related to the subject detection processing.

第2補正処理において、第1処理部151または/および第2処理部152で行われる第2補正処理は、焦点検出処理を行う場合として上述した図26についての第2補正処理と同じである。
物体検出部34aは、第1処理部151および第2処理部152からの画像データに基づいて被写体要素を検出する処理を行い、検出結果を出力する。
In the second correction process, the second correction process performed by the first processing unit 151 and / or the second processing unit 152 is the same as the second correction process for FIG. 26 described above as the case of performing the focus detection process.
The object detection unit 34a performs processing for detecting a subject element based on the image data from the first processing unit 151 and the second processing unit 152, and outputs a detection result.

4.撮像条件を設定する場合
撮像画面の領域を分割し、分割した領域間で異なる撮像条件を設定した状態で、新たに測光し直して露出条件を決定する場合について説明する。なお、露出条件を決定するにあたり、境界ブロックの各画素から出力される画素からの信号は、第1補正処理によって補正されているものとする。
4). Case of Setting Imaging Conditions A case will be described in which an area of the imaging screen is divided, and different exposure conditions are set between the divided areas, and the exposure conditions are determined by performing new photometry. In determining the exposure condition, it is assumed that the signal from the pixel output from each pixel of the boundary block is corrected by the first correction process.

4−1.測光範囲の画像データに、第1撮像条件が適用された画像データと第2撮像条件が適用された画像データが混在しない場合
この場合、補正部322は第2補正処理を行わず、制御部34の設定部34bは測光範囲を構成する画像データをそのまま用いて露出演算処理を行う。
4-1. When image data to which the first imaging condition is applied and image data to which the second imaging condition is applied are not mixed in the image data in the photometric range In this case, the correction unit 322 does not perform the second correction process, and the control unit 34 The setting unit 34b performs exposure calculation processing using image data constituting the photometric range as it is.

4−2.測光範囲の画像データに、第1撮像条件が適用された画像データと第2撮像条件が適用された画像データが混在する場合
この場合、制御部34の設定部34bは、測光範囲の画像データのうち、第2撮像条件が適用された画素が属するブロック111aに対応する補正部322に対して、焦点検出処理を行う場合として上述した(例1)〜(例3)のように第2補正処理を行わせる。そして、制御部34の設定部34bは、第2補正処理後の画像データを用いて露出演算処理を行う。
4-2. In the case where image data to which the first imaging condition is applied and image data to which the second imaging condition is applied are mixed in the image data in the photometric range. In this case, the setting unit 34b of the control unit 34 Among them, the second correction process as described above (Example 1) to (Example 3) as the case where the focus detection process is performed on the correction unit 322 corresponding to the block 111a to which the pixel to which the second imaging condition is applied belongs. To do. Then, the setting unit 34b of the control unit 34 performs an exposure calculation process using the image data after the second correction process.

図28は、露出演算処理等の撮像条件の設定に係る、第1画像データと第2画像データとの処理について模式的に表した図である。   FIG. 28 is a diagram schematically illustrating processing of the first image data and the second image data according to setting of imaging conditions such as exposure calculation processing.

第2補正処理において、第1処理部151または/および第2処理部152で行われる第2補正処理は、焦点検出処理を行う場合として上述した図26についての第2補正処理と同じである。
設定部34bは、第1処理部151および第2処理部152からの画像データに基づいて露出演算処理等の撮像条件の算出処理を行い、その演算結果に基づいて、撮像部32による撮像画面を、検出した被写体要素を含む複数の領域に分割するとともに、複数の領域に対して撮像条件を再設定する。
In the second correction process, the second correction process performed by the first processing unit 151 and / or the second processing unit 152 is the same as the second correction process for FIG. 26 described above as the case of performing the focus detection process.
The setting unit 34b performs an imaging condition calculation process such as an exposure calculation process based on the image data from the first processing unit 151 and the second processing unit 152, and the imaging screen by the imaging unit 32 is displayed based on the calculation result. Then, it is divided into a plurality of regions including the detected subject element, and the imaging conditions are reset for the plurality of regions.

以上説明した第3の実施の形態によれば、次の作用効果が得られる。
(1)画像処理部32cは、第1撮像領域141で撮像された被写体の画像データの生成を行う第1処理部151と、第2撮像領域142で撮像された被写体の画像データの生成を行う第2処理部152とを有する。第1処理部151は、第2撮像領域142で撮像された被写体の画像データにより第1撮像領域141で撮像された被写体の画像データを生成する。これにより、画像データに対する前処理(第1補正処理、第2補正処理)を複数の補正部322で並列処理できるので、補正部322における処理負担を軽減できる。
According to the third embodiment described above, the following operational effects can be obtained.
(1) The image processing unit 32c generates the first processing unit 151 that generates the image data of the subject imaged in the first imaging area 141, and the image data of the subject that is imaged in the second imaging area 142. And a second processing unit 152. The first processing unit 151 generates image data of the subject imaged in the first imaging area 141 from the image data of the object imaged in the second imaging area 142. Accordingly, preprocessing (first correction processing and second correction processing) for image data can be performed in parallel by the plurality of correction units 322, so that the processing burden on the correction unit 322 can be reduced.

(2)画像処理部32cは、第1撮像領域141に入射した被写体に基づく信号の生成を行う第1処理部151と、第2撮像領域142に入射した被写体に基づく信号の生成を行う第2処理部152とを有する。第1処理部151は、第2撮像領域142に入射した被写体に基づく信号により第1撮像領域141で撮像された被写体に基づく信号を生成する。これにより、画像データの前処理を複数の補正部322で並列処理できるので、補正部322における処理負担を軽減できるとともに、複数の補正部322による前処理が並列処理によって短時間に行われるので、レンズ移動制御部34dでの焦点検出処理の開始までの時間を短縮化でき、焦点検出処理の高速化に資する。 (2) The image processing unit 32c generates a signal based on the subject incident on the first imaging region 141, and a first processing unit 151 that generates a signal based on the subject incident on the second imaging region 142. And a processing unit 152. The first processing unit 151 generates a signal based on the subject imaged in the first imaging region 141 based on the signal based on the subject incident on the second imaging region 142. Thereby, since the preprocessing of image data can be processed in parallel by the plurality of correction units 322, the processing load on the correction unit 322 can be reduced, and the preprocessing by the plurality of correction units 322 is performed in a short time by parallel processing. The time until the start of the focus detection process in the lens movement control unit 34d can be shortened, which contributes to speeding up of the focus detection process.

−−−第3の実施の形態の変形例−−−
次のような変形も本発明の範囲内であり、変形例の1つ、もしくは複数を上述の実施の形態と組み合わせることも可能である。
(変形例13)
上述した第3の実施の形態では、補正部322の1つとブロック111a(単位区分)の1つとが対応している。しかし、補正部322の1つと、複数のブロック111a(単位区分)を有する複合ブロック(複合区分)の1つとが対応するようにしてもよい。この場合、補正部322は、当該複合ブロックに含まれる複数のブロック111aに属する画素からの画像データを順次補正する。複数の補正部322が、複数のブロック111aを有する複合ブロック毎に対応して設けられていても、画像データの第2補正処理を複数の補正部322で並列処理できるので、補正部322における処理負担を軽減でき、撮像条件が異なる領域でそれぞれ生成された画像データから適切な画像を短時間で生成することができる。
--- Modification of the third embodiment ---
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 13)
In the above-described third embodiment, one of the correction units 322 corresponds to one of the blocks 111a (unit division). However, one of the correction units 322 may correspond to one of the composite blocks (composite sections) having a plurality of blocks 111a (unit sections). In this case, the correction unit 322 sequentially corrects image data from pixels belonging to the plurality of blocks 111a included in the composite block. Even if a plurality of correction units 322 are provided corresponding to each composite block having a plurality of blocks 111a, the second correction processing of image data can be performed in parallel by the plurality of correction units 322. The burden can be reduced, and an appropriate image can be generated in a short time from the image data generated in each of the regions with different imaging conditions.

(変形例14)
上述した第3の実施の形態では、生成部323は撮像部32Aの内部に設けられている。しかし、生成部323を撮像部32Aの外部に設けてもよい。生成部323を撮像部32Aの外部に設けても上述した作用効果と同様の作用効果を奏する。
(Modification 14)
In the third embodiment described above, the generation unit 323 is provided inside the imaging unit 32A. However, the generation unit 323 may be provided outside the imaging unit 32A. Even if the generation unit 323 is provided outside the imaging unit 32A, the same operational effects as the above-described operational effects can be obtained.

(変形例15)
上述した第3の実施の形態では、積層型撮像素子100Aは、裏面照射型撮像チップ111と、信号処理チップ112と、メモリチップ113とに加えて、上述した前処理および画像処理を行う画像処理チップ114をさらに備える。しかし、積層型撮像素子100Aに画像処理チップ114を設けず、信号処理チップ112に画像処理部32cが設けられていてもよい。
(Modification 15)
In the above-described third embodiment, the multilayer imaging element 100A includes image processing that performs the above-described preprocessing and image processing in addition to the backside illumination imaging chip 111, the signal processing chip 112, and the memory chip 113. A chip 114 is further provided. However, the image processing chip 114 may be provided in the signal processing chip 112 without providing the image processing chip 114 in the multilayer imaging device 100A.

(変形例16)
上述した第3の実施の形態では、第2処理部152は、撮像条件の相違による画像データ間の差異を小さくするために必要な第1撮像条件についての情報を、第1処理部151から受信した。また、第1処理部151は、撮像条件の相違による画像データ間の差異を小さくするために必要な第2撮像条件についての情報を、第2処理部152から受信した。しかし、第2処理部152は、撮像条件の相違による画像データ間の差異を小さくするために必要な第1撮像条件についての情報を、駆動部32bや制御部34から受信してもよい。同様に、第1処理部151は、撮像条件の相違による画像データ間の差異を小さくするために必要な第2撮像条件についての情報を、駆動部32bや制御部34から受信してもよい。
なお、上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
(Modification 16)
In the third embodiment described above, the second processing unit 152 receives, from the first processing unit 151, information on the first imaging condition necessary for reducing the difference between the image data due to the difference in the imaging condition. did. In addition, the first processing unit 151 receives information about the second imaging condition necessary for reducing the difference between the image data due to the difference in the imaging condition from the second processing unit 152. However, the second processing unit 152 may receive information about the first imaging condition necessary for reducing the difference between the image data due to the difference in the imaging condition from the driving unit 32b or the control unit 34. Similarly, the first processing unit 151 may receive information about the second imaging condition necessary for reducing the difference between the image data due to the difference in the imaging condition from the driving unit 32b or the control unit 34.
In addition, you may combine each embodiment and modification which were mentioned above, respectively.

以上説明した撮像光学系31は、ズームレンズやアオリレンズを含んでいてもよい。レンズ移動制御部34dは、ズームレンズを光軸方向に移動させることによって、撮像光学系31による画角を調節する。すなわち、ズームレンズの移動によって、広い範囲の被写体の像を得たり、遠くの被写体について大きな像を得たりするなど、撮像光学系31による像を調節することができる。
また、レンズ移動制御部34dは、アオリレンズを光軸に直交する方向に移動させることによって、撮像光学系31による像の歪みを調節することができる。
そして、撮像光学系31による像の状態(例えば画角の状態、または像の歪みの状態)を調節するために、上述したような前処理後の画像データを用いる方が好ましいという考え方に基づき、上述した前処理を行うとよい。
The imaging optical system 31 described above may include a zoom lens or tilt lens. The lens movement control unit 34d adjusts the angle of view by the imaging optical system 31 by moving the zoom lens in the optical axis direction. That is, the image by the imaging optical system 31 can be adjusted by moving the zoom lens, such as obtaining an image of a wide range of subjects or obtaining a large image of a far subject.
Further, the lens movement control unit 34d can adjust the distortion of the image by the imaging optical system 31 by moving the tilt lens in a direction orthogonal to the optical axis.
Based on the idea that it is preferable to use the preprocessed image data as described above in order to adjust the state of the image by the imaging optical system 31 (for example, the state of the angle of view or the state of distortion of the image). The pre-processing described above may be performed.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1,1C…カメラ
1B…撮像システム
31…撮像光学系
32…撮像部
32a、100…撮像素子
33…画像処理部
33a,321…入力部
33b,322…補正部
33c,323…生成部
34…制御部
34a…物体検出部
34b…設定部
34c…撮像制御部
34d…レンズ移動制御部
35…表示部
80…所定範囲
90…注目領域
1001…撮像装置
1002…表示装置
P…注目画素
DESCRIPTION OF SYMBOLS 1,1C ... Camera 1B ... Imaging system 31 ... Imaging optical system 32 ... Imaging part 32a, 100 ... Imaging element 33 ... Image processing part 33a, 321 ... Input part 33b, 322 ... Correction part 33c, 323 ... Generation part 34 ... Control Unit 34a ... object detection unit 34b ... setting unit 34c ... imaging control unit 34d ... lens movement control unit 35 ... display unit 80 ... predetermined range 90 ... attention area 1001 ... imaging device 1002 ... display device P ... attention pixel

Claims (5)

複数の画素を有するブロックごとに撮像条件が設定可能な撮像部と、
第1の被写体からの第1の光が入射した第1の領域の前記ブロックに第1の撮像条件を設定し、第2の被写体からの第2の光が入射した第2の領域の前記ブロックに第2の撮像条件を設定し、前記第1および第2の光が入射した第3の領域の前記ブロックに第3の撮像条件を設定する撮像条件設定部と、
前記第3の領域の前記ブロックの前記画素からの信号を前記第1および第2の撮像条件に基づいて補正する補正部と、
前記補正部により補正された前記信号と、前記第1の領域の前記ブロックの前記画素からの信号と、前記第2の領域の前記ブロックの前記画素からの信号と、により画像を生成する生成部と、
を備える撮像装置。
An imaging unit capable of setting imaging conditions for each block having a plurality of pixels;
A first imaging condition is set for the block in the first area where the first light from the first object is incident, and the block in the second area where the second light from the second object is incident An imaging condition setting unit that sets a second imaging condition and sets a third imaging condition in the block of the third region where the first and second lights are incident;
A correction unit that corrects a signal from the pixel of the block of the third region based on the first and second imaging conditions;
A generating unit that generates an image based on the signal corrected by the correcting unit, the signal from the pixel of the block in the first area, and the signal from the pixel of the block in the second area When,
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記第3の領域は、前記第1および第2の光が入射する前記ブロックを有し、
前記補正部は、前記第1および第2の光が入射する前記ブロックの複数の画素の一部からの信号を前記第1の撮像条件に基づいて補正し、前記第1および第2の光が入射する前記ブロックの複数の画素の他部からの信号を前記第2の撮像条件に基づいて補正する撮像装置。
The imaging device according to claim 1,
The third region has the block on which the first and second lights are incident,
The correction unit corrects a signal from a part of the plurality of pixels of the block on which the first and second lights are incident based on the first imaging condition, and the first and second lights are An imaging device that corrects signals from other portions of the plurality of pixels of the incident block based on the second imaging condition.
請求項2に記載の撮像装置において、
前記第3の領域は、前記第1の光および前記第2の光の一方が入射する前記ブロックをさらに有し、
前記撮像条件設定部は、前記第1および第2の光が入射する前記ブロックに前記第3の撮像条件を設定し、前記第1の光および前記第2の光の一方が入射する前記ブロックに第4の撮像条件を設定する撮像装置。
The imaging device according to claim 2,
The third region further includes the block on which one of the first light and the second light is incident,
The imaging condition setting unit sets the third imaging condition for the block on which the first and second lights are incident, and the block on which one of the first light and the second light is incident An imaging apparatus for setting a fourth imaging condition.
請求項1から3のいずれか一項に記載の撮像装置において、
前記撮像条件設定部は、前記第1の撮像条件と前記第2の撮像条件とに基づいて前記第3の撮像条件を設定する撮像装置。
In the imaging device according to any one of claims 1 to 3,
The imaging apparatus, wherein the imaging condition setting unit sets the third imaging condition based on the first imaging condition and the second imaging condition.
請求項4に記載の撮像装置において、
前記撮像条件設定部は、前記第3の領域の前記ブロックの前記画素からの信号から階調情報が喪失しないように前記第3の撮像条件を設定する撮像装置。
The imaging apparatus according to claim 4,
The imaging apparatus, wherein the imaging condition setting unit sets the third imaging condition so that gradation information is not lost from a signal from the pixel of the block in the third region.
JP2017057679A 2017-03-23 2017-03-23 Imaging device Ceased JP2018160830A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017057679A JP2018160830A (en) 2017-03-23 2017-03-23 Imaging device
JP2022075764A JP7439856B2 (en) 2017-03-23 2022-05-02 Imaging device
JP2024020973A JP2024045553A (en) 2017-03-23 2024-02-15 Imaging device
JP2025120931A JP2025142099A (en) 2017-03-23 2025-07-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017057679A JP2018160830A (en) 2017-03-23 2017-03-23 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022075764A Division JP7439856B2 (en) 2017-03-23 2022-05-02 Imaging device

Publications (1)

Publication Number Publication Date
JP2018160830A true JP2018160830A (en) 2018-10-11

Family

ID=63796005

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017057679A Ceased JP2018160830A (en) 2017-03-23 2017-03-23 Imaging device
JP2022075764A Active JP7439856B2 (en) 2017-03-23 2022-05-02 Imaging device
JP2024020973A Pending JP2024045553A (en) 2017-03-23 2024-02-15 Imaging device
JP2025120931A Pending JP2025142099A (en) 2017-03-23 2025-07-18 Imaging device

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2022075764A Active JP7439856B2 (en) 2017-03-23 2022-05-02 Imaging device
JP2024020973A Pending JP2024045553A (en) 2017-03-23 2024-02-15 Imaging device
JP2025120931A Pending JP2025142099A (en) 2017-03-23 2025-07-18 Imaging device

Country Status (1)

Country Link
JP (4) JP2018160830A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137662A1 (en) * 2018-12-26 2020-07-02 富士フイルム株式会社 Image capturing device, image data processing method of image capturing device, and program
WO2020202409A1 (en) * 2019-03-29 2020-10-08 株式会社ニコン Image capture element and image capture device
JP2022075562A (en) * 2020-11-03 2022-05-18 三星電子株式会社 Integrated high-speed image sensor and its operation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160830A (en) * 2017-03-23 2018-10-11 株式会社ニコン Imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157862A (en) * 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd MOS type image pickup device and image pickup apparatus
JP2015092660A (en) * 2013-10-01 2015-05-14 株式会社ニコン Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program
JP2016192606A (en) * 2015-03-30 2016-11-10 株式会社ニコン Electronic apparatus and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160830A (en) * 2017-03-23 2018-10-11 株式会社ニコン Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157862A (en) * 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd MOS type image pickup device and image pickup apparatus
JP2015092660A (en) * 2013-10-01 2015-05-14 株式会社ニコン Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program
JP2016192606A (en) * 2015-03-30 2016-11-10 株式会社ニコン Electronic apparatus and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137662A1 (en) * 2018-12-26 2020-07-02 富士フイルム株式会社 Image capturing device, image data processing method of image capturing device, and program
JPWO2020137662A1 (en) * 2018-12-26 2021-10-28 富士フイルム株式会社 Image pickup device, image data processing method of image pickup device, and program
JP7004851B2 (en) 2018-12-26 2022-02-10 富士フイルム株式会社 Image pickup device, image data processing method of image pickup device, and program
JP2022046629A (en) * 2018-12-26 2022-03-23 富士フイルム株式会社 Imaging element, image data processing method of imaging element, and program
US11546561B2 (en) 2018-12-26 2023-01-03 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program
US11902701B2 (en) 2018-12-26 2024-02-13 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program
JP7460595B2 (en) 2018-12-26 2024-04-02 富士フイルム株式会社 Image pickup device, image data processing method for image pickup device, and program
JP2024079753A (en) * 2018-12-26 2024-06-11 富士フイルム株式会社 Image pickup device, image data processing method for image pickup device, and program
JP7662870B2 (en) 2018-12-26 2025-04-15 富士フイルム株式会社 Image pickup device, image data processing method for image pickup device, and program
WO2020202409A1 (en) * 2019-03-29 2020-10-08 株式会社ニコン Image capture element and image capture device
JP2022075562A (en) * 2020-11-03 2022-05-18 三星電子株式会社 Integrated high-speed image sensor and its operation method

Also Published As

Publication number Publication date
JP2025142099A (en) 2025-09-29
JP2024045553A (en) 2024-04-02
JP2022115944A (en) 2022-08-09
JP7439856B2 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
JP7363953B2 (en) Imaging device
JP7372034B2 (en) Imaging device and image processing device
JP2025011206A (en) Imaging device
JPWO2017170716A1 (en) Imaging apparatus, image processing apparatus, and electronic apparatus
JP7439856B2 (en) Imaging device
JPWO2017170717A1 (en) IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE, AND ELECTRONIC DEVICE
JPWO2017170726A1 (en) Imaging apparatus and electronic apparatus
JP6589988B2 (en) Imaging device
JP6589989B2 (en) Imaging device
JP6604385B2 (en) Imaging device
JP6521085B2 (en) Imaging device and control device
JPWO2017170719A1 (en) Imaging apparatus and electronic device
JPWO2017170718A1 (en) IMAGING DEVICE, SUBJECT DETECTING DEVICE, AND ELECTRONIC DEVICE
JPWO2017057267A1 (en) Imaging device and focus detection device
JPWO2017057280A1 (en) Imaging device and subject detection device
WO2017170724A1 (en) Image pickup device, lens adjusting device, and electronic apparatus
WO2017170725A1 (en) Imaging device, imaging subject detection apparatus, and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210226

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210817

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220830