[go: up one dir, main page]

JP2018182678A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018182678A
JP2018182678A JP2017084235A JP2017084235A JP2018182678A JP 2018182678 A JP2018182678 A JP 2018182678A JP 2017084235 A JP2017084235 A JP 2017084235A JP 2017084235 A JP2017084235 A JP 2017084235A JP 2018182678 A JP2018182678 A JP 2018182678A
Authority
JP
Japan
Prior art keywords
image
pixel
strobe
light emission
pixel unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017084235A
Other languages
Japanese (ja)
Other versions
JP6935969B2 (en
Inventor
光章 黒川
Mitsuaki Kurokawa
光章 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2017084235A priority Critical patent/JP6935969B2/en
Publication of JP2018182678A publication Critical patent/JP2018182678A/en
Application granted granted Critical
Publication of JP6935969B2 publication Critical patent/JP6935969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of acquiring a proper captured image without regard to the luminance of a subject.SOLUTION: The imaging apparatus which performs imaging with a rolling shutter method, comprises: imaging means which acquires a stroboscope light emission image and a stroboscope light non-emission image; pixel unit value acquisition means which acquires a pixel unit value of each pixel unit with respect to at least one of the stroboscope light emission image and the stroboscope light non-emission image; and synthesizing means which synthesizes the stroboscope light emission image and the stroboscope light non-emission image on the basis of the pixel unit values.SELECTED DRAWING: Figure 1

Description

本発明は、ローリングシャッター方式でストロボ撮影を行う機能を有する撮像装置に関する。   BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to an imaging apparatus having a function of performing flash photography using a rolling shutter method.

従来より、CMOS撮像素子では、ローリングシャッター方式で撮影を行うため、画素ラインごとに露光期間がずれることが知られている。また、上記露光期間のずれに起因して、シャッター速度が速い場合に、ストロボ発光が反映される画素ラインと、反映されない画素ラインとが生じてしまうことが知られている。   Conventionally, in a CMOS imaging device, it is known that an exposure period is shifted for each pixel line because shooting is performed by a rolling shutter method. In addition, it is known that when the shutter speed is high, pixel lines on which strobe light is reflected and pixel lines not to be reflected are generated due to the deviation of the exposure period.

そこで、特許文献1には、全画素ラインを同時に電子シャッター開の状態にしてストロボ発光させた1回目の撮影画像と、ストロボ非発光の2回目の撮影画像と、の差分を求めることにより、被写体を表す画像信号を生成する撮影装置(本願の撮像装置に相当)が提案されている。   Therefore, in Patent Document 1, the subject is obtained by obtaining the difference between the first captured image in which the electronic shutter is opened with all the pixel lines open simultaneously and the second captured image in which the flash is not emitted. An imaging device (corresponding to the imaging device of the present application) that generates an image signal representing the image signal has been proposed.

特開2009−81808号公報JP, 2009-81808, A

しかしながら、特許文献1の撮影装置(撮像装置)では、1回目の撮影において、画素ラインごとにシャッター開の時間が異なっている。これにより、特に、シャッター開の時間が長い画素ラインにおいて、被写体中の相対的に明るい部分の輝度が飽和してしまう可能性がある。そうすると、その飽和画像の値からストロボ非発光画像の値を差し引くことになり、正常な画像にならないおそれがある。   However, in the imaging device (imaging device) of Patent Document 1, the shutter open time differs for each pixel line in the first imaging. As a result, there is a possibility that the luminance of a relatively bright part in the subject is saturated particularly in a pixel line where the shutter open time is long. As a result, the value of the non-flash emission image is subtracted from the value of the saturated image, which may result in failure to obtain a normal image.

上記問題に鑑み、本発明の主たる目的は、ローリングシャッター方式でストロボ撮影を行なった場合においても、画素ライン間の輝度差を解消するとともに、被写体の輝度にかかわらず適切な撮影画像を取得することができる撮像装置を提供することにある。   In view of the above problems, the main object of the present invention is to eliminate the difference in luminance between pixel lines and to acquire an appropriate photographed image regardless of the luminance of the subject even when stroboscopic imaging is performed by the rolling shutter method. Providing an imaging device capable of

本発明の第1態様に係る撮像装置は、ストロボを備え、ローリングシャッター方式で撮影を行う。この撮像装置は、被写体に前記ストロボを照射し、全画素ラインに当該ストロボの照射光を到達させた少なくとも1回のストロボ発光画像を取得するとともに、前記被写体に前記ストロボを照射せずに少なくとも1回のストロボ非発光画像を取得する撮像手段と、前記ストロボ発光画像及び前記ストロボ非発光画像の少なくとも一方について、少なくとも1つの画素を含む画素ユニット毎の画素ユニット値を取得する画素ユニット値取得手段と、前記画素ユニット値に基づいて、前記ストロボ発光画像と前記ストロボ非発光画像との画像合成処理を行う画像合成手段とを備えている。   An imaging apparatus according to a first aspect of the present invention includes a strobe and performs shooting using a rolling shutter method. The imaging device irradiates the subject with the strobe light and obtains at least one strobe light emission image in which the irradiation light of the strobe light reaches all pixel lines, and at least one of the subject without irradiating the subject with the strobe light. Image pickup means for acquiring a non-flash-emission image for each time, and pixel unit value acquisition means for acquiring a pixel unit value for each pixel unit including at least one pixel for at least one of the strobe-emission image and the non-flash-emission image; And image combining means for combining the strobe light emission image and the non-strobe light emission image based on the pixel unit value.

ここで、「画素ユニット値」には、例えば、前記画素ユニットに含まれる少なくとも1つの画素に基づく輝度値、前記画素ユニットに含まれる少なくとも1つの画素に基づく画素値が含まれる。   Here, the “pixel unit value” includes, for example, a luminance value based on at least one pixel included in the pixel unit, and a pixel value based on at least one pixel included in the pixel unit.

上記態様によると、画像合成手段は、画素ユニット毎に各画素ユニットを評価するための画素ユニット値を取得し、その画素ユニット値に基づいて、画像合成処理を行うようにしている。これにより、画素ユニットの状態(例えば、輝度の適性度)に応じた画像合成処理ができるようになり、適正な画像を得ることができる。具体的には、例えば、ストロボ発光画像に飽和画素のように適性な輝度を逸脱した画素を含む画素ユニットがあるような場合に、上記画素ユニット値に基づいて輝度の逸脱状態が解消されるような画像合成処理を行うことができる。   According to the above aspect, the image combining unit obtains pixel unit values for evaluating each pixel unit for each pixel unit, and performs image combining processing based on the pixel unit values. As a result, image combining processing can be performed according to the state of the pixel unit (for example, the degree of suitability for luminance), and an appropriate image can be obtained. Specifically, for example, when there is a pixel unit including a pixel deviating from a suitable luminance such as a saturated pixel in the strobe light emission image, the deviation state of the luminance is eliminated based on the pixel unit value. Image synthesis processing can be performed.

前記合成手段は、前記画素ユニット毎に画像合成処理を行うようにしてもよい。   The combining unit may perform image combining processing for each of the pixel units.

これにより、画素ユニット毎に画素ユニット値に基づいた合成ができるので、より正確にその画素ユニットの状態を反映した画像合成処理ができる。   As a result, since the composition based on the pixel unit value can be performed for each pixel unit, it is possible to perform the image composition process reflecting the state of the pixel unit more accurately.

露光時間を演算する露光時間演算手段をさらに備え、前記撮像手段は、ストロボ発光画像を取得する場合に、前記露光時間演算手段で演算された露光時間よりも長い露光時間により画像を取得する、ようにしてもよい。   The apparatus further comprises an exposure time calculation unit that calculates an exposure time, and the image pickup unit acquires an image by an exposure time longer than the exposure time calculated by the exposure time calculation unit when acquiring a strobe light emission image. You may

このような構成にすることにより、露光時間演算手段で演算された露光時間が短い場合においても、ストロボ発光が反映される画素ラインと反映されない画素ラインとが生じないようにすることができる。   With such a configuration, even when the exposure time calculated by the exposure time calculation means is short, it is possible to prevent the occurrence of the pixel line on which the strobe light is reflected and the pixel line not to be reflected.

前記画像合成手段は、前記ストロボ発光画像及び前記ストロボ非発光画像の対応する画素ユニット同士を、前記画素ユニット値に応じた比率で合成するようにしてもよい。   The image combining unit may combine corresponding pixel units of the strobe light emission image and the strobe non-light emission image at a ratio according to the pixel unit value.

このように、画素ユニット値に応じた比率で画像合成処理を行うことにより、適正な画像を得るとともに、合成画像の画素ユニット間の段差を生じにくくすることができる。具体的には、例えば、画素ユニット値に応じた比率での合成として、対応する位置にあるストロボ発光画像の画素ユニット及びストロボ非発光画像の画素ユニットのそれぞれに対して画素ユニット値に応じた合成係数を掛けた後にそれらを足し合わせるようにしてもよい。   As described above, by performing the image combining process at a ratio according to the pixel unit value, it is possible to obtain an appropriate image and to make it difficult to cause a step between pixel units of the combined image. Specifically, for example, as composition at a ratio according to the pixel unit value, composition according to the pixel unit value for each of the pixel unit of the strobe light emission image at the corresponding position and the pixel unit of the strobe non-light emission image After multiplying the coefficients, they may be added.

被写体の輝度情報を取得する輝度情報取得手段をさらに備え、前記被写体の輝度情報に基づいて、前記ストロボ発光画像を取得する第1撮影モード、前記ストロボ発光画像及び前記ストロボ非発光画像をそれぞれ少なくとも1回ずつ取得する第2撮影モードまたは前記ストロボ非発光画像を取得する第3撮影モードから適用する撮影モードを選択し、当該選択された撮影モードに基づいて前記ストロボ及び前記撮像手段を制御する制御手段をさらに備え、前記合成手段は、前記第2撮影モードが選択された場合に、前記画像合成処理を行う、としてもよい。   The apparatus further comprises luminance information acquisition means for acquiring luminance information of a subject, and based on the luminance information of the subject, at least one of a first photographing mode for acquiring the strobe light emission image, the strobe light emission image and the strobe non-light emission image. Control means for selecting a shooting mode to be applied from the second shooting mode for obtaining each time or the third shooting mode for obtaining the non-flash image and controlling the flash and the imaging means based on the selected shooting mode The image combining process may be performed when the second imaging mode is selected.

この構成では、輝度評価結果に基づいて決定される適正なシャッター開時間が、全画素ラインにストロボ発光が反映される期間だけ確保される(被写体が十分暗い)場合には第1撮影モードでストロボ発光撮影を行う。また、輝度評価結果に基づいて決定される適正なシャッター開時間では全画素ラインにストロボ発光が反映される期間が確保されない(被写体はやや明るいが、ストロボ非発光では暗く撮影される)場合、1回目で通常より長いシャッター開時間でのストロボ発光撮影を行なうことを含む第2撮影モードでの撮影をするようにしている。そして、さらに被写体が明るい場合には、第3撮影モードでストロボ非発光撮影をするようにしている。これにより、適切な撮影画像を取得するための撮影手段を最適化することができる。   In this configuration, when the appropriate shutter open time determined based on the luminance evaluation result is ensured only in a period in which the strobe light is reflected on all pixel lines (the subject is sufficiently dark), the strobe is used in the first photographing mode. Shoot the flash. In addition, if the appropriate shutter opening time determined based on the luminance evaluation results does not ensure a period in which the flash is reflected in all pixel lines (if the subject is somewhat bright but is photographed dark when the flash is not emitted), 1 In the second shooting mode, shooting is performed in the second shooting mode, which includes stroboscopic shooting with a shutter opening time longer than normal. Then, when the subject is brighter, the flash non-flash shooting is performed in the third shooting mode. Thereby, the photographing means for acquiring an appropriate photographed image can be optimized.

本発明によると、ローリングシャッター方式でストロボ撮影を行なった場合においても、被写体の輝度にかかわらず適切な撮影画像を取得することができる。   According to the present invention, even when stroboscopic imaging is performed by the rolling shutter method, an appropriate captured image can be acquired regardless of the luminance of the subject.

実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram showing a schematic structure of an imaging device concerning an embodiment. 撮像面における評価エリアの割り当て状態の一例を示す図である。It is a figure which shows an example of the allocation state of the evaluation area in an imaging surface. 撮像装置の動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of an imaging device. 撮像装置の動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of an imaging device. 静止画像の取り込み処理の動作を示すフロー図である。It is a flowchart which shows operation | movement of the taking-in process of a still image. シャッター速度と撮影モードとの関係を説明するための図である。It is a figure for demonstrating the relationship between shutter speed and imaging | photography mode. ストロボ発光撮影の撮影動作を説明するための図である。It is a figure for demonstrating the imaging | photography operation | movement of strobe light emission imaging | photography. 画像合成処理に用いる合成係数の一例を示す図である。It is a figure which shows an example of the synthetic | combination coefficient used for an image synthetic | combination process. 画像合成処理について説明するための図である。It is a figure for demonstrating an image synthetic | combination process. 画像合成処理について(a)合成前の画素値、(b)合成後の画素値及び(c)合成後の画素値の一例を示す図である。It is a figure which shows an example of the pixel value before (a) compositing, the pixel value after compositing, and the pixel value after (c) compositing about an image compositing process.

以下、本発明の実施形態を図面に基づいて詳細に説明する。以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用範囲あるいはその用途を制限することを意図するものではない。   Hereinafter, embodiments of the present invention will be described in detail based on the drawings. The following description of the preferred embodiments is merely exemplary in nature and is not intended to limit the invention, its application or its application.

<撮像装置の構成>
図1は実施形態に係る撮像装置の構成を示すブロック図である。図1に示すように、撮像装置10は、ドライバ18aおよびドライバ18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これにより、光学像に対応する電荷が生成される。
<Configuration of Imaging Device>
FIG. 1 is a block diagram showing the configuration of an imaging device according to the embodiment. As shown in FIG. 1, the imaging device 10 includes a focus lens 12 and an aperture unit 14 which are driven by a driver 18a and a driver 18b, respectively. The optical image that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion. Thereby, charges corresponding to the optical image are generated.

図2に示すように、イメージャ16の撮像面の中央には、評価エリアEVAが割り当てられる。評価エリアEVAは、水平方向および垂直方向の各々において16分割された256個の分割エリアを含む。   As shown in FIG. 2, an evaluation area EVA is assigned to the center of the imaging surface of the imager 16. The evaluation area EVA includes 256 divided areas divided into 16 in each of the horizontal direction and the vertical direction.

図1に戻り、ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、後述するCPU26からの制御を受けてイメージャ16の撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。なお、図1において、撮像手段は、フォーカスレンズ12、絞りユニット14、イメージャ16及びドライバ18a,18b,18cによって構成されている。ただし、撮像手段の構成は、図1の構成に限定されない。具体的には、撮像方式として、ローリングシャッター方式であり、かつ、後述するストロボ非発光撮影及びストロボ発光撮影の両方ができるように構成されていれば、図1以外の構成(例えば、図1の複数の機能ブロックを1つにまとめた構成等)であってもよい。   Returning to FIG. 1, the driver 18c exposes the imaging surface of the imager 16 under the control of the CPU 26, which will be described later, in response to a vertical synchronization signal Vsync periodically generated from an SG (signal generator) not shown. The charges generated on the imaging surface are read out in a raster scan manner. Raw image data based on the read charge is periodically output from the imager 16. In FIG. 1, the imaging means is constituted by the focus lens 12, the aperture unit 14, the imager 16 and the drivers 18a, 18b and 18c. However, the configuration of the imaging means is not limited to the configuration of FIG. Specifically, if the imaging system is a rolling shutter system and is configured to be able to perform both flash non-flash shooting and flash flash photography described later, configurations other than FIG. 1 (for example, FIG. A configuration in which a plurality of functional blocks are combined into one may be used.

前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ、画素欠陥補正、ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32に書き込まれる。さらに、前処理回路20は、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   The preprocessing circuit 20 subjects the raw image data output from the imager 16 to processing such as digital clamping, pixel defect correction, gain control and the like. The raw image data subjected to these processes is written to the SDRAM 32 through the memory control circuit 30. Further, the preprocessing circuit 20 executes a simple RGB conversion process for converting raw image data into RGB data in a simple manner.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAの分割エリア(図2参照)に属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個の輝度評価値Eyが、垂直同期信号Vsyncに応答してAE評価回路22から出力される。  The AE evaluation circuit 22 integrates RGB data belonging to the divided area (see FIG. 2) of the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 luminance evaluation values Ey are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

AF評価回路24は、前処理回路20によって生成されたRGBデータのうちエリアEVAの分割エリア(図2参照)に属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のフォーカス評価値Efが、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 integrates high frequency components of RGB data belonging to the divided area of the area EVA (see FIG. 2) among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integrated values, that is, 256 focus evaluation values Ef are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

CPU26は、ドライバ18a,18b,18cを含む撮像装置10の各構成要素を制御する機能を有する。CPU26の動作については、後述の「撮像装置の動作」において詳細に説明する。なお、CPU26が実行する制御プログラムは、フラッシュメモリ46に記憶されている。   The CPU 26 has a function of controlling each component of the imaging device 10 including the drivers 18a, 18b, and 18c. The operation of the CPU 26 will be described in detail in "Operation of the Imaging Device" described later. The control program executed by the CPU 26 is stored in the flash memory 46.

キー入力装置28には、シャッタボタン28sh、撮影モードを切り替えるためのモード切換えスイッチ28md及び使用者が処理を進めてよいか否かを入力操作するためのOKボタン28kが設けられている。   The key input device 28 is provided with a shutter button 28 sh, a mode change switch 28 md for switching the photographing mode, and an OK button 28 k for performing an input operation as to whether or not the user may proceed with the process.

後処理回路34は、メモリ制御回路30を介してSDRAM32に格納された生画像データを読み出し、読み出された生画像データに色分離処理、白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30によってSDRAM32に書き込まれる。さらに、前記YUV形式の画像データは、CPU26の制御を受けて、JPEG画像ファイルに変換される。   The post-processing circuit 34 reads the raw image data stored in the SDRAM 32 through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The memory control circuit 30 writes the image data of YUV format generated thereby to the SDRAM 32. Furthermore, the image data of the YUV format is converted into a JPEG image file under the control of the CPU 26.

LCDドライバ36は、メモリ制御回路30を介してSDRAM32に格納されたYUV形式の画像データを繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、撮像面で捉えられたシーンを表すスルー画像がモニタ画面に表示される。   The LCD driver 36 repeatedly reads out YUV format image data stored in the SDRAM 32 via the memory control circuit 30, and drives the LCD monitor 38 based on the read out image data. As a result, a through image representing a scene captured on the imaging surface is displayed on the monitor screen.

メモリI/F42は、CPU26の制御を受けて、メモリ制御回路30を介してSDRAM32から読み出された前記JPEG画像ファイルを記録媒体44に記録する。   The memory I / F 42 receives control of the CPU 26 and records the JPEG image file read from the SDRAM 32 via the memory control circuit 30 in the recording medium 44.

さらに、撮像装置10は、ストロボ62と、CPU26の制御を受けてストロボ62を駆動するストロボドライバ61とを備えている。ストロボ62を発光させて撮影を行う場合(以下、ストロボ発光撮影という)、CPU26は、ストロボドライバ61に対してトリガ信号を供給する。これによって、イメージャ16の本露光に同期してストロボ62が発光し、このストロボ発光撮影によって生成された被写体のJPEG画像ファイルがCPU26の制御の下でメモリI/F42によって記録媒体44に記録される。   Furthermore, the imaging device 10 includes a flash 62 and a flash driver 61 that drives the flash 62 under the control of the CPU 26. When shooting is performed by causing the flash 62 to emit light (hereinafter referred to as flash shooting), the CPU 26 supplies a trigger signal to the flash driver 61. As a result, the flash 62 emits light in synchronization with the main exposure of the imager 16, and the JPEG image file of the subject generated by the flash shooting is recorded on the recording medium 44 by the memory I / F 42 under the control of the CPU 26. .

<撮像装置の動作>
以下において、図3から図5のフロー図を参照しながら、撮像装置10の動作について詳細に説明する。図3及び図4は、撮像装置10の動作の一部を示すフロー図である。また、図5は後述する静止画像の取り込み処理の動作を示すフロー図である。
<Operation of Imaging Device>
Hereinafter, the operation of the imaging device 10 will be described in detail with reference to the flowcharts of FIGS. 3 to 5. 3 and 4 are flowcharts showing a part of the operation of the imaging device 10. FIG. 5 is a flowchart showing the operation of the still image capturing process described later.

まず、シャッタボタン28shが半押しされると、CPU26は、AE評価回路22から輝度評価値Eyを取り込み、AF評価回路24からフォーカス評価値Efを取り込む(ステップS11)。   First, when the shutter button 28 sh is half-depressed, the CPU 26 takes in the brightness evaluation value Ey from the AE evaluation circuit 22 and takes in the focus evaluation value Ef from the AF evaluation circuit 24 (step S 11).

ステップS12において、CPU26は、取り込んだ輝度評価値Eyに基づいて最適なシャッター速度(最適露光期間)及び絞りユニット14の最適絞り値を算出する。その後、CPU26は、絞りユニット14の絞り値が上記最適絞り値になるように絞りドライバ18bを制御する。同様に、算出した最適なシャッター速度に基づいてドライバ18cを設定する。   In step S12, the CPU 26 calculates an optimal shutter speed (optimum exposure period) and an optimal aperture value of the aperture unit 14 based on the taken-in luminance evaluation value Ey. Thereafter, the CPU 26 controls the aperture driver 18 b so that the aperture value of the aperture unit 14 becomes the above-mentioned optimum aperture value. Similarly, the driver 18c is set based on the calculated optimal shutter speed.

ステップS13において、CPU26は、取り込んだフォーカス評価値Efに基づいて、フォーカス調整を行う。具体的には、CPU26は、フォーカス評価値Efが大きくなるようにドライバ18aを制御し、フォーカスレンズ12を合焦位置に設定する。   In step S13, the CPU 26 performs focus adjustment based on the acquired focus evaluation value Ef. Specifically, the CPU 26 controls the driver 18a so that the focus evaluation value Ef becomes large, and sets the focus lens 12 at the in-focus position.

ステップS14において、CPU26は、上記フォーカス調整が終了したか否か、つまりフォーカスレンズ12が合焦位置に設定されたか否かを判断し、フォーカス調整が未だ終了していないと判断した場合、フローはステップS15に進む。   In step S14, the CPU 26 determines whether or not the focus adjustment has been completed, that is, whether or not the focus lens 12 has been set to the in-focus position, and determines that the focus adjustment has not been completed yet. The process proceeds to step S15.

ステップS15において、CPU26は、シャッタボタン28shの操作が解除されたか否か、具体的には使用者の指がシャッタボタン28shから離されたか否かを判断する。ここで、シャッタボタン28shの操作が解除されたと判断すると、CPU26は、このフロー図で示される処理を終了(中断)する。つまり、フォーカス調整が終了する前に使用者の指がシャッタボタン28shから離された場合には、撮影は行われない。   In step S15, the CPU 26 determines whether the operation of the shutter button 28sh is released, specifically, whether the user's finger is released from the shutter button 28sh. Here, if it is determined that the operation of the shutter button 28 sh has been released, the CPU 26 ends (discontinues) the processing shown in this flowchart. That is, when the user's finger is released from the shutter button 28 sh before the focus adjustment is completed, shooting is not performed.

ステップS15においてシャッタボタン28shの操作が解除されていない場合には、CPU26は、ステップS14に戻る。そして、このステップS14においてフォーカス調整が終了したと判断すると、フローは、図4のステップS21に進む。   When the operation of the shutter button 28 sh is not released in step S15, the CPU 26 returns to step S14. Then, if it is determined that the focus adjustment is completed in this step S14, the flow proceeds to step S21 of FIG.

ステップS21においても、CPU26は、上述のステップS15と同様にシャッタボタン28shの操作が解除されたか否かを判断し、シャッタボタン28shの操作が解除された場合には、このフロー図で示される処理を終了(中断)する。一方、シャッタボタン28shの操作が解除されていない場合、CPU26は、ステップS22のシャッタボタン28shが全押しされたか否かの判断を行う。そして、CPU26は、シャッタボタン28shの操作が解除されるか、シャッタボタン28shが全押しされるまで、ステップS21及びステップS22の判定を繰り返し実行する。   Also in step S21, the CPU 26 determines whether or not the operation of the shutter button 28sh is canceled as in step S15 described above, and when the operation of the shutter button 28sh is canceled, the process shown in the flowchart Quit (discontinue). On the other hand, when the operation of the shutter button 28 sh is not released, the CPU 26 determines whether or not the shutter button 28 sh in step S 22 is full-pressed. Then, the CPU 26 repeatedly executes the determination of step S21 and step S22 until the operation of the shutter button 28sh is canceled or the shutter button 28sh is full-pressed.

そして、シャッタボタン28shが全押しされたと判断すると、フローは、ステップS22からステップS23に進み、CPU26は、静止画像の取り込み処理に進む。   Then, if it is determined that the shutter button 28 sh is full-pressed, the flow proceeds from step S 22 to step S 23, and the CPU 26 proceeds to the still image capturing process.

−静止画像の取り込み処理−
以下において、図5の静止画像の取り込み処理について、詳細に説明する。
-Still image capture process-
Hereinafter, the still image capturing process of FIG. 5 will be described in detail.

図5のステップS30において、CPU26は、シャッタボタン28shの全押しに応答して、適用する撮影モードの選択処理に入る。具体的には、CPU26は、上記撮影モードとして、第1撮影モードとしてのストロボ発光撮影を行うストロボ発光1回撮影モード(ステップS41〜S42)と、第2撮影モードとしてのストロボ発光撮影とストロボ非発光撮影の2回撮影を行うストロボ発光2回撮影モード(ステップS51〜S54)と、第3撮影モードとしてのストロボ非発光撮影を行うストロボ非発光撮影モード(ステップS61〜S62)のいずれかを選択する。   In step S30 of FIG. 5, in response to full depression of the shutter button 28sh, the CPU 26 enters selection processing of the imaging mode to be applied. Specifically, the CPU 26 performs, as the shooting mode, a single-flash-flash shooting mode (steps S41 to S42) for performing flash-flash shooting as the first shooting mode (steps S41 to S42), and flash-flash shooting and non-strobe shooting as the second shooting mode. Select one of the two-flash flash shooting mode (steps S51 to S54) for shooting twice for flash shooting and the non-flash photography mode (steps S61 to S62) for non-flash photography as the third shooting mode Do.

=撮影モードの選択=
以下において、撮影モードの選択について、図6及び図7を参照しつつ具体的に説明する。図6は、前述のステップS12(図3参照)で算出された最適なシャッター速度SS(横軸)と、実際に撮影されるシャッター速度SS(縦軸)との関係を例示している。また、上記最適なシャッター速度SS(横軸)と選択される撮影モード(撮像方法)との関係を例示している。図7は、ストロボ発光1回撮影モード及びストロボ発光2回撮影モードにおいて、各シャッター速度におけるストロボ発光撮影の撮影動作を示している。なお、図6において、全画素ラインにストロボの照射光を到達させることが可能なシャッター速度の限界値(閾値)がシャッター速度SS2であるものとして説明する(後述する図7(b)参照)。また、図6において、シャッター速度SS1,SS2,SS3,SS4の下にカッコ書きで記載しているEy1、Ey2,Ey3,Ey4は、各シャッター速度SS1,SS2,SS3,SS4に対応する輝度評価値Eyであるものとする。
= Selection of shooting mode =
In the following, selection of the shooting mode will be specifically described with reference to FIGS. 6 and 7. FIG. 6 exemplifies the relationship between the optimum shutter speed SS (horizontal axis) calculated in the above-mentioned step S12 (see FIG. 3) and the shutter speed SS (vertical axis) which is actually photographed. Further, the relationship between the optimal shutter speed SS (horizontal axis) and the imaging mode (imaging method) to be selected is illustrated. FIG. 7 shows the photographing operation of the strobe light emission photographing at each shutter speed in the strobe light emission one time photographing mode and the strobe light emission second time photographing mode. In FIG. 6, it is assumed that the shutter speed SS2 is the limit value (threshold value) of the shutter speed capable of causing the irradiation light of the strobe to reach all the pixel lines (see FIG. 7B described later). In FIG. 6, Ey1, Ey2, Ey3 and Ey4 described in parentheses below the shutter speeds SS1, SS2, SS3 and SS4 are luminance evaluation values corresponding to the respective shutter speeds SS1, SS2, SS3 and SS4. It shall be Ey.

(ストロボ発光1回撮影モード)
図5のステップS30において、シャッター速度がSS2以下の速度の場合、すなわち、輝度評価値EyがEy2以下の場合、CPU26は、ストロボ発光1回撮影モードに係る制御を行う。
(1 flash shooting mode)
In step S30 of FIG. 5, when the shutter speed is SS2 or less, that is, when the luminance evaluation value Ey is Ey2 or less, the CPU 26 performs control relating to the single flash light emission mode.

具体的には、ステップS41において、垂直同期信号Vsyncが入力されると、CPU20は、ドライバ18cに対して1フレーム分の本露光および全画素読み出しを命令する。さらに、CPU26は、ストロボドライバ61に対してストロボ62を発光させるためのトリガ信号を供給する。図7(a)及び(b)は、それぞれ、シャッター速度がSS1(ここで、SS1<SS2)の場合及びシャッター速度がSS2の場合におけるストロボ発光撮影の撮影動作を示している。図7(a)に示すように、シャッター速度SS1はシャッター速度SS2より遅いため、露光時間T1が十分に確保され、全画素ラインに対してストロボ62の照射光を到達させることができている。   Specifically, in step S41, when the vertical synchronization signal Vsync is input, the CPU 20 instructs the driver 18c to perform one frame worth of main exposure and all pixel readout. Further, the CPU 26 supplies the strobe driver 61 with a trigger signal for causing the strobe 62 to emit light. FIGS. 7A and 7B respectively show the photographing operation of the strobe light emission photographing when the shutter speed is SS1 (here, SS1 <SS2) and the shutter speed is SS2. As shown in FIG. 7A, since the shutter speed SS1 is slower than the shutter speed SS2, the exposure time T1 is sufficiently secured, and the irradiation light of the strobe 62 can reach all pixel lines.

図5に戻り、上記ステップS41の処理後、ステップS42において、CPU20は、LCDモニタ38にプレビュー画像を表示させる。その後、フローは図4の記録処理(ステップS27)に進み、被写体の画像ファイルを記録媒体44に記録して、一連の撮影処理を完了する。   Returning to FIG. 5, after the process of step S41, the CPU 20 causes the LCD monitor 38 to display a preview image in step S42. Thereafter, the flow proceeds to the recording process of FIG. 4 (step S27), and the image file of the subject is recorded on the recording medium 44 to complete a series of photographing processes.

(ストロボ発光2回撮影モード)
図5のステップS30において、シャッター速度がSS2よりも速くかつSS4よりも遅い場合、すなわち、輝度評価値EyがEy2より大きくかつEy4より小さい場合、CPU26は、ストロボ発光2回撮影モードに係る制御を行う。
(Strobe 2 times shooting mode)
In step S30 in FIG. 5, when the shutter speed is faster than SS2 and slower than SS4, that is, when the luminance evaluation value Ey is larger than Ey2 and smaller than Ey4, the CPU 26 performs control relating to the flash light emission twice shooting mode. Do.

具体的には、ステップS51において、垂直同期信号Vsyncが入力されると、CPU20は、シャッター速度をSS2に設定して、ドライバ18cに対して1フレーム分の本露光および全画素読み出しを命令する。さらにCPU26は、上記命令に加えてストロボドライバ61に対してストロボ62を発光させるためのトリガ信号を供給する。ここで撮影された1回目の撮影画像は、SDRAM32の画像保存エリアに一旦退避させられる。   Specifically, in step S51, when the vertical synchronization signal Vsync is input, the CPU 20 sets the shutter speed to SS2 and instructs the driver 18c to perform one frame worth of main exposure and all pixel readout. Further, the CPU 26 supplies a trigger signal for causing the strobe driver 62 to emit light in addition to the above command. The first captured image captured here is temporarily saved in the image storage area of the SDRAM 32.

ステップS51の撮影処理後、ステップS52において、CPU26は、ストロボ非発光条件で再設定されたシャッター速度(最適露光期間)及び絞り値になるように、露光設定(シャッター速度SS及び絞り量のうちの少なくとも一方)を変更する。   After the photographing processing in step S51, in step S52, the CPU 26 sets the exposure (the shutter speed SS and the aperture amount to the shutter speed (optimum exposure period) and the aperture value reset under the flash non-emission condition. Change at least one).

図7(c)には、シャッター速度SS2において1回目の撮影(ストロボ発光撮影)を行い、その後、再設定したシャッター速度SS3(ここで、SS3>SS2)で2回目の撮影(ストロボ非発光撮影)をした場合における撮影動作を示している。図7(c)に示すように、シャッター速度SS2で全画素ラインに対してストロボの照射光を到達させてストロボ発光撮影画像を取得し、その後、シャッター速度SS3で撮影されたストロボ非発光撮影画像(以下、省略して非発光撮影画像という)を取得している。なお、2回目の撮影画像は、1回目の撮影画像と同様に、SDRAM32の画像保存エリアに退避させられる。   In FIG. 7C, the first shooting (strobe flash shooting) is performed at the shutter speed SS2, and then the second shooting (strobe non-flash shooting) is performed at the reset shutter speed SS3 (here, SS3> SS2). Shows the shooting operation in the case of. As shown in FIG. 7C, the strobe illumination light is made to reach all pixel lines at a shutter speed SS2 to obtain a strobe light emission photographed image, and then a strobe non-light emission photographed image photographed at a shutter speed SS3 (Hereafter, it is abbreviated and it is called a non-light emission photography picture). The second shot image is saved in the image storage area of the SDRAM 32 in the same manner as the first shot image.

なお、ストロボ非発光撮影のシャッター速度は、ステップS12(図3参照)で算出された最適なシャッター速度(図6では、SS3)であってもよいし、それとは異なるシャッター速度SSであってもよい。具体的には、被写体に応じてストロボ非発光撮影のシャッター速度SSを変更するようにしてもよい。例えば、被写体と撮像装置10との距離に基づいて、ストロボ非発光撮影のシャッター速度SSを変更するとよい。より具体的には、ストロボ62の光がぎりぎり届くような位置に被写体がある場合には、シャッター速度を遅くする(例えば、図6のシャッター速度をSS31にする)。一方で、被写体が撮像装置10に近い場合には、シャッター速度を速くする(例えば、図6のシャッター速度をSS32にする)。   Note that the shutter speed for flash non-flash shooting may be the optimum shutter speed (SS3 in FIG. 6) calculated in step S12 (see FIG. 3), or may be a shutter speed SS different from that. Good. Specifically, the shutter speed SS for non-flash shooting may be changed according to the subject. For example, based on the distance between the subject and the imaging device 10, the shutter speed SS for non-flash shooting may be changed. More specifically, when the subject is in a position where the light of the flash 62 can reach the limit, the shutter speed is decreased (for example, the shutter speed in FIG. 6 is set to SS31). On the other hand, when the subject is close to the imaging device 10, the shutter speed is increased (for example, the shutter speed in FIG. 6 is set to SS32).

2回目の撮影まで終了すると、ステップS54において、ステップS51及びステップS53で取得された画像データに対して、画像合成処理が行われる。画像合成処理は、例えば、CPU26及びメモリ制御回路30の制御を受けて、SDRAM32内のワークエリアにおいて実行され、これによって作成された合成画像データはSDRAM32内の別の画像保存エリアに格納される。   When the second shooting is completed, in step S54, an image combining process is performed on the image data acquired in steps S51 and S53. The image composition processing is executed, for example, in a work area in the SDRAM 32 under the control of the CPU 26 and the memory control circuit 30, and composite image data created thereby is stored in another image storage area in the SDRAM 32.

=画像合成処理=
以下において、図8から図10を参照しつつ、ステップS54(図5)の画像合成処理について、詳細に説明する。
= Image composition processing =
Hereinafter, the image combining process in step S54 (FIG. 5) will be described in detail with reference to FIGS. 8 to 10.

画像合成処理は、ストロボ発光2回撮影モードで撮影された、ストロボ発光撮影画像及び非発光撮影画像の少なくとも一方における画素ユニット毎の画素ユニット値に基づいて実施される。   The image combining process is performed based on the pixel unit value for each pixel unit in at least one of the strobe light emission photographed image and the non-light emission photographed image photographed in the strobe light emission twice photographing mode.

画素ユニットとは、画像を構成する全画素を分割して得られる画素ユニット値の取得及び画像合成処理の少なくとも一方に対する最小単位を示している。そして、その分割数は任意に設定することができる。例えば、画素ユニットに含まれる画素が1つになるように全画素を分割してもよいし、互いに隣接する複数の画素(例えば、2〜十数画素程度)が含まれるように全画素を分割するようにしてもよい。例えば、少なくとも1つのR画素(以下、単にR画素という)、少なくとも1つのG画素(以下、単にG画素という)、及び少なくとも1つのB画素(以下、単にB画素という)を含むように上記分割を行うようにしてもよい。また、分割される各画素ユニットの大きさ、すなわち、各画素ユニットに含まれる画素の数が画素ユニット間で互いに異なっていてもかまわない。すなわち、画素ユニットに含める画素の数は、あらかじめ設定されていてもよいし、後述する画素ユニット値を求める過程や、その他の演算や評価に基づいて決めるようにしてもよい。   The pixel unit indicates a minimum unit for at least one of acquisition of pixel unit values obtained by dividing all pixels constituting an image and image combining processing. And the division number can be set arbitrarily. For example, all pixels may be divided such that one pixel is included in the pixel unit, or all pixels are divided such that a plurality of adjacent pixels (for example, about 2 to a dozen or so pixels) are included. You may do it. For example, the above division is made to include at least one R pixel (hereinafter simply referred to as R pixel), at least one G pixel (hereinafter referred to simply as G pixel), and at least one B pixel (hereinafter simply referred to as B pixel) May be performed. In addition, the sizes of the pixel units to be divided, that is, the number of pixels included in each pixel unit may be different among the pixel units. That is, the number of pixels included in the pixel unit may be set in advance, or may be determined based on a process of obtaining a pixel unit value, which will be described later, or other operations and evaluations.

画素ユニット値は、ストロボ発光撮影画像及び非発光撮影画像の少なくとも一方から得られる画像合成処理の指標となるような値を示している。例えば、画素ユニット値として、画素ユニットの輝度に関する値(例えば、輝度値や画素値)を用いることができる。より具体的に例示すると、画素ユニット値として、画素ユニット内の任意のR画素、任意のG画素及び任意のB画素に基づいて算出された輝度値を用いることができる。また、画素ユニット値として、画素ユニット内に複数のRGB画素が含まれる場合において、RGB画素毎に算出された輝度値の平均値を求め、その平均値を用いるようにしてもよいし、特定のRGB画素から算出された輝度値を用いるようにしてもよい。また、画素ユニット値として、画素ユニット内に含まれる任意のG画素の画素値を用いるようにしてもよいし、RGB画素の画素に基づいて演算された演算値を用いるようにしてもよい。また、画素ユニット内に複数のG画素が含まれる場合において、複数のG画素の画素値の平均を求め、その平均値を用いるようにしてもよい。また、画素ユニット値として、隣接する他の画素ユニットの画素ユニット値を参照してもよい。隣接する画素ユニットの画素ユニット値を参照することで、画素ユニット値を演算で求める場合の演算量を減らすことができる。   The pixel unit value indicates a value that serves as an index of the image combining process obtained from at least one of the strobe light emission photographed image and the non-light emission photographed image. For example, as the pixel unit value, a value related to the brightness of the pixel unit (for example, a brightness value or a pixel value) can be used. More specifically, as the pixel unit value, a luminance value calculated based on any R pixel, any G pixel, and any B pixel in the pixel unit can be used. When a plurality of RGB pixels are included in a pixel unit as a pixel unit value, an average value of luminance values calculated for each RGB pixel may be determined, and the average value may be used. You may make it use the luminance value calculated from RGB pixel. Further, as the pixel unit value, the pixel value of any G pixel contained in the pixel unit may be used, or an operation value calculated based on the pixels of RGB pixels may be used. Further, in the case where a plurality of G pixels are included in a pixel unit, the average of the pixel values of the plurality of G pixels may be obtained, and the average value may be used. In addition, pixel unit values of other adjacent pixel units may be referred to as pixel unit values. By referring to the pixel unit value of the adjacent pixel unit, it is possible to reduce the amount of calculation when calculating the pixel unit value.

以下において、画像合成処理の具体例として、合成係数を用いた画像合成処理について説明する。なお、以下の説明では、画素ユニット値として画素ユニット内の任意の画素の画素値を用いている例を示している。また、画素ユニット値を求めるための画素ユニットに含まれる画素数と、画像合成処理を行うための画素ユニットに含まれる画素数とが同じものとして説明する。ただし、前述のとおり、画素ユニット値は画素値に限られるものではない。   In the following, image combining processing using combining coefficients will be described as a specific example of the image combining processing. In the following description, an example is shown in which the pixel value of any pixel in the pixel unit is used as the pixel unit value. Further, it is assumed that the number of pixels included in the pixel unit for obtaining the pixel unit value is the same as the number of pixels included in the pixel unit for performing the image combining process. However, as described above, the pixel unit value is not limited to the pixel value.

図8は、画素値と合成係数との関係の一例を示した図である。図8のような合成係数のデータは、例えば、フラッシュメモリ46等にあらかじめ記憶されている。   FIG. 8 is a diagram showing an example of the relationship between pixel values and synthesis coefficients. The data of the synthesis coefficient as shown in FIG. 8 is stored in advance in, for example, the flash memory 46 or the like.

最初に、CPU26は、ストロボ発光撮影画像及び非発光撮影画像の位置合わせを行う。位置合わせは、従来技術と同様の手法を用いることができる。例えば、特徴的な形状及び色彩のエッジ同士の位置を合わせる方法等を用いることができる。   First, the CPU 26 aligns the strobe light emission photographed image and the non-light emission photographed image. The alignment can use the same method as the prior art. For example, a method of aligning the positions of edges of characteristic shapes and colors can be used.

次に、CPU26は、上記位置合わせ後に、ストロボ発光撮影画像及び非発光撮影画像における画素ユニット毎に、すなわち、画像合成処理後の画像における画素ユニット毎に、画像合成処理に適用する画素値を決定する。換言すると、CPU26は、ストロボ発光撮影画像の画素ユニットと非発光撮影画像の画素ユニットとをどのような比率(合成係数)で合成するかを決定する。   Next, the CPU 26 determines the pixel value to be applied to the image combining process for each pixel unit in the strobe light emission photographed image and the non-light emission photographed image after the alignment, that is, for each pixel unit in the image after the image synthesis processing. Do. In other words, the CPU 26 determines what ratio (composition coefficient) to combine the pixel unit of the strobe light emission photographed image and the pixel unit of the non-light emission photographed image.

図8では、画素ユニットに適用される画素値(以下、単に画素値という)が小さくなるにしたがって、ストロボ発光撮影画像の画素ユニットの合成比率を高くする一方で、ストロボ非発光撮影画像の画素ユニットの合成比率が低くなるようにしている。逆に、画素値が大きくなるにしたがって、ストロボ非発光撮影画像の画素ユニットの合成比率を高くする一方で、ストロボ発光撮影画像の画素ユニットの合成比率が低くなるようにしている。   In FIG. 8, as the pixel value applied to the pixel unit (hereinafter simply referred to as the pixel value) decreases, the composition ratio of the pixel unit of the strobe light emission photographed image is increased, while the pixel unit of the strobe light non-light emission photographed image The synthesis ratio of is to be low. Conversely, as the pixel value increases, the composition ratio of the pixel units of the non-flash-emission image is increased, while the composition ratio of the pixel units of the flash-emission image is decreased.

図10には、図9の画像内の矢印部分について画像合成処理を行った場合における(a)合成前の画素値と、(b)合成時に使用される合成係数及び(c)合成後の画素値の一例を示している。   In FIG. 10, (a) pixel values before combining, (b) combining coefficients used in combining, and (c) pixels after combining when image combining processing is performed on the arrow portion in the image of FIG. An example of the value is shown.

図10(a)に示すように、合成前には、図9の画像のうちの白色部分について、非発光撮影画像及びストロボ発光撮影画像の画素値が共に相対的に高くなっている。一方で、画像のうちの濃色の着色部分について、非発光撮影画像及びストロボ発光撮影画像の画素値が相対的に低くなっている。また、全体を通して、ストロボ発光撮影画像の方が、非発光撮影画像よりも高くなっている。   As shown in FIG. 10A, the pixel values of the non-emission captured image and the strobe emission captured image are relatively high for the white portion in the image of FIG. 9 before combining. On the other hand, for dark colored portions of the image, the pixel values of the non-emission captured image and the strobe emission captured image are relatively low. In addition, throughout the whole, the flash-flashed photographed image is higher than the non-flashed photographed image.

この画像に対して、図8の合成係数を用いて合成を行うと、図10(b)に示すように、画像のうちの白色部分については、非発光撮影画像の合成係数が高い一方で、ストロボ発光撮影画像の合成係数が低くなっている。すなわち、ストロボ発光撮影画像の輝度が飽和する可能性のあるような画素ユニットについては、非発光撮影画像の画素ユニットの合成比率を高めるようにしている。一方で、画像のうちの濃色の着色部分については、非発光撮影画像の合成比率が低い一方で、ストロボ発光撮影画像の合成比率が高くなっている。このように、画素値が低い画素ユニットについては、ストロボ発光撮影画像の画素ユニットの合成比率を高めることで、被写体の輝度が低いような場合においても、適切な画像を取得することができる。   When composition is performed on this image using the composition coefficient shown in FIG. 8, as shown in FIG. 10B, for the white part of the image, the composition coefficient of the non-emission captured image is high, The composition coefficient of the flash photography image is low. That is, for pixel units where the brightness of the strobe light emission photographed image may be saturated, the composition ratio of the pixel units of the non-light emission photographed image is increased. On the other hand, with regard to dark colored portions of the image, the composition ratio of the non-emission captured image is low while the composition ratio of the strobe emission captured image is high. As described above, with regard to a pixel unit having a low pixel value, an appropriate image can be acquired even in a case where the luminance of the subject is low, by increasing the composition ratio of the pixel units of the stroboscopic light emission photographed image.

図5に戻り、上記ステップS54の合成処理後、フローはステップS55に進み、ステップS42と同様に、CPU20は、LCDモニタ38にプレビュー画像を表示させる。その後、フローは図4の記録処理(ステップS27)に進み、前述の動作と同様の記録処理を行って、一連の撮影処理を完了する。   Referring back to FIG. 5, after the combining process in step S54, the flow proceeds to step S55, and the CPU 20 causes the LCD monitor 38 to display a preview image as in step S42. Thereafter, the flow proceeds to the recording process (step S27) of FIG. 4, and the recording process similar to the above-described operation is performed to complete a series of photographing processes.

なお、上記画像合成処理について、以下のようにしてもよい。   The image combining process may be performed as follows.

例えば、図8では、合成係数が画素値に対して線形的に変化するものとしたが、これに限定されない。例えば、合成係数として、任意の式や測定結果等に基づく合成係数を適用することができる。例えば、ガンマ補正等が施されたような係数や、シミュレーションや実機による測定結果に基づいた係数を合成係数として用いることができる。   For example, in FIG. 8, the combination coefficient changes linearly with respect to the pixel value, but is not limited thereto. For example, as the combination coefficient, a combination coefficient based on an arbitrary expression, a measurement result or the like can be applied. For example, a coefficient to which gamma correction or the like has been applied, or a coefficient based on a simulation or a measurement result by a real machine can be used as a combination coefficient.

また、図8では、ストロボ発光撮影画像及び非発光撮影画像の画素ユニットをそれぞれ所定の比率で合成する例を示しているが、ストロボ発光撮影画像及び非発光撮影画像の一方が0%で他方が100%で合成されるような合成係数を用いてもよい。この場合における画像合成処理後の画像には、100%の合成比率の画素ユニットが採用されることになる。   Further, FIG. 8 shows an example in which the pixel units of the flash light emission photographed image and the non-light emission photographed image are combined at a predetermined ratio, but one of the strobe light emission photographed image and the non-light emission photographed image is 0% and the other is You may use a synthetic | combination coefficient synthesize | combined by 100%. In this case, a pixel unit with a composition ratio of 100% is adopted for the image after the image composition processing.

例えば、非発光撮影画像の画素ユニットのうち、画素値が十分高い(所定の閾値を超える)画素ユニットについて、合成比率を100%にするようにしてもよい。同様に、例えば、非発光撮影画像の画素のうち、画素値が十分高い画素ユニットについて、画像合成処理を行わずに、合成処理後の画素ユニットのデータとして、非発光撮影画像の画素ユニットのデータを採用するようにしてもよい。画素値が十分高い画素ユニットは、非発光撮影画像のままで適切な画素ユニットである場合も多いためである。これにより、画像合成処理に係る処理量を減らすことができ、処理の高速化を図ることができるようになる。   For example, of the pixel units of the non-emission captured image, the composition ratio may be set to 100% for a pixel unit whose pixel value is sufficiently high (above a predetermined threshold). Similarly, for example, among the pixels of the non-emission captured image, the pixel unit of the non-emission captured image as data of the pixel unit after the combining processing without performing the image combining processing on the pixel unit having a sufficiently high pixel value May be adopted. This is because pixel units with sufficiently high pixel values are often appropriate pixel units as they are in the non-emission image. As a result, the amount of processing related to the image combining processing can be reduced, and the processing can be speeded up.

また、例えば、ストロボ発光撮影画像の画素ユニットのうち、輝度(画素値)が飽和していることが明らかな画素ユニットは、画像合成処理に用いないようにしてもよい。その場合、例えば、合成処理後の画素ユニットとして、非発光撮影画像のものを採用するようにしてもよい。これにより、合成画像が輝度の飽和した画素ユニットの影響を受けないようにすることできる。   Further, for example, among pixel units of a strobe light emission photographed image, a pixel unit whose brightness (pixel value) is clearly saturated may not be used for the image combining process. In that case, for example, the non-emission image may be adopted as the pixel unit after the combining process. This makes it possible to prevent the composite image from being affected by the pixel unit saturated with luminance.

また、例えば、ストロボ発光撮影画像及び非発光撮影画像のそれぞれについて、画素ユニット毎の画素値を複数の段階にクラス分けをし、そのクラス値に基づいた基準や合成係数に基づいて、画像合成処理を行うようにしてもよい。また、画素ユニット毎の画素値に対して、所定の閾値を少なくとも1つ設けてその閾値を超えているまたは下回っているかどうかに基づいて、画像合成方法を変えるようにしてもよい。   Also, for example, with respect to each of the strobe light emission photographed image and the non-light emission photographed image, the pixel value of each pixel unit is classified into a plurality of stages, and the image combining processing is performed based on the reference or the combination coefficient based on the class value. May be performed. In addition, the image combining method may be changed based on whether at least one predetermined threshold value is provided for the pixel value of each pixel unit and whether the threshold value is exceeded or exceeded.

(ストロボ非発光撮影モード)
CPU26は、ストロボ62を発光させなくても被写体を良好に撮影できることが明らかな状況では、ストロボ62の発光を伴わない静止画取込みを行う。
(No flash mode)
The CPU 26 performs still image capture without light emission of the flash 62 under the condition that it is clear that the subject can be photographed well without the flash 62 being emitted.

具体的には、図5のステップS31において、シャッター速度がSS4以上の速度の場合、すなわち、輝度評価値EyがEy4以上の場合、フローがステップS61に進み、CPU26は、ストロボ非発光撮影モード(図5では非発光撮影モードと記載)に係る制御を行う。   Specifically, if the shutter speed is SS4 or higher in step S31 in FIG. 5, that is, if the luminance evaluation value Ey is Ey4 or higher, the flow proceeds to step S61, and the CPU 26 selects the strobe non-emission shooting mode ( In FIG. 5, the control related to the non-emission shooting mode is performed.

ステップS61において、垂直同期信号Vsyncが入力されると、CPU20は、ドライバ18cに対して1フレーム分の本露光および全画素読み出しを命令する。このとき、CPU26は、ストロボ62を発光させない、すなわち、ストロボドライバ61に対してトリガ信号を供給しない。上記ステップS61の処理後、ステップS62において、CPU20は、LCDモニタ38にプレビュー画像を表示させる。その後、フローは図4の記録処理(ステップS27)に進み、前述と同様の記録処理をして一連の撮影処理を完了する。   In step S61, when the vertical synchronization signal Vsync is input, the CPU 20 instructs the driver 18c to perform one frame worth of main exposure and all pixel readout. At this time, the CPU 26 does not cause the strobe 62 to emit light, that is, does not supply a trigger signal to the strobe driver 61. After the process of step S61, the CPU 20 causes the LCD monitor 38 to display a preview image in step S62. Thereafter, the flow proceeds to the recording process (step S27) of FIG. 4, and the same recording process as described above is performed to complete a series of photographing processes.

なお、ストロボ非発光撮影モードにおいて、輝度の異なる2枚の写真を撮影し、その2枚の写真について、前述の「ストロボ発光2回撮影モード」の「画像合成処理」に記載した処理と同様の画像合成処理を行ってもよい。この2回撮影の場合、例えば、そのシャッター速度は、図6のP1,P2で示した破線のようにすることができる。   In the non-flash photography mode, two pictures with different luminances are taken, and the two pictures are the same as the process described in the "image combining process" of the "two-flash photography mode" described above. Image composition processing may be performed. In the case of this double shooting, for example, the shutter speed can be as indicated by the broken lines indicated by P1 and P2 in FIG.

以上のように、本実施形態によると、ストロボ発光2回撮影モードが選択された場合に、ストロボ発光撮影画像及び非発光撮影画像の画素ユニット毎に画素ユニット値を取得し、当該画素ユニット値に応じて画素ユニット毎の合成処理を実行するようにしている。これにより、ローリングシャッター方式でストロボ撮影を行なった場合においても、被写体の輝度にかかわらず適切な合成処理画像(撮影画像)を取得することができる。   As described above, according to the present embodiment, when the stroboscopic light emission twice photographing mode is selected, the pixel unit value is acquired for each pixel unit of the stroboscopic light emission photographed image and the non-light emission photographed image, and the pixel unit value is acquired. Accordingly, the composition processing for each pixel unit is performed. As a result, even when strobe shooting is performed by the rolling shutter method, it is possible to obtain an appropriate composite processed image (captured image) regardless of the brightness of the subject.

<その他の実施形態>
以上、本発明の実施形態について説明したが、種々の改変が可能である。
<Other Embodiments>
Although the embodiments of the present invention have been described above, various modifications are possible.

上記実施形態では、ストロボ発光2回撮影モードについて、CPU26は、ストロボ発光撮影に係るシャッター速度をSS2に設定するものとしたが、これに限定されない。例えば、SS2よりも遅いシャッター速度であってもよい。   In the above-described embodiment, the CPU 26 sets the shutter speed relating to the flash emission shooting to SS2 in the flash emission twice shooting mode, but the present invention is not limited to this. For example, the shutter speed may be slower than SS2.

また、上記実施形態のストロボ発光2回撮影モードにおける撮影の順番は、ストロボ非発光撮影とストロボ発光撮影のどちらを先にしてもよい。例えば、ストロボ非発光撮影をした後にストロボ発光撮影をすることにより、被写体が人である場合に、1回目の撮影の後に、撮影が終了したと勘違いして被写体が動いてしまうことを防ぐことができる。また、例えば、ストロボ発光撮影をした後にストロボ非発光撮影をすることにより、撮影操作に対する体感上の応答性を上げることができる。また、ストロボ発光2回撮影モードにおいて、ストロボ非発光撮影及びストロボ発光撮影の撮影回数はそれぞれ1回に限定されない。例えば、複数のストロボ非発光撮影と、複数のストロボ発光撮影とを組み合わせるようにし、撮影された画像の中から最適な画像(例えば、ブレの少ない画像)を用いて前述の画像合成処理をするようにしてもよい。   Further, the order of shooting in the two-flash-flash shooting mode of the above embodiment may be either flash non-flash shooting or flash-flash shooting first. For example, when the subject is a person, it is possible to prevent the subject from moving after the first shooting by mistaking that the shooting is completed by performing the flash shooting after performing the non-flash shooting. it can. Also, for example, by performing non-flash shooting after performing flash shooting, it is possible to improve the tactile response to the shooting operation. Further, in the two-flash flash photographing mode, the number of times of shooting with non-flash and non-flash photography is not limited to one each. For example, a plurality of non-flash flash photography and a plurality of flash flash photography may be combined, and the above-described image combining process may be performed using an optimal image (for example, an image with less blurring) from among the photographed images. You may

また、上記実施形態のストロボ発光2回撮影モードにおける2回目の撮影の後に、CPU26が、ストロボドライバ61に対してストロボ62を発光させるためのトリガ信号を供給するようにしてもよい。このような動作をすることにより、1回目のストロボ発光撮影で、撮影が終了したと勘違いして被写体が動いてしまうことを防ぐことができる。   The CPU 26 may supply a trigger signal for causing the strobe driver 61 to emit light after the second photographing in the two-step strobe emission mode of the above embodiment. By performing such an operation, it is possible to prevent the subject from moving due to misunderstanding that the photographing has been completed in the first flash emission photographing.

本発明によると、ローリングシャッター方式とストロボ発光撮影を組み合わせた場合においても、被写体の輝度にかかわらず適切な画像を得ることができるため、極めて有用である。   According to the present invention, even when the rolling shutter method and the flash light emission photographing are combined, an appropriate image can be obtained regardless of the brightness of the subject, which is extremely useful.

10 撮像装置
22 AE評価回路(輝度情報取得手段)
26 CPU(制御手段)
10 imaging device 22 AE evaluation circuit (brightness information acquisition means)
26 CPU (control means)

Claims (7)

ストロボを備え、ローリングシャッター方式で撮影を行う撮像装置であって、
被写体に前記ストロボを照射し、全画素ラインに当該ストロボの照射光を到達させた少なくとも1回のストロボ発光画像を取得するとともに、前記被写体に前記ストロボを照射せずに少なくとも1回のストロボ非発光画像を取得する撮像手段と、
前記ストロボ発光画像及び前記ストロボ非発光画像の少なくとも一方について、少なくとも1つの画素を含む画素ユニット毎の画素ユニット値を取得する画素ユニット値取得手段と、
前記画素ユニット値に基づいて、前記ストロボ発光画像と前記ストロボ非発光画像との画像合成処理を行う画像合成手段とを備えている
ことを特徴とする撮像装置。
An imaging device that has a strobe and performs shooting with a rolling shutter method,
The subject is illuminated with the strobe, and at least one strobe light emission image in which the illumination light of the strobe reaches all pixel lines is acquired, and the strobe is not illuminated at least once without the strobe. Imaging means for acquiring an image;
Pixel unit value acquisition means for acquiring a pixel unit value for each pixel unit including at least one pixel for at least one of the strobe light emission image and the strobe non-light emission image;
An image pickup apparatus comprising: image combining means for combining the strobe light emission image and the non-flash light emission image based on the pixel unit value.
請求項1記載の撮像装置において、
前記画像合成手段は、前記画素ユニット毎に画像合成処理を行う
ことを特徴とする撮像装置。
In the imaging device according to claim 1,
An image pickup apparatus characterized in that the image combining unit performs an image combining process for each of the pixel units.
請求項1記載の撮像装置において、
前記画素ユニット値は、前記画素ユニットに含まれる少なくとも1つの画素に基づく輝度値である
ことを特徴とする撮像装置。
In the imaging device according to claim 1,
The image pickup apparatus, wherein the pixel unit value is a luminance value based on at least one pixel included in the pixel unit.
請求項1記載の撮像装置において、
前記画素ユニット値は、前記画素ユニットに含まれる少なくとも1つの画素に基づく画素値である
ことを特徴とする撮像装置。
In the imaging device according to claim 1,
The image pickup apparatus, wherein the pixel unit value is a pixel value based on at least one pixel included in the pixel unit.
請求項1記載の撮像装置において、
露光時間を演算する露光時間演算手段をさらに備え、
前記撮像手段は、前記ストロボ発光画像を取得する場合に、前記露光時間演算手段で演算された露光時間よりも長い露光時間により画像を取得する
ことを特徴とする撮像装置。
In the imaging device according to claim 1,
It further comprises exposure time calculation means for calculating the exposure time,
An imaging unit configured to acquire an image with an exposure time longer than an exposure time calculated by the exposure time calculation unit when acquiring the strobe light emission image;
請求項1記載の撮像装置において、
前記画像合成手段は、前記ストロボ発光画像及び前記ストロボ非発光画像の対応する画素ユニット同士を、前記画素ユニット値に応じた比率で合成する
ことを特徴とする撮像装置。
In the imaging device according to claim 1,
An image combining unit configured to combine corresponding pixel units of the strobe light emission image and the strobe non-light emission image at a ratio according to the pixel unit value.
請求項1から6のうちのいずれか1項に記載の撮像装置において、
被写体の輝度情報を取得する輝度情報取得手段をさらに備え、
前記被写体の輝度情報に基づいて、前記ストロボ発光画像を取得する第1撮影モード、前記ストロボ発光画像及び前記ストロボ非発光画像をそれぞれ少なくとも1回ずつ取得する第2撮影モード、または、前記ストロボ非発光画像を取得する第3撮影モードから適用する撮影モードを選択し、当該選択された撮影モードに基づいて前記ストロボ及び前記撮像手段を制御する制御手段をさらに備え、
前記画像合成手段は、前記第2撮影モードが選択された場合に、前記画像合成処理を行う
ことを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 6.
It further comprises luminance information acquisition means for acquiring luminance information of the subject,
A first photographing mode for acquiring the strobe light emission image based on luminance information of the subject; a second photographing mode for acquiring the strobe light emission image and the strobe non-light emission image at least once each; A control unit is further provided which selects a shooting mode to be applied from a third shooting mode for obtaining an image, and controls the strobe and the imaging unit based on the selected shooting mode.
An image pickup apparatus characterized in that the image combining unit performs the image combining process when the second shooting mode is selected.
JP2017084235A 2017-04-21 2017-04-21 Imaging device Active JP6935969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017084235A JP6935969B2 (en) 2017-04-21 2017-04-21 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017084235A JP6935969B2 (en) 2017-04-21 2017-04-21 Imaging device

Publications (2)

Publication Number Publication Date
JP2018182678A true JP2018182678A (en) 2018-11-15
JP6935969B2 JP6935969B2 (en) 2021-09-15

Family

ID=64277037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017084235A Active JP6935969B2 (en) 2017-04-21 2017-04-21 Imaging device

Country Status (1)

Country Link
JP (1) JP6935969B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115514901A (en) * 2022-09-09 2022-12-23 维沃移动通信有限公司 Exposure time adjusting method and circuit thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036978A (en) * 2005-07-29 2007-02-08 Eastman Kodak Co Digital camera, photographing method and photography control program
JP2008199518A (en) * 2007-02-15 2008-08-28 Olympus Corp Camera
JP2014068278A (en) * 2012-09-27 2014-04-17 Canon Inc Photographing device
JP2014090511A (en) * 2014-01-23 2014-05-15 Casio Comput Co Ltd Imaging apparatus, image processing method and program
JP2015126299A (en) * 2013-12-25 2015-07-06 キヤノン株式会社 Image processing apparatus, control method thereof, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036978A (en) * 2005-07-29 2007-02-08 Eastman Kodak Co Digital camera, photographing method and photography control program
JP2008199518A (en) * 2007-02-15 2008-08-28 Olympus Corp Camera
JP2014068278A (en) * 2012-09-27 2014-04-17 Canon Inc Photographing device
JP2015126299A (en) * 2013-12-25 2015-07-06 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2014090511A (en) * 2014-01-23 2014-05-15 Casio Comput Co Ltd Imaging apparatus, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115514901A (en) * 2022-09-09 2022-12-23 维沃移动通信有限公司 Exposure time adjusting method and circuit thereof

Also Published As

Publication number Publication date
JP6935969B2 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
US7379094B2 (en) Electronic still imaging apparatus and method having function for acquiring synthesis image having wide-dynamic range
CN101877765B (en) Image transforming apparatus and method of controlling operation of same
US8576304B2 (en) Imaging apparatus and control method thereof
JP5408053B2 (en) Image processing apparatus and image processing method
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2017220892A (en) Image processing device and image processing method
CN105516611A (en) An imaging device and a shooting method
CN101076997B (en) Camera and image processing method for camera
JP4136464B2 (en) Imaging apparatus and imaging method
JP2017022610A (en) Image processing apparatus and image processing method
JP5984975B2 (en) Imaging apparatus, imaging method, and program
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US7486884B2 (en) Imaging device and imaging method
JP5246590B2 (en) Imaging apparatus, image generation method, and program
US20120274801A1 (en) Imaging apparatus and control method thereof
US20120320238A1 (en) Image processing system, camera system and image capture and synthesis method thereof
JP6296909B2 (en) Image processing apparatus, image processing method, and image processing program
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP2013062689A (en) Imaging apparatus, control method thereof and program
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2013085040A (en) Image processing apparatus
JP2018182678A (en) Imaging apparatus
US11336802B2 (en) Imaging apparatus
JP2008042746A (en) Camera, photographing control method and program
JP6360409B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6935969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250