[go: up one dir, main page]

JP2019008081A - Imaging device and camera system - Google Patents

Imaging device and camera system Download PDF

Info

Publication number
JP2019008081A
JP2019008081A JP2017122697A JP2017122697A JP2019008081A JP 2019008081 A JP2019008081 A JP 2019008081A JP 2017122697 A JP2017122697 A JP 2017122697A JP 2017122697 A JP2017122697 A JP 2017122697A JP 2019008081 A JP2019008081 A JP 2019008081A
Authority
JP
Japan
Prior art keywords
light emission
main subject
emission amount
light
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017122697A
Other languages
Japanese (ja)
Inventor
隆之 周
Takayuki Shu
隆之 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017122697A priority Critical patent/JP2019008081A/en
Publication of JP2019008081A publication Critical patent/JP2019008081A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging device that enables light to be emitted with proper brightness upon rear curtain synchronization light emission picture-taking.SOLUTION: An imaging device has: a light emission device; a first image pick-up element; light emission-amount determination means that conducts pre-light emission prior to picture-taking, and determines an amount of light emission upon the picture-taking on the basis of pre-light emission information; rear curtain synchronization control means that controls light emission in synchronization with rear curtain travelling; light emission-amount correction means that corrects an amount of light emission upon the rear curtain light emission from the amount of light emission determined by the light emission-amount determination means; main subject identification means that identifies a main subject from inside a picture-taking area; and distance distribution information generation means that acquires distance distribution information on the picture-taking area. The main subject identification means is configured to: identify a main subject position upon synchronization light emission from the distance distribution information periodically generated during exposure of the first image pick-up element; and correct an amount of light emission upon the synchronization light emission from main subject position information.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及びカメラシステムに関し、特にストロボの制御に関する。   The present invention relates to an imaging apparatus and a camera system, and more particularly to control of a strobe.

従来、カメラでは、暗所での撮影の補助光として、ストロボを内蔵したり、別体のストロボを装着したりすることで、夜間など暗い場所でも鮮明な写真を撮ることが可能となっている。   Conventionally, cameras can take clear pictures even in dark places such as at night by using a built-in strobe or a separate strobe as auxiliary light for shooting in a dark place. .

このような従来のカメラのストロボでは、レリーズ時の本撮像の前にプリ発光を行い、プリ撮像画像から被写体の輝度レベルと、適正調光レベルの差を求め、その差に応じて、実際の撮像時の発光量(メイン発光量)を決定して撮像を行うようになっている。   In such a conventional camera strobe, pre-flash is performed before the actual imaging at the time of release, and the difference between the luminance level of the subject and the appropriate dimming level is obtained from the pre-captured image, and the actual flash level is determined according to the difference. Imaging is performed by determining a light emission amount (main light emission amount) at the time of imaging.

特許文献1には、プリ発光時の画像から被写体の顔を検出し、検出された顔領域に応じてメイン発光量を算出する技術が開示されている。特許文献2には、プリ発光時と撮影直前の被写体距離情報から、メイン発光量を補正する技術が開示されている。   Patent Document 1 discloses a technique for detecting a face of a subject from an image at the time of pre-flash and calculating a main flash amount according to the detected face area. Patent Document 2 discloses a technique for correcting the main light emission amount from subject distance information at the time of pre-light emission and immediately before photographing.

特開2015−184508号公報Japanese Patent Laying-Open No. 2015-184508 特開2003−66504号公報JP 2003-66504 A

しかしながら、上述の特許文献に開示された従来技術では、後幕シンクロ発光撮影において露光中に被写体が動いた場合、プリ発光に基づいて算出されたメイン発光量で発光すると、カメラと被写体の位置関係の変化に起因し、適切な発光量とならないことがある。   However, in the prior art disclosed in the above-mentioned patent document, when the subject moves during exposure in the rear curtain sync flash photography, if the light is emitted with the main flash amount calculated based on the pre-flash, the positional relationship between the camera and the subject The light emission amount may not be appropriate due to the change of.

後幕シンクロ発光で撮影する例として、暗中で人物が手に持ったLEDライトなどの光の軌跡を露光した後に、人物が撮影のためのポーズをとったタイミングでストロボを発光し露光を終了するように撮影する場合がある。このような場合、種々の光の軌跡を描くために、人物は様々な方向に移動するため、プリ発光時とメイン発光時で人物が移動しており、発光量が不適切な場合がある。   As an example of shooting with rear-curtain sync flash, after exposing a light trail such as an LED light held by a person in the dark, the strobe is fired when the person takes a pose for shooting, and the exposure ends. You may shoot like this. In such a case, since the person moves in various directions in order to draw various light trajectories, the person moves during pre-light emission and main light emission, and the light emission amount may be inappropriate.

そこで、本発明の目的は、後幕シンクロ発光撮影時に、適切な明るさで発光することを可能にした撮像装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus capable of emitting light with appropriate brightness at the time of rear curtain sync flash photography.

上記の目的を達成するために、本発明に係る撮像装置は、
発光装置と、
第一の撮像素子と、
撮影前にプリ発光を行い、プリ発光情報に基づいて撮影時の発光量を決定する発光量決定手段と、
シャッターの後幕走行にシンクロして発光を制御する後幕シンクロ制御手段と、
後幕シンクロ発光時の発光量を、前記発光量決定手段で決定した発光量から補正する発光量補正手段と、
撮影領域内から主被写体を特定する主被写体特定手段と、
撮影領域の距離分布情報を取得する距離分布情報生成手段を有し、
主被写体特定手段は、前記第一の撮像素子の露光中に周期的に生成された前記距離分布情報から、シンクロ発光時の主被写体位置を特定し、主被写体位置情報から、シンクロ発光時の発光量を補正することを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention includes:
A light emitting device;
A first image sensor;
A light emission amount determining means for performing pre-light emission before shooting and determining the light emission amount at the time of shooting based on the pre-flash information;
Rear curtain sync control means for controlling the light emission by synchronizing with the shutter running of the rear curtain;
A light emission amount correcting means for correcting the light emission amount in the rear curtain sync light emission from the light emission amount determined by the light emission amount determining means;
Main subject identification means for identifying the main subject from within the shooting area;
Having distance distribution information generating means for acquiring distance distribution information of the imaging region;
The main subject specifying means specifies a main subject position at the time of sync light emission from the distance distribution information periodically generated during exposure of the first image sensor, and emits light at the time of sync light emission from the main subject position information. It is characterized by correcting the amount.

本発明によれば、後幕シンクロ発光撮影時に適切な明るさで発光することを可能にした撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of emitting light with appropriate brightness at the time of rear curtain sync flash photography.

本発明の第1の実施形態にかかるカメラと交換レンズ及びストロボの断面図Sectional drawing of the camera, the interchangeable lens, and the strobe according to the first embodiment of the present invention 本発明の第1の実施形態にかかるカメラ本体の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of a camera body according to a first embodiment of the present invention. 本発明のカメラの動作を示すフローチャートThe flowchart which shows operation | movement of the camera of this invention. 本発明のプリ発光・メイン発光量演算のフローチャートFlowchart of pre-emission / main emission amount calculation of the present invention 本発明の主被写体位置特定のフローチャートFlowchart of main subject position specification of the present invention 主被写体の距離情報に基づく発光補正量を説明するための図The figure for demonstrating the light emission correction amount based on the distance information of the main subject 主被写体の画面内位置に基づく発光補正量算出のためのテーブルTable for calculating the amount of light emission correction based on the position of the main subject in the screen 本発明のメイン発光量補正の概念図Conceptual diagram of main light emission amount correction of the present invention 本発明のメイン発光量補正の概念図Conceptual diagram of main light emission amount correction of the present invention 本発明のメイン発光量補正の概念図Conceptual diagram of main light emission amount correction of the present invention 本発明のメイン発光量補正の概念図Conceptual diagram of main light emission amount correction of the present invention 本発明の第1の実施形態にかかるカメラの動作を示すタイミングチャート1 is a timing chart showing the operation of the camera according to the first embodiment of the present invention. 本発明の第2の実施形態にかかるカメラと交換レンズ及びストロボの断面図Sectional drawing of the camera, interchangeable lens, and strobe concerning the 2nd Embodiment of this invention 本発明の第2の実施形態にかかるカメラ本体の概略構成を示すブロック図The block diagram which shows schematic structure of the camera main body concerning the 2nd Embodiment of this invention. 本発明の第2の実施形態にかかるカメラの動作を示すタイミングチャートTiming chart showing the operation of the camera according to the second embodiment of the present invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわるカメラと交換レンズ及びストロボの断面図である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a cross-sectional view of a camera, an interchangeable lens, and a strobe according to an embodiment of the present invention.

以下、図1を参照して、本発明の第1の実施形態による、カメラの構成について説明する。本図においてはレンズ交換可能なカメラの構成を示している。   The configuration of the camera according to the first embodiment of the present invention will be described below with reference to FIG. This figure shows the configuration of a camera with interchangeable lenses.

図1において、1はカメラ本体、2は交換レンズ、3は着脱可能なストロボである。315はレンズ接続のためのレンズマウント接点部,314はストロボを取り付けられる接続部である。撮影レンズ2を介して入射した被写体からの光束は、撮像センサ206上に結像され、被写体像の露光が行われる。   In FIG. 1, 1 is a camera body, 2 is an interchangeable lens, and 3 is a detachable strobe. Reference numeral 315 denotes a lens mount contact portion for lens connection, and 314 denotes a connection portion to which a strobe is attached. The light flux from the subject incident through the photographing lens 2 forms an image on the image sensor 206, and the subject image is exposed.

209は距離センサであり、例えば、TOF(Time Of Flight)法を用いて距離情報を取得するセンサである。TOF法は、被写体への投光から反射光を受けるまでの遅延時間を測定して距離情報を取得するものである。   Reference numeral 209 denotes a distance sensor, for example, a sensor that acquires distance information using a TOF (Time Of Flight) method. In the TOF method, distance information is acquired by measuring a delay time from light projection onto a subject to reception of reflected light.

210は撮影した静止画像や動画像等を表示する表示部である。316はシャッター機構であり、撮影レンズ2を通ってきた光学像の露光時間の制御と遮光を行う。
また、本発明は、レンズやストロボは着脱可能な構成である必要はなく、レンズ固定式のカメラ、あるいはストロボ機能を内蔵しているカメラにも応用できる。
A display unit 210 displays captured still images, moving images, and the like. Reference numeral 316 denotes a shutter mechanism that controls exposure time and shields an optical image that has passed through the photographing lens 2.
Further, the present invention does not require a lens or strobe to be detachable, and can also be applied to a lens-fixed camera or a camera incorporating a strobe function.

図2は、カメラ本体の概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic configuration of the camera body.

カメラ用マイクロコンピュータ(CPU)100には、カメラの各種操作用のスイッチ群214を検知するための信号入力回路204、CMOSセンサやCCD等により構成される撮像センサ(撮像素子)206が接続されている。また、シャッターマグネット218a、218bを制御するためのシャッター制御回路208が接続されている。撮影レンズ2とはレンズ通信回路205、レンズマウント接点部315を介して、焦点位置や絞りの制御を行う。また、ストロボ3とはストロボ通信回路205、ストロボ接続部314を介して、発光タイミングや発光量の制御を行う。   Connected to the camera microcomputer (CPU) 100 are a signal input circuit 204 for detecting a switch group 214 for various operations of the camera, and an image sensor (image sensor) 206 composed of a CMOS sensor, a CCD, or the like. Yes. In addition, a shutter control circuit 208 for controlling the shutter magnets 218a and 218b is connected. The photographic lens 2 controls the focal position and the aperture through the lens communication circuit 205 and the lens mount contact portion 315. Further, the flash unit 3 controls the light emission timing and the light emission amount through the flash communication circuit 205 and the flash connection unit 314.

カメラの動作は、スイッチ群214を撮影者が操作することで決定される。スイッチ群214には、レリーズボタンやダイヤルなどが含まれる。   The operation of the camera is determined by the photographer operating the switch group 214. The switch group 214 includes a release button, a dial, and the like.

CPU100は撮像センサ206を制御することで被写体の輝度を検出し、撮影レンズ2の絞り値やシャッタースピードを決定する。また、CPU100は撮像センサ206を制御することで撮影レンズの焦点状態を検出し、撮影レンズ2を適切な焦点状態なるように制御する。さらに、CPU100は距離センサ209を制御することで、撮影領域の距離分布情報を取得する。そして、レンズ通信回路205を介して撮影レンズ300の絞り値を制御し、シャッター制御回路208を介してマグネット218a、218bの通電時間を調節することでシャッタースピードを制御し、さらに撮像センサ206を制御することで撮影動作を行う。   The CPU 100 controls the image sensor 206 to detect the brightness of the subject and determines the aperture value and shutter speed of the taking lens 2. Further, the CPU 100 detects the focus state of the photographing lens by controlling the image sensor 206 and controls the photographing lens 2 so as to be in an appropriate focus state. Further, the CPU 100 controls the distance sensor 209 to acquire distance distribution information of the shooting area. Then, the aperture value of the photographing lens 300 is controlled via the lens communication circuit 205, the shutter speed is controlled by adjusting the energization time of the magnets 218a and 218b via the shutter control circuit 208, and the image sensor 206 is further controlled. The shooting operation is performed.

上記のように構成されたカメラのストロボ発光撮影の動作を、図3に示すフローチャートを用いて説明する。ここでは、撮影者の設定操作により、後幕シンクロ発光モードが設定されているものとする。後幕シンクロ発光とは、撮影時にシャッターが閉じはじめる直前に発光するモードである。後幕シンクロ撮影は低照度環境で撮影される場合が多いが、本実施形態では、TOF型の距離センサで距離分布情報を取得するため、環境光量が低照度であっても影響が小さい。   The strobe flash shooting operation of the camera configured as described above will be described with reference to the flowchart shown in FIG. Here, it is assumed that the rear curtain sync flash mode is set by the photographer's setting operation. The trailing curtain sync light emission is a mode in which light is emitted immediately before the shutter starts to close during photographing. In many cases, the rear curtain sync shooting is performed in a low illumination environment. However, in this embodiment, since the distance distribution information is acquired by a TOF type distance sensor, the influence is small even if the ambient light intensity is low.

ステップS300において、CPU100はレリーズボタンが第1のストロークまで押し込まれるとONするスイッチSW1の状態を監視している。スイッチSW1がオンしているとステップS301へと進み、AF及びAE動作をする。AF動作とは、撮像センサ206から得られる信号から、撮影レンズの焦点状態を検出するAF演算を行い、レンズ駆動をして焦点状態を調節する動作である。AE動作とは、撮像センサ206から得られる信号から被写体輝度を算出するものである。   In step S300, the CPU 100 monitors the state of the switch SW1 that is turned on when the release button is pushed down to the first stroke. If the switch SW1 is on, the process proceeds to step S301, and AF and AE operations are performed. The AF operation is an operation of adjusting the focus state by driving the lens by performing AF calculation for detecting the focus state of the photographing lens from the signal obtained from the image sensor 206. The AE operation is to calculate subject luminance from a signal obtained from the image sensor 206.

次にステップS302において、CPU100は、レリーズボタンが第2のストロークまで押し込まれたときにONするスイッチSW2の状態を監視し、スイッチSW2がオンとなるとステップS303へと進み、プリ発光及びメイン発光量演算を行う。   Next, in step S302, the CPU 100 monitors the state of the switch SW2 that is turned on when the release button is pushed down to the second stroke. When the switch SW2 is turned on, the process proceeds to step S303, where the pre-light emission and the main light emission amount are detected. Perform the operation.

図4は、プリ発光及びメイン発光量演算のフローチャートである。   FIG. 4 is a flowchart of pre-light emission and main light emission amount calculation.

ステップS400では、CPU100は、プリ発光前測光用の信号蓄積と測光信号の読み出しをするように撮像センサ206を制御する。プリ発光前測光用の信号蓄積とは、ストロボを発光させないで状態で撮像センサ206を蓄積制御し、ストロボ光ではない外光による被写体の輝度値を算出するための信号蓄積処理である。   In step S <b> 400, the CPU 100 controls the image sensor 206 so as to accumulate a signal for photometry before pre-emission and to read a photometry signal. The signal accumulation for photometry before pre-flash is a signal accumulation process for controlling the accumulation of the image sensor 206 without causing the strobe to emit light and calculating the luminance value of the subject due to the external light that is not the strobe light.

ステップS401では、CPU100は、プリ発光反射光測光用蓄積の信号蓄積をするように、撮像センサ206を制御する。プリ発光反射光測光用蓄積とは、ストロボを発光させて、撮像センサ206を蓄積制御し、ストロボ光の反射光による被写体の輝度値を算出するための信号蓄積処理である。この際、撮像センサ206に蓄積される信号は、ストロボ発光反射光とストロボ光ではない外光が混合したものである。   In step S <b> 401, the CPU 100 controls the image sensor 206 so as to accumulate the pre-emission reflected light photometric accumulation signal. The pre-emission reflected light metering accumulation is a signal accumulation process for calculating the luminance value of the subject by the reflected light of the strobe light by controlling the accumulation of the image sensor 206 by emitting the strobe light. At this time, the signal accumulated in the image sensor 206 is a mixture of strobe light emission reflected light and non-strobe light outside light.

ステップS402では、CPU100は、ステップS401において撮像センサ206で取得した画像から、人の顔位置を検知する。   In step S402, the CPU 100 detects a human face position from the image acquired by the imaging sensor 206 in step S401.

ステップS403では、CPU100は、距離センサ209から得られる信号から、撮影領域の距離分布情報を取得する。   In step S <b> 403, the CPU 100 acquires distance distribution information of the imaging region from a signal obtained from the distance sensor 209.

ステップS404では、CPU100は、ステップS402で検知された顔の数を判定し、その数が「0」の場合はステップS405に進み、「1」の場合はステップS406に進み、「複数」の場合はステップS407へと処理を進める。   In step S404, the CPU 100 determines the number of faces detected in step S402. If the number is “0”, the process proceeds to step S405. If the number is “1”, the process proceeds to step S406. Advances the process to step S407.

S405において、CPU100は、AF領域と合致した領域を主被写体領域とし、領域内の輝度を算出する。「AF領域」とは、撮影者が選択したAF領域や、ステップS301の「AF/AE動作」にて決定されたAF領域である。   In step S <b> 405, the CPU 100 calculates the luminance in the area using the area that matches the AF area as the main subject area. The “AF area” is an AF area selected by the photographer or an AF area determined by the “AF / AE operation” in step S301.

S406において、CPU100は、顔が検知された領域を主被写体領域とし、領域内の輝度を算出する。   In S <b> 406, the CPU 100 calculates the luminance in the area by setting the area where the face is detected as the main subject area.

S407において、CPU100は、S403で得られた撮影領域の距離分布情報に基づき、最も近い顔が検知された領域を主被写体領域とし、領域内の輝度を算出する。   In S407, based on the distance distribution information of the shooting area obtained in S403, the CPU 100 sets the area where the closest face is detected as the main subject area, and calculates the luminance in the area.

ステップS408では、CPU100は、撮影時の主被写体領域内の輝度が適正輝度となるストロボ発光量(メイン発光量)を算出する。例えば、プリ発光によるプリ撮像の画像信号レベルが適正レベルである場合は、プリ発光と同じ発光量で良く、また例えば、プリ撮像の画像信号レベルが1段階下回っている場合は、プリ発光の2倍の発光量に設定する等の処理を行う。ステップS400とステップS401で得られた信号の差分からストロボ光ではない外光を除去したプリ発光反射光を算出し、撮影時のストロボ発光量(メイン発光量)を算出する。   In step S408, the CPU 100 calculates a strobe light emission amount (main light emission amount) at which the luminance in the main subject area at the time of shooting is appropriate. For example, if the image signal level of pre-imaging by pre-emission is an appropriate level, the same amount of light emission as that of pre-emission may be used. Processing such as setting the light emission amount to double is performed. Pre-emission reflected light from which external light that is not strobe light is removed is calculated from the difference between the signals obtained in steps S400 and S401, and a strobe light emission amount (main light emission amount) at the time of photographing is calculated.

図3に戻り、ステップS304、S305では、CPU100がシャッター316と撮像センサ206を制御することにより、撮像センサ206の露光動作を行う。   Returning to FIG. 3, in steps S <b> 304 and S <b> 305, the CPU 100 controls the shutter 316 and the image sensor 206 to perform the exposure operation of the image sensor 206.

ステップS306では、CPU100は、距離センサ209から得られる信号から、撮影領域の距離分布情報を取得する。   In step S306, the CPU 100 acquires distance distribution information of the imaging region from a signal obtained from the distance sensor 209.

ステップS307では、CPU100は、撮影領域の距離分布情報の時間変化から主被写体位置の特定をする。   In step S307, the CPU 100 specifies the position of the main subject from the temporal change in the distance distribution information of the shooting area.

図5に主被写体位置特定のためのフローチャートを示す。   FIG. 5 shows a flowchart for specifying the main subject position.

ステップS500では、CPU100は、直前に取得した撮影領域の距離分布情報と、それまでに取得した撮影領域の距離分布情報のフレーム相関情報を算出する。   In step S500, the CPU 100 calculates frame correlation information of the distance distribution information of the shooting area acquired immediately before and the distance distribution information of the shooting area acquired so far.

ステップS501では、CPU100は、ステップS500で算出したフレーム相関情報から、主被写体の位置を特定する。   In step S501, the CPU 100 specifies the position of the main subject from the frame correlation information calculated in step S500.

ステップS502では、CPU100は、主被写体が撮影領域からフレームアウトしたか否かを判定する。ステップS501で主被写体位置が特定できない場合、撮影領域からフレームアウトしたと判定する。主被写体が撮影領域からフレームアウトしていた場合、CPU100は、ステップS503へと処理を進める。一方、主被写体が撮影領域からフレームアウトしていない場合、CPU100は、ステップS504へと処理を進める。   In step S502, the CPU 100 determines whether or not the main subject has been out of frame from the shooting area. If the main subject position cannot be specified in step S501, it is determined that the frame is out of the shooting area. If the main subject is out of the frame from the shooting area, the CPU 100 advances the process to step S503. On the other hand, if the main subject is not out of the frame of the shooting area, the CPU 100 advances the process to step S504.

ステップS503では、CPU100は、主被写体が撮影領域からフレームアウトした画面内に、他の動体が存在するか否かを判定する。動体が存在していない場合、CPU100はステップS505へ処理を進め、AF領域と合致した領域を主被写体領域に設定する。動体が存在していた場合、CPU100はステップS506へ処理を進め、検出した動体の内、最も距離が近い動体を主被写体として特定する。   In step S503, the CPU 100 determines whether or not another moving object exists in the screen in which the main subject is out of the shooting area. If there is no moving object, the CPU 100 advances the process to step S505 to set an area that matches the AF area as the main subject area. If there is a moving object, the CPU 100 advances the processing to step S506, and identifies the moving object having the closest distance among the detected moving objects as the main subject.

ステップS504では、CPU100は、主被写体以外の動体が存在するか否かを判定する。動体が存在していた場合、CPU100はステップS507へ処理を進め、それまでの主被写体と、検出された動体の内、カメラからの距離が近い方を主被写体として特定する。カメラからの距離が近い方を主被写体を主被写体とすることで、元々の主被写体以外の被写体がフレームインしてきた際の、発光による白とびを防ぐ。動体が存在していない場合、CPU100は、主被写体を更新せず、主被写体位置特定を終了する。   In step S504, the CPU 100 determines whether there is a moving object other than the main subject. If there is a moving object, the CPU 100 advances the process to step S507, and identifies the main object up to that point and the detected moving object that is closer to the camera as the main object. By using the main subject as the main subject that is closer to the camera, it is possible to prevent overexposure due to light emission when a subject other than the original main subject enters the frame. If there is no moving object, the CPU 100 does not update the main subject and ends the main subject position specification.

図3に戻り、ステップS308では、CPU100は、露光時間が所定時間経過したか否かを判定する。所定時間は、撮影者が設定したシャッタースピードに応じて決定される。所定時間が経過するまでステップS306、S307、S308を繰り返し、周期的に撮影領域の距離分布情報の取得し、主被写体位置の特定を続ける。周期的に主被写体位置の特定をすることにより、主被写体の位置を精度よく特定することができる。例えば、図8(b)に示すように、プリ発光時に人物が障害物より前に位置し人物が主被写体と特定され、その後人物が移動し、メイン発光時には障害物より後ろに位置したものとする。この時、撮像センサ206は露光中のため、撮像センサ206の画像を用いた顔検知は不可能である。またプリ発光の後メイン発光直前のみ距離分布情報を取得した場合、距離分布情報から検出された近距離に位置する物体が、人物であるか否かの判定はできない。このように、メイン発光時のみに被写体情報を取得しただけでは、人物の動きを捕捉できず、障害物を主被写体と誤認識してしまう可能性がある。これに対し、周期的に撮影領域の距離分布情報の取得し、主被写体位置の特定を続けることにより、主被写体の動きを連続的に補足することができ、主被写体の誤認識を防ぐことができる。ステップS308で所定時間が経過したと判定すると、CPU100は処理をステップS309へと進める。   Returning to FIG. 3, in step S308, the CPU 100 determines whether or not the exposure time has elapsed. The predetermined time is determined according to the shutter speed set by the photographer. Steps S306, S307, and S308 are repeated until a predetermined time elapses, and the distance distribution information of the imaging region is periodically acquired to continue specifying the main subject position. By periodically specifying the main subject position, the position of the main subject can be specified with high accuracy. For example, as shown in FIG. 8B, a person is positioned in front of an obstacle during pre-flash and the person is identified as a main subject, and then the person moves and is positioned behind the obstacle during main flash. To do. At this time, since the image sensor 206 is under exposure, face detection using the image of the image sensor 206 is impossible. Further, when the distance distribution information is acquired only after the pre-light emission and immediately before the main light emission, it cannot be determined whether or not the object located at a short distance detected from the distance distribution information is a person. As described above, if the subject information is acquired only at the time of the main light emission, the movement of the person cannot be captured, and there is a possibility that the obstacle is erroneously recognized as the main subject. On the other hand, by periodically acquiring the distance distribution information of the shooting region and continuing to specify the main subject position, the movement of the main subject can be supplemented continuously, and erroneous recognition of the main subject can be prevented. it can. If it is determined in step S308 that the predetermined time has elapsed, the CPU 100 advances the process to step S309.

ステップS309では、CPU100は、ステップS303で決定したメイン発光量を、ステップS306、S307を繰り返すことで特定した主被写体位置に基づいて補正する。まず、プリ発光時に取得したカメラと主被写体位置との奥行き方向の距離(Z1)と、所定時間経過時のカメラと主被写体位置との奥行き方向の距離(Z2)からメイン発光量を補正する。図6に奥行き方向の距離の比率Z2/Z1と発光補正量の関係を示す。例えば、メイン発光時に主被写体が遠ざかり、Z2/Z1=√2であった場合、メイン発光時に被写体から反射して到達する光は1/2に減衰する。従って、メイン発光量を2倍に補正する。   In step S309, the CPU 100 corrects the main light emission amount determined in step S303 based on the main subject position specified by repeating steps S306 and S307. First, the main light emission amount is corrected based on the distance in the depth direction (Z1) between the camera and the main subject position acquired during pre-flash and the distance in the depth direction (Z2) between the camera and the main subject position when a predetermined time has elapsed. FIG. 6 shows the relationship between the distance ratio Z2 / Z1 in the depth direction and the light emission correction amount. For example, when the main subject moves away during main light emission and Z2 / Z1 = √2, the light reflected and arrived from the subject during main light emission is attenuated to ½. Therefore, the main light emission amount is corrected by a factor of two.

次に、プリ発光時と所定時間経過時の被写体の画面上位置(XY方向)と、ストロボの配光特性に基づき、メイン発光量を補正する。図7は、ストロボ配光特性に基づいた補正のためのテーブルである。   Next, the main light emission amount is corrected based on the on-screen position (XY direction) of the subject at the time of pre-emission and the elapse of a predetermined time and the light distribution characteristics of the strobe. FIG. 7 is a table for correction based on the strobe light distribution characteristic.

例えば、プリ発光時の主被写体の画面上位置が(X,Y)=(−3,−2)であった場合、補正テーブルの値は2.5である。一方、所定時間経過時の主被写体の画面上位置が(X,Y)=(1,0)であった場合、補正テーブルの値は0.5である。従って、メイン発光量を1/4(=2^(0.5−2.5))に補正する。ストロボの配光特性情報は、カメラとストロボとの通信により取得されるストロボ情報に基づき、ストロボ毎に生成される。   For example, when the position of the main subject on the screen at the time of pre-emission is (X, Y) = (− 3, −2), the value of the correction table is 2.5. On the other hand, when the position of the main subject on the screen when the predetermined time has elapsed is (X, Y) = (1, 0), the value of the correction table is 0.5. Therefore, the main light emission amount is corrected to ¼ (= 2 ^ (0.5−2.5)). The light distribution characteristic information of the strobe is generated for each strobe based on the strobe information acquired by communication between the camera and the strobe.

以上のように算出されたカメラと被写体位置との距離から算出した補正量と被写体の画面上位置から算出した補正量を合わせ、プリ発光量で算出したメイン発光量から後幕シンクロ発光時のメイン発光量を補正する。前述した例では、プリ発光量で算出したメイン発光量から1/2(=2×1/4)とした発光量を後幕シンクロ発光時のメイン発光量とする。   The correction amount calculated from the distance between the camera and the subject position calculated as described above and the correction amount calculated from the on-screen position of the subject are combined, and the main flash amount at the time of rear curtain sync flash is calculated from the main flash amount calculated from the pre-flash amount. Correct the flash output. In the above-described example, the light emission amount that is 1/2 (= 2 × 1/4) from the main light emission amount calculated by the pre-light emission amount is set as the main light emission amount in the rear curtain sync light emission.

以上述べたような主被写体特定と発光量補正の概念図を図8(a)乃至(d)に示す。主被写体がカメラに近づいた場合は発光量を減らし、主被写体がカメラから遠ざかった場合は発光量を増やす。主被写体が画面の中央に移動した場合は発光量を減らし、主被写体が画面の周辺領域に移動した場合は発光量を増やす。連続的に取得した距離情報分布履歴から、メイン発光タイミングの被写体位置を予測して発光量を補正してもよい。   FIGS. 8A to 8D show conceptual diagrams of main subject identification and light emission amount correction as described above. When the main subject approaches the camera, the light emission amount is reduced, and when the main subject moves away from the camera, the light emission amount is increased. When the main subject moves to the center of the screen, the light emission amount is reduced, and when the main subject moves to the peripheral area of the screen, the light emission amount is increased. The light emission amount may be corrected by predicting the subject position at the main light emission timing from the continuously acquired distance information distribution history.

ステップ310では、CPU100は、撮影のためのストロボを制御し、撮影のためのメイン発光制御をする。   In step 310, the CPU 100 controls a strobe for photographing and performs main light emission control for photographing.

ステップ311では、CPU100は、撮像センサ206の露光を終了させ、シャッターを閉じて撮影動作を終了する。   In step 311, the CPU 100 ends the exposure of the image sensor 206, closes the shutter, and ends the shooting operation.

以上述べた動作のタイミングチャートを、図9に示す。   FIG. 9 shows a timing chart of the operation described above.

距離センサ209は、プリ発光からメイン発光までの距離分布情報履歴を取得し続け、撮像センサ206の露光中の主被写体位置を特定し続ける。   The distance sensor 209 continues to acquire the distance distribution information history from the pre-light emission to the main light emission, and continues to specify the main subject position during the exposure of the image sensor 206.

記の通り本発明の第1の実施形態によれば、後幕シンクロ時に、撮像センサの露光中に、距離センサから撮影両機の距離分布情報を取得し、主被写体位置を特定する。この主被写体位置情報に基づき、プリ発光で決定したメイン発光量を補正する。このことにより、撮像センサの露光中に被写体が動いたとしても、適切な発光量でストロボを発光することができ、良好な画像が撮影できる。   As described above, according to the first embodiment of the present invention, during the second curtain synchronization, during the exposure of the image sensor, the distance distribution information of both photographing devices is acquired from the distance sensor, and the main subject position is specified. Based on the main subject position information, the main light emission amount determined by the pre-light emission is corrected. As a result, even if the subject moves during the exposure of the image sensor, the strobe can be emitted with an appropriate amount of light emission, and a good image can be taken.

本実施形態では、撮影者が事前にシャッタースピードを設定するものとして説明したが、バルブ撮影モードでも有効である。撮影者が任意のタイミングでレリーズボタンを離したとしても、常に被写体位置を特定できているため、当該タイミングでの被写体位置に基づき、メイン発光量を補正することができる。   In the present embodiment, the photographer sets the shutter speed in advance, but it is also effective in the bulb photography mode. Even if the photographer releases the release button at an arbitrary timing, the subject position can always be specified, so that the main light emission amount can be corrected based on the subject position at the timing.

以下、図10、図11を参照して、本発明の第2の実施形態による、カメラについて説明する。   A camera according to the second embodiment of the present invention will be described below with reference to FIGS.

図10は第2の実施形態にかかわるカメラと交換レンズ及びストロボの断面図であり、図11は第2の実施形態にかかわるカメラ本体の概略構成を示すブロック図である。図10、図11において、図1と重複するものは説明を省略する。   FIG. 10 is a cross-sectional view of a camera, an interchangeable lens, and a strobe according to the second embodiment, and FIG. 11 is a block diagram illustrating a schematic configuration of a camera body according to the second embodiment. In FIG. 10 and FIG. 11, the description of what overlaps with FIG. 1 is omitted.

305は撮影レンズ2を通った光学像を分光して、撮像センサ206と撮像センサ207へと導くハーフミラーである。   Reference numeral 305 denotes a half mirror that splits an optical image passing through the photographing lens 2 and guides it to the image sensor 206 and the image sensor 207.

撮像センサ207は撮影レンズ2により結像された被写体の光学像を画像信号として取り込むための第2の撮像センサである。撮像センサ207は、主に動画やLV(ライブビュー)の撮像を目的としており、撮像センサ206が露光中であっても、周期的に画像を取得することができる。また、撮像センサ207には焦点検出用の画素が配置されており、撮像センサ207の信号を用いてレンズのデフォーカス状態及び撮影領域の距離分布情報の取得が可能である。   The image sensor 207 is a second image sensor for capturing an optical image of a subject imaged by the photographing lens 2 as an image signal. The imaging sensor 207 is mainly intended to capture moving images and LV (live view), and can periodically acquire images even when the imaging sensor 206 is under exposure. In addition, pixels for focus detection are arranged in the image sensor 207, and it is possible to acquire the defocus state of the lens and the distance distribution information of the imaging region using the signal of the image sensor 207.

図12は第2の実施形態におけるタイミングチャートである。   FIG. 12 is a timing chart in the second embodiment.

撮像センサ207は周期的に撮像を繰り返し(例えば30fps)、LVのための画像を取得し続ける。このため、第2の実施形態では、撮像センサ206が露光中であっても、第2の撮像センサ207は撮影領域の画像を取得することができ、撮影領域の顔を検知することができる。   The imaging sensor 207 periodically repeats imaging (for example, 30 fps) and continues to acquire an image for LV. For this reason, in the second embodiment, even when the image sensor 206 is under exposure, the second image sensor 207 can acquire the image of the shooting area and can detect the face of the shooting area.

上記の通り本発明の第2の実施形態によれば、図3のステップS307の「主被写体位置の特定」において、主被写体位置の特定のために顔位置情報を用いることができ、主被写体位置特定の精度を上げることができる。第1の実施形態では、距離センサのため動体が人物であるか否かの判定ができず、人物以外であっても主被写体として特定してしまう。一方、第2の実施形態では、顔を検知することができるため、人物を優先して主被写体として特定することが可能となる。   As described above, according to the second embodiment of the present invention, face position information can be used for specifying the main subject position in the “specifying main subject position” in step S307 in FIG. Specific accuracy can be increased. In the first embodiment, since it is a distance sensor, it cannot be determined whether or not the moving object is a person, and even a person other than a person is identified as a main subject. On the other hand, in the second embodiment, since a face can be detected, it is possible to specify a person as a main subject with priority.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

1 カメラ、2 交換レンズ、3 ストロボ、100 CPU、
206 撮像センサ、209 距離センサ、316 シャッター
1 camera, 2 interchangeable lens, 3 strobe, 100 CPU,
206 Image sensor, 209 Distance sensor, 316 Shutter

Claims (8)

発光装置(3)と、
第一の撮像素子(206)と、
撮影前にプリ発光を行い、プリ発光情報に基づいて撮影時の発光量を決定する発光量決定手段と、(100)
シャッターの後幕走行にシンクロして発光を制御する後幕シンクロ制御手段と、(100)
後幕シンクロ発光時の発光量を、前記発光量決定手段で決定した発光量から補正する発光量補正手段と、(100,S309)
撮影領域内から主被写体を特定する主被写体特定手段と、(100,206,209,207)
撮影領域の距離分布情報を取得する距離分布情報生成手段を有し、(209,207)
主被写体特定手段は、前記第一の撮像素子の露光中に周期的に生成された前記距離分布情報から、シンクロ発光時の主被写体位置を特定し、(S306,S307,S308)
主被写体位置情報から、シンクロ発光時の発光量を補正する(S309)ことを特徴とする撮像装置。
A light emitting device (3);
A first image sensor (206);
(100) a light emission amount determining means for performing pre-light emission before shooting and determining a light emission amount at the time of shooting based on the pre-flash information;
(100) rear curtain sync control means for controlling the light emission by synchronizing with the shutter running of the rear curtain;
A light emission amount correcting means for correcting the light emission amount at the time of rear curtain sync light emission from the light emission amount determined by the light emission amount determining means; (100, S309)
Main subject specifying means for specifying the main subject from within the imaging region; (100, 206, 209, 207)
Distance distribution information generating means for acquiring distance distribution information of the imaging region; (209, 207)
The main subject specifying means specifies a main subject position at the time of sync light emission from the distance distribution information periodically generated during exposure of the first image sensor, and (S306, S307, S308).
An image pickup apparatus that corrects a light emission amount during synchronized light emission from main subject position information (S309).
前記主被写体特定手段は、周期的に生成された前記距離分布情報のフレーム相関から、主被写体を特定することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the main subject specifying unit specifies a main subject from a frame correlation of the distance distribution information generated periodically. プリ発光時に特定した主被写体とは別の被写体が検知された場合、前記主被写体特定手段は、撮像装置からの距離が近い方を主被写体と特定することを特徴とする請求項1又は請求項2に記載の撮像装置。 2. The main subject specifying unit, when a subject different from the main subject specified at the time of pre-light emission is detected, specifies the main subject as the one closer to the imaging device. 2. The imaging device according to 2. 前記主被写体位置情報は撮像装置と主被写体との距離であり、前記距離に基づいてシンクロ発光時の発光量を補正することを特徴とする請求項1乃至請求項3の何れか一項に記載の撮像装置。 4. The main subject position information is a distance between the imaging device and the main subject, and the light emission amount at the time of sync light emission is corrected based on the distance. Imaging device. 前記主被写体位置情報は画面内の主被写体の位置であり、前記主被写体の位置と前記ストロボの配光特性に基づいてシンクロ発光時の発光量を補正することを特徴とする請求項1乃至請求項4の何れか一項に記載の撮像装置。 The main subject position information is a position of a main subject in a screen, and a light emission amount during sync light emission is corrected based on a position of the main subject and a light distribution characteristic of the strobe. Item 5. The imaging device according to any one of Items 4 to 4. 測距光を投射する投光部と被写体に反射して戻ってくる前記測距光を受光する測距センサ(209)を有し、前記測距センサから主とした信号から、前記距離分布情報を取得することを特徴とする請求項1乃至請求項5の何れか一項に記載の撮像装置。 The distance distribution information includes a light projecting unit that projects distance measuring light and a distance measuring sensor (209) that receives the distance measuring light that is reflected back to the subject and receives a signal mainly from the distance measuring sensor. The imaging apparatus according to any one of claims 1 to 5, wherein the imaging device is acquired. 焦点検出用の画素を有する第二の撮像素子(207)を有し、前記第二の撮像素子から取得した信号から、前記距離分布情報を取得することを特徴とする請求項1乃至請求項5の何れか一項に記載の撮像装置。 6. The image sensor according to claim 1, further comprising a second image sensor (207) having focus detection pixels, wherein the distance distribution information is acquired from a signal acquired from the second image sensor. The imaging device according to any one of the above. 顔検知手段(S402)を有し、前記第2の撮像素子から得られる画像から顔情報を取得し、前記主被写体特定手段は、前記顔情報に基づいて主被写体を特定することを特徴とする請求項7に記載の撮像装置。 It has face detection means (S402), acquires face information from an image obtained from the second image sensor, and the main subject specifying means specifies a main subject based on the face information. The imaging device according to claim 7.
JP2017122697A 2017-06-23 2017-06-23 Imaging device and camera system Pending JP2019008081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017122697A JP2019008081A (en) 2017-06-23 2017-06-23 Imaging device and camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122697A JP2019008081A (en) 2017-06-23 2017-06-23 Imaging device and camera system

Publications (1)

Publication Number Publication Date
JP2019008081A true JP2019008081A (en) 2019-01-17

Family

ID=65029438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122697A Pending JP2019008081A (en) 2017-06-23 2017-06-23 Imaging device and camera system

Country Status (1)

Country Link
JP (1) JP2019008081A (en)

Similar Documents

Publication Publication Date Title
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
JP6108946B2 (en) Imaging apparatus, control method, program, and storage medium
WO2018101092A1 (en) Imaging device and flicker determination method
JP6303304B2 (en) camera
US9961269B2 (en) Imaging device, imaging device body, and lens barrel that can prevent an image diaphragm value from frequently changing
JP6391352B2 (en) Imaging apparatus, control method, program, and storage medium
JP7679863B2 (en) Imaging equipment
JP2007135140A (en) Imaging apparatus
CN109327688B (en) Image pickup apparatus, control method thereof, and light emission control apparatus
JP5346557B2 (en) Camera system
JP7422555B2 (en) Imaging device, its control method, program, storage medium
JP5163498B2 (en) Camera system
JP7674898B2 (en) Imaging device, control method thereof, program, and storage medium
JP2019008081A (en) Imaging device and camera system
JP2016014762A (en) Imaging apparatus and control method thereof
JP6456038B2 (en) Electronic device, light amount change characteristic calculation method, program, and storage medium
JP2012063664A (en) Photometric device and electronic camera
JP2010113223A (en) Imaging device, stroboscopic system, and light emission control method
JP2018006802A (en) Imaging apparatus, control method therefor, and program
JP2020052083A (en) Control device, imaging device, control method, program, and storage medium
JP5521429B2 (en) Light emission amount control device and light emission amount control method
JP2025128695A (en) Illumination device, imaging system, and control method thereof
JP6351778B2 (en) Imaging apparatus, control method, program, and storage medium
JP7158880B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND CONTROL PROGRAM
JP2021152575A (en) Light emission control device and light emission control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125