JP2018081121A - Imaging system and control method thereof - Google Patents
Imaging system and control method thereof Download PDFInfo
- Publication number
- JP2018081121A JP2018081121A JP2016221330A JP2016221330A JP2018081121A JP 2018081121 A JP2018081121 A JP 2018081121A JP 2016221330 A JP2016221330 A JP 2016221330A JP 2016221330 A JP2016221330 A JP 2016221330A JP 2018081121 A JP2018081121 A JP 2018081121A
- Authority
- JP
- Japan
- Prior art keywords
- ccpu
- unit
- imaging system
- light emitting
- bounce
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Stroboscope Apparatuses (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮影画角内において撮影者が所望する部分的な範囲へ照明光を照射する。
【解決手段】撮像システム10は、カメラ本体100と、カメラ本体100により撮像される被写体に照明光を照射する発光部を備えるストロボ装置300を備え、ストロボ装置300は、発光部の姿勢を少なくとも発光部の光軸を中心として回転させるバウンス回路340と、撮影シーンを判別するCCPU101と、判別された撮影シーンに応じてバウンス回路340の駆動を制御するFPU310とを備える。
【選択図】図1Illumination light is irradiated to a partial range desired by a photographer within a shooting angle of view.
An imaging system includes a camera main body and a strobe device including a light emitting unit that irradiates illumination light onto a subject imaged by the camera main body. A bounce circuit 340 that rotates about the optical axis of the unit, a CCPU 101 that determines a shooting scene, and an FPU 310 that controls driving of the bounce circuit 340 according to the determined shooting scene.
[Selection] Figure 1
Description
本発明は、撮像システム及びその制御方法に関する。 The present invention relates to an imaging system and a control method thereof.
屋内展望台等で風景を入れて記念撮影を行う撮影シーンがある。図9は、展望台等の窓ガラスの前に人物(主被写体)が立ち、窓ガラスを背景として人物と共に窓ガラスの奥の風景を撮影するシーンを表した模式図である。窓ガラスのような高反射率の物体を背景にした撮影では、特に夜景撮影時のように屋内が明るく風景が暗い場合には窓ガラスに写り込みが発生し、逆に昼間のように屋内が暗い場合には人物が露出アンダーとなってしまう。また、窓ガラスのような高反射体に限らずとも、人物が壁の近くに立っている場合等のように、人物と背景とが近い場合は、壁に照明装置からの照明光が不自然に反射や写り込みを起こしてしまう。そこで、人物が露出アンダーとならないようにしながら窓ガラスへの写り込みを抑えたい場合や背景が人物に近い場合には、部分的に照明光を照射させることが効果的となる場合がある。 There is a shooting scene where you can take a commemorative photo with an indoor observation deck. FIG. 9 is a schematic diagram showing a scene in which a person (main subject) stands in front of a window glass such as an observation deck and photographs a landscape behind the window glass together with the person with the window glass as a background. When shooting against a background of a highly reflective object such as a window glass, particularly when the interior is bright and dark, such as when shooting night scenes, the window glass appears to be reflected. If it is dark, the person will be underexposed. Also, not only high reflectors such as window glass, but when the person is close to the background, such as when the person is standing near the wall, the illumination light from the lighting device is unnatural on the wall Cause reflections and reflections. Therefore, when it is desired to suppress the reflection on the window glass while preventing the person from being underexposed, or when the background is close to the person, it may be effective to partially irradiate the illumination light.
しかし、一般的なキセノン管を用いた照明装置(ストロボ装置)の場合、カメラ本体が正位置の姿勢となっているときには、図9(a)に示されるように、照明光の照射方向は、撮影画角と照明光の照射範囲とが略一致するように設定されている。したがって、撮影画角内を部分的に照射するためにはまた、図9(b)に示すように、照明装置の発光部の照射方向をずらす必要がある。しかし、発光部をずらしても、照射範囲がカメラのアスペクト比に合わせて横長楕円状になっているため、人物の頭部に照明光が照射され難い等、意図する範囲を照射することが難しいことがある。また、手動で発光部を回転させた後に撮影構図を確認し、照射方向の微調整を繰り返す操作は、撮影者にとって煩わしいものとなる。 However, in the case of a general illumination device (strobe device) using a xenon tube, when the camera body is in the normal position, as shown in FIG. The shooting angle of view is set so that the illumination light irradiation range substantially matches. Therefore, in order to partially irradiate within the shooting angle of view, it is also necessary to shift the irradiation direction of the light emitting unit of the illumination device as shown in FIG. 9B. However, even if the light emitting part is shifted, the irradiation range is a horizontally long ellipse according to the aspect ratio of the camera, so that it is difficult to irradiate the intended range, for example, it is difficult to illuminate the head of a person. Sometimes. Further, it is troublesome for the photographer to manually check the composition after rotating the light emitting unit and repeat fine adjustment of the irradiation direction.
このような問題を解決する技術が特許文献1,2に提案されている。特許文献1には、撮影画面を複数に分割し、分割された領域に独立して照明光を照射する複数の発光部と、分割された領域からの反射光を独立して受光する複数の受光素子と、受光量に応じて照明光の照射を停止させる制御装置とを有する照明装置が記載されている。特許文献2には、被写体像を画像データとして出力する撮像素子と、撮像装置に内蔵され又は着脱可能な発光部を有し、撮像素子の画像データ出力領域の縦横及びアスペクト比に応じて発光部の配光を制御する照明装置が記載されている。 Technologies for solving such problems are proposed in Patent Documents 1 and 2. In Patent Literature 1, a photographing screen is divided into a plurality of parts, a plurality of light emitting units that irradiate illumination light independently to the divided regions, and a plurality of light receiving units that independently receive reflected light from the divided regions. An illumination device having an element and a control device that stops irradiation of illumination light according to the amount of received light is described. Japanese Patent Application Laid-Open No. 2004-228561 has an imaging device that outputs a subject image as image data, and a light emitting unit that is built in or removable from the imaging device, and that emits light according to the aspect ratio and aspect ratio of the image data output area of the imaging device. An illuminating device for controlling the light distribution is described.
しかしながら、特許文献1に記載された技術では、複数の発光部を用いているため、照射した照明光が重なる領域と重ならない領域とが生じることで、明るさにむらが生じやすいという問題がある。また、予め設計した分割方向でしか照射範囲を設定することができず、撮影シーンによっては適切に照射範囲を設定することが難しい場合もある。特許文献2に記載された技術では、撮影画角のアスペクト比に合わせて発光管の縦横を切り替えているが、照射範囲自体は撮影画角の全体を照射するようになっており、部分的に照明光を照射することは考慮されていない。 However, since the technique described in Patent Document 1 uses a plurality of light emitting units, there is a problem in that unevenness in brightness tends to occur due to the occurrence of areas where the irradiated illumination light overlaps and areas where they do not overlap. . Further, the irradiation range can be set only in the division direction designed in advance, and it may be difficult to set the irradiation range appropriately depending on the shooting scene. In the technique described in Patent Document 2, the vertical and horizontal directions of the arc tube are switched in accordance with the aspect ratio of the shooting angle of view. However, the irradiation range itself irradiates the entire shooting angle of view. Irradiation with illumination light is not considered.
本発明は、撮影画角内において撮影者が所望する部分的な範囲へ照明光を照射することが可能な撮像システムを提供することを目的とする。 An object of the present invention is to provide an imaging system capable of irradiating illumination light to a partial range desired by a photographer within an imaging angle of view.
本発明に係る撮像システムは、撮像手段と、前記撮像手段により撮像される被写体に照明光を照射する発光部とを備える撮像システムであって、前記発光部の姿勢を少なくとも前記発光部の光軸を中心として回転させる駆動手段と、撮影シーンを判別する判別手段を備え、前記判別手段により判別された撮影シーンに応じて前記駆動手段の駆動を制御する制御手段と、備えることを特徴とする。 An imaging system according to the present invention is an imaging system including an imaging unit and a light emitting unit that irradiates illumination light to a subject imaged by the imaging unit, and the attitude of the light emitting unit is at least an optical axis of the light emitting unit. And a control means for controlling the driving of the driving means in accordance with the photographic scene determined by the determining means.
本発明によれば、撮影画角内において撮影者が所望する部分的な範囲へ照明光を照射することができる。 According to the present invention, it is possible to irradiate illumination light to a partial range desired by a photographer within a shooting angle of view.
以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の実施形態に係る撮像システム10の概略構成を示すブロック図である。図2は、撮像システム10の概略構成を示す断面図である。なお、図1と図2において、同一の要素については同じ符号を付している。撮像システム10は、撮像装置であるカメラ本体100と、カメラ本体100に装着されたレンズ鏡筒200と、カメラ本体100に装着された照明装置であるストロボ装置300とを有する。ストロボ装置300はカメラ本体100に対して着脱自在であり、レンズ鏡筒200はカメラ本体100に固定(一体化)されていてもよいし、カメラ本体100に対して着脱自在であってもよい。 Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an imaging system 10 according to an embodiment of the present invention. FIG. 2 is a cross-sectional view illustrating a schematic configuration of the imaging system 10. In FIG. 1 and FIG. 2, the same elements are denoted by the same reference numerals. The imaging system 10 includes a camera body 100 that is an imaging device, a lens barrel 200 that is attached to the camera body 100, and a strobe device 300 that is an illumination device attached to the camera body 100. The strobe device 300 is detachable from the camera body 100, and the lens barrel 200 may be fixed (integrated) to the camera body 100, or may be detachable from the camera body 100.
カメラ本体100は、カメラマイコン101(以下「CCPU101」と記す)、撮像素子102、シャッタ103、主ミラー104、ピント板105、測光回路106、焦点検出回路107、ゲイン切替回路108及びA/D変換器109を備える。また、カメラ本体100は、タイミングジェネレータ(TG)110信号処理回路111、入力部112、表示部113、ペンタプリズム114、サブミラー115、通信ラインLC、通信ラインSC、端子120、端子130及び姿勢検出回路140を備える。 The camera body 100 includes a camera microcomputer 101 (hereinafter referred to as “CCPU101”), an image sensor 102, a shutter 103, a main mirror 104, a focus plate 105, a photometric circuit 106, a focus detection circuit 107, a gain switching circuit 108, and an A / D conversion. A vessel 109 is provided. The camera body 100 includes a timing generator (TG) 110 signal processing circuit 111, an input unit 112, a display unit 113, a pentaprism 114, a sub mirror 115, a communication line LC, a communication line SC, a terminal 120, a terminal 130, and an attitude detection circuit. 140.
CCPU101は、各種のソフトウェア(プログラムコード)を実行することにより、カメラ本体100の各部の動作を制御するマイクロコンピュータである。CCPU101は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。CCPU101は、CPUがROMに格納された所定のプログラムコードをRAMに展開することにより、カメラ本体100を制御するための各種の判定処理や演算処理を行う。撮像素子102は、赤外カットフィルタやローパスフィルタ等を含むCCDセンサ或いはCMOSセンサ等の撮像素子である。レンズ鏡筒200を通過した被写体からの光束は、撮像素子102に被写体像として結像する。シャッタ103は、撮像素子102を遮光する状態と撮像素子102を露光する状態との間で遷移可能に構成されている。主ミラー104は、ハーフミラーであり、レンズ鏡筒200を通して入射する光の一部を反射してピント板105に結像させる位置と、レンズ鏡筒200から撮像素子102へ至る撮影光路内から退避する位置との間で遷移可能に構成されている。ピント板105には、被写体像が結像される。ユーザ(撮影者)は、ピント板105に結像された被写体像を、不図示の光学ファインダを介して確認することができる。 The CCPU 101 is a microcomputer that controls the operation of each unit of the camera body 100 by executing various software (program codes). The CCPU 101 includes a one-chip IC circuit configuration with a built-in microcomputer including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. It has become. The CCPU 101 performs various determination processes and arithmetic processes for controlling the camera body 100 by developing predetermined program codes stored in the ROM in the RAM. The image sensor 102 is an image sensor such as a CCD sensor or a CMOS sensor including an infrared cut filter and a low-pass filter. The light flux from the subject that has passed through the lens barrel 200 forms an image of the subject on the image sensor 102. The shutter 103 is configured to be able to transition between a state where the image sensor 102 is shielded from light and a state where the image sensor 102 is exposed. The main mirror 104 is a half mirror, and is retracted from a position where a part of light incident through the lens barrel 200 is reflected to form an image on the focus plate 105 and a photographing optical path from the lens barrel 200 to the image sensor 102. It is configured to be capable of transitioning to and from the position to be performed. A subject image is formed on the focus plate 105. The user (photographer) can check the subject image formed on the focus plate 105 via an optical finder (not shown).
測光回路106は、回路内に測光センサを備えており、被写体に対して設定された1又は複数の領域で測光を行うことにより露出情報を出力する。なお、測光回路106内の測光センサは、ペンタプリズム114を介してピント板105に結像された被写体像を見込んでいる。焦点検出回路107は、回路内に複数点の測距ポイントを有する測距センサを備えており、各測距点のデフォーカス量等の焦点情報を出力する。ゲイン切替回路108は、撮像素子102から出力される信号を増幅させる。CCPU101は、撮影条件やユーザの操作等に応じて、ゲイン切替回路108において信号に掛けるゲインを切り替える。A/D変換器109は、ゲイン切替回路108から出力されるアナログ信号をデジタル信号に変換することにより、画像データを生成する。タイミングジェネレータ110は、撮像素子102から信号出力タイミング(ゲイン切替回路108からA/D変換器109への増幅信号の入力タイミング)とA/D変換器109でのA/D変換のタイミングとを同期させる。 The photometric circuit 106 includes a photometric sensor in the circuit, and outputs exposure information by performing photometry in one or a plurality of areas set for the subject. Note that the photometry sensor in the photometry circuit 106 expects a subject image formed on the focusing screen 105 via the pentaprism 114. The focus detection circuit 107 includes a distance measuring sensor having a plurality of distance measuring points in the circuit, and outputs focus information such as a defocus amount of each distance measuring point. The gain switching circuit 108 amplifies the signal output from the image sensor 102. The CCPU 101 switches the gain to be applied to the signal in the gain switching circuit 108 in accordance with the shooting condition, user operation, and the like. The A / D converter 109 converts the analog signal output from the gain switching circuit 108 into a digital signal, thereby generating image data. The timing generator 110 synchronizes the signal output timing from the image sensor 102 (the input timing of the amplified signal from the gain switching circuit 108 to the A / D converter 109) and the A / D conversion timing in the A / D converter 109. Let
信号処理回路111は、A/D変換器109から出力されるデジタル信号からなる画像データに対して所定の信号処理を行う。入力部112は、電源スイッチ、レリーズボタン、設定ボタン等の操作部を含み、CCPU101は、入力部112に対する操作に応じた入力部112からの指示に基づいて各種の処理を実行する。例えば、レリーズボタンが1段階操作(半押し)されると、レリーズスイッチSW1がオンとなり、CCPU101はAF(オートフォーカス)、AE(自動露出)等の撮影準備動作を実行する。また、レリーズボタンが2段階操作(全押し)されると、レリーズスイッチSW2がオンとなり、CCPU101は撮像素子102に対する露光から、生成された画像データの保存までの一連の撮影動作を実行する。また、設定ボタンの操作により、ストロボ装置300の各種設定を行うことができる。ここで、ストロボ装置300とカメラ本体100との間で無線通信が可能な場合は、カメラ本体100にストロボ装置300が直接装着されていなくても、装着された場合と同様にストロボ装置300の各種の設定を行うことができる。 The signal processing circuit 111 performs predetermined signal processing on image data composed of digital signals output from the A / D converter 109. The input unit 112 includes operation units such as a power switch, a release button, and a setting button. The CCPU 101 executes various processes based on instructions from the input unit 112 according to operations on the input unit 112. For example, when the release button is operated in one step (half-pressed), the release switch SW1 is turned on, and the CCPU 101 executes shooting preparation operations such as AF (autofocus) and AE (automatic exposure). When the release button is operated in two steps (fully pressed), the release switch SW2 is turned on, and the CCPU 101 executes a series of shooting operations from exposure to the image sensor 102 to storage of the generated image data. Various settings of the strobe device 300 can be performed by operating the setting buttons. Here, when wireless communication is possible between the strobe device 300 and the camera body 100, various types of the strobe device 300 may be provided as in the case where the strobe device 300 is not directly attached to the camera body 100. Can be set.
表示部113は、液晶装置や発光素子によって構成されており、カメラ本体100に対して設定された撮影モードやその他の撮影情報を表示し、液晶装置には、撮影中の被写体像や撮影画像の再生表示等も可能である。ペンタプリズム114は、ピント板105の被写体像を測光回路106内の測光センサ及び不図示の光学ファインダに導く。サブミラー115は、レンズ群202より入射して主ミラー104を透過した光を焦点検出回路107の測距センサへ導く。 The display unit 113 includes a liquid crystal device and a light emitting element, and displays a shooting mode set for the camera body 100 and other shooting information. The liquid crystal device displays a subject image and a shot image being shot. Playback display and the like are also possible. The pentaprism 114 guides the subject image on the focusing screen 105 to a photometric sensor in the photometric circuit 106 and an optical viewfinder (not shown). The sub mirror 115 guides the light incident from the lens group 202 and transmitted through the main mirror 104 to the distance measuring sensor of the focus detection circuit 107.
通信ラインLCは、カメラ本体100とレンズ鏡筒200を通信可能に接続するインタフェースの信号ラインであり、通信ラインSCは、カメラ本体100とストロボ装置300を通信可能に接続するインタフェースの信号ラインである。撮像システム10は、通信ラインLC,SCを用いた通信の一例として3端子式のシリアル通信を行うための端子120,130を備え、CCPU101をホストとしたデータ交換やコマンド伝達等の情報通信を行う。端子120は、SCLK_L端子、MOSI_L端子、MISO_L端子及びGND端子を含む。SCLK_L端子は、カメラ本体100とレンズ鏡筒200の間の通信の同期をとるための端子である。MOSI_L端子は、カメラ本体100からレンズ鏡筒200へデータを送信するための端子である。MISO_L端子は、レンズ鏡筒200からカメラ本体100へデータを送信するための端子である。GND端子は、カメラ本体100とレンズ鏡筒200を接続して、これらをグラウンド電位に落とす。端子130は、SCLK_S端子、MOSI_S端子、MISO_S端子及びGND端子を含む。SCLK_S端子は、カメラ本体100とストロボ装置300の間の通信の同期をとるための端子である。MOSI_S端子は、カメラ本体100からストロボ装置300へデータを送信するための端子である。MISO_S端子は、カメラ本体100とストロボ装置300を接続して、これらをグラウンド電位に落とす。 The communication line LC is an interface signal line that connects the camera body 100 and the lens barrel 200 so that they can communicate with each other. The communication line SC is an interface signal line that connects the camera body 100 and the strobe device 300 so that they can communicate with each other. . The imaging system 10 includes terminals 120 and 130 for performing three-terminal serial communication as an example of communication using the communication lines LC and SC, and performs information communication such as data exchange and command transmission using the CCPU 101 as a host. . The terminal 120 includes an SCLK_L terminal, a MOSI_L terminal, a MISO_L terminal, and a GND terminal. The SCLK_L terminal is a terminal for synchronizing communication between the camera body 100 and the lens barrel 200. The MOSI_L terminal is a terminal for transmitting data from the camera body 100 to the lens barrel 200. The MISO_L terminal is a terminal for transmitting data from the lens barrel 200 to the camera body 100. The GND terminal connects the camera body 100 and the lens barrel 200 and drops them to the ground potential. The terminal 130 includes an SCLK_S terminal, a MOSI_S terminal, a MISO_S terminal, and a GND terminal. The SCLK_S terminal is a terminal for synchronizing communication between the camera body 100 and the flash device 300. The MOSI_S terminal is a terminal for transmitting data from the camera body 100 to the strobe device 300. The MISO_S terminal connects the camera body 100 and the strobe device 300 and drops them to the ground potential.
姿勢検出回路140は、カメラ本体100の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部140a、鉛直方向の姿勢差を検出する姿勢V検出部140b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部140cを有する。姿勢検出回路140には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路140により検出された各方向の姿勢差に関する姿勢情報は、CCPU101に供給される。 The posture detection circuit 140 is a circuit that detects a posture difference of the camera body 100, and includes a posture H detection unit 140a that detects a posture difference in the horizontal direction, a posture V detection unit 140b that detects a posture difference in the vertical direction, and a front-rear direction ( A posture Z detection unit 140c that detects a posture difference in the Z direction) is included. For the posture detection circuit 140, for example, an angular velocity sensor or a gyro sensor is used. Posture information regarding the posture difference in each direction detected by the posture detection circuit 140 is supplied to the CCPU 101.
レンズ鏡筒200は、レンズマイコン201(以下「LPU201」という)、レンズ群202、レンズ駆動部203、エンコーダ204、絞り205及び絞り制御回路206を備える。LPU201は、レンズ鏡筒200の各部を制御するマイクロコンピュータである。LPU201は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。 The lens barrel 200 includes a lens microcomputer 201 (hereinafter referred to as “LPU 201”), a lens group 202, a lens driving unit 203, an encoder 204, an aperture 205, and an aperture control circuit 206. The LPU 201 is a microcomputer that controls each part of the lens barrel 200. The LPU 201 includes, for example, a one-chip IC circuit configuration with a built-in microcomputer including a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. It has become.
レンズ群202は、フォーカスレンズやズームレンズ等を含む複数枚のレンズで構成されている。なお、レンズ群202には、ズームレンズは含まれなくてもよい。レンズ駆動部203は、レンズ群202に含まれるレンズを光軸方向に駆動する。レンズ群202の駆動量は、カメラ本体100に設けられた焦点検出回路107の出力に基づいてCCPU101により演算され、算出された駆動量がCCPU101からLPU201へ送信される。エンコーダ204は、レンズ群202の位置を検出し、駆動情報をLPU201へ出力する。エンコーダ204からの駆動情報はLPU201を介してCCPU101へ送信され、CCPU101で算出された駆動量分だけレンズ駆動部203がレンズ群202を駆動することにより焦点調節が行われる。絞り205は、レンズ鏡筒200内を通過する光量を調節する。絞り制御回路206は、LPU201の制御下で、絞り205を駆動する。 The lens group 202 includes a plurality of lenses including a focus lens and a zoom lens. The lens group 202 may not include a zoom lens. The lens driving unit 203 drives the lenses included in the lens group 202 in the optical axis direction. The driving amount of the lens group 202 is calculated by the CCPU 101 based on the output of the focus detection circuit 107 provided in the camera body 100, and the calculated driving amount is transmitted from the CCPU 101 to the LPU 201. The encoder 204 detects the position of the lens group 202 and outputs drive information to the LPU 201. The drive information from the encoder 204 is transmitted to the CCPU 101 via the LPU 201, and the lens drive unit 203 drives the lens group 202 by the drive amount calculated by the CCPU 101, thereby performing focus adjustment. The diaphragm 205 adjusts the amount of light passing through the lens barrel 200. A diaphragm control circuit 206 drives the diaphragm 205 under the control of the LPU 201.
ストロボ装置300は、大略的に、カメラ本体100に対して着脱可能な本体部300aと、本体部300aに対して上下方向及び左右方向に回転可能であると共に発光部の光軸を中心に回転可能な可動部300bから構成されている。発光部の光軸は、発光部の中心と照明光の照射範囲の中心とを結ぶ方向と略平行である。上下方向は、カメラ本体100を正姿勢で構えたときの鉛直方向と略平行な方向である。左右方向は、カメラ本体100を正姿勢で構えたときの鉛直方向と直交する方向である。可動部300bを上下方向と左右方向の各方向に回転させる2本の中心軸は、発光部の光軸と略直交する。 The strobe device 300 is roughly detachable from the camera main body 100, and can be rotated in the vertical and horizontal directions with respect to the main body 300a, and can be rotated around the optical axis of the light emitting unit. It is comprised from the movable part 300b. The optical axis of the light emitting part is substantially parallel to the direction connecting the center of the light emitting part and the center of the illumination light irradiation range. The vertical direction is a direction substantially parallel to the vertical direction when the camera body 100 is held in a normal posture. The left-right direction is a direction orthogonal to the vertical direction when the camera body 100 is held in a normal posture. Two central axes that rotate the movable part 300b in the vertical and horizontal directions are substantially orthogonal to the optical axis of the light emitting part.
ストロボ装置300は、電池301、昇圧回路ブロック302、トリガ回路303、発光制御回路304、放電管305、反射傘306、ストロボ光学系307、積分回路309及びANDゲート311を備える。また、ストロボ装置300は、ストロボマイコン310(以下「FPU310」という)、入力部312、表示部313、フォトダイオード314、コンパレータ315、光学系駆動回路330、バウンス回路340及び姿勢検出回路360を備える。 The strobe device 300 includes a battery 301, a booster circuit block 302, a trigger circuit 303, a light emission control circuit 304, a discharge tube 305, a reflector 306, a strobe optical system 307, an integration circuit 309, and an AND gate 311. The strobe device 300 includes a strobe microcomputer 310 (hereinafter referred to as “FPU 310”), an input unit 312, a display unit 313, a photodiode 314, a comparator 315, an optical system drive circuit 330, a bounce circuit 340, and an attitude detection circuit 360.
FPU310は、ストロボ装置300の各部を制御するマイクロコンピュータである。FPU310は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。電池301は、ストロボ装置300の電源(VBAT)として機能する。昇圧回路ブロック302は、昇圧部302a、抵抗302b,302c及びメインコンデンサ302dを有する。昇圧部302aは、電池301の電圧を数百Vに昇圧し、これによりメインコンデンサ302dに発光のための電気エネルギが充電される。メインコンデンサ302dの充電電圧は、抵抗302b,302cにより分圧され、分圧された電圧はFPU310のA/D変換端子に入力される。トリガ回路303は、放電管305を励起するためのパルス電圧を放電管305に印加する。発光制御回路304は、放電管305の発光の開始及び停止を制御する。放電管305は、トリガ回路303から印加される数KVのパルス電圧を受けて励起し、メインコンデンサ302dに充電された電気エネルギを用いて発光する。 The FPU 310 is a microcomputer that controls each part of the strobe device 300. The FPU 310 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. ing. The battery 301 functions as a power source (VBAT) for the strobe device 300. The booster circuit block 302 includes a booster 302a, resistors 302b and 302c, and a main capacitor 302d. The booster 302a boosts the voltage of the battery 301 to several hundred volts, thereby charging the main capacitor 302d with electric energy for light emission. The charging voltage of the main capacitor 302d is divided by the resistors 302b and 302c, and the divided voltage is input to the A / D conversion terminal of the FPU 310. The trigger circuit 303 applies a pulse voltage for exciting the discharge tube 305 to the discharge tube 305. The light emission control circuit 304 controls the start and stop of light emission of the discharge tube 305. The discharge tube 305 is excited by receiving a pulse voltage of several KV applied from the trigger circuit 303, and emits light using the electric energy charged in the main capacitor 302d.
積分回路309は、フォトダイオード314の受光電流を積分し、積分結果をコンパレータ315の反転入力端子とFPU310のA/Dコンバータ端子に入力する。コンパレータ315の非反転入力端子は、FPU310内のD/Aコンバータ端子に接続され、コンパレータ315の出力はANDゲート311の入力端子に接続される。ANDゲート311の他方の入力端子は、FPU310の発光制御端子と接続され、ANDゲート311の出力は発光制御回路304へ入力される。 The integration circuit 309 integrates the light reception current of the photodiode 314 and inputs the integration result to the inverting input terminal of the comparator 315 and the A / D converter terminal of the FPU 310. The non-inverting input terminal of the comparator 315 is connected to the D / A converter terminal in the FPU 310, and the output of the comparator 315 is connected to the input terminal of the AND gate 311. The other input terminal of the AND gate 311 is connected to the light emission control terminal of the FPU 310, and the output of the AND gate 311 is input to the light emission control circuit 304.
フォトダイオード314は、直接又はグラスファイバ等を介して、放電管305から発せられる光を受光するセンサである。反射傘306は、放電管305から発せられる光を反射させて所定の方向へ導く。ストロボ光学系307は、光学パネル等を含み、放電管305との相対位置を変更可能に保持されている。放電管305とストロボ光学系307の相対位置を変更することにより、発光部から被写体に照射される閃光(ストロボ光)等の照明光の照射範囲を所定の範囲で変化させることができる。ストロボ装置300の発光部は、放電管305、反射傘306、ストロボ光学系307等で構成されている。発光部の配光角はストロボ光学系307の駆動により変化させることができ、また、発光部からの照明光の照射方向は可動部300bの回転により変化させることができる。なお、発光部の配光角を変化させる方法は、放電管305とストロボ光学系307の相対位置を変更させる方法に限定されず、例えば、反射傘306の形状を変更させる方法やストロボ光学系307の光学特性を変更させる方法等であってもよい。 The photodiode 314 is a sensor that receives light emitted from the discharge tube 305 directly or via a glass fiber or the like. The reflector 306 reflects the light emitted from the discharge tube 305 and guides it in a predetermined direction. The strobe optical system 307 includes an optical panel or the like, and is held so that the relative position with respect to the discharge tube 305 can be changed. By changing the relative position of the discharge tube 305 and the strobe optical system 307, the irradiation range of illumination light such as flash light (strobe light) emitted from the light emitting unit to the subject can be changed within a predetermined range. The light emitting unit of the strobe device 300 includes a discharge tube 305, a reflector 306, a strobe optical system 307, and the like. The light distribution angle of the light emitting part can be changed by driving the strobe optical system 307, and the irradiation direction of the illumination light from the light emitting part can be changed by the rotation of the movable part 300b. The method of changing the light distribution angle of the light emitting unit is not limited to the method of changing the relative position between the discharge tube 305 and the strobe optical system 307. For example, the method of changing the shape of the reflector 306 or the strobe optical system 307 is used. For example, a method of changing the optical characteristics of the above may be used.
入力部312は、電源スイッチ、ストロボ装置300の動作モードを設定するモード設定スイッチ、オートバウンス駆動を実行させるオートバウンス開始ボタン、各種のパラメータを設定する設定ボタン等の操作部を含む。FPU310は、入力部312に対する操作に応じた入力部312からの指示に基づいて各種の処理を実行する。なお、本実施形態では、撮像システム10で行われる自動化されたバウンス発光撮影をオートバウンス発光撮影と称呼する。また、オートバウンス駆動とは、オートバウンス発光撮影を実行するための可動部300bの回転駆動することを指す。 The input unit 312 includes operation units such as a power switch, a mode setting switch for setting the operation mode of the strobe device 300, an auto bounce start button for executing auto bounce driving, and setting buttons for setting various parameters. The FPU 310 executes various processes based on instructions from the input unit 312 according to operations on the input unit 312. In the present embodiment, automated bounce flash photography performed by the imaging system 10 is referred to as auto bounce flash photography. In addition, the auto bounce drive refers to rotationally driving the movable part 300b for executing auto bounce flash photography.
表示部313は、液晶装置や発光素子を有し、ストロボ装置300の各種の設定情報や動作状態を表示する。光学系駆動回路330は、位置検出部330aと光学系駆動部330bを有し、照明光の照射範囲を調整するズーム機能を担っている。位置検出部330aは、放電管305とストロボ光学系307の相対位置に関する情報を不図示のエンコーダ等により検出する。光学系駆動部330bは、ストロボ光学系307を駆動するためのモータ等を含む。FPU310は、CCPU101を介してLPU201から出力される焦点距離情報を取得し、取得した焦点距離情報に基づいてストロボ光学系307の駆動量を演算する。 The display unit 313 includes a liquid crystal device and a light emitting element, and displays various setting information and operation states of the strobe device 300. The optical system drive circuit 330 includes a position detection unit 330a and an optical system drive unit 330b, and has a zoom function of adjusting the illumination light irradiation range. The position detector 330a detects information related to the relative positions of the discharge tube 305 and the strobe optical system 307 by an encoder (not shown) or the like. The optical system driving unit 330b includes a motor or the like for driving the strobe optical system 307. The FPU 310 acquires the focal length information output from the LPU 201 via the CCPU 101, and calculates the drive amount of the strobe optical system 307 based on the acquired focal length information.
バウンス回路340は、可動部300bの駆動量(本体部300aに対する可動部300bの回転角度)を検出する。バウンス回路340は、第1のバウンス角度検出回路340a、第2のバウンス角度検出回路340c、第3のバウンス角度検出回路340e、第1のバウンス駆動回路340b、第2のバウンス駆動回路340d及び第3のバウンス駆動回路340fを有する。第1のバウンス角度検出回路340a(バウンスH検出回路)は、可動部300bの左右方向の駆動量を検出する。第2のバウンス角度検出回路340c(バウンスV検出回路)は、可動部300bの上下方向の駆動量を検出する。第3のバウンス角度検出回路340e(バウンスZ検出回路)は、発光部の光軸を回転中心とした可動部300bの回転の駆動量を検出する。可動部300bの各駆動量の検出には、ロータリエンコーダやアブソリュートエンコーダが用いられる。第1のバウンス駆動回路340b(バウンスH駆動回路)は、可動部300bの左右方向の駆動を行う。第2のバウンス駆動回路340d(バウンスV駆動回路)は、可動部300bの上下方向の駆動を行う。第3のバウンス駆動回路340f(バウンスZ駆動回路)は、可動部300bの光軸回転の駆動を行う。これらの駆動には、公知のモータ等が用いられる。 The bounce circuit 340 detects the driving amount of the movable part 300b (the rotation angle of the movable part 300b with respect to the main body part 300a). The bounce circuit 340 includes a first bounce angle detection circuit 340a, a second bounce angle detection circuit 340c, a third bounce angle detection circuit 340e, a first bounce drive circuit 340b, a second bounce drive circuit 340d, and a third bounce circuit 340d. Bounce drive circuit 340f. The first bounce angle detection circuit 340a (bounce H detection circuit) detects the drive amount of the movable unit 300b in the left-right direction. The second bounce angle detection circuit 340c (bounce V detection circuit) detects the driving amount of the movable unit 300b in the vertical direction. The third bounce angle detection circuit 340e (bounce Z detection circuit) detects the driving amount of rotation of the movable unit 300b with the optical axis of the light emitting unit as the rotation center. A rotary encoder or an absolute encoder is used to detect each drive amount of the movable part 300b. The first bounce drive circuit 340b (bounce H drive circuit) drives the movable portion 300b in the left-right direction. The second bounce drive circuit 340d (bounce V drive circuit) drives the movable portion 300b in the vertical direction. The third bounce drive circuit 340f (bounce Z drive circuit) drives the rotation of the optical axis of the movable part 300b. A known motor or the like is used for these drives.
姿勢検出回路360は、ストロボ装置300の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部360a、鉛直方向の姿勢差を検出する姿勢V検出部360b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部360cを有する。姿勢検出回路360には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路360により検出された各方向の姿勢差に関する姿勢情報は、FPU310に供給される。 The posture detection circuit 360 is a circuit that detects a posture difference of the strobe device 300, and includes a posture H detection unit 360a that detects a posture difference in the horizontal direction, a posture V detection unit 360b that detects a posture difference in the vertical direction, and a front-rear direction ( A posture Z detection unit 360c that detects a posture difference in the Z direction) is provided. For the posture detection circuit 360, for example, an angular velocity sensor or a gyro sensor is used. Posture information regarding the posture difference in each direction detected by the posture detection circuit 360 is supplied to the FPU 310.
上述の通りに構成された撮像システム10では、CCPU101、LPU201及びFPU310が協働して撮像システム10を構成する各部の制御を行うことにより、撮像システム10全体の円滑な動作が実現される。 In the imaging system 10 configured as described above, the CCPU 101, the LPU 201, and the FPU 310 cooperate to control each part of the imaging system 10, thereby realizing a smooth operation of the entire imaging system 10.
次に、撮像システム10を用いて撮影を行う際に撮像システムで実行される処理の流れについて説明する。図3は、撮像システム10で実行される撮影処理においてCCPU101が実行する処理のフローチャートである。図3のフローチャートの各処理は、CCPU101においてCPUがROMに格納された所定のプログラムをRAMに展開することにより、CCPU101がカメラ本体100を構成する各部の動作を制御することにより実現される。カメラ本体100に設けられた入力部112に含まれる電源スイッチがオンに操作されることで、CCPU101は動作可能となる。 Next, a flow of processing executed by the imaging system when shooting using the imaging system 10 will be described. FIG. 3 is a flowchart of processing executed by the CCPU 101 in the shooting processing executed by the imaging system 10. Each process of the flowchart of FIG. 3 is realized by the CCPU 101 controlling the operation of each unit constituting the camera body 100 by causing the CPU to expand a predetermined program stored in the ROM into the RAM. When the power switch included in the input unit 112 provided in the camera body 100 is turned on, the CCPU 101 can operate.
ステップS1においてCCPU101は、自身のメモリやポートの初期化を行う。また、CCPU101は、入力部112に含まれるスイッチの状態や予め設定された入力情報を読み込み、シャッタスピードや絞りの決め方等、被写体に適した撮影モードの設定を行う。ステップS2においてCCPU101は、入力部112に含まれるレリーズボタンが半押しされてレリーズスイッチSW1がオンとなっているか否かを判定する。CCPU101は、レリーズスイッチSW1がオンとなるまで待機し(S2でNO)、レリーズスイッチSW1がオンになったと判定すると(S2でYES)、処理をステップS3へ進める。ステップS3においてCCPU101は、レンズ鏡筒200のLPU201と通信を行い、レンズ鏡筒200の焦点距離情報や焦点調節、測光に必要な光学情報(レンズ情報)を取得する。ステップS4においてCCPU101は、カメラ本体100に対してストロボ装置300が装着されているか否かを判定する。CCPU101は、ストロボ装置300が装着されていると判定した場合(ステップS4でYES)、処理をステップS5へ進め、ストロボ装置300が装着されていないと判定した場合(ステップS4でNO)、処理をステップS8bへ進める。なお、ステップS4で判定されるストロボ装置300の装着とは、無線通信による接続やオフシューコード等を用いた接続であってもよい。無線通信は、通信ラインSCを用いた通信ではなく、不図示の無線通信ユニットを用いて行われる。 In step S1, the CCPU 101 initializes its own memory and port. Further, the CCPU 101 reads the state of a switch included in the input unit 112 and preset input information, and sets a shooting mode suitable for the subject such as a shutter speed and a method of determining an aperture. In step S2, the CCPU 101 determines whether or not the release button included in the input unit 112 is half pressed and the release switch SW1 is turned on. The CCPU 101 waits until the release switch SW1 is turned on (NO in S2). If the CCPU 101 determines that the release switch SW1 is turned on (YES in S2), the process proceeds to step S3. In step S <b> 3, the CCPU 101 communicates with the LPU 201 of the lens barrel 200 to acquire focal length information of the lens barrel 200, focus adjustment, and optical information (lens information) necessary for photometry. In step S <b> 4, the CCPU 101 determines whether the strobe device 300 is attached to the camera body 100. If the CCPU 101 determines that the strobe device 300 is attached (YES in step S4), the process proceeds to step S5. If the CCPU 101 determines that the strobe device 300 is not attached (NO in step S4), the process is performed. Proceed to step S8b. Note that the attachment of the strobe device 300 determined in step S4 may be a connection using wireless communication or a connection using an off-shoe cord. The wireless communication is not performed using the communication line SC but using a wireless communication unit (not shown).
ステップS5においてCCPU101は、ストロボ装置300のFPU310と通信ラインSCを介して通信を行い、ストロボ装置300のID、ガイドナンバー、メインコンデンサ302dの充電状態を示す充電情報等のストロボ情報をFPU310から取得する。また、CCPU101は、ステップS3で取得した焦点距離情報をFPU310へ送信する。これによりFPU310は、CCPU101から受信した焦点距離情報に基づいてストロボ光学系307の駆動量を演算し、演算した駆動量に基づいてストロボ光学系307を移動させてストロボ装置300の照射範囲を焦点距離に合わせた範囲に変更する。 In step S5, the CCPU 101 communicates with the FPU 310 of the strobe device 300 via the communication line SC, and acquires strobe information such as the ID of the strobe device 300, a guide number, and charging information indicating the charging state of the main capacitor 302d from the FPU 310. . Also, the CCPU 101 transmits the focal length information acquired in step S3 to the FPU 310. As a result, the FPU 310 calculates the drive amount of the strobe optical system 307 based on the focal length information received from the CCPU 101, and moves the strobe optical system 307 based on the calculated drive amount to change the irradiation range of the strobe device 300 to the focal length. Change the range to match.
ステップS6においてCCPU101は、入力部112を介して入力されたストロボ装置300に関する情報をストロボ装置300のFPU310に送信する準備を行う。ここでは、ストロボ装置300に関する情報を判断して、コマンド送信に変換する。ステップS7においてCCPU101は、ステップS6で準備したストロボ装置300の情報をストロボ装置300へ送信する。 In step S <b> 6, the CCPU 101 prepares to transmit information regarding the strobe device 300 input via the input unit 112 to the FPU 310 of the strobe device 300. Here, information regarding the flash device 300 is determined and converted into command transmission. In step S <b> 7, the CCPU 101 transmits information on the strobe device 300 prepared in step S <b> 6 to the strobe device 300.
ステップS8aにおいてCCPU101は、カメラ本体100において設定されている焦点調節モードがAFモードか否かを判定する。CCPU101は、AFモードに設定されていると判定した場合(S8aでYES)、処理をステップS9aへ進める。一方、CCPU101は、AFモードに設定されていないと判定した場合(S8aでNO)、マニュアルフォーカスモード(MFモード)に設定されていると判定して、処理をステップS11へ進める。 In step S8a, the CCPU 101 determines whether or not the focus adjustment mode set in the camera body 100 is the AF mode. If the CCPU 101 determines that the AF mode is set (YES in S8a), the process proceeds to step S9a. On the other hand, if the CCPU 101 determines that the AF mode is not set (NO in S8a), the CCPU 101 determines that the manual focus mode (MF mode) is set, and the process proceeds to step S11.
ステップS9aにおいてCCPU101は、焦点検出回路107を駆動させることにより、周知の位相差検出法による焦点検出動作を行う。なお、ステップS9aでは、焦点調節において複数の測距点から焦点を合わせる測距点(測距ポイント)が、近点優先を基本の考え方とした周知の自動選択アルゴリズムや入力部112へのユーザの操作等に応じて決定される。ステップS10aにおいてCCPU101は、ステップS9aで決定された測距ポイントをCCPU101内のRAMに記憶する。また、ステップS10aにおいてCCPU101は、焦点検出回路107からの焦点情報に基づきレンズ群202の駆動量を演算し、LPU201と通信を行って、演算した駆動量に基づいてレンズ群202を移動させる。ステップS10aの後、処理はステップS11へ進められる。 In step S9a, the CCPU 101 drives the focus detection circuit 107 to perform a focus detection operation by a known phase difference detection method. In step S9a, a focus point (ranging point) to be focused from a plurality of focus points in focus adjustment is a well-known automatic selection algorithm based on the concept of near point priority or a user's input to the input unit 112. It is determined according to the operation. In step S10a, the CCPU 101 stores the distance measurement point determined in step S9a in the RAM in the CCPU 101. In step S10a, the CCPU 101 calculates the driving amount of the lens group 202 based on the focus information from the focus detection circuit 107, communicates with the LPU 201, and moves the lens group 202 based on the calculated driving amount. After step S10a, the process proceeds to step S11.
ステップS11においてCCPU101は、発光モードが部分発光モードに設定されているか否かを判定する。CCPU101は、部分発光モードに設定されていると判定した場合(S11でYES)、処理をステップS12へ進め、部分発光モードに設定されていない(全体発光モードである)と判定した場合(S11でNO)、処理をステップS16へ進める。なお、部分発光モードとは、ストロボ装置300の発光部から撮影範囲の一部分にのみ照明光を照射する動作モードを指す。これに対して、全体発光モードとは、ストロボ装置300の発光部から撮影範囲のほぼ全体に照明光を照射する動作モードを指す。 In step S11, the CCPU 101 determines whether or not the light emission mode is set to the partial light emission mode. When the CCPU 101 determines that the partial light emission mode is set (YES in S11), the process proceeds to step S12, and when it is determined that the partial light emission mode is not set (entire light emission mode) (in S11). NO), the process proceeds to step S16. The partial light emission mode refers to an operation mode in which illumination light is irradiated only to a part of the photographing range from the light emitting unit of the strobe device 300. On the other hand, the overall light emission mode refers to an operation mode in which illumination light is irradiated from the light emitting unit of the strobe device 300 to almost the entire photographing range.
ステップS12においてCCPU101は、測光回路106等の情報に基づき、撮影シーンを判別する。ステップS13においてCCPU101は、ステップS12の判別結果に基づき、撮影シーンの判別が可能か否かを判定する。CCPU101は、撮影シーンの判別が可能であると判定した場合(S13でYES)、処理をステップS14へ進め、撮影シーンの判別が不可能であると判定した場合(S13でNO)、処理をステップS16へ進める。 In step S12, the CCPU 101 discriminates a shooting scene based on information from the photometric circuit 106 and the like. In step S13, the CCPU 101 determines whether or not the shooting scene can be determined based on the determination result in step S12. If the CCPU 101 determines that the photographic scene can be determined (YES in S13), the process proceeds to step S14. If the CCPU 101 determines that the photographic scene cannot be determined (NO in S13), the process proceeds to step S14. Proceed to S16.
ステップS14においてCCPU101は、ステップS12で判別した撮影シーンに関する情報に基づき、部分発光での照射範囲を決定する。続くステップS15においてCCPU101は、部分発光処理を行う。ステップS15では、CCPU101は、ステップS14で決定された照射範囲に関する情報をCCPU101内のRAMに記憶する。そして、CCPU101は、バウンス回路340が検出した発光部の姿勢情報をFPU310から通信ラインSCを介して取得し、CCPU101内のRAMに記憶する。更に、CCPU101は、CCPU101内のRAMに記憶された照射範囲に関する情報と発光部の姿勢情報に基づいて可動部300bの駆動量を算出する。CCPU101は、算出した駆動量を通信ラインSCを介してFPU310へ送信する。FPU310は、取得した駆動量に基づいて可動部300bを所定位置へ移動させ、発光処理を行う。撮影シーンの判別及び部分発光の各処理の詳細については後述する。ステップS15の実行後、処理はステップS29へ進められる。 In step S <b> 14, the CCPU 101 determines an irradiation range in partial light emission based on the information regarding the shooting scene determined in step S <b> 12. In subsequent step S15, the CCPU 101 performs a partial light emission process. In step S15, the CCPU 101 stores information on the irradiation range determined in step S14 in the RAM in the CCPU 101. Then, the CCPU 101 acquires the attitude information of the light emitting unit detected by the bounce circuit 340 from the FPU 310 via the communication line SC and stores it in the RAM in the CCPU 101. Furthermore, the CCPU 101 calculates the driving amount of the movable unit 300b based on the information regarding the irradiation range stored in the RAM in the CCPU 101 and the posture information of the light emitting unit. The CCPU 101 transmits the calculated drive amount to the FPU 310 via the communication line SC. The FPU 310 moves the movable unit 300b to a predetermined position based on the acquired drive amount, and performs a light emission process. Details of each process of discrimination of the shooting scene and partial light emission will be described later. After execution of step S15, the process proceeds to step S29.
全体発光モードに設定されているためにステップS11の判定がNOとなる場合、可動部300bの自動駆動が可能である。よって、通常の発光撮影の他に、ストロボ装置300のからの照明光を天井等に向けて照射し、天井等からの拡散反射光を被写体に照射する発光撮影を自動化した撮影(以下「オートバウンス発光撮影」という)を行うことができる。なお、通常の発光撮影とは、正面の基準位置(左右方向と上下方向のバウンス角度が共に0度)に可動部300bを位置させて行う発光撮影を指す。ステップS16〜S28の処理は、オートバウンス発光撮影に係る処理となる。 If the determination in step S11 is NO because the entire light emission mode is set, the movable unit 300b can be automatically driven. Therefore, in addition to the normal flash photography, the flash photography 300 (hereinafter referred to as “auto bounce”) is used for automatic flash photography that irradiates the subject with illumination light from the strobe device 300 toward the ceiling and the like, and irradiates the diffuse reflection light from the ceiling and the like. "Flash photography"). Note that normal flash photography refers to flash photography that is performed with the movable unit 300b positioned at a front reference position (both bounce angles in the horizontal and vertical directions are 0 degrees). The processes in steps S16 to S28 are processes related to auto bounce flash photography.
ステップS16においてCCPU101は、ストロボ装置300によるバウンス撮影での照射位置が固定された状態(以下「バウンスロック中」という)であるか否かを判定する。CCPU101は、バウンスロック中ではないと判定した場合(S16でNO)、処理をステップS18へ進め、バウンスロック中であると判定した場合(S16でYES)、処理をステップS17へ進める。なお、バウンスロック中か否かは、入力部112又は入力部312に含まれるロックボタンの状態に基づいて判別することができる。また、電源スイッチがオンされてから初めて本ステップを実行する場合には特定の照射位置が設定されていない状態なので、バウンスロック中であってもステップS18へ移行するようにしても構わない。 In step S <b> 16, the CCPU 101 determines whether or not the irradiation position in the bounce shooting by the strobe device 300 is fixed (hereinafter referred to as “bounce locked”). If the CCPU 101 determines that the bounce lock is not in progress (NO in S16), the process proceeds to step S18. If the CCPU 101 determines that the bounce lock is in progress (YES in S16), the process proceeds to step S17. Whether or not the bounce lock is being performed can be determined based on the state of the lock button included in the input unit 112 or the input unit 312. In addition, when this step is executed for the first time after the power switch is turned on, the specific irradiation position is not set, so that the process may proceed to step S18 even during the bounce lock.
ステップS17においてCCPU101は、バウンスロック中に被写体距離が所定値以上変化したか否かを判定する。つまり、前回の被写体距離の検出結果と最新の被写体距離の検出結果との差(被写体距離の変化量)が所定値以上か否かが判定される。被写体距離の変化量は、ステップS9a,S10aで得られた焦点検出結果やレンズ駆動結果に基づいて算出することができる。CCPU101は、被写体距離が所定値以上変化したと判定した場合(S17でYES)、処理をステップS18へ進め、被写体距離が所定値以上変化していない判定した場合(S17でNO)、処理をステップS20へ進める。 In step S17, the CCPU 101 determines whether or not the subject distance has changed by a predetermined value or more during the bounce lock. That is, it is determined whether or not the difference between the previous subject distance detection result and the latest subject distance detection result (the subject distance change amount) is equal to or greater than a predetermined value. The amount of change in the subject distance can be calculated based on the focus detection results and lens drive results obtained in steps S9a and S10a. If the CCPU 101 determines that the subject distance has changed by a predetermined value or more (YES in S17), the process proceeds to step S18. If the CCPU 101 determines that the subject distance has not changed by a predetermined value or more (NO in S17), the process proceeds to step S18. Proceed to S20.
ステップS18においてCCPU101は、バウンス発光撮影時の照射方向を自動的に決定するための動作(以下「オートバウンス動作」という)を実行するか否かを判定する。なお、オートバウンス動作を行うか否かは、入力部112又は入力部312に含まれるオートバウンス動作を実行するか否かを切り換えるスイッチの状態やその他のカメラ本体100の状態等に基づいて判別される。オートバウンス動作を実行しない場合には、通常の発光撮影が行われることになる。CCPU101は、オートバウンス動作を実行すると判定した場合(S18でYES)、処理をステップS19へ進め、オートバウンス動作を実行しないと判定した場合(S18でNO)、処理をステップS29へ進める。 In step S <b> 18, the CCPU 101 determines whether or not to perform an operation for automatically determining an irradiation direction during bounce flash photography (hereinafter referred to as “auto bounce operation”). Whether or not to perform the auto bounce operation is determined based on the state of a switch for switching whether or not to execute the auto bounce operation included in the input unit 112 or the input unit 312, the state of the other camera body 100, or the like. The When the auto bounce operation is not executed, normal flash photography is performed. If the CCPU 101 determines that the auto bounce operation is to be executed (YES in S18), the process proceeds to step S19. If the CCPU 101 determines that the auto bounce operation is not to be executed (NO in S18), the process proceeds to step S29.
ステップS19においてCCPU101は、オートバウンス動作に関する処理(以下「バウンス処理」という)を実行する。バウンス処理は、オートバウンス発光撮影の実行時に、照明光の照射方向等をCCPU101又はFPU310で演算し、ストロボ装置300の各種の駆動部によって自動的に駆動させる周知の方法によって行うことができる。バウンス処理の実行後、処理はステップS23へ進められる。 In step S <b> 19, the CCPU 101 executes a process related to the auto bounce operation (hereinafter referred to as “bounce process”). The bounce processing can be performed by a well-known method in which the illumination direction of illumination light is calculated by the CCPU 101 or the FPU 310 and automatically driven by various drive units of the strobe device 300 during execution of auto bounce flash photography. After the bounce process is executed, the process proceeds to step S23.
ステップS17の判定がNOとなった後のステップS20においてCCPU101は、姿勢検出回路140又は姿勢検出回路360の検出結果に基づき、撮像システム10の姿勢変化量が所定値以上か否かを判別する。つまり、前回の姿勢検出結果と最新の姿勢検出結果との差が所定値以上か否かが判定されている。CCPU101は、姿勢変化量が所定値以上であると判定した場合(S20でYES)、処理をステップS21へ進め、姿勢変化量が所定値以上でないと判定した場合(S20でNO)、処理をステップS23へ進める。ステップS21においてCCPU101は、照明光の照射位置がカメラシステムの姿勢の変化前と変わらないように、姿勢変化後のカメラシステムの姿勢情報に基づいてストロボ装置300の可動部300bの回転角度を算出する。続くステップS22においてCCPU101は、ステップS20で算出した回転角度を示す角度情報をFPU310に送信する。FPU310は、取得した角度情報に基づいて可動部300bを駆動させる。CCPU101は、可動部300bの駆動後の姿勢情報をCCPU101内のRAMに記憶する。ステップS22の後、処理はステップS23へ進められる。 In step S20 after the determination in step S17 is NO, the CCPU 101 determines whether the posture change amount of the imaging system 10 is greater than or equal to a predetermined value based on the detection result of the posture detection circuit 140 or the posture detection circuit 360. That is, it is determined whether or not the difference between the previous posture detection result and the latest posture detection result is greater than or equal to a predetermined value. If the CCPU 101 determines that the posture change amount is equal to or greater than the predetermined value (YES in S20), the process proceeds to step S21. If the CCPU 101 determines that the posture change amount is not equal to or greater than the predetermined value (NO in S20), the process proceeds to step S21. Proceed to S23. In step S <b> 21, the CCPU 101 calculates the rotation angle of the movable unit 300 b of the strobe device 300 based on the posture information of the camera system after the change in posture so that the illumination light irradiation position does not change before the change in the posture of the camera system. . In subsequent step S <b> 22, the CCPU 101 transmits angle information indicating the rotation angle calculated in step S <b> 20 to the FPU 310. The FPU 310 drives the movable unit 300b based on the acquired angle information. The CCPU 101 stores posture information after driving the movable unit 300b in a RAM in the CCPU 101. After step S22, the process proceeds to step S23.
なお、バウンスロック中に被写体距離が大きく変化した場合(ステップS17の判定がYESとなる場合)、照射位置を固定したままでは天井等からの反射光の被写体への効果が大きく変化する。例えば、被写体が人物である場合、被写体距離が2mの人物に対して反射光が照射されるように照射位置を設定した後に人物が移動して被写体距離が5mに変化したにもかかわらず、照射位置を変えなかった場合、人物に照射される光量は大きく変わってくる。よって、このままでは適切な露出で撮影を行うことができないため、本実施形態では、バウンスロック中に被写体距離が大きく変化し、且つ、オートバウンス動作を行う場合には、再び照射位置を決定するために処理をステップS19へ進めるフローとしている。 When the subject distance changes greatly during bounce lock (when the determination in step S17 is YES), the effect of the reflected light from the ceiling or the like on the subject changes greatly with the irradiation position fixed. For example, in the case where the subject is a person, the irradiation position is set so that the reflected light is emitted to a person with a subject distance of 2 m. If the position is not changed, the amount of light applied to the person changes greatly. Therefore, since it is not possible to perform photographing with appropriate exposure as it is, in this embodiment, when the subject distance greatly changes during the bounce lock and the auto bounce operation is performed, the irradiation position is determined again. The process proceeds to step S19.
また、バウンスロック中に撮像システム10の姿勢が大きく変化した場合、ストロボ装置300の可動部300bの本体部300aに対する回転角度を固定したままでは、照射位置が大きく変化してしまう。そこで、本実施形態では、ステップS20の判定処理を設け、ステップS21,S22によって被写体に対して適切に照明光が照射されるようにすることができる。ステップS17とステップS20の各処理は、レリーズスイッチSW1がオンの状態でのみ実行される。すなわち、バウンスロック中に被写体距離や撮像システム10の姿勢が大きく変化しても、レリーズスイッチSW1がオフであれば、照射位置の再設定や可動部300bの再駆動は行われない。こうして、撮影が行われる可能性が小さい状態では照射位置の再設定や可動部300bの再駆動を行わないようにすることで、可動部300bの駆動を適正なタイミングで行うことができると共に消費電力を抑えることができる。 In addition, when the posture of the imaging system 10 changes greatly during the bounce lock, the irradiation position changes greatly if the rotation angle of the movable unit 300b of the strobe device 300 with respect to the main body 300a is fixed. Therefore, in the present embodiment, the determination process of step S20 can be provided, and the illumination light can be appropriately irradiated to the subject through steps S21 and S22. Steps S17 and S20 are executed only when the release switch SW1 is on. That is, even if the subject distance and the posture of the imaging system 10 change greatly during bounce lock, if the release switch SW1 is off, the irradiation position is not reset and the movable unit 300b is not redriven. In this way, in a state where the possibility of photographing is small, by resetting the irradiation position and not re-driving the movable part 300b, the movable part 300b can be driven at an appropriate timing and also consumes power. Can be suppressed.
ステップS23においてCCPU101は、ストロボ装置300によるバウンス時の照射位置を固定するモード(以下「バウンスロックモード」という)か否かを判定する。バウンスロックモードは、入力部112又は入力部312のロックボタンに対する操作に応じて設定され、バウンスロックモードに設定されている状態ではバウンスロック中であると言うことができる。CCPU101は、バウンスロックモードであると判定した場合(S23でYES)処理をステップS24へ進め、バウンスロックモードではないと判定した場合(S23でNO)、処理をステップS25へ進める。 In step S <b> 23, the CCPU 101 determines whether or not it is a mode for fixing the irradiation position at the time of bounce by the strobe device 300 (hereinafter referred to as “bounce lock mode”). The bounce lock mode is set according to an operation on the lock button of the input unit 112 or the input unit 312. It can be said that the bounce lock mode is in the state where the bounce lock mode is set. If the CCPU 101 determines that the bounce lock mode is set (YES in S23), the process proceeds to step S24. If the CCPU 101 determines that the bounce lock mode is not set (NO in S23), the process proceeds to step S25.
ステップS24においてCCPU101は、バウンスロックモードであることを示す公知のビットを立て、バウンスロック設定中とし、続いて処理をステップS26へ進める。一方、ステップS25においてCCPU101は、バウンスロックモードでないことを示す公知のビットを立て、バウンスロック解除中とし、続いて処理をステップS26へ進める。ステップS26においてCCPU101は、オートバウンス処理にエラーが発生したか否かを判定する。CCPU101は、エラーが発生したと判定した場合(S26でYES)、処理をステップS27へ進め、エラーは発生していないと判定した場合(S26でNO)、処理をステップS29へ進める。オートバウンス処理にエラーが生じた場合には、バウンス処理(ステップS19)においてFPU310からオートバウンス処理にエラーが生じたことを示す情報がCCPU101へ送信される。そこで、ステップS27においてCCPU101は、バウンス処理でエラーが生じたことを示す情報(警告)を表示部113に表示する。このような警告表示は、CCPU101からFPU310への指令により、ストロボ装置300の表示部313に表示するようにしてもよい。ステップS28においてCCPU101は、発光撮影を行わない設定(非発光設定)に切り換えて、処理をステップS29へ進める。 In step S24, the CCPU 101 sets a known bit indicating that the bounce lock mode is set, sets the bounce lock to be in progress, and then proceeds to step S26. On the other hand, in step S25, the CCPU 101 sets a well-known bit indicating that the bounce lock mode is not set to release the bounce lock, and then proceeds to step S26. In step S <b> 26, the CCPU 101 determines whether an error has occurred in the auto bounce process. If the CCPU 101 determines that an error has occurred (YES in S26), the process proceeds to step S27. If it is determined that no error has occurred (NO in S26), the process proceeds to step S29. When an error occurs in the auto bounce process, information indicating that an error has occurred in the auto bounce process is transmitted from the FPU 310 to the CCPU 101 in the bounce process (step S19). In step S27, the CCPU 101 displays information (warning) on the display unit 113 indicating that an error has occurred in the bounce process. Such warning display may be displayed on the display unit 313 of the strobe device 300 in accordance with a command from the CCPU 101 to the FPU 310. In step S28, the CCPU 101 switches to a setting for not performing flash photography (non-flash setting) and advances the process to step S29.
ステップS4の判定がNOとなった場合のステップS8bにおいてCCPU101は、ステップS8aと同様に、焦点調節モードがAFモードであるか否かを判定する。CCPU101は、AFモードであると判定した場合(S8bでYES)、処理をステップS9bへ進め、AFモードではない(マニュアルモードである)と判定した場合(S8bでNO)、処理をステップS29へ進める。ステップS9bの処理はステップS9aの処理と同じであり、ステップS9bに続くステップS10bの処理はステップS10aの処理と同じであるので、ここでの説明を省略する。ステップS10bの後、処理はステップS29へ進められる。 In step S8b when the determination in step S4 is NO, the CCPU 101 determines whether or not the focus adjustment mode is the AF mode, as in step S8a. If the CCPU 101 determines that the AF mode is selected (YES in S8b), the process proceeds to step S9b. If the CCPU 101 determines that the AF mode is not selected (manual mode) (NO in S8b), the process proceeds to step S29. . The process of step S9b is the same as the process of step S9a, and the process of step S10b subsequent to step S9b is the same as the process of step S10a. Therefore, description thereof is omitted here. After step S10b, the process proceeds to step S29.
ステップS29においてCCPU101は、測光回路106を制御して測光を行い、測光回路106から測光結果を取得する。例えば、測光回路106の測光センサが6つに分割された領域のそれぞれで測光を行う場合、CCPU101は取得した測光結果としての各領域の輝度値を、EVb(i)(i=0〜5)として、RAMに記憶する。ステップS30においてCCPU101は、ゲイン切替回路108を制御して、入力部112より入力されたゲイン設定に応じてゲインを切り替える。ゲイン設定とは、例えば、ISO感度の設定である。また、ステップS30においてCCPU101は、FPU310と通信を行い、例えば、ゲイン切り替え後のゲイン設定情報をFPU310に送信する。 In step S <b> 29, the CCPU 101 controls the photometry circuit 106 to perform photometry, and acquires a photometry result from the photometry circuit 106. For example, when the photometry sensor of the photometry circuit 106 performs photometry in each of the divided areas, the CCPU 101 determines the brightness value of each area as an obtained photometry result as EVb (i) (i = 0 to 5). Is stored in the RAM. In step S <b> 30, the CCPU 101 controls the gain switching circuit 108 to switch the gain according to the gain setting input from the input unit 112. The gain setting is, for example, ISO sensitivity setting. In step S30, the CCPU 101 communicates with the FPU 310, and transmits, for example, gain setting information after gain switching to the FPU 310.
ステップS31においてCCPU101は、ステップS29で取得した測光結果(RAMに記憶されている各測光領域の輝度値)に基づき、周知のアルゴリズムにより露出演算を行って、露出値(EVs)を決定する。ステップS32においてCCPU101は、FPU310から充電完了信号を受信したか否かを判定する。CCPU101は、充電完了信号を受信したと判定した場合(S32でYES)、処理をステップS33へ進め、充電完了信号を受信していないと判定した場合(S32でNO)、処理をステップS34へ進める。ステップS33においてCCPU101は、ステップS31で算出した露出値に基づいて発光撮影に適した露出制御値(シャッタ速度(Tv)、絞り値(Av))を決定する。一方、ステップS34においてCCPU101は、ステップS31で算出した露出値に基づいて、ストロボ装置300を発光させない非発光撮影に適した露出制御値を決定する。ステップS33,S34のいずれか一方の処理が終了すると、処理はステップS35へ進められる。 In step S31, the CCPU 101 determines an exposure value (EVs) by performing an exposure calculation using a well-known algorithm based on the photometry result (the luminance value of each photometry area stored in the RAM) acquired in step S29. In step S <b> 32, the CCPU 101 determines whether a charge completion signal is received from the FPU 310. If the CCPU 101 determines that a charge completion signal has been received (YES in S32), the process proceeds to step S33. If it is determined that a charge completion signal has not been received (NO in S32), the process proceeds to step S34. . In step S33, the CCPU 101 determines exposure control values (shutter speed (Tv) and aperture value (Av)) suitable for flash photography based on the exposure value calculated in step S31. On the other hand, in step S34, the CCPU 101 determines an exposure control value suitable for non-flash photography that does not cause the flash device 300 to emit light, based on the exposure value calculated in step S31. When one of steps S33 and S34 is completed, the process proceeds to step S35.
ステップS35においてCCPU101は、入力部112に含まれるレリーズボタンが全押しされてレリーズスイッチSW2がオンになったか否かを判定する。CCPU101は、レリーズスイッチSW2がオフであると判定した場合(S35でNO)、処理をステップS2へ戻し、レリーズスイッチSW2がオンであると判定した場合(S35でYES)、処理をステップS36へ進める。なお、ステップS36以降の処理は、発光撮影に係わる処理である。非発光撮影に係わる処理は、ステップS36以降の処理の中で本発光を行うための処理を除いたものとなり、説明を省略する。 In step S35, the CCPU 101 determines whether or not the release button included in the input unit 112 is fully pressed and the release switch SW2 is turned on. If the CCPU 101 determines that the release switch SW2 is off (NO in S35), the process returns to step S2, and if it is determined that the release switch SW2 is on (YES in S35), the process proceeds to step S36. . Note that the processing after step S36 is processing related to flash photography. The processing related to non-flash photography is the same as the processing after step S36 except for the processing for performing the main flash, and the description thereof is omitted.
ステップS36においてCCPU101は、測光回路106を制御して、ストロボ装置300が発光していない状態で測光を行い、測光回路106から非発光時の測光結果(非発光時輝度値)を取得する。そして、CCPU101は、取得した各領域の非発光時輝度値を、EVa(i)(i=0〜5)として、RAMに記憶する。ステップS37においてCCPU101は、FPU310に対して通信ラインSCを介してプリ発光を指令する。FPU310は、CCPU101からの指令に従ってトリガ回路303と発光制御回路304を制御して、所定の光量でのプリ発光を行う。ステップS38においてCCPU101は、測光回路106を制御して、ストロボ装置300がプリ発光している状態で測光を行い、測光回路106から測光結果(プリ発光時輝度値)を取得する。そして、CCPU101は、取得した各領域のプリ発光時輝度値を、EVf(i)(i=0〜5)として、RAMに記憶する。 In step S <b> 36, the CCPU 101 controls the photometry circuit 106 to perform photometry in a state where the strobe device 300 is not emitting light, and obtains a photometry result (non-light emission luminance value) when no light is emitted from the photometry circuit 106. And CCPU101 memorize | stores the luminance value at the time of non-light-emitting of each area | region as EVa (i) (i = 0-5) in RAM. In step S37, the CCPU 101 instructs the FPU 310 to perform pre-flash through the communication line SC. The FPU 310 controls the trigger circuit 303 and the light emission control circuit 304 in accordance with a command from the CCPU 101 to perform pre-light emission with a predetermined light amount. In step S <b> 38, the CCPU 101 controls the photometry circuit 106 to perform photometry in a state where the flash device 300 is pre-flashed, and obtains a photometric result (pre-emission luminance value) from the photometry circuit 106. And CCPU101 memorize | stores the brightness value at the time of pre light emission of each area | region acquired in EV as EVf (i) (i = 0-5).
ステップS39においてCCPU101は、露光に先立って主ミラー104をアップさせ、撮影光路内から退避させる。ステップS40においてCCPU101は、下記式1の通りに、非発光時輝度値とプリ発光時輝度値とに基づいて、プリ発光の反射光成分のみの輝度値EVdf(i)を抽出する。この抽出処理は、例えば、6つの領域(i=0〜5)毎に行われる。ステップS41においてCCPU101は、ステップS28においてCCPU101は、FPU310から通信ラインSCを介してプリ発光時の発光量を示すプリ発光情報Qpreを取得する。 In step S39, the CCPU 101 raises the main mirror 104 prior to exposure and retracts it from the imaging optical path. In step S <b> 40, the CCPU 101 extracts the luminance value EVdf (i) of only the reflected light component of the pre-light emission based on the luminance value at the time of non-light emission and the luminance value at the time of pre-light emission, as shown in Equation 1 below. This extraction process is performed for every six areas (i = 0 to 5), for example. In step S41, the CCPU 101 acquires pre-flash information Qpre indicating the light emission amount during pre-flash from the FPU 310 via the communication line SC in step S28.
ステップS42においてCCPU101は、測距ポイント、焦点距離情報、プリ発光情報Qpre及びFPU310との通信内容から、各測光領域のうちのどの領域の被写体に対して適正な発光量とするかを選択して、本発光量を演算する。本発光量の演算では、選択した領域(P)の被写体について、露出値EVs、被写体輝度EVb、プリ発光反射光分のみの輝度値EVdf(p)に基づいて、プリ発光量に対して適正となる本発光量の相対比rを、下記式2により算出する。ここで、露出値EVsから被写体輝度EVbの伸張したものの差分をとっているのは、照明光を照射したときの露出が、外光分に照明光を加えて適正となるように制御するためである。 In step S <b> 42, the CCPU 101 selects, from among the distance measurement points, the focal length information, the pre-flash information Qpre, and the content of communication with the FPU 310, which of the photometry areas the subject should have an appropriate light emission amount. The main light emission amount is calculated. In the calculation of the main light emission amount, the subject in the selected region (P) is determined to be appropriate for the pre-light emission amount based on the exposure value EVs, the subject luminance EVb, and the luminance value EVdf (p) of the pre-light emission reflected light only. The relative ratio r of the main light emission amount is calculated by the following formula 2. Here, the difference between the exposure value EVs and the extension of the subject brightness EVb is taken because the exposure when the illumination light is irradiated is controlled so as to be appropriate by adding the illumination light to the external light. is there.
なお、撮影画角内に高反射率の物体(鏡等)が存在した場合には、プリ発光の反射光成分が大きくなることで、本発光量が小さく演算されてしまうことがある。このような問題に対処するために、撮影画角内に高反射率の物体が検出された場合に、演算された本発光量を大きくする補正を行う処理が知られている。しかしながら、部分発光撮影やバウンス発光撮影を行う場合には、高反射率の物体の検出を行わず、且つ、前述の補正も行わない。これは、部分発光撮影やバウンス発光撮影の際には、撮影画角内に高反射率の物体が存在しても、照明光を撮影画角全体に直接照射しないため、プリ発光の反射光成分における高反射物の影響が小さいからである。また、本実施形態では、バウンス発光撮影時には、撮影画角内に存在する被写体の画面内の位置に応じた本発光量の補正等も行わない。このようにすることで、部分発光撮影やバウンス発光撮影に適した本発光量を演算することができる。 If an object with high reflectance (such as a mirror) is present within the shooting angle of view, the amount of main light emission may be calculated to be small due to an increase in the reflected light component of the pre-light emission. In order to cope with such a problem, there is known a process of performing correction to increase the calculated main light emission amount when an object having a high reflectance is detected within a shooting angle of view. However, when performing partial flash photography or bounce flash photography, high-reflectance objects are not detected, and the above-described correction is not performed. This is because during partial flash photography and bounce flash photography, even if an object with a high reflectance is present within the shooting angle of view, illumination light is not directly applied to the entire shooting angle of view. This is because the influence of the highly reflective object is small. Further, in the present embodiment, at the time of bounce flash shooting, the correction of the main flash amount according to the position of the subject existing within the shooting angle of view in the screen is not performed. In this way, it is possible to calculate the main light emission amount suitable for partial flash photography and bounce flash photography.
ステップS43においてCCPU101は、下記式3の通りに、発光撮影時のシャッタ速度Tv、プリ発光の発光時間t_pre、入力部112により予め設定された補正係数cを用いて相対比rを補正することで、新たな相対比r´を演算する。なお、相対比rをシャッタ速度Tvとプリ発光の発光時間t_preを用いて補正するのは、プリ発光時の測光積分値INTpと本発光の測光積分値INTmとを正しく比較するためである。 In step S43, the CCPU 101 corrects the relative ratio r using the shutter speed Tv at the time of flash photography, the pre-flash emission time t_pre, and the correction coefficient c set in advance by the input unit 112, as shown in Equation 3 below. A new relative ratio r ′ is calculated. The reason why the relative ratio r is corrected using the shutter speed Tv and the pre-emission emission time t_pre is to correctly compare the photometric integration value INTp during pre-emission and the photometry integration value INTm during main emission.
ステップS44においてCCPU101は、通信ラインSCを介してFPU310へ本発光量を決定するための相対比r´に関する情報を送信する。ステップS45においてCCPU101は、ステップS33で決定した絞り値AvになるようにLPU201に指令を出し、また、決定したシャッタ速度Tvになるようにシャッタ103を制御する。 In step S44, the CCPU 101 transmits information on the relative ratio r ′ for determining the main light emission amount to the FPU 310 via the communication line SC. In step S45, the CCPU 101 issues a command to the LPU 201 so that the aperture value Av determined in step S33 is obtained, and controls the shutter 103 so that the determined shutter speed Tv is obtained.
ステップS46においてCCPU101は、通信ラインSCを介してFPU310に本発光の実行を指令する。これにより、FPU310は、CCPU101はから送信された相対比r´に基づいて本発光を行う。こうして一連の露光動作が終了すると、ステップS47においてCCPU101は、撮影光路内から退避させていた主ミラー104をダウンさせ、再び撮影光路内に斜設する。 In step S46, the CCPU 101 instructs the FPU 310 to execute main light emission via the communication line SC. Thereby, the FPU 310 performs the main light emission based on the relative ratio r ′ transmitted from the CCPU 101. When a series of exposure operations is completed in this way, in step S47, the CCPU 101 lowers the main mirror 104 that has been retracted from the photographing optical path, and again places it obliquely in the photographing optical path.
ステップS48においてCCPU101は、ゲイン切替回路108により撮像素子102から出力される信号を設定されたゲインで増幅させ、増幅された信号をA/D変換器109によりデジタル信号に変換させる。そして、CCPU101は、信号処理回路111により、デジタル信号に変換された画像データに対してホワイトバランス等の所定の信号処理を行う。ステップS49においてCCPU101は、信号処理が施された画像データを不図示のフラッシュメモリ等の記憶装置に記憶し、これにより一連の撮像処理は終了する。よって、再度の撮像を行うために、ステップS50においてCCPU101は、レリーズスイッチSW1がオンとなっているか否かを判定する。CCPU101は、レリーズスイッチSW1がオンであると判定した場合(S50でYES)、処理をステップS35へ戻し、レリーズスイッチSW1がオンになっていないと判定した場合(S50でNO)、処理をステップS2へ戻す。 In step S <b> 48, the CCPU 101 amplifies the signal output from the image sensor 102 by the gain switching circuit 108 with the set gain, and converts the amplified signal into a digital signal by the A / D converter 109. The CCPU 101 performs predetermined signal processing such as white balance on the image data converted into a digital signal by the signal processing circuit 111. In step S49, the CCPU 101 stores the image data on which the signal processing has been performed in a storage device such as a flash memory (not shown), thereby ending a series of imaging processing. Therefore, in order to perform imaging again, in step S50, the CCPU 101 determines whether or not the release switch SW1 is on. If the CCPU 101 determines that the release switch SW1 is on (YES in S50), the process returns to step S35. If the CCPU 101 determines that the release switch SW1 is not on (NO in S50), the process proceeds to step S2. Return to.
次に、ストロボ装置300での発光に伴う処理について、発光部の姿勢を変化させるための動作を含めて説明する。図4は、撮像システム10で実行される撮影処理においてFPU310が実行する処理のフローチャートである。図4のフローチャートの各処理は、FPU310においてCPUがROMに格納された所定のプログラムをRAMに展開することにより、FPU310がストロボ装置300を構成する各部の動作を制御することにより実現される。ストロボ装置300に設けられた入力部312に含まれる電源スイッチがオンに操作されることで、FPU310は動作可能となる。 Next, processing associated with light emission in the strobe device 300 will be described including an operation for changing the posture of the light emitting unit. FIG. 4 is a flowchart of processing executed by the FPU 310 in shooting processing executed by the imaging system 10. Each process of the flowchart of FIG. 4 is realized by the FPU 310 controlling the operation of each unit constituting the strobe device 300 by the CPU developing a predetermined program stored in the ROM in the RAM. When the power switch included in the input unit 312 provided in the strobe device 300 is turned on, the FPU 310 becomes operable.
ステップS401においてFPU310は、自身のメモリやポートの初期化を行い、また、入力部312に含まれるスイッチの状態や予め設定された入力情報を読み込み、発光量の決め方や発光タイミング等の様々な発光モードの設定を行う。ステップS402においてFPU310は、昇圧回路ブロック302を動作させて、メインコンデンサ302dの充電を行う。ステップS403においてFPU310は、CCPU101から通信ラインSCを介して取得したレンズ鏡筒200の焦点距離情報をFPU310が有するメモリ(RAM又はEEPROM等)に記憶する。このとき、以前に記憶した焦点距離情報が保持されている場合には、新たな焦点距離情報に更新される。 In step S401, the FPU 310 initializes its own memory and port, reads the state of the switch included in the input unit 312 and preset input information, and performs various light emission such as how to determine the light emission amount and light emission timing. Set the mode. In step S402, the FPU 310 operates the booster circuit block 302 to charge the main capacitor 302d. In step S403, the FPU 310 stores the focal length information of the lens barrel 200 acquired from the CCPU 101 via the communication line SC in a memory (RAM, EEPROM, or the like) included in the FPU 310. At this time, if the previously stored focal length information is held, it is updated to new focal length information.
ステップS404においてFPU310は、入力部312に対する操作により設定された発光モードに関する情報やステップS403で取得した焦点距離情報に関する情報等を表示部313に表示する。ステップS405においてFPU310は、照明光の照射範囲が取得した焦点距離情報に応じた範囲となるように、光学系駆動回路330にストロボ光学系307を移動させる。ステップS406においてFPU310は、姿勢検出回路360によりストロボ装置300の姿勢を検出する。ステップS407においてFPU310は、第1のバウンス角度検出回路340a、第2のバウンス角度検出回路340c及び第3のバウンス角度検出回路340eにより、可動部300bの本体部300aに対する回転角度を検出する。 In step S <b> 404, the FPU 310 displays information on the light emission mode set by the operation on the input unit 312, information on the focal length information acquired in step S <b> 403, and the like on the display unit 313. In step S <b> 405, the FPU 310 moves the strobe optical system 307 to the optical system driving circuit 330 so that the illumination light irradiation range is in a range corresponding to the acquired focal length information. In step S <b> 406, the FPU 310 detects the posture of the strobe device 300 using the posture detection circuit 360. In step S407, the FPU 310 detects the rotation angle of the movable portion 300b with respect to the main body portion 300a by the first bounce angle detection circuit 340a, the second bounce angle detection circuit 340c, and the third bounce angle detection circuit 340e.
ステップS408においてFPU310は、発光モードが部分発光モードに設定されているか否かを判定する。FPU310は、部分発光モードに設定されていると判定した場合(S408でYES)、処理をステップs409へ進め、部分発光モードに設定されていない(全体発光モードである)と判定した場合(S408でNO)、処理をステップS412へ進める。なお、発光モードの設定は、入力部112又は入力部312に対する操作によって行うことができる。ステップS409においてFPU310は、部分発光の実行が指示されたか否かを判断する。FPU310は、部分発光の実行が指示されたと判定した場合(S409でYES)、処理をステップS410へ進め、部分発光の実行が指示されていないと判定した場合(S409でNO)、処理をステップS414へ進める。 In step S408, the FPU 310 determines whether or not the light emission mode is set to the partial light emission mode. If the FPU 310 determines that the partial light emission mode is set (YES in S408), the process proceeds to step s409, and if the FPU 310 determines that the partial light emission mode is not set (entire light emission mode) (S408). NO), the process proceeds to step S412. Note that the light emission mode can be set by operating the input unit 112 or the input unit 312. In step S409, the FPU 310 determines whether execution of partial light emission has been instructed. If the FPU 310 determines that execution of partial light emission has been instructed (YES in S409), the process proceeds to step S410. If it is determined that execution of partial light emission has not been instructed (NO in S409), the process proceeds to step S414. Proceed to
ステップS410においてFPU310は、部分発光を実行するための発光部の姿勢と現在の発光部の姿勢が一致しているかを確認し、発光部の姿勢変更が必要か否かを判定する。FPU310は、発光部の姿勢変更が必要であると判定した場合(S410でYES)、処理をステップS411へ進め、発光部の姿勢変更は不要であると判定した場合(S410でNO)、処理をステップS414へ進める。なお、FPU310は、発光部の姿勢変更が必要であると判断した場合には、発光部の回転に必要な各軸まわりの駆動量を算出し、自身のRAMに記憶する。ステップS411においてFPU310は、ステップS410において算出した駆動量に基づき、第1のバウンス駆動回路340b、第2のバウンス駆動回路340d及び第3のバウンス駆動回路340fを駆動させ、その後、処理をステップS410へ戻す。 In step S410, the FPU 310 confirms whether the posture of the light emitting unit for executing partial light emission matches the current posture of the light emitting unit, and determines whether it is necessary to change the posture of the light emitting unit. When the FPU 310 determines that the posture change of the light emitting unit is necessary (YES in S410), the process proceeds to step S411. When the FPU 310 determines that the posture change of the light emitting unit is not necessary (NO in S410), the process is performed. Proceed to step S414. When the FPU 310 determines that it is necessary to change the posture of the light emitting unit, the FPU 310 calculates a driving amount around each axis necessary for the rotation of the light emitting unit, and stores it in its own RAM. In step S411, the FPU 310 drives the first bounce drive circuit 340b, the second bounce drive circuit 340d, and the third bounce drive circuit 340f based on the drive amount calculated in step S410, and then the process proceeds to step S410. return.
ステップS412においてFPU310は、オートバウンス動作の実行が指示されたか否かを判定する。FPU310は、オートバウンス動作の実行が指示された場合(S412でYES)、処理をステップS413へ進め、オートバウンス動作の実行が指示されていない場合(S412でNO)、処理をステップS414へ進める。ステップS413においてFPU310は、ステップS19でのバウンス処理におけるオートバウンス動作を行う。 In step S412, the FPU 310 determines whether execution of an auto bounce operation is instructed. When the execution of the auto bounce operation is instructed (YES in S412), the FPU 310 advances the process to step S413. When the execution of the auto bounce operation is not instructed (NO in S412), the FPU 310 advances the process to step S414. In step S413, the FPU 310 performs an auto bounce operation in the bounce process in step S19.
ステップS414においてFPU310は、オートバウンス動作後の可動部300bの本体部300aに対する回転角度を示す現在位置情報をCCPU101へ送信する。ステップS415においてFPU310は、メインコンデンサ302dの充電が完了したか否かを、充電電圧が所定値以上となった否かによって判定する。FPU310は、充電が完了したと判定した場合(S415でYES)、処理をステップS416へ進め、充電が完了していないと判定した場合(S415でNO)、処理をステップS419へ進める。 In step S414, the FPU 310 transmits current position information indicating the rotation angle of the movable part 300b with respect to the main body part 300a after the auto bounce operation to the CCPU 101. In step S415, the FPU 310 determines whether or not the charging of the main capacitor 302d is completed based on whether or not the charging voltage is equal to or higher than a predetermined value. If FPU 310 determines that charging is complete (YES in S415), the process proceeds to step S416, and if it is determined that charging is not complete (NO in S415), the process proceeds to step S419.
ステップS416においてFPU310は、充電完了信号をCCPU101へ送信する。ステップS417においてFPU310は、CCPU101から発光を開始する信号(発光命令)を受信したか否かを判定する。FPU310は、発光命令を受信したと判定した場合(S417でYES)、処理をステップS418へ進め、発光命令を受信していないと判定した場合(S417でNO)、処理をステップS402へ戻す。ステップS418においてFPU310は、受信した発光命令に応じて発光制御回路304を制御することによって放電管305を発光させ、発光終了後に処理をステップS402へ戻す。なお、ステップS418では、調光用のプリ発光と本発光のように一連する発光については、各発光が終了してもステップS402へ戻らずに一連の発光の終了後にステップS402へ戻るように制御される。ステップS419においてFPU310は、充電未完信号をCCPU101へ送信し、その後、処理をステップS402へ戻す。以上の通りにして、バウンス動作を含めたストロボ装置300の発光に伴う処理が実行される。 In step S416, the FPU 310 transmits a charge completion signal to the CCPU 101. In step S417, the FPU 310 determines whether or not a signal (light emission command) for starting light emission is received from the CCPU 101. If the FPU 310 determines that a light emission command has been received (YES in S417), the process proceeds to step S418. If the FPU 310 determines that a light emission command has not been received (NO in S417), the process returns to step S402. In step S418, the FPU 310 controls the light emission control circuit 304 according to the received light emission command to cause the discharge tube 305 to emit light, and returns the process to step S402 after the light emission ends. In step S418, for a series of light emission such as the pre-flash for dimming and the main light emission, control is performed so that the process returns to step S402 after the end of the series of light emission without returning to step S402 even if each light emission ends. Is done. In step S419, the FPU 310 transmits a charging incomplete signal to the CCPU 101, and then returns the process to step S402. As described above, processing associated with light emission of the strobe device 300 including bounce operation is executed.
次に、ステップS12の撮影シーンの判別からステップS15の部分発光の処理について更に説明する。図5は、ストロボ装置300が取り得る姿勢の一例を示す斜視図である。図5(a)は、可動部300bの駆動量が水平方向、垂直方向及び光軸回転のそれぞれで0度の状態を示す図である。図5(b)は、可動部300bの駆動量が水平方向及び垂直方向では0度であり、光軸回転では90度である状態を示す図である。 Next, the process of partial light emission in step S15 from the determination of the shooting scene in step S12 will be further described. FIG. 5 is a perspective view showing an example of a posture that the strobe device 300 can take. FIG. 5A is a diagram illustrating a state in which the driving amount of the movable unit 300b is 0 degrees in each of the horizontal direction, the vertical direction, and the optical axis rotation. FIG. 5B is a diagram illustrating a state in which the driving amount of the movable unit 300b is 0 degrees in the horizontal and vertical directions and 90 degrees in the optical axis rotation.
CCPU101は、撮影画角内の被写体の位置情報に基づいて、例えば、図9を参照して説明したシーンのように高反射率の物体と人物の顔とが同時に検出される撮影シーンや、人物の位置が撮影画角内の一部に寄っている撮影シーンを判別する。なお、既存の撮影シーンの判別アルゴリズムや入力部112や入力部312からの設定によって撮影シーンを判別しても構わない。 Based on the position information of the subject within the shooting angle of view, the CCPU 101 detects, for example, a shooting scene in which a highly reflective object and a human face are detected at the same time as in the scene described with reference to FIG. A shooting scene in which the position of is close to a part of the shooting angle of view is determined. It should be noted that the photographic scene may be discriminated based on an existing photographic scene discrimination algorithm or setting from the input unit 112 or the input unit 312.
先に説明した図9の撮影シーンの場合、可動部300bの姿勢を図5(a)から図5(b)へ変えることによって対応することができる。すなわち、測光回路106による測光結果に基づいて、高反射率の物体と人物が検出され、人物が撮影画角内の左寄りの位置にあることが検出される。このとき、例えば「屋内記念撮影モード」のように、撮影シーンを分類して判別してもよい。撮影シーン判別の後、人物の顔位置の検知情報や可動部300bの姿勢情報に基づいて、照明光の照射範囲が人物全体を覆うようにCCPU101によって決定される。CCPU101は、決定した照射範囲と現在の可動部300bの姿勢情報に基づいて可動部300bの駆動量を演算し、演算結果をFPU310へ送信する。 In the case of the shooting scene of FIG. 9 described above, it is possible to cope by changing the posture of the movable unit 300b from FIG. 5A to FIG. 5B. That is, based on the photometric result obtained by the photometric circuit 106, an object and a person with high reflectivity are detected, and it is detected that the person is at a position on the left side within the shooting angle of view. At this time, for example, the shooting scene may be classified and discriminated as in the “indoor commemorative shooting mode”. After the shooting scene determination, the CCPU 101 determines the illumination light irradiation range to cover the entire person based on the detection information of the person's face position and the posture information of the movable part 300b. The CCPU 101 calculates the driving amount of the movable unit 300b based on the determined irradiation range and the current posture information of the movable unit 300b, and transmits the calculation result to the FPU 310.
FPU310は、受信した駆動量に基づいて第1のバウンス駆動回路340b、第2のバウンス駆動回路340d及び第3のバウンス駆動回路340fを駆動し、図6(a)及び図6(b)に示すように、人物に向けて照明光を照射する。このようにバウンス回路340を自動駆動させることにより、ファインダから目を離さずに照射範囲を決定することができるため、可動部300bを手動で動かして再度構図を確認するといった煩わしさをなくすことができる。図6(a)、図6(b)は同じ撮影シーンを表しており、図6(a)は、被写体を正面から(撮像システム10から)見た図であり、図6(b)は、被写体及び撮像システム10を上方から見た図である。図6(a)の撮影シーンは、図9の撮影シーンと同じである。なお、照明光の照射範囲の決定には、顔検知以外にも、AF測距点位置や測光分布での露出不足部分等に基づいて決定してもよい。 The FPU 310 drives the first bounce drive circuit 340b, the second bounce drive circuit 340d, and the third bounce drive circuit 340f based on the received drive amount, as shown in FIGS. 6 (a) and 6 (b). In this way, the illumination light is irradiated toward the person. By automatically driving the bounce circuit 340 in this way, it is possible to determine the irradiation range without taking the eyes off the viewfinder, thereby eliminating the trouble of manually moving the movable part 300b and reconfirming the composition. it can. 6A and 6B show the same shooting scene. FIG. 6A is a view of the subject as viewed from the front (from the imaging system 10), and FIG. It is the figure which looked at the photographic subject and imaging system 10 from the upper part. The shooting scene in FIG. 6A is the same as the shooting scene in FIG. In addition to the face detection, the illumination light irradiation range may be determined based on an AF distance measuring point position, an underexposed portion in a photometric distribution, or the like.
図6(c)は、別の撮影シーンの例を表す図であり、人物の両脇に並木道やイルミネーションがある構図を模式的に示している。このような撮影シーンでは、撮影画角全体に照明光を照射してしまうと、撮影者に近いところでは並木道にも照明光が照射されてしまうため、不自然なライティングとなる。そこで、第3のバウンス駆動回路340fを駆動させて可動部300bを図5(b)に示した状態とし、撮影画角の中央にのみ照明光を照射するようにすることで、並木道への照明光の照射を回避した自然なライティングを実現することができる。なお、第3のバウンス駆動回路340fは、90度駆動だけでなく、撮影シーンによって自由に照射角度を変更することが可能であり、これにより効果的なライティングを行うことができる。 FIG. 6C is a diagram illustrating an example of another shooting scene, and schematically illustrates a composition in which a tree-lined road and illumination are present on both sides of a person. In such a shooting scene, if the illumination light is irradiated to the entire shooting angle of view, the illumination light is also irradiated to the tree-lined road near the photographer, resulting in unnatural lighting. Therefore, the third bounce drive circuit 340f is driven to bring the movable part 300b into the state shown in FIG. 5B, and illumination light is irradiated only at the center of the shooting angle of view, thereby illuminating the tree-lined road. Natural lighting that avoids light irradiation can be realized. Note that the third bounce drive circuit 340f can change the irradiation angle freely depending on the shooting scene, as well as the 90-degree drive, and thereby can perform effective lighting.
次に、上述したステップS410,S411で可動部300bを駆動するだけでなく、レンズ鏡筒200の焦点距離とは関係なく、ストロボ光学系307を駆動させて照射範囲を変更する処理を行う制御について説明する。 Next, in addition to driving the movable part 300b in the above-described steps S410 and S411, control for performing a process of changing the irradiation range by driving the strobe optical system 307 regardless of the focal length of the lens barrel 200. explain.
図7(a)は、太陽光が差し込む明るい屋内での撮影シーンを模式的に示す図である。図7(b)は、テーマパークを背景にした夜景撮影を模式的に示す図である。図7(a)の撮影シーンでは、影となっているのは逆光による左側の人物であるが、影取りのために撮影画角内全体に照明光を照射してしまうと、手前の机で照明光が照り返され、不自然なライティングとなってしまう。また、図7(b)の撮影シーンでは、スローシンクロ撮影により左端の人物に光を照射したいが、被写体(人物)の近くにある壁にもが照射されることで、不自然なライティングとなってしまう。 FIG. 7A is a diagram schematically showing a bright indoor shooting scene into which sunlight is inserted. FIG. 7B is a diagram schematically illustrating night scene shooting with the theme park in the background. In the shooting scene of FIG. 7 (a), the shadow is a person on the left side due to backlight, but if the illumination light is irradiated to the entire shooting angle of view for shadow removal, Illumination light is reflected, resulting in unnatural lighting. Further, in the shooting scene of FIG. 7B, it is desired to irradiate light on the person at the left end by slow sync shooting, but the wall near the subject (person) is also irradiated, resulting in unnatural lighting. End up.
図8(a)は、図7(a)の撮影シーンに対する好適な照明光の照射範囲を説明する図である。図8(a)では、照明光を必要としているのは左側の被写体のみなので、左側の被写体に照射範囲を絞ってスポット的に照明光を照射することで、前述の問題を解消することができる。これにより、手前の机に照明光を照射することを回避して、不自然なライティングとなるのを防ぐことができる。この場合、例えば、顔検知位置から15%というような、撮影画角内に占める照射範囲の割合で自動的に照射範囲を決定してもよい。図8(b)では、照明光を必要としているのは左端の被写体のみなので、左端の被写体に照射範囲を絞って照明光を照射する。これにより、被写体の近くの壁に照明光を照射しないようにすることができることで、不自然なライティングとなるのを防ぐことができる。 FIG. 8A is a diagram for explaining a preferable illumination light irradiation range for the shooting scene of FIG. In FIG. 8A, the illumination light is required only for the left subject, so that the above-mentioned problem can be solved by irradiating the left subject with the illumination light in a spot-like manner. . As a result, it is possible to avoid illuminating the front desk with illumination light and prevent unnatural lighting. In this case, for example, the irradiation range may be automatically determined based on the ratio of the irradiation range occupying within the shooting angle of view, such as 15% from the face detection position. In FIG. 8B, the illumination light is required only for the leftmost subject, so the illumination light is irradiated to the leftmost subject with a narrowed irradiation range. Thereby, it is possible to prevent the illumination light from being irradiated on the wall near the subject, thereby preventing unnatural lighting.
照射範囲を絞る処理を図4のフローチャートに組み込む場合、まず、ステップS410においてFPU310は、部分発光を実行するための発光部の姿勢及び照射範囲と現在の発光部の姿勢及び照射範囲が一致しているかを判定する。FPU310は、発光部の姿勢変更及び照射範囲の変更が必要と判定した場合(S410でYES)、処理をステップS411へ進め、発光部の回転に必要な各軸まわりの駆動量及びストロボ光学系307の駆動量を算出し、自身のRAMに記憶する。FPU310は、発光部の姿勢変更及び照射範囲の変更が不要と判定した場合(S410でNO)、処理をステップS414へ進める。 When the process for narrowing the irradiation range is incorporated in the flowchart of FIG. 4, first, in step S410, the FPU 310 matches the posture and irradiation range of the light emitting unit for executing partial light emission with the current posture and irradiation range of the light emitting unit. It is determined whether or not. If the FPU 310 determines that it is necessary to change the posture of the light emitting unit and change the irradiation range (YES in S410), the FPU 310 advances the process to step S411, and the driving amount around each axis necessary for the rotation of the light emitting unit and the strobe optical system 307. Is calculated and stored in its own RAM. If the FPU 310 determines that it is not necessary to change the posture of the light emitting unit and the irradiation range (NO in S410), the FPU 310 advances the process to step S414.
ステップS411においてFPU310は、ステップS410で算出した駆動量に基づいて第1のバウンス駆動回路340b、第2のバウンス駆動回路340d及び第3のバウンス駆動回路340f及び光学系駆動回路330を駆動させる。これにより、照明光の照射位置を決定し、照射範囲(照射面積)をスポット的に絞り込むことで、不要な照明光の照り返しをなくし、不自然なライティングを防ぐことができる。ステップS411の後、処理は、ステップS410へ戻される。なお、図6乃至図8を参照して説明した撮影シーンの判別や照明光の照射範囲の決定等の演算処理は、CCPU101で行わずに、FPU310で行うようにしてもよい。 In step S411, the FPU 310 drives the first bounce drive circuit 340b, the second bounce drive circuit 340d, the third bounce drive circuit 340f, and the optical system drive circuit 330 based on the drive amount calculated in step S410. Thereby, the irradiation position of illumination light is determined, and the irradiation range (irradiation area) is narrowed down in a spot manner, thereby eliminating unnecessary reflection of illumination light and preventing unnatural lighting. After step S411, the process returns to step S410. Note that the arithmetic processing such as the determination of the shooting scene and the determination of the illumination light irradiation range described with reference to FIGS. 6 to 8 may be performed by the FPU 310 instead of the CCPU 101.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上記実施形態で説明した各フローチャートの処理の順序は一例であって、不都合がない限りにおいて処理の順序を変更しても構わない。本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the order of processing in each flowchart described in the above embodiment is an example, and the order of processing may be changed as long as there is no inconvenience. The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 カメラ本体
101 CCPU(カメラマイコン)
112 入力部
140 姿勢検出回路
300 ストロボ装置
300a 本体部
300b 可動部
310 FPU(ストロボマイコン)
340 バウンス回路
360 姿勢検出回路
100 camera body 101 CCPU (camera microcomputer)
DESCRIPTION OF SYMBOLS 112 Input part 140 Posture detection circuit 300 Strobe device 300a Main part 300b Movable part 310 FPU (strobe microcomputer)
340 Bounce circuit 360 Attitude detection circuit
Claims (8)
前記撮像手段により撮像される被写体に照明光を照射する発光部とを備える撮像システムであって、
前記発光部の姿勢を少なくとも前記発光部の光軸を中心として回転させる駆動手段と、
撮影シーンを判別する判別手段を備え、
前記判別手段により判別された撮影シーンに応じて前記駆動手段の駆動を制御する制御手段と、備えることを特徴とする撮像システム。 Imaging means;
An imaging system comprising: a light emitting unit that emits illumination light to a subject imaged by the imaging unit;
Drive means for rotating the posture of the light emitting unit at least about the optical axis of the light emitting unit;
It has a discriminating means for discriminating the shooting scene,
An imaging system comprising: a control unit that controls driving of the driving unit according to a shooting scene determined by the determining unit.
前記制御手段は、前記検出手段が検出した前記撮像システムの姿勢に応じて、前記駆動手段と前記変更手段を制御して、前記発光部からの照明光の照射方向と照射範囲を調整することを特徴とする請求項3に記載の撮像システム。 Detecting means for detecting the posture of the imaging system;
The control means controls the driving means and the changing means according to the attitude of the imaging system detected by the detection means to adjust the irradiation direction and irradiation range of the illumination light from the light emitting unit. The imaging system according to claim 3, wherein
撮影シーンを判別するステップと、
判別された撮影シーンに応じて撮影画角の一部の範囲に照明光を照射するか否かを判定するステップと、
前記一部の範囲に照明光を照射すると判定された場合に、前記一部の範囲に照明光が照射されるように、少なくとも前記発光部の光軸を中心として前記発光部を回転させるステップと、
照明光の照射範囲を前記一部の範囲に調整するステップと、を有することを特徴とする撮像システムの制御方法。 An imaging system control method comprising: an imaging unit; and a light emitting unit that emits illumination light to a subject imaged by the imaging unit,
Determining the shooting scene;
Determining whether or not to irradiate illumination light to a partial range of the shooting angle of view according to the determined shooting scene;
Rotating the light emitting unit around at least the optical axis of the light emitting unit so that the partial range is irradiated with the illumination light when it is determined that the partial range is irradiated with the illumination light; ,
Adjusting the irradiation range of the illumination light to the partial range, and a method for controlling the imaging system.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016221330A JP2018081121A (en) | 2016-11-14 | 2016-11-14 | Imaging system and control method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016221330A JP2018081121A (en) | 2016-11-14 | 2016-11-14 | Imaging system and control method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018081121A true JP2018081121A (en) | 2018-05-24 |
Family
ID=62198808
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016221330A Pending JP2018081121A (en) | 2016-11-14 | 2016-11-14 | Imaging system and control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018081121A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110148454A (en) * | 2019-05-21 | 2019-08-20 | 上海联影医疗科技有限公司 | A kind of pendulum position method, apparatus, server and storage medium |
-
2016
- 2016-11-14 JP JP2016221330A patent/JP2018081121A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110148454A (en) * | 2019-05-21 | 2019-08-20 | 上海联影医疗科技有限公司 | A kind of pendulum position method, apparatus, server and storage medium |
| CN110148454B (en) * | 2019-05-21 | 2023-06-06 | 上海联影医疗科技股份有限公司 | Positioning method, positioning device, server and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5268438B2 (en) | Strobe device, imaging device, and control method thereof | |
| JP6573367B2 (en) | Imaging device, control method thereof, and control program | |
| US10520791B2 (en) | Image pickup system capable of performing bounce flash shooting, light emission device, method of controlling light emission device, and storage medium | |
| US10097768B2 (en) | Light emission control device that controls light emission of lighting device, method of controlling the same, storage medium, and image pickup apparatus | |
| JP4350199B2 (en) | camera | |
| JP2015004932A (en) | Camera system, imaging device, lighting device, and control method | |
| JP6188444B2 (en) | Camera system, imaging apparatus, and control method | |
| JP6971710B2 (en) | Lighting equipment, its control method, control program, and lighting system, as well as imaging equipment. | |
| JP2018081121A (en) | Imaging system and control method thereof | |
| JP6552170B2 (en) | Imaging system, illumination device, and control method | |
| JP6851790B2 (en) | Lighting device and its control method and imaging system | |
| JP2014232161A (en) | Image-capturing device, lighting device, and control method | |
| JP6529233B2 (en) | Imaging system, lighting device and control method | |
| JP5183188B2 (en) | Imaging device and strobe device | |
| JP2010134091A (en) | Stroboscopic device, imaging apparatus, and camera system | |
| JP6685732B2 (en) | Illumination device, imaging system, control method thereof, and program | |
| JP6584128B2 (en) | LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF | |
| JP6611419B2 (en) | Imaging system, illumination device, and control method | |
| JP6650666B2 (en) | Imaging system, lighting device, and control method | |
| JP6971562B2 (en) | Lighting equipment and its control method and imaging system | |
| JP2019132914A (en) | Illumination device and camera system including teh same | |
| JP2021063858A (en) | Imaging system and method for controlling the same | |
| JP6489925B2 (en) | LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF | |
| JP2020034815A (en) | Flash device and camera system | |
| JP2017129625A (en) | Light emitting control device, control method and control program of the same, and imaging device |