[go: up one dir, main page]

JP2016061974A - Imaging system, illumination device, and control method - Google Patents

Imaging system, illumination device, and control method Download PDF

Info

Publication number
JP2016061974A
JP2016061974A JP2014190350A JP2014190350A JP2016061974A JP 2016061974 A JP2016061974 A JP 2016061974A JP 2014190350 A JP2014190350 A JP 2014190350A JP 2014190350 A JP2014190350 A JP 2014190350A JP 2016061974 A JP2016061974 A JP 2016061974A
Authority
JP
Japan
Prior art keywords
light emitting
emitting unit
unit
irradiation direction
optical member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014190350A
Other languages
Japanese (ja)
Other versions
JP6529233B2 (en
Inventor
梓 菅原
Azusa Sugawara
梓 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014190350A priority Critical patent/JP6529233B2/en
Publication of JP2016061974A publication Critical patent/JP2016061974A/en
Application granted granted Critical
Publication of JP6529233B2 publication Critical patent/JP6529233B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine a radiation direction of an illumination device by a method suitable for the use of an optical member for changing a radiation range.SOLUTION: An imaging system comprises: an illumination device capable of automatically driving a movable part including a light emission part for changing a radiation direction of the light emission part; and an imaging device. The imaging system includes: judgement means for judging whether an optical member capable of expanding a radiation range of the light emission part is present or not in a position forward in the radiation direction of the light emission part; and determination means for determining the radiation direction of the light emission part. The determination means makes a method, for determining the radiation direction of the light emission part, different depending on whether the optical member capable of expanding the radiation range of the light emission part is present or not in the position forward in the radiation direction of the light emission part.SELECTED DRAWING: Figure 5

Description

本発明は、照射方向を自動的に変更可能な照明装置の制御に関するものである。   The present invention relates to control of an illumination device that can automatically change an irradiation direction.

従来、照明装置の光を天井等に向けて照射して天井等からの拡散反射光を被写体に照射する発光撮影(以下、バウンス発光撮影とする)が知られている。バウンス発光撮影によれば、照明装置の光を直接的ではなく間接的に被写体に照射することができるため、柔らかい光での描写が可能となる。   2. Description of the Related Art Conventionally, flash photography (hereinafter referred to as bounce flash photography) is known in which light from a lighting device is irradiated toward a ceiling or the like and a subject is irradiated with diffuse reflected light from the ceiling or the like. According to the bounce flash photography, the subject can be irradiated with light from the illumination device indirectly instead of directly, so that it is possible to depict with soft light.

特許文献1には、撮影レンズのピントが被写体に合致しているときのフォーカスレンズのレンズ位置に基づき、ピントが合致している被写体、反射面までの距離を取得し、取得した距離に基づいて最適なバウンス角を求める技術が記載されている。   In Patent Document 1, the distance to the subject that is in focus and the reflecting surface is acquired based on the lens position of the focus lens when the focus of the photographing lens matches the subject, and based on the acquired distance. A technique for obtaining an optimum bounce angle is described.

特開2009−163179号公報JP 2009-163179 A

また、より自然な描写に近づけるために、照明装置に取り付けてバウンス発光撮影時に用いられる光学部材(以下、バウンスアダプターと呼ぶ)が知られている。バウンス発光撮影で天井を反射面とした場合、被写体である人物の顎下の首に影ができるが、バウンスアダプターを取り付けてバウンス発光撮影することで、バウンスアダプターでの拡散光が正面から照射され、顎下の影を軽減することができる。   In addition, an optical member (hereinafter referred to as a bounce adapter) that is attached to a lighting device and used for bounce flash photography is known in order to approximate a more natural description. If the ceiling is used as a reflective surface in bounce flash photography, a shadow will appear on the neck under the subject's chin, but by bounce flash photography with a bounce adapter attached, diffuse light from the bounce adapter is emitted from the front. , Submandibular shadow can be reduced.

また、照明装置の照射光を拡散させる光学部材として収納位置と照射方向前方の位置とに移動可能な拡散パネルを内蔵した照明装置も知られている。   There is also known an illuminating device that incorporates a diffusion panel that can be moved between a storage position and a position in front of the irradiating direction as an optical member that diffuses irradiation light of the illuminating device.

しかしながら、上述の特許文献1に開示された技術は、バウンスアダプターや拡散パネルを使用する場合について考慮されていない。そのため、バウンスアダプターや拡散パネルを使用する場合においても同じ制御を行うことで、バウンス発光撮影時に被写体に照射される光が最適なものとならず、不自然な画像になってしまうことが考えられる。   However, the technique disclosed in Patent Document 1 described above is not considered for the case where a bounce adapter or a diffusion panel is used. Therefore, even when using a bounce adapter or diffuser panel, the same control is performed, so that the light irradiated to the subject at the time of bounce flash photography may not be optimal, resulting in an unnatural image. .

そこで、本発明は、照射範囲を変更する光学部材を使用する際に適した方法で照明装置の照射方向を決定することができるようにすることを目的とする。   In view of the above, an object of the present invention is to make it possible to determine the irradiation direction of a lighting device by a method suitable for using an optical member that changes the irradiation range.

上記の目標を達成するために、本発明に係る撮像システムは、発光部の照射方向を変更させるために当該発光部を備えた可動部を自動で駆動させることが可能な照明装置と、撮像装置とを含む撮像システムであって、前記発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する判定手段と、前記発光部の照射方向を決定する決定手段と、を有し、前記決定手段は、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在するか否かに応じて、前記発光部の照射方向を決定する方法を異ならせることを特徴とする。   In order to achieve the above-described goal, an imaging system according to the present invention includes an illumination device capable of automatically driving a movable unit including the light emitting unit to change the irradiation direction of the light emitting unit, and an imaging device A determination means for determining whether or not there is an optical member capable of expanding the irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction; Determining means for determining an irradiation direction, wherein the determining means determines whether or not there is an optical member capable of expanding an irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction. Accordingly, the method of determining the irradiation direction of the light emitting unit is different.

本発明によれば、照射範囲を変更する光学部材を使用する際に適した方法で照明装置の照射方向を決定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the irradiation direction of an illuminating device can be determined by the method suitable when using the optical member which changes an irradiation range.

本発明の実施形態に係る撮像システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging system according to an embodiment of the present invention. 本発明の実施形態に係る撮像システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging system according to an embodiment of the present invention. オートバウンス発光撮影に係るカメラ本体100の各種処理のフローチャートを示す図である。It is a figure which shows the flowchart of the various processes of the camera main body 100 which concerns on auto bounce flash photography. オートバウンス発光撮影に係るカメラ本体100の各種処理のフローチャートを示す図である。It is a figure which shows the flowchart of the various processes of the camera main body 100 which concerns on auto bounce flash photography. ストロボ装置300のバウンス処理を示す図である。It is a figure which shows the bounce process of the strobe device. ストロボ装置300バウンス駆動制御を示す図である。It is a figure which shows strobe device 300 bounce drive control. ストロボ装置300のあおり状態及び傾き状態を示した外観図である。FIG. 3 is an external view showing a tilt state and a tilt state of the strobe device 300. ストロボヘッド部300bの上下方向及び左右方向の回動範囲を示す図である。It is a figure which shows the rotation range of the up-down direction of the strobe head part 300b, and the left-right direction. ロータリーエンコーダのグレーコードと回動角度の割り振りを示す図である。It is a figure which shows allocation of the gray code and rotation angle of a rotary encoder. 上下方向及び左右方向のロータリーエンコーダの検出結果を示す図である。It is a figure which shows the detection result of the rotary encoder of an up-down direction and a left-right direction. カメラ本体100とストロボ装置300との端子130を介したデータ通信例を示す図である。3 is a diagram illustrating an example of data communication between a camera main body 100 and a flash device 300 via a terminal 130. FIG. カメラ本体100とストロボ装置300との通信におけるコマンドリストを示す図である。3 is a diagram showing a command list in communication between the camera body 100 and the flash device 300. FIG.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1、図2は、本発明の第1の実施形態に係る撮像システム(デジタルカメラ、レンズ、ストロボ装置から成る)の概略構成を示す。本実施形態に係る撮像システムは、撮像装置であるカメラ本体100、カメラ本体100に着脱可能に装着されたレンズユニット200、カメラ本体100に着脱可能に装着された照明装置であるストロボ装置300を含む。なお、図1、図2において同一のものは同じ符号をつけている。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 and 2 show a schematic configuration of an imaging system (consisting of a digital camera, a lens, and a strobe device) according to the first embodiment of the present invention. The imaging system according to the present embodiment includes a camera body 100 that is an imaging device, a lens unit 200 that is detachably attached to the camera body 100, and a flash device 300 that is an illumination device that is detachably attached to the camera body 100. . In FIG. 1 and FIG. 2, the same components are denoted by the same reference numerals.

まず、カメラ本体100内の構成について説明する。マイクロコンピュータCCPU(以下、カメラマイコン)101は、カメラ本体100の各部を制御する。カメラマイコン101は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/D、D/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。そして、カメラマイコン101は、撮像システムの制御をソフトウェアで行えるもので、各種の条件判定を行う。   First, the configuration inside the camera body 100 will be described. A microcomputer CCPU (hereinafter, camera microcomputer) 101 controls each part of the camera body 100. The camera microcomputer 101 has a one-chip IC circuit configuration with a built-in microcomputer including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D, D / A converter, etc. It has become. The camera microcomputer 101 can control the imaging system with software, and performs various condition determinations.

撮像素子102は、赤外カットフィルタやローパスフィルタ等を含むCCD、CMOS等の撮像素子であり、後述のレンズ群202によって撮影時に被写体像が結像される。シャッタ103は撮像素子102を遮光する位置と、撮像素子102を露光する位置とに移動する。   The image sensor 102 is an image sensor such as a CCD or CMOS including an infrared cut filter, a low-pass filter, and the like, and a subject image is formed by the lens group 202 described later at the time of photographing. The shutter 103 moves to a position where the image sensor 102 is shielded from light and a position where the image sensor 102 is exposed.

主ミラー(ハーフミラー)104は、レンズ群202より入射する光の一部を反射し105のピント板に結像させる位置と、レンズ群202より入射する光の撮像素子102への光路(撮影光路)内から退避する位置とに移動する。ピント板105は、被写体像が結像され、結像された被写体像は不図示の光学ファインダーを介してユーザにより確認される。   The main mirror (half mirror) 104 reflects a part of light incident from the lens group 202 and forms an image on the focusing plate 105, and an optical path (photographing optical path) of the light incident from the lens group 202 to the image sensor 102. ) Move to the retreat position from inside. A subject image is formed on the focusing screen 105, and the formed subject image is confirmed by a user via an optical finder (not shown).

測光回路(AE回路)106は、回路内に測光センサーを備え、被写体を複数の領域に分割しそれぞれの領域で測光を行う。測光回路106内の測光センサーは、後述するペンタプリズム114を介してピント板105に結像された被写体像を見込んでいる。焦点検出回路(AF回路)107は、回路内に複数点を測距ポイントを有する測距センサーを備え、各測距点のデフォーカス量などの焦点情報を出力する。   The photometry circuit (AE circuit) 106 includes a photometry sensor in the circuit, divides the subject into a plurality of areas, and performs photometry in each area. The photometric sensor in the photometric circuit 106 expects a subject image formed on the focus plate 105 via a pentaprism 114 described later. The focus detection circuit (AF circuit) 107 includes a distance measuring sensor having a plurality of distance measuring points in the circuit, and outputs focus information such as a defocus amount of each distance measuring point.

ゲイン切り換え回路108は、撮像素子102から出力される信号を増幅させるものであり、ゲインの切り換えは、撮影の条件やユーザの操作等に応じてカメラマイコン101により行われる。   The gain switching circuit 108 amplifies the signal output from the image sensor 102, and the gain switching is performed by the camera microcomputer 101 in accordance with shooting conditions, user operation, and the like.

A/D変換器109は、増幅された撮像素子102から出力されるアナログ信号をデジタル信号に変換する。タイミングジェネレータ(TG)110は、増幅された撮像素子102のアナログ信号の入力とA/D変換器109の変換タイミングを同期させる。   The A / D converter 109 converts the analog signal output from the amplified image sensor 102 into a digital signal. A timing generator (TG) 110 synchronizes the input of the amplified analog signal of the image sensor 102 and the conversion timing of the A / D converter 109.

信号処理回路111は、A/D変換器109でデジタル信号に変換された画像データに対して信号処理を行う。   The signal processing circuit 111 performs signal processing on the image data converted into a digital signal by the A / D converter 109.

通信ラインSCは、カメラ本体100とレンズユニット200及びストロボ装置300とのインタフェースの信号ラインである。例えば、カメラマイコン101をホストとしてデータの交換やコマンドの伝達などの情報の通信を相互に行う。端子120は、カメラ本体100とレンズユニット200の通信の同期をとるためのSCLK_L端子、レンズユニット200にデータを送信するMOSI_L端子、レンズユニット200から送信されたデータを受信するMISO_L端子を含む。また、カメラ本体100とレンズユニット200との両方をつなぐGND端子も含む。   The communication line SC is a signal line for an interface between the camera body 100, the lens unit 200, and the strobe device 300. For example, the camera microcomputer 101 is used as a host to exchange information such as data exchange and command transmission. The terminal 120 includes an SCLK_L terminal for synchronizing communication between the camera body 100 and the lens unit 200, a MOSI_L terminal for transmitting data to the lens unit 200, and a MISO_L terminal for receiving data transmitted from the lens unit 200. Also included is a GND terminal that connects both the camera body 100 and the lens unit 200.

端子130は、カメラ本体100とストロボ装置300の通信の同期をとるためのSCLK_S端子、カメラ本体100からストロボ装置300にデータを送信するMOSI_S端子を含む。さらに、端子130は、ストロボ装置300から送信されたデータを受信するMISO_S端子を含む。また、カメラ本体100とストロボ装置300との両方をつなぐGND端子も含む。端子130を介したデータ通信例を図11に示す。図11(a)は、データ通信のタイミングを示す図である。カメラマイコン101からストロボマイコン310にデータを送信する時は、SCK_S端子の8ビットのクロックに同期してMOSI_S端子より各ビットを0,1とすることでデータをシリアルで送信する。また、ストロボマイコン310からカメラマイコン101にデータを送信する時は、SCK_S端子の8ビットのクロックに同期してMISO_S端子より各ビットを0,1とするデータをシリアル受信する。なお、図11(a)は、8ビット(1バイト)通信でSCLK_S信号の立ち上がりで信号の読み書きを行っているが、この8ビット通信をコマンド、コマンドデータ、データと複数回連続で送信を行う。図11(b)は、通信される情報の具体例で、後述のコマンドリスト図12(b)のコマンドリストに従い、カメラマイコン101からストロボマイコン310に送信される。   Terminal 130 includes an SCLK_S terminal for synchronizing communication between camera body 100 and strobe device 300 and a MOSI_S terminal for transmitting data from camera body 100 to strobe device 300. Further, terminal 130 includes a MISO_S terminal that receives data transmitted from strobe device 300. Also included is a GND terminal that connects both the camera body 100 and the strobe device 300. An example of data communication via the terminal 130 is shown in FIG. FIG. 11A shows the timing of data communication. When data is transmitted from the camera microcomputer 101 to the flash microcomputer 310, the data is serially transmitted by setting each bit to 0 and 1 from the MOSI_S terminal in synchronization with the 8-bit clock of the SCK_S terminal. When data is transmitted from the flash microcomputer 310 to the camera microcomputer 101, data with each bit set to 0 and 1 is serially received from the MISO_S terminal in synchronization with the 8-bit clock of the SCK_S terminal. In FIG. 11 (a), signals are read and written at the rising edge of the SCLK_S signal in 8-bit (1 byte) communication, but this 8-bit communication is continuously transmitted a plurality of times with command, command data, and data. . FIG. 11B is a specific example of information to be communicated, and is transmitted from the camera microcomputer 101 to the flash microcomputer 310 in accordance with a command list shown in FIG.

一例として、「カメラからストロボへオートバウンス設定/解除」については、1バイト目にCS通信の80H、2バイト目にコマンド番号011(0BH)、3バイト目にデータ(内容)の01(設定)を16進数から2進数に変換して送信する。   As an example, for “auto-bounce setting / cancellation from camera to strobe”, CS communication 80H in the first byte, command number 011 (0BH) in the second byte, and 01 (setting) of data (content) in the third byte Is converted from hexadecimal to binary and transmitted.

そして、1バイト目にはカメラ本体100からストロボ装置300に情報を送信するときはコマンドCS:80H、カメラ本体100がストロボ装置300から情報を取得するときはコマンドSC:01Hをカメラ本体100からストロボ装置300へ送信する。そして、2バイト目には、コマンド番号でSC、CSに続く番号(送信時は16進数に変換される)、3バイト目もしくは4バイト目には、設定項目データを、カメラ本体100及びストロボ装置300の一方が他方に送信する。その他の情報の通信については、図12(a)、(b)に示すコマンドリストを用いて随時説明する。   In the first byte, the command CS: 80H is used when information is transmitted from the camera body 100 to the flash device 300, and the command SC: 01H is received from the camera body 100 when the camera body 100 acquires information from the flash device 300. Transmit to device 300. In the second byte, the command number is a number following SC and CS (converted to a hexadecimal number at the time of transmission). In the third or fourth byte, setting item data is stored in the camera body 100 and the strobe device. One of 300 transmits to the other. The communication of other information will be described as needed using the command list shown in FIGS. 12 (a) and 12 (b).

入力部112は、電源スイッチ、レリーズスイッチ、設定ボタンなどの操作部を含んでいて、カメラマイコン101は、入力部112への入力に応じて各種処理を実行する。レリーズスイッチが1段階操作(半押し)されるSW1がONとなり、カメラマイコン101は焦点調節や測光などの撮影準備動作を開始させる。また、レリーズスイッチが2段階操作(全押し)されるSW2がONとなり、カメラマイコン101は露光や現像処理などの撮影動作を開始させる。また、入力部112の設定ボタンなどを操作することで、カメラ本体100に装着されるストロボ装置300の各種設定を行うこともできる。液晶装置や発光素子を有する表示部113は、各種設定されたモードやその他の撮影情報などを表示する。   The input unit 112 includes operation units such as a power switch, a release switch, and a setting button, and the camera microcomputer 101 executes various processes in response to an input to the input unit 112. When the release switch is operated in one step (half-pressed), SW1 is turned on, and the camera microcomputer 101 starts photographing preparation operations such as focus adjustment and photometry. Further, SW2 in which the release switch is operated in two steps (fully pressed) is turned ON, and the camera microcomputer 101 starts photographing operations such as exposure and development processing. In addition, various settings of the strobe device 300 attached to the camera body 100 can be performed by operating a setting button or the like of the input unit 112. A display unit 113 having a liquid crystal device and a light emitting element displays various set modes, other shooting information, and the like.

ペンタプリズム114は、ピント板105の被写体像を測光回路106内の測光センサー及び不図示の光学ファインダーに導く。サブミラー115は、レンズ群202より入射し主ミラー104を透過した光を焦点検出回路107の測距センサーへ導く。   The pentaprism 114 guides the subject image on the focusing screen 105 to a photometric sensor in the photometric circuit 106 and an optical viewfinder (not shown). The sub mirror 115 guides the light incident from the lens group 202 and transmitted through the main mirror 104 to the distance measuring sensor of the focus detection circuit 107.

姿勢検出回路140は姿勢差を検出する回路で、140aは水平方向の姿勢差を検出する姿勢H検出部、140bは垂直方向の姿勢差を検出する姿勢V検出部、140cは前後方向(Z方向)の姿勢差を検出する姿勢Z検出部である。姿勢検出回路140には、例えば、角速度センサーやジャイロセンサーが用いられる。姿勢検出回路140により検出された各方向の姿勢差に関する姿勢情報はカメラマイコン101に入力される。   The posture detection circuit 140 is a circuit that detects a posture difference, 140a is a posture H detection unit that detects a posture difference in the horizontal direction, 140b is a posture V detection unit that detects a posture difference in the vertical direction, and 140c is a front-rear direction (Z direction). ) Is a posture Z detector for detecting a posture difference. For the posture detection circuit 140, for example, an angular velocity sensor or a gyro sensor is used. Attitude information regarding the attitude difference in each direction detected by the attitude detection circuit 140 is input to the camera microcomputer 101.

次に、レンズユニット200内の構成と動作について説明する。マイクロコンピュータLPU(以下、レンズマイコン)201は、レンズユニット200の各部を制御する。   Next, the configuration and operation within the lens unit 200 will be described. A microcomputer LPU (hereinafter, lens microcomputer) 201 controls each part of the lens unit 200.

レンズマイコン201は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/D、D/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。   The lens microcomputer 201 has a one-chip IC circuit configuration with a built-in microcomputer including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D, D / A converter, and the like. It has become.

レンズ群202は、フォーカスレンズやズームレンズなどを含む複数枚のレンズで構成されている。なお、レンズ群202にはズームレンズは含まれなくてもよい。レンズ駆動部203は、レンズ群202に含まれるレンズを移動させる駆動系であり、レンズ群202の駆動量は、カメラ本体100内にある焦点検出回路107の出力に基づいてカメラマイコン101内にて演算される。演算された駆動量は、カメラマイコン101からレンズマイコン201に送信される。エンコーダ204はレンズ群202の位置を検出し駆動情報を出力するエンコーダである。エンコーダ204からの駆動情報に基づき駆動量分だけレンズ駆動部203がレンズ群202を移動させて焦点調節を行う。通過する光量を調節する絞り205は、絞り制御回路206を介してレンズマイコン201により制御される。   The lens group 202 includes a plurality of lenses including a focus lens and a zoom lens. The lens group 202 may not include a zoom lens. The lens driving unit 203 is a driving system that moves the lenses included in the lens group 202. The driving amount of the lens group 202 is determined in the camera microcomputer 101 based on the output of the focus detection circuit 107 in the camera body 100. Calculated. The calculated drive amount is transmitted from the camera microcomputer 101 to the lens microcomputer 201. The encoder 204 is an encoder that detects the position of the lens group 202 and outputs drive information. Based on the driving information from the encoder 204, the lens driving unit 203 moves the lens group 202 by the driving amount to adjust the focus. A diaphragm 205 that adjusts the amount of light passing therethrough is controlled by the lens microcomputer 201 via a diaphragm control circuit 206.

次に、ストロボ装置300の構成について説明する。ストロボ装置300は、カメラ本体100に着脱可能に装着される本体部300aと、本体部300aに対して上下方向及び左右方向に回動可能に保持される可動部であるストロボヘッド部300bで構成される。なお、本実施形態では、本体部300aにおけるストロボヘッド部300bと連結される側を上側としてストロボヘッド部300bの回動方向を定義している。   Next, the configuration of the strobe device 300 will be described. The strobe device 300 includes a main body portion 300a that is detachably attached to the camera main body 100, and a strobe head portion 300b that is a movable portion that is rotatably held in the vertical and horizontal directions with respect to the main body portion 300a. The In this embodiment, the rotation direction of the strobe head unit 300b is defined with the side connected to the strobe head unit 300b in the main body unit 300a as the upper side.

マイクロコンピュータFPU(以下、ストロボマイコン)310は、ストロボ装置300の各部を制御する。ストロボマイコン310は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/D、D/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。   A microcomputer FPU (hereinafter, strobe microcomputer) 310 controls each part of the strobe device 300. The strobe microcomputer 310 has a one-chip IC circuit configuration with a built-in microcomputer including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D, D / A converter, and the like. It has become.

電池301は、ストロボ装置300の電源(VBAT)として機能する。昇圧回路ブロック302は、昇圧部302a、電圧検出に用いる抵抗302b、302c、メインコンデンサ302dで構成される。昇圧回路ブロック302は、電池301の電圧を昇圧部302aにより数百Vに昇圧してメインコンデンサ302dに発光のための電気エネルギーを充電させる。   The battery 301 functions as a power source (VBAT) for the strobe device 300. The booster circuit block 302 includes a booster 302a, resistors 302b and 302c used for voltage detection, and a main capacitor 302d. The booster circuit block 302 boosts the voltage of the battery 301 to several hundred volts by the booster 302a and charges the main capacitor 302d with electric energy for light emission.

メインコンデンサ302dの充電電圧は抵抗302b、302cにより分圧され、分圧された電圧はストロボマイコン310のA/D変換端子に入力される。トリガー回路303は、後述の放電管305を励起させためのパルス電圧を放電管305に印加する。発光制御回路304は、放電管305の発光の開始及び停止を制御する。放電管305は、トリガー回路303から印加される数KVのパルス電圧を受け励起してメインコンデンサ302dに充電された電気エネルギーを用いて発光する。   The charging voltage of the main capacitor 302d is divided by the resistors 302b and 302c, and the divided voltage is input to the A / D conversion terminal of the strobe microcomputer 310. The trigger circuit 303 applies a pulse voltage for exciting a discharge tube 305 described later to the discharge tube 305. The light emission control circuit 304 controls the start and stop of light emission of the discharge tube 305. The discharge tube 305 receives and excites a pulse voltage of several KV applied from the trigger circuit 303, and emits light using electric energy charged in the main capacitor 302d.

測距ユニット308は、公知の方法により対象物までの距離を検出するもので、例えば、受光センサーを有し、放電管305から照射されて照射方向の対象物に反射された光を受光センサーで受光して、対象物までの距離を検出する。あるいは、測距用の光源をさらに有し、測距用の光源から照射されて照射方向の対象物に反射された光を受光センサーで受光して、対象物までの距離を検出する。なお、測距ユニット308で受光結果をストロボマイコン310に出力し、ストロボマイコン310で対象物までの距離を算出してもよい。   The distance measuring unit 308 detects the distance to the object by a known method. For example, the distance measuring unit 308 has a light receiving sensor, and the light received from the discharge tube 305 and reflected by the object in the irradiation direction is received by the light receiving sensor. It receives light and detects the distance to the object. Alternatively, the light source further includes a light source for distance measurement, and the light received from the light source for distance measurement and reflected by the object in the irradiation direction is received by the light receiving sensor, and the distance to the object is detected. The light receiving result may be output to the strobe microcomputer 310 by the distance measuring unit 308, and the distance to the object may be calculated by the strobe microcomputer 310.

積分回路309は、後述のフォトダイオード314の受光電流を積分し、その出力は後述するコンパレータ315の反転入力端子とストロボマイコン310のA/Dコンバータ端子に入力される。コンパレータ315の非反転入力端子は、ストロボマイコン310内のD/Aコンバータ端子に接続され、コンパレータ315の出力は後述するANDゲート311の入力端子に接続される。ANDゲート311のもう一方の入力は、ストロボマイコン310の発光制御端子と接続され、ANDゲート311の出力は発光制御回路304に入力される。フォトダイオード314は、放電管305から発せられる光を受光するセンサーであり、直接またはグラスファイバーなどを介して放電管305から発せられる光を受光する。   The integrating circuit 309 integrates a light receiving current of a photodiode 314 described later, and its output is input to an inverting input terminal of a comparator 315 described later and an A / D converter terminal of the strobe microcomputer 310. A non-inverting input terminal of the comparator 315 is connected to a D / A converter terminal in the flash microcomputer 310, and an output of the comparator 315 is connected to an input terminal of an AND gate 311 described later. The other input of the AND gate 311 is connected to the light emission control terminal of the flash microcomputer 310, and the output of the AND gate 311 is input to the light emission control circuit 304. The photodiode 314 is a sensor that receives light emitted from the discharge tube 305, and receives light emitted from the discharge tube 305 directly or via a glass fiber or the like.

ストロボヘッド部300bの発光部は、主に、放電管305、反射傘306、ズーム光学パネル307で構成されていている。反射傘306は、放電管305から発せられる光を反射させて所定の方向へ導く。ズーム光学パネル307は、放電管305から発せられた光及び反射傘306で反射された光を透過させて射出するパネルであって、片面がストロボ装置300の外面をなすように固定されている。放電管305と反射傘306の位置関係は変化させずに、ズーム光学パネル307との相対位置を変更することにより、ストロボ装置300のガイドナンバー及び照射範囲を変化させることができる。発光部の照射方向はストロボヘッド部300bの回動により変化する。   The light emitting unit of the strobe head unit 300b mainly includes a discharge tube 305, a reflector 306, and a zoom optical panel 307. The reflector 306 reflects the light emitted from the discharge tube 305 and guides it in a predetermined direction. The zoom optical panel 307 is a panel that transmits and emits the light emitted from the discharge tube 305 and the light reflected by the reflector 306, and is fixed so that one surface forms the outer surface of the strobe device 300. By changing the relative position with the zoom optical panel 307 without changing the positional relationship between the discharge tube 305 and the reflector 306, the guide number and irradiation range of the strobe device 300 can be changed. The irradiation direction of the light emitting unit is changed by the rotation of the strobe head unit 300b.

入力部312は、電源スイッチ、ストロボ装置300の動作モードを設定するモード設定スイッチや各種パラメータを設定する設定ボタンなどの操作部を含んでいて、ストロボマイコン310は、入力部312への入力に応じて各種処理を実行する。   The input unit 312 includes operation units such as a power switch, a mode setting switch for setting the operation mode of the strobe device 300, and setting buttons for setting various parameters. The strobe microcomputer 310 responds to an input to the input unit 312. Various processes.

液晶装置や発光素子を有する表示部313は、ストロボ装置300の各状態を表示する。   A display unit 313 including a liquid crystal device and a light emitting element displays each state of the strobe device 300.

ズーム駆動回路330は、放電管305とズーム光学パネル307の相対位置に関する情報をエンコーダなどにより検出するズーム検出部330aと放電管305と反射傘306を移動させるためのモータを含むズーム駆動部330bで構成される。   The zoom drive circuit 330 is a zoom drive unit 330b including a zoom detection unit 330a that detects information related to the relative positions of the discharge tube 305 and the zoom optical panel 307 using an encoder, and a motor that moves the discharge tube 305 and the reflector 306. Composed.

放電管305と反射傘306の駆動量は、レンズマイコン201から出力される焦点距離情報をカメラマイコン101を介して取得したストロボマイコン310によって焦点距離情報に基づいて演算される。   The driving amounts of the discharge tube 305 and the reflector 306 are calculated based on the focal length information by the stroboscopic microcomputer 310 that acquires the focal length information output from the lens microcomputer 201 via the camera microcomputer 101.

バウンス回路340は、ストロボヘッド部300bの回動角度量(本体部300aに対する回動角度)を検出するバウンス位置検出回路340a、340cやストロボヘッド部300bを回動させるバウンス駆動回路340b、340dで構成される。   The bounce circuit 340 includes bounce position detection circuits 340a and 340c that detect a rotation angle amount of the strobe head unit 300b (a rotation angle with respect to the main body unit 300a) and bounce drive circuits 340b and 340d that rotate the strobe head unit 300b. Is done.

バウンス位置検出回路(バウンスH検出回路)340aは、ストロボヘッド部300bの左右方向の回動角度量を、ロータリーエンコーダやアブソリュートエンコーダで検出する。バウンス位置検出回路(バウンスV検出回路)340cは、ストロボヘッド部300bの上下方向の回動角度量を、ロータリーエンコーダやアブソリュートエンコーダで検出する。   The bounce position detection circuit (bounce H detection circuit) 340a detects the rotation angle amount of the strobe head unit 300b in the left-right direction with a rotary encoder or an absolute encoder. The bounce position detection circuit (bounce V detection circuit) 340c detects the amount of vertical rotation angle of the strobe head unit 300b with a rotary encoder or an absolute encoder.

バウンス駆動回路(バウンスH駆動回路)340bは、ストロボヘッド部300bの左右方向の駆動、バウンス駆動回路(バウンスV駆動回路)340dは、ストロボヘッド部300bの上下方向の駆動を公知のモータを用いて行う。   A bounce drive circuit (bounce H drive circuit) 340b uses a known motor to drive the strobe head unit 300b in the horizontal direction, and a bounce drive circuit (bounce V drive circuit) 340d uses a known motor to drive the strobe head unit 300b in the vertical direction. Do.

ここで、ストロボ装置300のストロボヘッド部300bの回動範囲及び検出方法の例について、図8、図9、図10を用いて説明する。図8は、ストロボヘッド部300bの上下方向及び左右方向の回動を示す図、図9は、ロータリーエンコーダのグレーコードと回動角度の割り振りを示す図、図10は、上下方向及び左右方向のロータリーエンコーダの出力を示す図である。   Here, an example of the rotation range and detection method of the strobe head unit 300b of the strobe device 300 will be described with reference to FIG. 8, FIG. 9, and FIG. FIG. 8 is a diagram illustrating the vertical and horizontal rotations of the strobe head unit 300b, FIG. 9 is a diagram illustrating the allocation of gray codes and rotational angles of the rotary encoder, and FIG. 10 is the vertical and horizontal rotations. It is a figure which shows the output of a rotary encoder.

図8(a)に示すように、ストロボヘッド部300bは本体部300aに対して上下方向に回動可能に保持されていて、図8(b)に示すように、ストロボヘッド部300bは本体部300aに対して左右方向に回動可能に保持されている。なお、ストロボヘッド部300bの上下方向の位置が図8(a)の0度の状態、かつ、左右方向の位置が図8(b)の0度の状態を、ストロボヘッド部300bの基準位置とする。図8の各状態において円形と線で示す指標は、図9に示すロータリーエンコーダの位置に対応している。   As shown in FIG. 8A, the strobe head portion 300b is held so as to be rotatable in the vertical direction with respect to the main body portion 300a. As shown in FIG. It is held so as to be rotatable in the left-right direction with respect to 300a. It should be noted that the vertical position of the strobe head unit 300b is 0 degree in FIG. 8A and the horizontal position is 0 degree in FIG. 8B as the reference position of the strobe head part 300b. To do. In each state of FIG. 8, the index indicated by a circle and a line corresponds to the position of the rotary encoder shown in FIG.

図9(a)は、上下方向の回動角度を4ビットのグレーコードを使用したロータリーエンコーダで検出する構成を示していて、図9(b)は、左右方向の回動角度を4ビットのグレーコードを使用したロータリーエンコーダで検出する構成を示している。   FIG. 9A shows a configuration in which the vertical rotation angle is detected by a rotary encoder using a 4-bit gray code. FIG. 9B shows the horizontal rotation angle of 4-bit. A configuration for detection by a rotary encoder using a gray code is shown.

上下方向の回動を検出するロータリーエンコーダ及び左右方向の回動を検出するロータリーエンコーダの検出部分は、フォトリフレクタやフォトインタラプタなどを用いた公知の構成である。本実施形態では、ロータリーエンコーダは図9に示す白い部分を0、黒い部分を1と出力するものとする。また、回転動作時にビット変化の立ち上がりで判別し、停止時はパターンデータを読み込むものとする。   The detection part of the rotary encoder that detects the rotation in the vertical direction and the rotary encoder that detects the rotation in the horizontal direction has a known configuration using a photo reflector, a photo interrupter, or the like. In the present embodiment, it is assumed that the rotary encoder outputs 0 in the white part and 1 in the black part shown in FIG. Further, it is determined at the rising edge of the bit change during the rotation operation, and the pattern data is read when the operation is stopped.

図10に示すように、ストロボヘッド部300bの回動角度に応じてロータリーエンコーダは異なる信号を出力するので、これによりバウンス位置検出回路340a、340cは、ストロボヘッド部300bの駆動量を検出できる。   As shown in FIG. 10, the rotary encoder outputs a different signal according to the rotation angle of the strobe head unit 300b, so that the bounce position detection circuits 340a and 340c can detect the drive amount of the strobe head unit 300b.

姿勢検出回路360は、姿勢差を検出する回路で、姿勢H検出部360aは図7(a)に示す本体部300aの正位置状態を基準にした場合の本体部300aのあおり量γを検出する。姿勢V検出部360bは図7(b)に示す本体部300aの縦位置状態を基準とした場合の本体部300aのあおり量εを検出する。姿勢Z検出部360cは図7(c)に示すように本体部300aが正位置か縦位置かを判定する傾きηを検出する。姿勢検出回路360には、例えば、角速度センサーやジャイロセンサーが用いられる。   The posture detection circuit 360 is a circuit that detects a posture difference, and the posture H detection unit 360a detects a tilt amount γ of the main body 300a based on the normal position state of the main body 300a shown in FIG. . The posture V detection unit 360b detects a tilt amount ε of the main body 300a when the vertical position of the main body 300a shown in FIG. As shown in FIG. 7C, the posture Z detection unit 360c detects an inclination η for determining whether the main body unit 300a is the normal position or the vertical position. For the posture detection circuit 360, for example, an angular velocity sensor or a gyro sensor is used.

バウンスアダプター370は、ストロボ装置300に対して着脱可能な光学アクセサリである。バウンスアダプター370は、ストロボ装置300に取り付けるための開口を有する箱形状をしていて、ストロボ装置300に取り付けられた状態ではストロボヘッド部300bの一部を囲む。バウンスアダプター370は、ストロボ装置300に取り付けられた状態でズーム光学パネル307と所定の距離だけ離れて正対する第1の領域と、第1の領域の周辺からストロボヘッド部300bの方向に延出した第2の領域を有する。バウンス発光撮影時にバウンスアダプター370を使用すると、第1の領域を透過して天井などで反射された反射光を被写体に上方や側方から照射しながら、第2の領域を透過した光を被写体に正面から照射することができる。このように、バウンス発光撮影時にバウンスアダプター370を使用する場合は、バウンスアダプター370を使用しない場合と比較して、発光部からの光が拡散され、被写体である人物の首の下に影ができにくく、より自然な雰囲気の画像を得ることができる。   The bounce adapter 370 is an optical accessory that can be attached to and detached from the strobe device 300. The bounce adapter 370 has a box shape having an opening for attaching to the strobe device 300, and surrounds a part of the strobe head portion 300b when attached to the strobe device 300. The bounce adapter 370 is attached to the strobe device 300 and extends in the direction of the strobe head unit 300b from the first region facing the zoom optical panel 307 and facing the zoom optical panel 307 by a predetermined distance. Having a second region; When the bounce adapter 370 is used at the time of bounce flash photography, the light transmitted through the second region is irradiated to the subject while irradiating the subject with the reflected light reflected from the ceiling or the like through the first region from above or from the side. It can be irradiated from the front. As described above, when the bounce adapter 370 is used at the time of bounce flash photography, the light from the light emitting unit is diffused and a shadow is formed under the neck of the person who is the subject, compared to the case where the bounce adapter 370 is not used. It is difficult to obtain an image with a more natural atmosphere.

バウンスアダプター検知部371は、バウンスアダプター370がストロボ装置300へ取り付けられているか否かを検知する。バウンスアダプター検知部371による検知方法は公知の方法でよいので詳細は説明しない。例えば、バウンスアダプター370に設けられた突起部によって押下されるスイッチを用いた方法でもよいし、バウンスアダプター370に設けられた磁石の磁気を検知する磁気センサーを用いた方法でもよい。   The bounce adapter detection unit 371 detects whether or not the bounce adapter 370 is attached to the strobe device 300. The detection method by the bounce adapter detection unit 371 may be a known method and will not be described in detail. For example, a method using a switch pressed by a protrusion provided on the bounce adapter 370 may be used, or a method using a magnetic sensor that detects magnetism of a magnet provided on the bounce adapter 370 may be used.

ワイドパネル372は、ズーム光学パネル307前方に対して配置可能な光学パネルで、発光部からの光を拡散させ照射範囲を広くする効果があり、主に照射範囲を超広角レンズの画角に対応させるために使用される。未使用時はストロボヘッド部300b内部に格納され、使用時はユーザによってストロボヘッド部300b内部から引き出され、ズーム光学パネル307前方に配置される。すなわち、ワイドパネル372は、ストロボヘッド部300b内部の非使用位置と発光部の照射方向前方の使用位置とに移動可能に保持されている。   The wide panel 372 is an optical panel that can be arranged in front of the zoom optical panel 307, and has the effect of diffusing light from the light emitting portion to widen the irradiation range, and mainly corresponds to the angle of view of the ultra-wide angle lens. Used to make. When it is not used, it is stored inside the strobe head unit 300b. When it is used, it is pulled out from the strobe head unit 300b by the user and placed in front of the zoom optical panel 307. That is, the wide panel 372 is held movably between a non-use position inside the strobe head unit 300b and a use position in front of the light emitting unit in the irradiation direction.

ワイドパネル検知部373は、ワイドパネル372の位置を検知する。ワイドパネル検知部373による検知方法もバウンスアダプター検知部371による検知方法と同様に公知の方法でよいので詳細は説明しない。また、ワイドパネル検知部373によってワイドパネル372の位置を検知する場合、ワイドパネル372が非使用位置にあることを検知するようにしてもよいし、ワイドパネル372が非使用位置にあることを検知するようにしてもよい。   The wide panel detection unit 373 detects the position of the wide panel 372. Since the detection method by the wide panel detection unit 373 may be a known method in the same manner as the detection method by the bounce adapter detection unit 371, the details will not be described. Further, when the position of the wide panel 372 is detected by the wide panel detection unit 373, it may be detected that the wide panel 372 is in the non-use position, or that the wide panel 372 is in the non-use position. You may make it do.

以上のように、バウンスアダプター370とワイドパネル372は、発光部の照射方向前方の位置に移動可能であって、発光部の照射範囲を拡大させることができる光学部材である。また、ストロボマイコン310は、バウンスアダプター検知部371とワイドパネル検知部373の検知結果に基づいて、発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する。   As described above, the bounce adapter 370 and the wide panel 372 are optical members that can move to a position ahead of the light emitting unit in the irradiation direction, and can expand the irradiation range of the light emitting unit. In addition, the strobe microcomputer 310 has an optical member that can expand the irradiation range of the light emitting unit at a position ahead of the light emitting unit in the irradiation direction based on the detection results of the bounce adapter detection unit 371 and the wide panel detection unit 373. It is determined whether or not to do.

次に、オートバウンス発光撮影に係るカメラ本体100の各種処理を図3、図4を用いて説明する。入力部112に含まれる電源スイッチがONされてカメラ本体100のカメラマイコン101が動作可能となると、カメラマイコン101は、図3に示すフローチャートを開始させる。   Next, various processes of the camera body 100 related to auto bounce flash photography will be described with reference to FIGS. When the power switch included in the input unit 112 is turned on and the camera microcomputer 101 of the camera body 100 becomes operable, the camera microcomputer 101 starts the flowchart shown in FIG.

ステップS1にてカメラマイコン101は、自身のメモリやポートの初期化を行う。また、入力部112に含まれるスイッチの状態や予め設定された入力情報を読み込み、シャッタースピードの決め方や、絞りの決め方等様々な撮影モードの設定を行う。ステップS2にてカメラマイコン101は、入力部112に含まれるレリーズスイッチが操作されSW1がONであるか否かを判別し、SW1がONであればステップS3へ移行し、SW1がOFFであればステップS2を繰り返す。   In step S1, the camera microcomputer 101 initializes its own memory and port. In addition, the state of the switch included in the input unit 112 and preset input information are read, and various shooting modes are set such as how to determine the shutter speed and how to determine the aperture. In step S2, the camera microcomputer 101 determines whether the release switch included in the input unit 112 is operated and SW1 is ON. If SW1 is ON, the process proceeds to step S3, and if SW1 is OFF. Step S2 is repeated.

ステップS3にてカメラマイコン101は、レンズユニット200内のレンズマイコン201と通信ラインSCを介して通信を行う。そして、レンズユニット200の焦点距離情報や焦点調節や測光に必要な光学情報を取得する。ステップS4にてカメラマイコン101は、カメラ本体100にストロボ装置300が装着されているか否かを判別する。カメラ本体100にストロボ装置300が装着されていればステップS5へ移行し、未装着ならばS8bへ移行する。   In step S3, the camera microcomputer 101 communicates with the lens microcomputer 201 in the lens unit 200 via the communication line SC. Then, the focal length information of the lens unit 200, optical information necessary for focus adjustment and photometry are acquired. In step S <b> 4, the camera microcomputer 101 determines whether the strobe device 300 is attached to the camera body 100. If the strobe device 300 is attached to the camera body 100, the process proceeds to step S5, and if not, the process proceeds to S8b.

ステップS5にてカメラマイコン101は、ストロボ装置300内のストロボマイコン310と通信ラインSCを介して通信を行い、ストロボIDやメインコンデンサ302dの充電状態を示す充電情報などストロボ情報をストロボマイコン310から取得する。ストロボ情報には、バウンスアダプター370の取り付けの有無に関する情報やワイドパネル372の位置に関する情報も含まれる。また、カメラマイコン101は、ストロボマイコン310と通信ラインSCを介して通信を行い、ステップS3にて取得したレンズ焦点距離情報をストロボマイコン310に送信する。これにより、ストロボマイコン310は受信した焦点距離情報に基づいて放電管305と反射傘306の駆動量を演算し、演算した駆動量に基づいて放電管305と反射傘306を移動させてストロボ装置300の照射範囲を焦点距離に合わせた範囲に変更する。   In step S5, the camera microcomputer 101 communicates with the strobe microcomputer 310 in the strobe device 300 via the communication line SC, and obtains strobe information from the strobe microcomputer 310 such as the strobe ID and charging information indicating the charging state of the main capacitor 302d. To do. The strobe information includes information about whether or not the bounce adapter 370 is attached and information about the position of the wide panel 372. The camera microcomputer 101 communicates with the flash microcomputer 310 via the communication line SC, and transmits the lens focal length information acquired in step S3 to the flash microcomputer 310. As a result, the strobe microcomputer 310 calculates the driving amount of the discharge tube 305 and the reflector 306 based on the received focal length information, and moves the discharge tube 305 and the reflector 306 based on the calculated driving amount to thereby operate the strobe device 300. Change the irradiation range to a range that matches the focal length.

ステップS6にてカメラマイコン101は、入力部112を介して入力されたストロボ装置300に関する情報をストロボ装置300のストロボマイコン310に送信する準備を行う。ここでは、入力部112を介して入力されたストロボ装置300に関する情報を判断してコマンド送信に変換する。例えば、オートバウンス可能なカメラか、オートバウンスに関するカメラ側の設定、レリーズスイッチの状態などの情報をコマンド送信に変換する。   In step S <b> 6, the camera microcomputer 101 prepares to transmit information regarding the strobe device 300 input via the input unit 112 to the strobe microcomputer 310 of the strobe device 300. Here, information regarding the strobe device 300 input via the input unit 112 is determined and converted into command transmission. For example, information such as a camera capable of auto-bounce, camera-side settings relating to auto-bounce, and the state of the release switch is converted into command transmission.

ステップS7にてカメラマイコン101は、ステップS6で送信する準備をしたストロボ装置300に関する情報をストロボ装置300へ送信する。   In step S <b> 7, the camera microcomputer 101 transmits information regarding the strobe device 300 prepared for transmission in step S <b> 6 to the strobe device 300.

ステップS8aにてカメラマイコン101は、設定されている焦点調節モードが自動焦点調節(AF)モードであるか否かを判別する。自動焦点調節モードであればステップS9aへ移行し、手動焦点調節(MF)モードであればステップS11aへ移行する。なお、図3のフローチャートの中で同じ処理を行うステップは、例えば、ステップS8aとステップS8bのように、同じ数字を付している。ステップS9aにてカメラマイコン101は、焦点検出回路107を駆動させることにより周知の位相差検出法による焦点検出動作を行う。またステップS9aでは、焦点調節において複数の測距点から焦点を合わせる測距点(測距ポイント)を、近点優先を基本の考え方とした周知の自動選択アルゴリズムや入力部112へのユーザの操作などに応じて決定する。ステップS10aにてカメラマイコン101は、ステップS9aで決定された測距ポイントをカメラマイコン101内のRAMに記憶させる。さらに、ステップS10aにてカメラマイコン101は、焦点検出回路107からの焦点情報に基づきレンズ群202の駆動量を演算する。そして、カメラマイコン101はレンズユニット200内のレンズマイコン201と通信ラインSCを介して通信を行い、演算した駆動量に基づいてレンズ群202を移動させる。   In step S8a, the camera microcomputer 101 determines whether or not the set focus adjustment mode is an automatic focus adjustment (AF) mode. If the mode is the automatic focus adjustment mode, the process proceeds to step S9a. If the mode is the manual focus adjustment (MF) mode, the process proceeds to step S11a. In addition, the step which performs the same process in the flowchart of FIG. 3 attaches | subjects the same number like step S8a and step S8b, for example. In step S9a, the camera microcomputer 101 drives the focus detection circuit 107 to perform a focus detection operation by a known phase difference detection method. In step S9a, a well-known automatic selection algorithm based on the concept of near point priority or a user's operation to the input unit 112 is used as a focus point (ranging point) to be focused from a plurality of focus points in focus adjustment. It decides according to etc. In step S10a, the camera microcomputer 101 stores the distance measuring point determined in step S9a in the RAM in the camera microcomputer 101. In step S <b> 10 a, the camera microcomputer 101 calculates the driving amount of the lens group 202 based on the focus information from the focus detection circuit 107. The camera microcomputer 101 communicates with the lens microcomputer 201 in the lens unit 200 via the communication line SC, and moves the lens group 202 based on the calculated drive amount.

ステップS11にてカメラマイコン101は、バウンス発光撮影時の照射方向を自動的に決定するための動作(以下、オートバウンス動作とする)を行うか否かを判別する。オートバウンス動作を行うか否かは、入力部112あるいは入力部312に含まれるオートバウンス動作を実行するか否かを切り換えるオートバウンススイッチの状態やその他のカメラ本体100の状態などに基づいて判別される。オートバウンス動作を実行する場合はステップS12へ移行し、オートバウンス動作を実行しない場合はステップS16へ移行する。   In step S11, the camera microcomputer 101 determines whether or not to perform an operation (hereinafter referred to as an auto bounce operation) for automatically determining an irradiation direction during bounce flash photography. Whether or not to perform the auto bounce operation is determined based on the state of an auto bounce switch for switching whether or not to execute the auto bounce operation included in the input unit 112 or the input unit 312, the state of the other camera body 100, or the like. The When the auto bounce operation is executed, the process proceeds to step S12, and when the auto bounce operation is not executed, the process proceeds to step S16.

ステップS12にてカメラマイコン101はオートバウンス動作に関する処理(以下、バウンス処理とする)を実行する。バウンス処理の詳細は図5を用いて後述する。バウンス処理の実行後、ステップS13へ移行する。ステップS13にてカメラマイコン101は、オートバウンス処理にエラーが生じたか否かを判別する。バウンス処理でエラーが生じればステップS14へ移行し、バウンス処理でエラーが生じなければステップS16へ移行する。オートバウンス処理にエラーが生じた場合、ステップS12のバウンス処理においてストロボマイコン310からオートバウンス処理にエラーが生じたことを示す情報が送信される。   In step S <b> 12, the camera microcomputer 101 executes processing related to auto bounce operation (hereinafter referred to as bounce processing). Details of the bounce processing will be described later with reference to FIG. After executing the bounce process, the process proceeds to step S13. In step S13, the camera microcomputer 101 determines whether an error has occurred in the auto bounce process. If an error occurs in the bounce process, the process proceeds to step S14. If no error occurs in the bounce process, the process proceeds to step S16. When an error occurs in the auto bounce process, information indicating that an error has occurred in the auto bounce process is transmitted from the flash microcomputer 310 in the bounce process in step S12.

ステップS14にてカメラマイコン101は、バウンス処理でエラーが生じたことを示す情報を表示部113へ表示させる。なお、カメラマイコン101がストロボマイコン310と通信を行い、ストロボマイコン310によりストロボ装置300の表示部313にバウンス処理でエラーが生じたことを示す情報を表示させてもよい。   In step S <b> 14, the camera microcomputer 101 displays information indicating that an error has occurred in the bounce process on the display unit 113. The camera microcomputer 101 may communicate with the flash microcomputer 310, and the flash microcomputer 310 may display information indicating that an error has occurred in the bounce process on the display unit 313 of the flash device 300.

ステップS15にてカメラマイコン101は、発光撮影を行わない設定(非発光設定)に切り換えてステップS16へ移行する。   In step S15, the camera microcomputer 101 switches to a setting for not performing flash photography (non-flash setting) and proceeds to step S16.

ステップS4にてストロボ装置300が未装着と判別された場合、ステップS8bへ移行してカメラマイコン101は、ステップS8aと同様に設定されている焦点調節モードがAFモードであるか否かを判別する。AFモードであればステップS9bへ移行し、MFモードであればステップS16へ移行する。   When it is determined in step S4 that the strobe device 300 is not attached, the process proceeds to step S8b, and the camera microcomputer 101 determines whether or not the focus adjustment mode set as in step S8a is the AF mode. . If it is AF mode, it will transfer to step S9b, and if it is MF mode, it will transfer to step S16.

ステップS9bにてカメラマイコン101は、ステップS9aと同様の処理を実行し、その後ステップS10bへ移行してステップS10aと同様の処理を実行して、ステップS16へ移行する。   In step S9b, the camera microcomputer 101 executes processing similar to that in step S9a, and then proceeds to step S10b, performs processing similar to that in step S10a, and proceeds to step S16.

ステップS16にて測光回路106は測光を行い、カメラマイコン101は測光回路106から測光結果を取得する。例えば、測光回路106の測光センサーが6つに分割された領域のそれぞれで測光を行う場合、カメラマイコン101は取得した測光結果としての各領域の輝度値を
EVb(i) (i=0〜5)
として、RAMに記憶させる。
In step S <b> 16, the photometric circuit 106 performs photometry, and the camera microcomputer 101 acquires a photometric result from the photometric circuit 106. For example, when the photometry sensor of the photometry circuit 106 performs photometry in each of the divided areas, the camera microcomputer 101 determines the brightness value of each area as an obtained photometry result as EVb (i) (i = 0 to 5). )
Is stored in the RAM.

ステップS17にてゲイン切り換え回路108は、入力部112より入力されたゲイン設定に応じてゲインの切り換えを行うゲイン設定とは、例えばISO感度設定である。またS17にてカメラマイコン101は、ストロボマイコン310と通信ラインSCを介して通信を行い、例えば、切り換え後のゲインを示すゲイン設定情報をストロボマイコン310に送信する。   In step S17, the gain switching circuit 108 performs gain switching in accordance with the gain setting input from the input unit 112. The gain setting is, for example, ISO sensitivity setting. In step S <b> 17, the camera microcomputer 101 communicates with the flash microcomputer 310 via the communication line SC, and transmits, for example, gain setting information indicating the gain after switching to the flash microcomputer 310.

S18にてカメラマイコン101は、ステップS16にて取得した測光結果(RAMに記憶されている各領域の輝度値)に基づいて、周知のアルゴリズムにより露出演算を行い露出値(EVs)を決定する。   In S18, the camera microcomputer 101 determines an exposure value (EVs) by performing an exposure calculation by a well-known algorithm based on the photometric result (the luminance value of each area stored in the RAM) acquired in Step S16.

ステップS19にてカメラマイコン101は、ストロボマイコン310から充電完了信号を受信したか否かを判別する。充電完了信号を受信していればステップS20へ移行し、受信していなければステップS21へ移行する。   In step S <b> 19, the camera microcomputer 101 determines whether a charge completion signal is received from the flash microcomputer 310. If a charge completion signal has been received, the process proceeds to step S20, and if not received, the process proceeds to step S21.

ステップS20にてカメラマイコン101は、ステップS18にて演算した露出値に基づいて発光撮影に適した露出制御値(シャッタ速度(Tv)と絞り値(Av))を決定する。   In step S20, the camera microcomputer 101 determines an exposure control value (shutter speed (Tv) and aperture value (Av)) suitable for flash photography based on the exposure value calculated in step S18.

一方、ステップS21にてカメラマイコン101は、ステップS18にて演算した露出値に基づいてストロボ装置300を発光させない撮影(非発光撮影)に適した露出制御値を決定する。   On the other hand, in step S21, the camera microcomputer 101 determines an exposure control value suitable for shooting (non-flash shooting) in which the flash device 300 does not emit light based on the exposure value calculated in step S18.

ステップS20あるいはステップS21にて露出制御値を決定した後はステップS22へ移行し、ステップS22にてカメラマイコン101は、入力部112に含まれるレリーズスイッチが操作されSW2がONであるか否かを判別する。SW2がONであれば図4のステップS23へ移行し、SW2がOFFであればステップS2へ戻る。   After the exposure control value is determined in step S20 or step S21, the process proceeds to step S22. In step S22, the camera microcomputer 101 determines whether the release switch included in the input unit 112 is operated and SW2 is ON. Determine. If SW2 is ON, the process proceeds to step S23 in FIG. 4, and if SW2 is OFF, the process returns to step S2.

ステップS23以降の処理は、発光撮影に係わる処理であり、非発光撮影に係わる処理はステップS23以降の処理の中で本発光を行うための処理を省略したものである。   The process after step S23 is a process related to flash photography, and the process related to non-flash photography is a process in which the process for performing the main flash is omitted from the processes after step S23.

ステップS23にて測光回路106は、ストロボ装置300が発光していない状態で測光を行い、カメラマイコン101は測光回路106から非発光時の測光結果(非発光時輝度値)を取得する。このときカメラマイコン101は、取得した測光結果としての各領域の非発光時輝度値を
EVa(i) (i=0〜5)
として、RAMに記憶させる。
In step S <b> 23, the photometry circuit 106 performs photometry in a state where the flash device 300 is not emitting light, and the camera microcomputer 101 obtains a photometry result (non-light emission luminance value) when no light is emitted from the photometry circuit 106. At this time, the camera microcomputer 101 determines the brightness value at the time of non-light emission of each area as the obtained photometric result as EVa (i) (i = 0 to 5).
Is stored in the RAM.

ステップS24にてカメラマイコン101は、ストロボマイコン310に対して通信ラインSCを介してプリ発光の命令を行う。ストロボマイコン310はこの命令に従って、トリガー回路303と発光制御回路304とを制御して、所定光量でのプリ発光を行う。   In step S24, the camera microcomputer 101 issues a pre-flash command to the flash microcomputer 310 via the communication line SC. The stroboscopic microcomputer 310 controls the trigger circuit 303 and the light emission control circuit 304 according to this command, and performs pre-light emission with a predetermined light amount.

ステップS25にて測光回路106は、ストロボ装置300がプリ発光している状態で測光を行い、カメラマイコン101は測光回路106からプリ発光時の測光結果(プリ発光時輝度値)を取得する。このときカメラマイコン101は、取得した測光結果としての各領域のプリ発光時輝度値を
EVf(i) (i=0〜5)
として、RAMに記憶させる。
In step S <b> 25, the photometry circuit 106 performs photometry in a state where the strobe device 300 is pre-flashed, and the camera microcomputer 101 obtains the photometry result (pre-flash luminance value) during pre-flash from the photometry circuit 106. At this time, the camera microcomputer 101 determines the pre-flash luminance value of each region as the acquired photometric result as EVf (i) (i = 0 to 5).
Is stored in the RAM.

ステップS26にてカメラマイコン101は、露光に先立って主ミラー104をアップさせ、撮影光路内から退避させる。   In step S26, the camera microcomputer 101 raises the main mirror 104 prior to exposure and retracts it from the imaging optical path.

ステップS27にてカメラマイコン101は、で、次式のようにして非発光時輝度値とプリ発光時輝度値とに基づいてプリ発光の反射光成分のみの輝度値EVdf(i)を抽出する。抽出は6つの領域ごとにおこなわれる。
EVdf(i)←LN2 (2^EVf(i)−2^EVa(i)) (i=0〜5)
In step S27, the camera microcomputer 101 extracts the luminance value EVdf (i) of only the reflected light component of the pre-light emission based on the non-light-emitting luminance value and the pre-light emitting luminance value as follows. Extraction is performed every six regions.
EVdf (i) ← LN2 (2 ^ EVf (i) -2 ^ EVa (i)) (i = 0 to 5)

ステップS28にてカメラマイコン101は、通信ラインSCを介してストロボマイコン310からプリ発光時の発光量を示すプリ発光情報(Qpre)を取得する。   In step S28, the camera microcomputer 101 acquires pre-emission information (Qpre) indicating the amount of light emission during pre-emission from the flash microcomputer 310 via the communication line SC.

ステップS29にてカメラマイコン101は、測距ポイント、焦点距離情報、プリ発光情報(Qpre)、およびバウンス通信内容から、6つの領域のうちどの領域の被写体に対して適正な発光量とするか選択して本発光量を演算する。また、バウンス通信内容には、バウンスアダプター370の取り付けの有無に関する情報やワイドパネル372の位置に関する情報も含まれている。そして、バウンスアダプター370やワイドパネル372が発光部の照射方向前方の位置にある場合には、発光部からの光が拡散されることでガイドナンバーが低下するため、光量低下を考慮した本発光量を演算する。   In step S29, the camera microcomputer 101 selects an appropriate light emission amount for the subject in any of the six areas from the distance measurement point, focal length information, pre-flash information (Qpre), and bounce communication content. Then, the main light emission amount is calculated. The bounce communication content also includes information regarding whether or not the bounce adapter 370 is attached and information regarding the position of the wide panel 372. When the bounce adapter 370 and the wide panel 372 are located in front of the light emitting unit in the irradiation direction, the light emitted from the light emitting unit is diffused to reduce the guide number. Is calculated.

本発光量の演算では、選択した領域(P)の被写体について、露出値(EVs)と被写体輝度(EVb)とプリ発光反射光分のみの輝度値EVdf(p)と補正係数kとに基づいて、プリ発光量に対して適正となる本発光量の相対比(r)を求める。
r←k[LN2(2^EVs−2^EVb(p))−EVdf(p)]
In the calculation of the main light emission amount, the subject in the selected region (P) is based on the exposure value (EVs), the subject luminance (EVb), the luminance value EVdf (p) of the pre-emission reflected light only, and the correction coefficient k. Then, the relative ratio (r) of the main light emission amount appropriate for the pre-light emission amount is obtained.
r ← k [LN2 (2 ^ EVs-2 ^ EVb (p))-EVdf (p)]

ここで、露出値(EVs)から被写体輝度(EVb)の伸張したものの差分をとっているのは、ストロボ光を照射したときの露出が、外光分にストロボ光を加えて適正となるように制御するためである。また、バウンスアダプター370やワイドパネル372が発光部の照射方向前方の位置にない場合、補正係数k=1となり、照射方向前方の位置にある場合、補正係数kは光量低下に合わせた適宜の値となる。なお、バウンスアダプター370とワイドパネル372とで光量低下の程度が異なるため、バウンスアダプター370が照射方向前方の位置にある場合とワイドパネル372が照射方向前方の位置にある場合とで補正係数kを変更してもよい。   Here, the difference between the exposure value (EVs) and the subject luminance (EVb) expanded is taken so that the exposure when stroboscopic light is applied is appropriate by adding the stroboscopic light to the external light. It is for control. Further, when the bounce adapter 370 and the wide panel 372 are not in the front position in the irradiation direction of the light emitting unit, the correction coefficient k = 1. It becomes. Note that since the degree of decrease in light amount differs between the bounce adapter 370 and the wide panel 372, the correction coefficient k is set depending on whether the bounce adapter 370 is in the front position in the irradiation direction or the wide panel 372 is in the front position in the irradiation direction. It may be changed.

また、撮影画面内に高反射物の被写体(金屏風等)が存在してプリ発光の反射光成分が大きくなり本発光量が少なめに演算されてしまうことを防止するため、撮影画面内に高反射物が検出されたら演算された本発光量を大きくする補正を行う処理が知られている。しかしながら、バウンス発光撮影を行う場合には、高反射物の検出は行わず上記の補正を行わない。これは、バウンス発光撮影時は撮影画面内に高反射物が存在してもストロボ光を直接照射しないので、プリ発光の反射光成分における高反射物の影響は少ないからである。   In addition, in order to prevent the pre-emission reflected light component from increasing due to the presence of highly reflective objects (golden screens, etc.) in the shooting screen, the amount of main flash is not calculated too much. There is known a process for performing correction to increase the calculated main light emission amount when a reflecting object is detected. However, when performing bounce flash photography, the high-reflectance object is not detected and the above correction is not performed. This is because, during bounce flash photography, strobe light is not directly irradiated even if a highly reflective object is present in the photographing screen, so that the influence of the highly reflective object on the reflected light component of the pre-light emission is small.

その他、バウンス発光撮影時には撮影画面内に存在する被写体の画面内の位置に応じた本発光量の補正なども行わない。以上のように、バウンス発光撮影時は、通常の発光撮影時には行われる、撮影画面内に存在する被写体の反射率や被写体の画面内の位置などに応じた本発光量の補正を行わないことで、バウンス発光撮影に適した本発光量を演算することができる。ここでの通常の発光撮影とは、図8で示した基準位置にストロボヘッド部300bを位置させて行う発光撮影のことである。   In addition, at the time of bounce flash shooting, the main flash amount is not corrected according to the position of the subject existing in the shooting screen. As described above, during bounce flash photography, the main flash output is not corrected according to the reflectivity of the subject existing in the shooting screen or the position of the subject in the screen, which is performed during normal flash photography. The main light emission amount suitable for bounce flash photography can be calculated. Here, the normal flash photography is flash photography that is performed with the strobe head unit 300b positioned at the reference position shown in FIG.

ステップS30にてカメラマイコン101は、次式のように、発光撮影時のシャッタ速度(Tv)とプリ発光の発光時間(t_pre)と入力部112により予め設定された補正係数(c)と、を用いて相対比(r)を補正し、新たな相対比rを演算する。
r←r+Tv−t_pre+c
In step S30, the camera microcomputer 101 calculates the shutter speed (Tv) during flash photography, the pre-flash emission time (t_pre), and the correction coefficient (c) set in advance by the input unit 112, as shown in the following equation. Use to correct the relative ratio (r) and calculate a new relative ratio r.
r ← r + Tv−t_pre + c

ここで、シャッタ速度(Tv)とプリ発光の発光時間(t_pre)を用いて補正するのは、プリ発光時の測光積分値(INTp)と本発光の測光積分値(INTm)とを正しく比較するためである。   Here, the correction using the shutter speed (Tv) and the pre-emission light emission time (t_pre) correctly compares the photometric integration value (INTp) at the time of pre-emission and the photometry integration value (INTm) of the main emission. Because.

ステップS31にてカメラマイコン101は通信ラインSCを介してストロボマイコン310へ本発光量を決定するための相対比(r)に関する情報を送信する。   In step S31, the camera microcomputer 101 transmits information on the relative ratio (r) for determining the main light emission amount to the flash microcomputer 310 via the communication line SC.

ステップS32にてカメラマイコン101は、ステップS20にて決定した絞り値(Av)になるようにレンズマイコン201に指令を出すとともに、決定したシャッタ速度(Tv)になるようにシャッタ103を制御する。   In step S32, the camera microcomputer 101 issues a command to the lens microcomputer 201 to obtain the aperture value (Av) determined in step S20, and controls the shutter 103 to achieve the determined shutter speed (Tv).

ステップS33にてカメラマイコン101は通信ラインSCを介してストロボマイコン310に本発光の命令を行う。そして、ストロボマイコン310は、カメラから送信された相対比(r)に基づいて本発光量を行う。   In step S33, the camera microcomputer 101 issues a main light emission command to the flash microcomputer 310 via the communication line SC. Then, the flash microcomputer 310 performs the main light emission based on the relative ratio (r) transmitted from the camera.

こうして一連の露光動作が終了すると、ステップS34にてカメラマイコン101は、撮影光路内から退避させていた主ミラー104をダウンさせ再び撮影光路内に斜設させる。   When a series of exposure operations is completed in this way, in step S34, the camera microcomputer 101 lowers the main mirror 104 that has been retracted from the photographing optical path and again obliquely installs it in the photographing optical path.

ステップS35にて撮像素子102から出力される信号をゲイン切り換え回路108で設定されたゲインで増幅したのち、A/D変換器109でデジタル信号に変換する。そして、信号処理回路111は、デジタル信号に変換された画像データに対してホワイトバランスなど所定の信号処理を行う。   In step S35, the signal output from the image sensor 102 is amplified with the gain set by the gain switching circuit 108, and then converted into a digital signal by the A / D converter 109. The signal processing circuit 111 performs predetermined signal processing such as white balance on the image data converted into the digital signal.

そしてステップS36にてカメラマイコン101は信号処理が施された画像データを図示しないメモリに記録して撮影に係わる一連の処理を終了する。   In step S36, the camera microcomputer 101 records the image data subjected to the signal processing in a memory (not shown), and ends a series of processing related to photographing.

その後、ステップS37にてカメラマイコン101は、SW1がONの状態か否かを判別し、SW1がONであればステップS22へ戻り、SW1がOFFであればステップS2へ戻る。   Thereafter, in step S37, the camera microcomputer 101 determines whether or not SW1 is ON. If SW1 is ON, the process returns to step S22, and if SW1 is OFF, the process returns to step S2.

次に、ステップS12の詳細について、図5を用いて説明する。図5は、カメラマイコン101からのバウンス処理の開始指示に従ってストロボマイコン310で実行されるバウンス処理のフローチャートを示す図である。   Next, details of step S12 will be described with reference to FIG. FIG. 5 is a flowchart of the bounce process executed by the flash microcomputer 310 in accordance with the bounce process start instruction from the camera microcomputer 101.

ステップS101にてストロボマイコン310は、姿勢検出回路360cにより本体部300aが正位置か縦位置かを検出した結果を取得する。そして、ストロボマイコン310は、本体部300aが正位置状態の場合は姿勢H検出部360aにより検出した本体部300aのあおり量γを取得する。また、本体部300aが縦位置状態を場合は姿勢V検出部360bにより検出した本体部300aのあおり量εを取得する。   In step S101, the stroboscopic microcomputer 310 acquires a result of detecting whether the main body 300a is the normal position or the vertical position by the posture detection circuit 360c. The stroboscopic microcomputer 310 acquires the tilt amount γ of the main body unit 300a detected by the posture H detection unit 360a when the main body unit 300a is in the normal position state. When the main body 300a is in the vertical position, the tilt amount ε of the main body 300a detected by the posture V detection unit 360b is acquired.

ステップS102にてストロボマイコン310は、バウンスアダプター検知部371とワイドパネル検知部373の検知結果に基づいて、発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する。発光部の照射範囲を拡大させることができる光学部材とは、バウンスアダプター370やワイドパネル372のことを指す。光学部材が存在すると判定した場合はステップS109へ、存在しないと判定した場合はステップS103へ移行する。   In step S102, the stroboscopic microcomputer 310 can expand the irradiation range of the light emitting unit to a position ahead of the light emitting unit in the irradiation direction based on the detection results of the bounce adapter detection unit 371 and the wide panel detection unit 373. It is determined whether or not exists. The optical member capable of expanding the irradiation range of the light emitting unit refers to the bounce adapter 370 and the wide panel 372. If it is determined that an optical member is present, the process proceeds to step S109. If it is determined that no optical member is present, the process proceeds to step S103.

ステップS103にてストロボマイコン310は、バウンス駆動回路340b、340dに指示して、照射方向が撮影方向(正面方向)となるようにストロボヘッド部300bを駆動させる。照射方向が撮影方向(正面方向)となるようにする際の駆動制御については、図6を用いて後述する。   In step S103, the flash microcomputer 310 instructs the bounce drive circuits 340b and 340d to drive the flash head unit 300b so that the irradiation direction is the shooting direction (front direction). The drive control when the irradiation direction becomes the photographing direction (front direction) will be described later with reference to FIG.

正面方向への駆動量は、バウンス駆動の際の目標値として駆動目標水平方向バウンス角度θ、垂直方向バウンス角度θとし、本体部300aのあおり量も加味してそれぞれストロボマイコン310により算出される。例えば、ステップS102で取得した傾きη=0、あおり量γ=15、の場合、本体部300aは正位置と判定され、駆動目標水平方向バウンス角度θ=0度、垂直方向バウンス角度θ=(0−15)度と算出される。 The amount of driving in the front direction is calculated by the strobe microcomputer 310 by setting the driving target horizontal bounce angle θ X and the vertical bounce angle θ Y as target values for bounce driving, and taking into account the amount of tilt of the main body 300a. The For example, when the slope η = 0 and the tilt amount γ = 15 acquired in step S102, the main body 300a is determined to be the normal position, the drive target horizontal bounce angle θ X = 0 degrees, and the vertical bounce angle θ Y = Calculated as (0-15) degrees.

ステップS104にてストロボマイコン310は、ステップS103にて照射方向が正面方向となるようにストロボヘッド部300bを駆動した後に、プリ発光を行うように発光部に指示する。そして、ストロボマイコン310は、測距ユニット308に指示してプリ発光の反射光を受光させ、得られた受光結果に基づいて、発光部の照射面から被写体までの距離(被写体距離)を算出する。ステップS105にてストロボマイコン310は、バウンス駆動回路340b、340dに指示して、照射方向が照射方向が重力方向と逆方向(天井方向)となるようにストロボヘッド部300bを駆動させる。   In step S104, the flash microcomputer 310 instructs the light emitting unit to perform pre-flash after driving the strobe head unit 300b so that the irradiation direction is the front direction in step S103. Then, the flash microcomputer 310 instructs the ranging unit 308 to receive the pre-emission reflected light, and calculates the distance (subject distance) from the irradiation surface of the light emitting unit to the subject based on the obtained light reception result. . In step S105, the flash microcomputer 310 instructs the bounce drive circuits 340b and 340d to drive the flash head unit 300b so that the irradiation direction is opposite to the gravity direction (ceiling direction).

本体部300aの姿勢が正位置の場合に天井方向を駆動目標とすると、バウンス駆動の際の目標値として駆動目標水平方向バウンス角度θ=0、垂直方向バウンス角度θ=90−γとなる。 If the ceiling direction is the driving target when the posture of the main body 300a is the normal position, the driving target horizontal bounce angle θ X = 0 and the vertical bounce angle θ Y = 90−γ are the target values for bounce driving. .

ステップS106にてストロボマイコン310は、ステップS105にて照射方向が天井方向となるようにストロボヘッド部300bを駆動した後に、プリ発光を行うように発光部に指示する。そして、ストロボマイコン310は、測距ユニット308に指示してプリ発光の反射光を受光させ、得られた受光結果に基づいて、発光部の照射面から天井までの距離(天井距離)を算出する。   In step S106, the strobe microcomputer 310 instructs the light emitting unit to perform pre-flash after driving the strobe head unit 300b so that the irradiation direction becomes the ceiling direction in step S105. Then, the flash microcomputer 310 instructs the distance measuring unit 308 to receive the pre-emission reflected light, and calculates the distance (ceiling distance) from the irradiation surface of the light emitting unit to the ceiling based on the obtained light reception result. .

ステップS107にてストロボマイコン310は、ステップS101、S104、S106で得られた本体部300aの傾き、複数の距離算出結果(被写体距離、天井距離)に基づいて、バウンス発光撮影に最適な照射方向を決定する。ここでストロボマイコン310は、最適な照射方向とするための最適バウンス角度を、バウンス駆動の際の目標値として駆動目標水平方向バウンス角度θ、垂直方向バウンス角度θとしてそれぞれ算出する。照射方向の決定方法は、例えば、天井距離をd、被写体距離をD、最適な照射方向となる駆動目標垂直方向バウンス角度θとすると
θ=tan−1(2d/D)
となる。上記の式で求められる角度は、本体部300aの姿勢が正位置のときの角度となるため、本体部300aの姿勢の傾き角度に応じて補正した角度を、バウンス発光撮影に最適な照射方向となる駆動目標垂直方向バウンス角度θとして決定する。また、被写体が画角の中央に存在すると仮定して、駆動目標水平方向バウンス角度θ=0とする。
In step S107, the flash microcomputer 310 determines an optimum irradiation direction for bounce flash photography based on the inclination of the main body 300a obtained in steps S101, S104, and S106 and a plurality of distance calculation results (subject distance, ceiling distance). decide. Here, the stroboscopic microcomputer 310 calculates the optimum bounce angle for obtaining the optimum irradiation direction as a drive target horizontal bounce angle θ X and a vertical bounce angle θ Y as target values for bounce drive. The method of determining the irradiation direction is, for example, θ Y = tan −1 (2d / D) where d is the ceiling distance, D is the subject distance, and the driving target vertical bounce angle θ Y is the optimal irradiation direction.
It becomes. Since the angle obtained by the above formula is an angle when the posture of the main body 300a is the normal position, the angle corrected according to the inclination angle of the posture of the main body 300a is set as the irradiation direction optimum for the bounce flash photography. comprising determining a driving target vertical bounce angle theta Y. Further, assuming that the subject exists at the center of the angle of view, the drive target horizontal bounce angle θ X = 0.

ステップS108にてストロボマイコン310は、ステップS107で決定されたバウンス角度または後述するステップS109で決定されたバウンス角度となるように、バウンス駆動回路340b、340dに指示して、ストロボヘッド部300bを駆動させる。その後、ステップS13へ移行する。   In step S108, the flash microcomputer 310 instructs the bounce drive circuits 340b and 340d to drive the strobe head unit 300b so that the bounce angle determined in step S107 or the bounce angle determined in step S109 described later is obtained. Let Thereafter, the process proceeds to step S13.

ステップS109は、発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在すると判定した場合の制御である。ストロボマイコン310は、発光部の照射範囲を拡大させることができる光学部材が存在すると判定した場合、予め決められた所定のバウンス角度を、ステップS101で取得した本体部300aのあおり量で補正し、ステップS108へ移行する。   Step S109 is control when it is determined that there is an optical member capable of expanding the irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction. When it is determined that there is an optical member capable of expanding the irradiation range of the light emitting unit, the stroboscopic microcomputer 310 corrects the predetermined bounce angle determined in advance by the tilt amount of the main body unit 300a acquired in step S101, The process proceeds to step S108.

ここで、バウンスアダプター370取付け時の最適なバウンス角度を第1の所定の角度としており、本実施形態では、被写体距離や天井距離によらず発光部の照射方向が天井方向となるバウンス角度を第1の所定の角度としている。そのためストロボマイコン310は、本体部300aが正位置の場合は、駆動目標水平方向バウンス角度θX=0、駆動目標垂直方向バウンス角度θY=90−γと算出する。また、ワイドパネル372取付け時の最適なバウンス角度を第2の所定の角度としている。バウンスアダプター370とワイドパネル372は、ともに発光部の照射範囲を拡大させる効果を有しているが、バウンスアダプター370とワイドパネル372とでは拡散特性が異なるため最適なバウンス角度も異なる。例えば、ワイドパネル372使用時の垂直方向の照射角度が120度、35mm×24mmの撮像素子102をもつ撮像装置に焦点距離16mmの広角レンズを取り付けた場合の垂直画角が75度と想定し、最適なバウンス角度を天井方向より後方に45度とする。バウンス角度を天井方向より後方に45度とすることで、ワイドパネル372を透過した光で最も被写体に近い光線の照射角度は75度となり、ワイドパネル372を透過した光が直接画角内に入り込まないようになる。つまり、ストロボマイコン310は、本体部300aが正位置の場合は、駆動目標水平方向バウンス角度θX=0、駆動目標垂直方向バウンス角度θY=135−γと算出する。なお、バウンスアダプター370取付け時の最適なバウンス角度とワイドパネル372使用時の最適な照射方向は上記の照射方向に限らず、それぞれの拡散特性を考慮して適宜設定すればよい。   Here, the optimum bounce angle when the bounce adapter 370 is attached is set as the first predetermined angle. In this embodiment, the bounce angle at which the irradiation direction of the light emitting unit is the ceiling direction regardless of the subject distance and the ceiling distance is set to the first bounce angle. The predetermined angle is 1. Therefore, the stroboscopic microcomputer 310 calculates the drive target horizontal bounce angle θX = 0 and the drive target vertical bounce angle θY = 90−γ when the main body 300a is in the normal position. Further, the optimum bounce angle when the wide panel 372 is attached is the second predetermined angle. Both the bounce adapter 370 and the wide panel 372 have the effect of expanding the irradiation range of the light emitting portion. However, since the bounce adapter 370 and the wide panel 372 have different diffusion characteristics, the optimum bounce angle is also different. For example, assuming that a vertical angle of view is 75 degrees when a wide-angle lens with a focal length of 16 mm is attached to an imaging apparatus having an imaging element 102 of 35 mm × 24 mm, the irradiation angle in the vertical direction when the wide panel 372 is used. The optimum bounce angle is 45 degrees backward from the ceiling direction. By setting the bounce angle to 45 degrees backward from the ceiling direction, the irradiation angle of the light ray that has passed through the wide panel 372 and closest to the subject becomes 75 degrees, and the light that has passed through the wide panel 372 directly enters the angle of view. It will not be. That is, the stroboscopic microcomputer 310 calculates the drive target horizontal bounce angle θX = 0 and the drive target vertical bounce angle θY = 135−γ when the main body 300a is in the normal position. Note that the optimum bounce angle when the bounce adapter 370 is attached and the optimum irradiation direction when the wide panel 372 is used are not limited to the above-described irradiation directions, and may be set as appropriate in consideration of the respective diffusion characteristics.

以上のように、発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在すると判定した場合、光学部材が存在しないと判定した場合と比較して、ステップS103〜ステップS107の処理を省略することができる。すなわち、光学部材が存在しないと判定した場合は、ストロボヘッド部300bを駆動させて取得した複数の距離算出結果に基づいて発光部の照射方向を決定するが、光学部材が存在すると判定した場合は、距離算出結果に基づいて発光部の照射方向を決定しない。そのため、最適な照射方向へ素早く駆動でき、シャッターチャンスを逃すことを軽減することができる。   As described above, when it is determined that there is an optical member capable of expanding the irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction, the step is compared with the case where it is determined that there is no optical member. The processing from S103 to step S107 can be omitted. That is, when it is determined that there is no optical member, the irradiation direction of the light emitting unit is determined based on a plurality of distance calculation results obtained by driving the strobe head unit 300b, but when it is determined that there is an optical member. The irradiation direction of the light emitting unit is not determined based on the distance calculation result. Therefore, it can be quickly driven in the optimum irradiation direction, and missed shutter chances can be reduced.

次に、図6のフローチャートを用いて、ステップS103、S105、S108におけるバウンス駆動制御を説明する。   Next, the bounce drive control in steps S103, S105, and S108 will be described using the flowchart of FIG.

まずステップS401にてストロボマイコン310は、バウンス駆動回路340b、340dに指示してモータを制御し、ストロボヘッド部300bの駆動を開始させる。   First, in step S401, the flash microcomputer 310 instructs the bounce drive circuits 340b and 340d to control the motor, and starts driving the flash head unit 300b.

ステップS402にてストロボマイコン310は、バウンス位置検出回路340a、340cから現在のストロボヘッド位置である水平方向バウンス角度θ、垂直方向バウンス角度θを取得する。そして、ストロボマイコン310は、取得した現在のバウンス角度が、駆動目標水平方向バウンス角度θ、駆動目標垂直方向バウンス角度θに合致しているかの判定を行う。θ=θ、θ=θと合致していればステップS403へ移行し、合致していなければステップS402を繰り返す。 In step S402, the flash microcomputer 310 obtains the horizontal bounce angle θ A and the vertical bounce angle θ B that are the current strobe head positions from the bounce position detection circuits 340a and 340c. Then, the flash microcomputer 310 determines whether the acquired current bounce angle matches the drive target horizontal bounce angle θ X and the drive target vertical bounce angle θ Y. If they match θ X = θ A and θ Y = θ B , the process proceeds to step S403, and if they do not match, step S402 is repeated.

ステップS403にてストロボマイコン310は、バウンス駆動回路340b、340dに指示してモータを制御し、ストロボヘッド部300bの駆動を停止する。   In step S403, the strobe microcomputer 310 instructs the bounce drive circuits 340b and 340d to control the motor, and stops driving the strobe head unit 300b.

ステップS404にてストロボマイコン310は、カメラ接続部の端子130を介して、カメラに対して、バウンス駆動終了通知を通信する。   In step S404, the flash microcomputer 310 communicates a bounce drive end notification to the camera via the terminal 130 of the camera connection unit.

以上のように、本実施形態では、発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在するか否かに応じて、発光部の照射方向を決定する方法を異ならせる。具体的には、発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在すると判定した場合、ストロボヘッド部300bを駆動させることなく予め設定された方向に基づいて照射方向を決定してバウンス発光撮影を行う。この予め設定された方向は、発光部からの直接光が画角に被らない方向である。そのため、照射範囲を変更する光学部材を使用する際に不自然な画像となることを軽減できる。また、このとき、被写体距離の算出や天井距離の算出を行うためにストロボヘッド部300bを駆動させないし、複数の距離算出結果に基づいて照射方向を決定しないため、シャッターチャンスを逃すことを軽減することができる。このように、照射範囲を変更する光学部材を使用する際に適した方法で照明装置の照射方向を決定することができる。   As described above, in the present embodiment, the irradiation direction of the light emitting unit is changed depending on whether or not an optical member capable of expanding the irradiation range of the light emitting unit exists at a position in front of the light emitting unit in the irradiation direction. Different ways of determining. Specifically, when it is determined that there is an optical member that can expand the irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction, the strobe head unit 300b is driven in a preset direction without being driven. The irradiation direction is determined based on the bounce flash photography. This preset direction is a direction in which the direct light from the light emitting unit does not cover the angle of view. Therefore, an unnatural image can be reduced when an optical member that changes the irradiation range is used. At this time, the strobe head unit 300b is not driven in order to calculate the subject distance and the ceiling distance, and the irradiation direction is not determined based on a plurality of distance calculation results, thereby reducing missed photo opportunities. be able to. In this way, the irradiation direction of the illumination device can be determined by a method suitable for using an optical member that changes the irradiation range.

なお、本実施形態で説明した各フローチャートはあくまで一例であって、不都合がなければ本実施形態で説明した各フローチャートと異なる順序で各種処理を実行しても構わない。   Note that the flowcharts described in the present embodiment are merely examples, and various processes may be executed in a different order from the flowcharts described in the present embodiment if there is no problem.

また、上記の実施形態では、最適な照射方向を決定する際に、ストロボ装置300の測距ユニット308、姿勢検出回路360で取得した情報を用いたが、カメラ本体100で取得した情報を用いてもよい。例えば、ストロボ装置300がカメラ本体100に装着された状態では、カメラ本体100の姿勢とストロボ装置300の姿勢は所定の対応関係にあるため、ストロボ装置300の姿勢に関する情報の代わりにカメラ本体100の姿勢に関する情報を用いてもよい。また別の例として、発光部から被写体までの距離は、レンズユニット200のレンズ情報に基づいて算出することもできるので、レンズユニット200の情報に基づいて発光部から被写体までの距離を算出してもよい。   In the above embodiment, the information acquired by the distance measuring unit 308 and the posture detection circuit 360 of the strobe device 300 is used when determining the optimum irradiation direction. However, the information acquired by the camera body 100 is used. Also good. For example, when the strobe device 300 is attached to the camera main body 100, the posture of the camera main body 100 and the posture of the strobe device 300 are in a predetermined correspondence relationship. Information about the posture may be used. As another example, since the distance from the light emitting unit to the subject can also be calculated based on the lens information of the lens unit 200, the distance from the light emitting unit to the subject is calculated based on the information of the lens unit 200. Also good.

また、発光部から被写体までの距離及び発光部から天井までの距離を算出する方法して、赤外線照射部と赤外線受光部とを発光部の照射方向に向けて設け、赤外線を被写体や天井に照射して距離を算出する方法でもよい。   In addition, by calculating the distance from the light emitting unit to the subject and the distance from the light emitting unit to the ceiling, the infrared irradiation unit and the infrared light receiving unit are provided in the irradiation direction of the light emitting unit, and the subject and the ceiling are irradiated with infrared rays. Then, the method of calculating the distance may be used.

また、発光部の照射方向前方の位置に発光部の照射範囲を拡大させることができる光学部材が存在しないと判定した場合にバウンス発光撮影に最適な照射方向の決定する方法は限定されない。例えば、正面方向と天井方向だけでなく更に細かく照射方向を変えてプリ発光を行い、プリ発光時測光値がバウンス発光撮影に最適な結果となった照射方向を最適な照射方向として決定する方法でもよい。あるいは、照射方向を細かく変えてプリ発光を行い、プリ発光時に撮像素子102で露光された画像の輝度分布が最適な結果となった照射方向を最適な照射方向として決定する方法でもよい。   In addition, when it is determined that there is no optical member capable of expanding the irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction, a method for determining the optimal irradiation direction for bounce flash photography is not limited. For example, it is possible to perform pre-flashes by changing the irradiation direction more finely, not only in the front direction and the ceiling direction, and by determining the irradiation direction in which the photometric value during pre-flash is the optimal result for bounce flash photography as the optimal irradiation direction Good. Alternatively, pre-light emission may be performed by finely changing the irradiation direction, and the irradiation direction in which the luminance distribution of the image exposed by the image sensor 102 at the time of pre-light emission has the optimum result may be determined as the optimal irradiation direction.

また、上記の実施形態では、オートバウンス動作時にストロボヘッド部300bを天井方向に駆動させて照射方向を決定しているが、ストロボヘッド部300bを天井方向に直交する方向にも駆動させて照射方向を決定してもよい。   In the above embodiment, the strobe head unit 300b is driven in the ceiling direction during the auto bounce operation to determine the irradiation direction. However, the strobe head unit 300b is also driven in the direction orthogonal to the ceiling direction to apply the irradiation direction. May be determined.

また、バウンス発光撮影に最適な照射方向を決定する際にストロボマイコン310で行った演算の少なくとも一部をカメラマイコン101で行ってもよい。   Further, at least a part of the calculation performed by the flash microcomputer 310 when determining the optimal irradiation direction for the bounce flash photographing may be performed by the camera microcomputer 101.

また、上記の実施形態では、本体部に対して可動部が上下及び左右方向に回動可能な照明装置を説明したが、本体部に対して可動部が上下及び左右方向の一方のみに回動可能な照明装置であってもよい。   In the above embodiment, the lighting device has been described in which the movable part can be rotated in the vertical and horizontal directions with respect to the main body part. A possible lighting device may be used.

また、上記の実施形態では、バウンスアダプター370が取り付けられた場合とワイドパネル372を使用する場合の両方において、照射方向が予め設定された方向となるようにしてバウンス発光撮影を行うようにしているが、いずれか一方だけでも構わない。いずれか一方だけ照射方向が予め設定された方向となるようにしてバウンス発光撮影を行っても、いずれも行わない場合よりかは照射範囲を変更する光学部材を使用する際に不自然な画像となることを軽減できる。   In the above embodiment, bounce flash photography is performed so that the irradiation direction is a preset direction both when the bounce adapter 370 is attached and when the wide panel 372 is used. However, only one of them may be used. Even if bounce flash photography is performed so that only one of the irradiation directions is set in advance, it is more unnatural when using an optical member that changes the irradiation range than when neither is performed. Can be reduced.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 カメラ本体
101 カメラマイコン
300 ストロボ装置
300a 本体部
300b ストロボヘッド部
340 バウンス回路
360 姿勢検出回路
370 バウンスアダプター
371 バウンスアダプター検知部
372 ワイドパネル
373 ワイドパネル検知部
DESCRIPTION OF SYMBOLS 100 Camera main body 101 Camera microcomputer 300 Strobe device 300a Main body part 300b Strobe head part 340 Bounce circuit 360 Attitude detection circuit 370 Bounce adapter 371 Bounce adapter detection part 372 Wide panel 373 Wide panel detection part

Claims (13)

発光部の照射方向を変更させるために当該発光部を備えた可動部を自動で駆動させることが可能な照明装置と、撮像装置とを含む撮像システムであって、
前記発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する判定手段と、
前記発光部の照射方向を決定する決定手段と、を有し、
前記決定手段は、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在するか否かに応じて、前記発光部の照射方向を決定する方法を異ならせることを特徴とする撮像システム。
An imaging system including an illumination device capable of automatically driving a movable unit including the light emitting unit to change the irradiation direction of the light emitting unit, and an imaging device,
Determining means for determining whether or not there is an optical member capable of expanding an irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction;
Determining means for determining an irradiation direction of the light emitting unit,
The determining means determines the irradiation direction of the light emitting unit according to whether or not an optical member capable of expanding the irradiation range of the light emitting unit exists at a position in front of the light emitting unit in the irradiation direction. An imaging system characterized by differentiating.
前記決定手段は、前記判定手段により前記光学部材が存在すると判定された場合、前記発光部を駆動させることなく決定した方向を前記発光部の照射方向と決定し、前記判定手段により前記光学部材が存在しないと判定された場合、前記可動部を駆動させて決定した方向を前記発光部の照射方向とすることを特徴とする請求項1に記載の撮像システム。   When the determination unit determines that the optical member is present, the determination unit determines a direction determined without driving the light emitting unit as an irradiation direction of the light emitting unit, and the determination unit determines that the optical member is 2. The imaging system according to claim 1, wherein when it is determined that the light emitting unit does not exist, a direction determined by driving the movable unit is set as an irradiation direction of the light emitting unit. 前記決定手段は、前記判定手段により前記光学部材が存在すると判定された場合、予め設定された方向に基づいて前記発光部の照射方向を決定することを特徴とする請求項2に記載の撮像システム。   The imaging system according to claim 2, wherein the determination unit determines an irradiation direction of the light emitting unit based on a preset direction when the determination unit determines that the optical member is present. . 対象物の距離を算出する算出手段をさらに有し、
前記決定手段は、前記判定手段により前記光学部材が存在しないと判定された場合、前記可動部を駆動させて取得した複数の対象物に対する前記算出手段の算出結果に基づいて前記発光部の照射方向を決定することを特徴とする請求項2または3に記載の撮像システム。
It further has a calculation means for calculating the distance of the object,
When the determining unit determines that the optical member is not present, the determining unit is configured to irradiate the light emitting unit based on the calculation results of the calculating unit with respect to a plurality of objects acquired by driving the movable unit. The imaging system according to claim 2, wherein the imaging system is determined.
前記発光部の照射方向が前記決定手段により決定された照射方向となるように前記可動部を駆動させる駆動手段をさらに有することを特徴とする請求項1ないし4のいずれか1項に記載に撮像システム。   5. The imaging according to claim 1, further comprising a driving unit that drives the movable unit so that an irradiation direction of the light emitting unit is an irradiation direction determined by the determination unit. system. 撮像装置に着脱可能に装着される本体部と、
前記本体部に対して回動可能な可動部と、
前記可動部に設けられた発光部と、
前記可動部を回動させる駆動手段と、
前記発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する判定手段と、
前記発光部の照射方向を決定する決定手段と、を有し、
前記決定手段は、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在するか否かに応じて、前記発光部の照射方向を決定する方法を異ならせることを特徴とする照明装置。
A main body detachably mounted on the imaging device;
A movable part rotatable with respect to the main body part;
A light emitting part provided in the movable part;
Driving means for rotating the movable part;
Determining means for determining whether or not there is an optical member capable of expanding an irradiation range of the light emitting unit at a position in front of the light emitting unit in the irradiation direction;
Determining means for determining an irradiation direction of the light emitting unit,
The determining means determines the irradiation direction of the light emitting unit according to whether or not an optical member capable of expanding the irradiation range of the light emitting unit exists at a position in front of the light emitting unit in the irradiation direction. A lighting device characterized by differentiating the above.
前記決定手段は、前記判定手段により前記光学部材が存在すると判定された場合、前記発光部を駆動させることなく決定した方向を前記発光部の照射方向と決定し、前記判定手段により前記光学部材が存在しないと判定された場合、前記可動部を駆動させて決定した方向を前記発光部の照射方向とすることを特徴とする請求項6に記載の照明装置。   When the determination unit determines that the optical member is present, the determination unit determines a direction determined without driving the light emitting unit as an irradiation direction of the light emitting unit, and the determination unit determines that the optical member is The lighting device according to claim 6, wherein when it is determined that the light emitting unit does not exist, the direction determined by driving the movable unit is set as an irradiation direction of the light emitting unit. 前記決定手段は、前記判定手段により前記光学部材が存在すると判定された場合、予め設定された方向に基づいて前記発光部の照射方向を決定することを特徴とする請求項7に記載の照明装置。   The lighting device according to claim 7, wherein the determination unit determines an irradiation direction of the light emitting unit based on a preset direction when the determination unit determines that the optical member is present. . 対象物の距離を算出する算出手段をさらに有し、
前記決定手段は、前記判定手段により前記光学部材が存在しないと判定された場合、前記可動部を駆動させて取得した複数の対象物に対する前記算出手段の算出結果に基づいて前記発光部の照射方向を決定することを特徴とする請求項7または8に記載の照明装置。
It further has a calculation means for calculating the distance of the object,
When the determining unit determines that the optical member is not present, the determining unit is configured to irradiate the light emitting unit based on the calculation results of the calculating unit with respect to a plurality of objects acquired by driving the movable unit. The lighting device according to claim 7, wherein the lighting device is determined.
前記駆動手段は、前記決定手段により決定された照射方向となるように前記可動部を駆動させることを特徴とする請求項6ないし9のいずれか1項に記載の照明装置。   The lighting device according to any one of claims 6 to 9, wherein the driving unit drives the movable part so that the irradiation direction is determined by the determining unit. 前記光学部材は、前記照明装置に着脱可能な光学アクセサリであって、
前記判定手段は、前記照明装置に前記光学アクセサリが取り付けられると、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在すると判定することを特徴とする請求項6ないし10のいずれか1項に記載の照明装置。
The optical member is an optical accessory that can be attached to and detached from the lighting device,
When the optical accessory is attached to the lighting device, the determination unit determines that an optical member capable of expanding an irradiation range of the light emitting unit is present at a position in front of the light emitting unit in the irradiation direction. The lighting device according to any one of claims 6 to 10.
前記光学部材は、前記照明装置に内蔵された、非使用位置と使用位置とに移動可能な光学パネルであって、
前記判定手段は、前記光学パネルが使用位置にあるときに、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在すると判定することを特徴とする請求項6ないし11のいずれか1項に記載の照明装置。
The optical member is an optical panel built in the lighting device and movable between a non-use position and a use position,
The determination means determines that there is an optical member capable of expanding an irradiation range of the light emitting unit at a position ahead of the light emitting unit in the irradiation direction when the optical panel is in a use position. The illumination device according to any one of claims 6 to 11.
撮像装置に着脱可能に装着される本体部と、
前記本体部に対して回動可能な可動部と、
前記可動部に設けられた発光部と、
前記可動部を回動させる駆動手段と、とを有する照明装置の制御方法であって、
前記発光部の照射方向前方の位置に、発光部の照射範囲を拡大させることができる光学部材が存在するか否かを判定する判定ステップと、
前記発光部の照射方向を決定する決定ステップと、を有し、
前記決定ステップは、前記発光部の照射方向前方の位置に、当該発光部の照射範囲を拡大させることができる光学部材が存在するか否かに応じて、前記発光部の照射方向を決定する方法を異ならせることを特徴とする照明装置の制御方法。
A main body detachably mounted on the imaging device;
A movable part rotatable with respect to the main body part;
A light emitting part provided in the movable part;
A driving means for rotating the movable part, and a control method of a lighting device comprising:
A determination step of determining whether or not there is an optical member capable of expanding an irradiation range of the light emitting unit at a position ahead of the light emitting unit in the irradiation direction;
Determining the irradiation direction of the light emitting unit,
The determining step determines the irradiation direction of the light emitting unit depending on whether or not an optical member capable of expanding the irradiation range of the light emitting unit exists at a position in front of the light emitting unit in the irradiation direction. The control method of the illuminating device characterized by making different.
JP2014190350A 2014-09-18 2014-09-18 Imaging system, lighting device and control method Active JP6529233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190350A JP6529233B2 (en) 2014-09-18 2014-09-18 Imaging system, lighting device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190350A JP6529233B2 (en) 2014-09-18 2014-09-18 Imaging system, lighting device and control method

Publications (2)

Publication Number Publication Date
JP2016061974A true JP2016061974A (en) 2016-04-25
JP6529233B2 JP6529233B2 (en) 2019-06-12

Family

ID=55797756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190350A Active JP6529233B2 (en) 2014-09-18 2014-09-18 Imaging system, lighting device and control method

Country Status (1)

Country Link
JP (1) JP6529233B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081122A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 LIGHTING DEVICE, ITS CONTROL METHOD, AND IMAGING SYSTEM

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04120944U (en) * 1991-04-12 1992-10-29 株式会社ニコン Electronic flash device with auto zoom mechanism
JPH0850318A (en) * 1994-08-05 1996-02-20 Canon Inc Flash photography
JP2014038268A (en) * 2012-08-20 2014-02-27 Panasonic Corp Stroboscopic device and imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04120944U (en) * 1991-04-12 1992-10-29 株式会社ニコン Electronic flash device with auto zoom mechanism
JPH0850318A (en) * 1994-08-05 1996-02-20 Canon Inc Flash photography
JP2014038268A (en) * 2012-08-20 2014-02-27 Panasonic Corp Stroboscopic device and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081122A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 LIGHTING DEVICE, ITS CONTROL METHOD, AND IMAGING SYSTEM

Also Published As

Publication number Publication date
JP6529233B2 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
US9686473B2 (en) Lighting device for automatically change irradiation direction
US10425564B2 (en) Image pickup apparatus that is capable of bounce emission photographing, control method therefor, and storage medium storing control program therefor
US10097768B2 (en) Light emission control device that controls light emission of lighting device, method of controlling the same, storage medium, and image pickup apparatus
JP2015004932A (en) Camera system, imaging device, lighting device, and control method
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP6132661B2 (en) Imaging device, illumination device, and control method
JP6188444B2 (en) Camera system, imaging apparatus, and control method
JP6529233B2 (en) Imaging system, lighting device and control method
JP6971710B2 (en) Lighting equipment, its control method, control program, and lighting system, as well as imaging equipment.
JP6552170B2 (en) Imaging system, illumination device, and control method
JP2010134091A (en) Stroboscopic device, imaging apparatus, and camera system
JP6851790B2 (en) Lighting device and its control method and imaging system
JP5183188B2 (en) Imaging device and strobe device
JP2018081121A (en) Imaging system and control method thereof
JP2019132914A (en) Illumination device and camera system including teh same
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6611419B2 (en) Imaging system, illumination device, and control method
JP6304950B2 (en) Illumination device, imaging device, and control method thereof
JP2020034815A (en) Flash device and camera system
JP6650666B2 (en) Imaging system, lighting device, and control method
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6971562B2 (en) Lighting equipment and its control method and imaging system
JP2021063858A (en) Imaging system and method for controlling the same
JP2020091393A (en) Lighting device and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R151 Written notification of patent or utility model registration

Ref document number: 6529233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151