[go: up one dir, main page]

JP2007058160A - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP2007058160A
JP2007058160A JP2006016226A JP2006016226A JP2007058160A JP 2007058160 A JP2007058160 A JP 2007058160A JP 2006016226 A JP2006016226 A JP 2006016226A JP 2006016226 A JP2006016226 A JP 2006016226A JP 2007058160 A JP2007058160 A JP 2007058160A
Authority
JP
Japan
Prior art keywords
camera
optical system
lens unit
lens
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006016226A
Other languages
Japanese (ja)
Other versions
JP2007058160A5 (en
Inventor
Kazutoshi Shiratori
和利 白鳥
Yasushi Ogata
康司 小方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006016226A priority Critical patent/JP2007058160A/en
Publication of JP2007058160A publication Critical patent/JP2007058160A/en
Publication of JP2007058160A5 publication Critical patent/JP2007058160A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce and hold lens data in which the effect of a close-distance error of an optical system is taken into consideration. <P>SOLUTION: A coefficient for calculating an image distance and data about a distance between principal points are stored in a FlashRom 107 in a lens unit 100 as data for obtaining an amount of blur correction. When blur correction is made, a blur correction coefficient is obtained from the coefficient and the data about the distance between the principal points. From this blur correction coefficient and an angle velocity detected by an angle velocity sensor 209, an amount of shift correction for making the blur correction is calculated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ぶれ補正機能を備えたカメラシステムに関する。   The present invention relates to a camera system having a shake correction function.

従来から、カメラの撮像面における像ぶれを検出し、この像ぶれを打ち消す方向にレンズユニット内の光学系やカメラボディ内の撮像素子を駆動させてぶれ補正を行うカメラが種々提案されている。このようなカメラにおいて、光学系の焦点調整動作や変倍動作等によって変化する光学系の焦点距離に応じて決まる像ぶれ量を、この像ぶれ量を補正するのに必要な光学素子(補正光学系)の補正量に変換するための変換係数をレンズユニット側に持たせたカメラシステムが特許文献1において提案されている。   2. Description of the Related Art Conventionally, various cameras have been proposed in which image blur is detected on an imaging surface of a camera and blur correction is performed by driving an optical system in a lens unit or an image sensor in a camera body in a direction to cancel the image blur. In such a camera, the amount of image blur determined according to the focal length of the optical system, which changes due to the focus adjustment operation or zooming operation of the optical system, is determined by the optical elements (correction optics) required to correct this image blur amount. Japanese Patent Application Laid-Open No. H10-228707 proposes a camera system in which a conversion coefficient for converting into a correction amount of the system) is provided on the lens unit side.

このような特許文献1の手法により、光学系の種類や状態に応じた適切なぶれ補正を行うことが可能である。
特許第3206800号公報
By such a method of Patent Document 1, it is possible to perform an appropriate blur correction according to the type and state of the optical system.
Japanese Patent No. 3206800

ここで、上記特許文献1による手法では、光学系における近距離の誤差、特に光学系の主点位置や主点間隔の変化による影響が考慮されていない。   Here, in the method according to Patent Document 1, an influence of a short distance error in the optical system, in particular, a change in the principal point position and principal point interval of the optical system is not taken into consideration.

本発明は、上記の事情に鑑みてなされたもので、光学系における近距離の誤差の影響を考慮したレンズデータを、データ量を少なくして持たせることができるカメラシステムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a camera system that can have lens data that takes into consideration the influence of short-range errors in an optical system with a reduced amount of data. And

上記の目的を達成するために、本発明の第1の態様によるカメラシステムは、被写体像を形成するための光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディと、を有するカメラシステムにおいて、前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、前記光学系の主点位置に対応するデータを少なくとも記憶する記憶手段と、前記記憶手段に記憶された光学系の主点位置に対応するデータから、前記手ぶれ補正手段における補正の際の補正量を演算する制御手段とを有することを特徴とする。なお、ここでの主点位置とは、像面から後側主点、像面から前側主点、あるいは物体面から前側主点までの距離を表している。   In order to achieve the above object, a camera system according to a first aspect of the present invention includes a lens unit having an optical system for forming a subject image, a camera body in which the lens unit is configured to be detachable, A camera shake correction unit that corrects an influence of camera shake on the camera body, a storage unit that stores at least data corresponding to a principal point position of the optical system, and an optical system stored in the storage unit. And control means for calculating a correction amount at the time of correction in the camera shake correction means from data corresponding to the principal point position. Here, the principal point position represents a distance from the image plane to the rear principal point, from the image plane to the front principal point, or from the object plane to the front principal point.

この第1の態様によれば、光学系の主点位置に対応するデータから像ぶれを補正するための補正量を求めることができる。   According to the first aspect, the correction amount for correcting the image blur can be obtained from the data corresponding to the principal point position of the optical system.

また、上記の目的を達成するために、本発明の第2の態様によるカメラシステムは、被写体像を形成するための光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディと、を有するカメラシステムにおいて、前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、前記光学系の主点位置に対応するデータと前記光学系の主点間隔に対応するデータとを少なくとも記憶する記憶手段と、前記記憶手段に記憶された光学系の主点位置に対応するデータと前記光学系の主点間隔に対応するデータとから、前記手ぶれ補正手段における補正の際の補正量を演算する制御手段とを有することを特徴とする。   In order to achieve the above object, a camera system according to a second aspect of the present invention includes a lens unit having an optical system for forming a subject image, and a camera body in which the lens unit is configured to be detachable. And a camera shake correction means for correcting the influence of camera shake on the camera body, at least data corresponding to the principal point position of the optical system and data corresponding to the principal point interval of the optical system. Calculating the correction amount at the time of correction in the camera shake correction means from the storage means for storing, the data corresponding to the principal point position of the optical system stored in the storage means and the data corresponding to the principal point interval of the optical system And a control means.

この第2の態様によれば、光学系の主点位置に対応するデータと光学系の主点間隔に対応するデータとから像ぶれを補正するための補正量を求めることができる。   According to the second aspect, the correction amount for correcting the image blur can be obtained from the data corresponding to the principal point position of the optical system and the data corresponding to the principal point interval of the optical system.

また、上記の目的を達成するために、本発明の第3の態様によるカメラシステムは、光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディとを有するカメラシステムにおいて、前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、前記手ぶれ補正手段のぶれ補正量を演算するためのデータを記憶する記憶手段と、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定する判定手段と、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであると判定された場合には前記記憶手段に記憶された前記ぶれ補正量を演算するためのデータに基づいて前記手ぶれ補正手段のぶれ補正量を演算し、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットでないと判定された場合に、前記手ぶれ補正手段のぶれ補正量を、前記光学系の焦点距離と前記光学系の光軸のぶれ角度とに基づいて近似演算する制御手段とを具備することを特徴とする。   In order to achieve the above object, a camera system according to a third aspect of the present invention is a camera system including a lens unit having an optical system and a camera body in which the lens unit is configured to be detachable. A camera shake correction unit that corrects the influence of camera shake on the camera body, a storage unit that stores data for calculating a camera shake correction amount of the camera shake correction unit, and a lens unit corresponding to the camera shake correction unit. Data for calculating the blur correction amount stored in the storage means when it is determined that the lens unit is a lens unit corresponding to the camera shake correction means; The camera shake correction means calculates a camera shake correction amount based on the camera shake correction means, and the lens unit is connected to the camera shake correction means. And a control means for approximating the shake correction amount of the camera shake correction means based on the focal length of the optical system and the shake angle of the optical axis of the optical system when it is determined that the lens unit is not to be used. It is characterized by that.

この第3の態様によれば、レンズユニットがぶれ補正手段に対応しているレンズユニットであれば、ぶれ補正量を求めるためのデータからぶれ補正量を求め、レンズユニットがぶれ補正手段に対応していないレンズユニットであれば、ぶれ補正量を近似演算することができる。   According to the third aspect, if the lens unit is a lens unit corresponding to the shake correction unit, the shake correction amount is obtained from the data for obtaining the shake correction amount, and the lens unit corresponds to the shake correction unit. If the lens unit is not, the blur correction amount can be approximated.

本発明によれば、光学系における近距離の誤差の影響を考慮したレンズデータを、データ量を少なくして持たせることができるカメラシステムを提供することができる。   According to the present invention, it is possible to provide a camera system that can have lens data considering the influence of a short-range error in an optical system with a reduced data amount.

以下、図面を参照して本発明の実施形態を説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るカメラシステムの全体構成を示すブロック図である。図1に示すカメラシステムは、互いに着脱自在に接続されるレンズユニット100とカメラボディ200とで構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing the overall configuration of the camera system according to the first embodiment of the present invention. The camera system shown in FIG. 1 includes a lens unit 100 and a camera body 200 that are detachably connected to each other.

レンズユニット100には、焦点レンズ101aと、絞り101bと、変倍レンズ101cとを少なくとも有する光学系(以下、これらをまとめて撮影レンズと記す)が設けられている。焦点レンズ101aは、撮影レンズの焦点を調整する。絞り101bは、レンズユニット100からカメラボディ200への入射光量を制限する。変倍レンズ101cは、使用者による手動操作によってその光軸方向に駆動変位されることにより撮影レンズの焦点距離を変更する。つまり、レンズユニット100内の撮影レンズは、焦点レンズ101aの位置と変倍レンズ101cの位置とを変化させることによってその光学設定状態を変更できるように構成されている。   The lens unit 100 is provided with an optical system (hereinafter collectively referred to as a photographic lens) having at least a focus lens 101a, a diaphragm 101b, and a variable magnification lens 101c. The focus lens 101a adjusts the focus of the photographing lens. The diaphragm 101b limits the amount of incident light from the lens unit 100 to the camera body 200. The zoom lens 101c is driven and displaced in the direction of the optical axis by a manual operation by the user, thereby changing the focal length of the photographing lens. That is, the photographing lens in the lens unit 100 is configured so that its optical setting state can be changed by changing the position of the focus lens 101a and the position of the zoom lens 101c.

また、レンズユニット100には、焦点調整機構102と、ズームエンコーダ103と、アクチュエータ駆動回路104と、レンズ制御コンピュータ106と、FlashRom107と、レンズ操作スイッチ群108とが設けられている。   The lens unit 100 is provided with a focus adjustment mechanism 102, a zoom encoder 103, an actuator drive circuit 104, a lens control computer 106, a FlashRom 107, and a lens operation switch group 108.

焦点調整機構102は、焦点レンズ101aをその光軸方向に駆動させる。これにより撮影レンズの焦点調整を行う。ズームエンコーダ103は、変倍レンズ101cの光軸方向の位置を検出する。アクチュエータ駆動回路104は、絞り101bと焦点調整機構102とを駆動する。レンズ制御コンピュータ106は、カメラボディ200からの指示に応じてレンズユニット100内の各部の制御を行う。例えば、レンズ制御コンピュータ106は、カメラボディ200からの指示に応じてアクチュエータ駆動回路104を駆動させて、絞り101b及び焦点調整機構102を動作させる。また、レンズ制御コンピュータ106は、ズームエンコーダ103からの信号を受けて変倍レンズ101cの位置(ズーム位置)を検出し、このズーム位置に対応する撮影レンズの焦点距離を判断する。   The focus adjustment mechanism 102 drives the focus lens 101a in the optical axis direction. This adjusts the focus of the photographic lens. The zoom encoder 103 detects the position of the zoom lens 101c in the optical axis direction. The actuator drive circuit 104 drives the stop 101b and the focus adjustment mechanism 102. The lens control computer 106 controls each part in the lens unit 100 in response to an instruction from the camera body 200. For example, the lens control computer 106 drives the actuator drive circuit 104 in accordance with an instruction from the camera body 200 to operate the aperture 101b and the focus adjustment mechanism 102. Further, the lens control computer 106 receives a signal from the zoom encoder 103, detects the position (zoom position) of the variable magnification lens 101c, and determines the focal length of the photographing lens corresponding to this zoom position.

記憶手段としてのFlashRom107は、レンズ制御コンピュータ106によって実行されるプログラムや撮影レンズを構成するレンズの種別を表すデータや、焦点距離のデータ、後述するぶれ補正用データ等のレンズデータを記憶している。レンズ操作スイッチ群108は、レンズユニット100の設定用のスイッチ群である。このレンズ操作スイッチ群108には、例えば絞り101bを撮影動作に関わらず駆動させるためのプレビュースイッチや、焦点調整を手動で行うためのマニュアルフォーカスと焦点調整を自動で行うためのオートフォーカスとを切り替えるマニュアルフォーカス/オートフォーカス切り替えスイッチ等が含まれている。   The FlashRom 107 as a storage unit stores lens data such as a program executed by the lens control computer 106, data indicating the type of lens constituting the photographing lens, focal length data, and blur correction data described later. . The lens operation switch group 108 is a switch group for setting the lens unit 100. In this lens operation switch group 108, for example, a preview switch for driving the diaphragm 101b regardless of the photographing operation, a manual focus for manually performing focus adjustment, and an autofocus for automatically performing focus adjustment are switched. Includes manual focus / autofocus switch.

一方、カメラボディ200には、クイックリターンミラー201aと、ペンタプリズム201bと、接眼レンズ201cとを含む光学系が設けられている。   On the other hand, the camera body 200 is provided with an optical system including a quick return mirror 201a, a pentaprism 201b, and an eyepiece lens 201c.

クイックリターンミラー201aは、レンズユニット100内の光学系(撮影レンズ)の光軸上に、図示a方向に回動可能なように設けられており、レンズユニット100からの入射光の光路を切り替える。即ち、クイックリターンミラー201aが図に示す位置にある場合には、クイックリターンミラー201aによってレンズユニット100からの入射光の光路が図の上方に折り曲げられる。ペンタプリズム201bは、クイックリターンミラー201aにおける反射光を、正立像となるように反転して接眼レンズ201cに送る。接眼レンズ201cはペンタプリズムを通過した光に基づく像を使用者が視認可能なように調整する。   The quick return mirror 201a is provided on the optical axis of the optical system (photographing lens) in the lens unit 100 so as to be rotatable in the direction a in the figure, and switches the optical path of incident light from the lens unit 100. That is, when the quick return mirror 201a is at the position shown in the figure, the optical path of the incident light from the lens unit 100 is bent upward by the quick return mirror 201a. The pentaprism 201b inverts the reflected light from the quick return mirror 201a so that it becomes an erect image and sends it to the eyepiece 201c. The eyepiece 201c adjusts the image based on the light that has passed through the pentaprism so that the user can visually recognize the image.

また、カメラボディ200には、シャッタ201dと、撮像素子202と、撮像素子インターフェイス(IF)回路203とが設けられている。   The camera body 200 is provided with a shutter 201d, an image sensor 202, and an image sensor interface (IF) circuit 203.

シャッタ201dは、開閉駆動されることによって、撮像素子202への露光量を制御する。撮像素子202は、クイックリターンミラー201aがレンズユニット100の撮影レンズの光軸上から退避したときに、シャッタ201dを介して露光される入射光が結像することにより得られる被写体の像(被写体像)を電気信号に変換する。撮像素子IF回路203は、撮像素子202で得られた電気信号を読み出してデジタル信号を生成してシステムコントローラ204に出力する。制御手段などの機能を有するシステムコントローラ204は、撮像素子IF回路203で生成されたデジタル信号に対して、ホワイトバランス補正処理や階調変換処理等の画像処理を施して画像データを生成すると共に、カメラシステム全体を制御する。   The shutter 201d is opened and closed to control the exposure amount to the image sensor 202. The image sensor 202 captures an image of a subject (subject image) obtained by forming incident light exposed through the shutter 201d when the quick return mirror 201a is retracted from the optical axis of the photographing lens of the lens unit 100. ) To an electrical signal. The image sensor IF circuit 203 reads the electrical signal obtained by the image sensor 202, generates a digital signal, and outputs the digital signal to the system controller 204. A system controller 204 having a function such as a control unit performs image processing such as white balance correction processing and gradation conversion processing on the digital signal generated by the image sensor IF circuit 203 to generate image data, Control the entire camera system.

また、カメラボディ200には、ミラー駆動機構205と、シャッタチャージ機構206と、撮像素子変位機構207と、アクチュエータ駆動回路208と、角速度センサ209と、オートフォーカス(AF)回路210と、測光回路211とが設けられている。   The camera body 200 includes a mirror drive mechanism 205, a shutter charge mechanism 206, an image sensor displacement mechanism 207, an actuator drive circuit 208, an angular velocity sensor 209, an autofocus (AF) circuit 210, and a photometry circuit 211. And are provided.

ミラー駆動機構205は、クイックリターンミラー201aを図示a方向に駆動させる。シャッタチャージ機構206はシャッタ201dの開閉駆動を行う。撮像素子変位機構207は、撮像素子202を入射光の光軸に対して垂直な平面(詳細は後述する)上で変位させる。アクチュエータ駆動回路208は、システムコントローラ204の指示に応じてミラー駆動機構205と、シャッタチャージ機構206と、撮像素子変位機構207とを駆動する。角速度センサ209は、カメラボディ200の振動(所謂手ぶれ)を検出する。この角速度センサ209には、例えばコリオリ力を利用した角速度センサである振動ジャイロセンサが用いられる。AF回路210は焦点調整のために被写体までの距離を測定する。測光回路211は、測光のために被写体輝度を測定する。   The mirror drive mechanism 205 drives the quick return mirror 201a in the direction a. A shutter charge mechanism 206 opens and closes the shutter 201d. The image sensor displacement mechanism 207 displaces the image sensor 202 on a plane (details will be described later) perpendicular to the optical axis of the incident light. The actuator drive circuit 208 drives the mirror drive mechanism 205, the shutter charge mechanism 206, and the image sensor displacement mechanism 207 in accordance with instructions from the system controller 204. The angular velocity sensor 209 detects vibration (so-called camera shake) of the camera body 200. As the angular velocity sensor 209, for example, a vibration gyro sensor that is an angular velocity sensor using Coriolis force is used. The AF circuit 210 measures the distance to the subject for focus adjustment. The photometry circuit 211 measures subject brightness for photometry.

更に、カメラボディ200には、液晶モニタ212と、カメラ操作スイッチ群213と、記録メディア214と、SDRAM215と、FlashRom216と、USBデバイスコントローラ217とが設けられている。   Further, the camera body 200 is provided with a liquid crystal monitor 212, a camera operation switch group 213, a recording medium 214, an SDRAM 215, a FlashRom 216, and a USB device controller 217.

液晶モニタ212は、撮像素子202及び撮像素子IF回路203を介して得られた被写体の像や当該カメラシステムの状態等を表示する。カメラ操作スイッチ群213は、当該カメラシステムの各種設定操作を行うためのスイッチ群である。このカメラ操作スイッチ群213は、例えば撮影動作を開始させるためのレリーズスイッチ(撮影準備動作開始指示を行う1stレリーズスイッチと撮影動作開始指示を行う2ndレリーズスイッチの2段式のスイッチで構成される)、カメラボディ200における防振機能の有効/無効を設定するボディ防振スイッチ、当該カメラシステムの動作状態を設定するモード設定スイッチ、当該カメラシステムの電源をオン/オフする電源スイッチ等が含まれている。ここで、モード設定スイッチは、当該カメラシステムの各種撮影モードを設定したり、システムコントローラ204における画像データ生成の際の画像の階調や画像の記録画素数などの画質に関わる要素を設定する画質モードを選択したりする際にも用いられる。   The liquid crystal monitor 212 displays the image of the subject obtained through the image sensor 202 and the image sensor IF circuit 203, the state of the camera system, and the like. The camera operation switch group 213 is a switch group for performing various setting operations of the camera system. The camera operation switch group 213 is, for example, a release switch for starting a shooting operation (consisting of a two-stage switch of a 1st release switch for instructing to start a shooting preparation operation and a 2nd release switch for instructing to start a shooting operation). , A body anti-shake switch for setting whether to enable / disable the anti-shake function in the camera body 200, a mode setting switch for setting the operation state of the camera system, a power switch for turning on / off the power of the camera system, and the like. Yes. Here, the mode setting switch sets various shooting modes of the camera system, and sets image quality factors such as image gradation and the number of recorded pixels of the image when the system controller 204 generates image data. Also used when selecting a mode.

なお、ボディ防振スイッチやモード設定スイッチの機能は、タッチセンサを用いて実現するようにしても良い。   Note that the functions of the body image stabilization switch and the mode setting switch may be realized using a touch sensor.

記録メディア214は、システムコントローラ204で生成された画像データを記録する。SDRAM215は、システムコントローラ204によって実行されるプログラムによって使用されるデータ等を一時記憶する。記憶手段としてのFlashRom216は、システムコントローラ204によって実行されるプログラムや、撮像素子202の対角長やカメラシステムの状態等の各種パラメータを記憶している。USBデバイスコントローラ217は、カメラボディ200と情報処理装置等の外部機器とをUSB(Universal Serial Bus)で接続するために設けられている。   The recording medium 214 records the image data generated by the system controller 204. The SDRAM 215 temporarily stores data used by a program executed by the system controller 204. A FlashRom 216 as a storage unit stores a program executed by the system controller 204 and various parameters such as a diagonal length of the image sensor 202 and a camera system state. The USB device controller 217 is provided for connecting the camera body 200 and an external device such as an information processing apparatus via a USB (Universal Serial Bus).

また、カメラボディ200には、コントロールパネル501と、ファインダ表示部502とが設けられている。   The camera body 200 is provided with a control panel 501 and a finder display unit 502.

コントロールパネル501には、各種撮影情報が表示される。このコントロールパネル501には、カメラボディ200の防振機能に関する表示や、測光モード、AFモード、画質モード、シャッタスピード、絞り値、電池残量、撮影可能枚数、カラースペース設定、及び連写設定などが表示される。また、ファインダ表示部502は、接眼レンズ201cを介して得られる被写体観察用の像に撮影情報を挿入表示する。   Various control information is displayed on the control panel 501. The control panel 501 includes a display relating to the image stabilization function of the camera body 200, a metering mode, an AF mode, an image quality mode, a shutter speed, an aperture value, a remaining battery level, the number of shootable images, a color space setting, a continuous shooting setting, and the like Is displayed. In addition, the finder display unit 502 inserts and displays shooting information in an object observation image obtained through the eyepiece 201c.

また、上述したように、レンズユニット100とカメラボディ200とは、互いに着脱自在に構成されている。つまり、レンズユニット100とカメラボディ200とは、レンズユニット100のレンズマウント(Lマウント)109とカメラボディ200のボディマウント(Bマウント)218とを介して着脱自在になっており、カメラボディ200にレンズユニット100が装着されることにより、レンズユニット100に設けられた光学系とカメラボディ200に設けられた光学系とが連結される。更にこのとき、レンズユニット100に設けられたレンズ側通信ラインとカメラボディ200に設けられたボディ側通信ラインとが接続され、レンズユニット100とカメラボディ200とが通信可能状態となる。   As described above, the lens unit 100 and the camera body 200 are configured to be detachable from each other. That is, the lens unit 100 and the camera body 200 are detachable via the lens mount (L mount) 109 of the lens unit 100 and the body mount (B mount) 218 of the camera body 200, and By mounting the lens unit 100, the optical system provided in the lens unit 100 and the optical system provided in the camera body 200 are connected. Further, at this time, the lens side communication line provided in the lens unit 100 and the body side communication line provided in the camera body 200 are connected, so that the lens unit 100 and the camera body 200 can communicate with each other.

次に、以上のような構成を有するカメラシステムにおける防振機能について説明する。カメラ操作スイッチ群213の2ndレリーズスイッチがオンされた場合に、システムコントローラ204は、アクチュエータ駆動回路208を駆動させて、ミラー駆動機構205及びシャッタチャージ機構206を動作させる。また、システムコントローラ204は、角速度センサ209によって計測された角速度に対して積分処理を行うことによってカメラボディの振動量(手ぶれ量)を検出する。そして、検出された手ぶれを補正するようにアクチュエータ駆動回路208を駆動させて撮像素子変位機構207を動作させる。これにより、撮像素子202上に結像される像が手ぶれにより劣化することを防止する。   Next, the image stabilization function in the camera system having the above configuration will be described. When the 2nd release switch of the camera operation switch group 213 is turned on, the system controller 204 drives the actuator drive circuit 208 to operate the mirror drive mechanism 205 and the shutter charge mechanism 206. Further, the system controller 204 detects the amount of camera body vibration (the amount of camera shake) by performing an integration process on the angular velocity measured by the angular velocity sensor 209. Then, the actuator drive circuit 208 is driven so as to correct the detected camera shake, and the image sensor displacement mechanism 207 is operated. This prevents the image formed on the image sensor 202 from being deteriorated due to camera shake.

このように、カメラボディ200は、カメラボディ200自体に防振機能が備わっており、カメラボディ200に装着されるレンズユニット100に防振機能があるか否かに関わらずに、カメラシステムとして防振機能を動作させることが可能である。ここで、防振機能を実現するための手ぶれ補正手段は、主に撮像素子202、システムコントローラ204、撮像素子変位機構207、アクチュエータ駆動回路208、及び角速度センサ209から構成される。   As described above, the camera body 200 has a vibration proof function in the camera body 200 itself, and the camera body 200 is protected as a camera system regardless of whether or not the lens unit 100 attached to the camera body 200 has the vibration proof function. The vibration function can be operated. Here, the camera shake correction means for realizing the image stabilization function mainly includes an image sensor 202, a system controller 204, an image sensor displacement mechanism 207, an actuator drive circuit 208, and an angular velocity sensor 209.

図2は、レンズ種別判定処理の流れについて示すフローチャートである。カメラ操作スイッチ群213の例えば電源スイッチが操作されると、例えば割り込み信号がシステムコントローラ204に入力される。そして、この割り込み信号に応じて、システムコントローラ204が備えるMPU(Micro Processing Unit)がFlashRom216内の所定アドレスに記憶されているレンズ判定処理のプログラムを実行し、レンズ判定処理が開始される。   FIG. 2 is a flowchart showing the flow of the lens type determination process. When, for example, a power switch of the camera operation switch group 213 is operated, for example, an interrupt signal is input to the system controller 204. In response to the interrupt signal, an MPU (Micro Processing Unit) included in the system controller 204 executes a lens determination process program stored at a predetermined address in the FlashRom 216, and the lens determination process is started.

なお、以下に説明する処理は、システムコントローラ204内のMPUがレンズ判定処理のプログラムに記載された命令を実行することによって実現されるが、説明を簡単にするためにシステムコントローラ204を主体として説明を行う。   The processing described below is realized by the MPU in the system controller 204 executing an instruction described in the lens determination processing program, but the system controller 204 will be mainly described to simplify the description. I do.

ステップS201において、システムコントローラ204は、カメラボディ200にレンズユニット100が装着されているか否かを判定する。ここで、レンズユニット100が装着されているか否かは、例えばシステムコントローラ204とレンズ制御コンピュータ106とで通信を実行し、その応答の有無によって判定すれば良い。即ち、レンズ制御コンピュータ106からの応答が所定時間なければ、レンズユニット100が装着されていないと判定する。   In step S <b> 201, the system controller 204 determines whether or not the lens unit 100 is attached to the camera body 200. Here, whether or not the lens unit 100 is attached may be determined by, for example, performing communication between the system controller 204 and the lens control computer 106 and the presence or absence of a response. That is, if there is no response from the lens control computer 106 for a predetermined time, it is determined that the lens unit 100 is not attached.

ステップS201の判定において、レンズユニット100が装着されていない場合には、処理をステップS202に移行し、システムコントローラ204は、例えば液晶モニタ212やコントロールパネル501等にレンズユニット100が未装着である旨を表示させる。これにより、使用者にレンズユニット100が未装着であることを認識させる。   If it is determined in step S201 that the lens unit 100 is not attached, the process proceeds to step S202, and the system controller 204 indicates that the lens unit 100 is not attached to, for example, the liquid crystal monitor 212 or the control panel 501. Is displayed. This allows the user to recognize that the lens unit 100 is not attached.

一方、ステップS201の判定において、レンズユニット100が装着されている場合には処理をステップS203に移行する。そして、システムコントローラ204は、レンズ制御コンピュータ106と通信を行い、レンズユニット100内部のFlashRom107に格納されている、レンズの種別、焦点距離、ぶれ補正用データ等のレンズデータを取得する。この際には、例えばシステムコントローラ204は、レンズ制御コンピュータ106に対してレンズデータの送信を要求する。これを受けてレンズ制御コンピュータ106は、FlashRom107の所定アドレスに記憶されているレンズデータを読み出して、システムコントローラ204に送信する。   On the other hand, if it is determined in step S201 that the lens unit 100 is attached, the process proceeds to step S203. The system controller 204 communicates with the lens control computer 106 to acquire lens data such as the lens type, focal length, and blur correction data stored in the flash ROM 107 in the lens unit 100. At this time, for example, the system controller 204 requests the lens control computer 106 to transmit lens data. In response to this, the lens control computer 106 reads out lens data stored at a predetermined address of the FlashRom 107 and transmits it to the system controller 204.

ここで、レンズ種別データは、レンズユニット100が、第1の実施形態におけるカメラボディ200におけるぶれ補正機能に対応し、かつ後述するぶれ補正用データを有するレンズユニット(以下、「ぶれ補正対応のレンズユニット」という)であるか否かを識別するための情報を少なくとも有しているものである。   Here, the lens type data indicates that the lens unit 100 corresponds to the camera shake correction function in the camera body 200 in the first embodiment and has camera shake correction data (hereinafter referred to as “camera shake correction compatible lens”). At least information for identifying whether or not it is a “unit”.

ステップS203において、レンズユニット100のレンズデータを取得すると、処理をステップS204に移行する。そして、システムコントローラ204は、レンズユニット100がぶれ補正対応のレンズユニットであるか否かを判定する。この判定は、レンズ種別データから行っても良いし、レンズデータの中にぶれ補正用データがあるか否かから判定するようにしても良い。   When the lens data of the lens unit 100 is acquired in step S203, the process proceeds to step S204. Then, the system controller 204 determines whether or not the lens unit 100 is a lens unit that supports shake correction. This determination may be performed based on the lens type data, or may be determined based on whether there is blur correction data in the lens data.

ステップS204の判定において、レンズユニット100がぶれ補正対応のレンズユニットでない場合には、処理をステップS206に移行して、システムコントローラ204は、例えば警告手段としてのコントロールパネル501にレンズユニット100がぶれ補正用データを有しておらず、第1の実施形態のぶれ補正機能が正しく機能しない可能性があることを警告するメッセージを表示させる。   If it is determined in step S204 that the lens unit 100 is not a shake correction compatible lens unit, the process proceeds to step S206, and the system controller 204 corrects the shake of the lens unit 100 on, for example, a control panel 501 serving as a warning unit. The message for warning that there is a possibility that the shake correction function of the first embodiment may not function correctly is displayed.

図3は、ステップS206の警告メッセージ601をコントロールパネル501に表示した場合の例を示す図である。図3に示すコントロールパネル501は、例えばカメラボディ200の上面に外部表示LCDとして配置されている。このコントロールパネル501の画面左上には、測光モード表示602、AFモード表示603、画質モード表示604、シャッタスピード表示605、絞り値表示606、電池残量表示607、撮影可能枚数表示608、カラースペース設定表示609、連写設定表示610などが表示されている。ここで、警告メッセージ601は警告としての意味を持たせるために、例えば点滅表示などさせることが好ましい。   FIG. 3 is a diagram illustrating an example when the warning message 601 in step S206 is displayed on the control panel 501. A control panel 501 shown in FIG. 3 is disposed on the upper surface of the camera body 200 as an external display LCD, for example. On the upper left of the screen of the control panel 501, a metering mode display 602, an AF mode display 603, an image quality mode display 604, a shutter speed display 605, an aperture value display 606, a battery remaining amount display 607, a shootable number display 608, and a color space setting A display 609, a continuous shooting setting display 610, and the like are displayed. Here, the warning message 601 is preferably displayed in a blinking manner, for example, in order to have a meaning as a warning.

ステップS206において、警告メッセージを表示させた後、システムコントローラ204は、処理をステップS207に移行する。そして、ステップS207においてFlashRom216の所定アドレスに格納されている防振データフラグを“0”にリセットして処理を終了する。   In step S206, after displaying the warning message, the system controller 204 proceeds to step S207. In step S207, the image stabilization data flag stored in the predetermined address of the FlashRom 216 is reset to “0”, and the process ends.

一方、ステップS204の判定において、レンズユニット100がぶれ補正対応のレンズユニットである場合には、処理をステップS205に移行する。そして、ステップS205においてシステムコントローラ204は、防振データフラグを“1”にセットして処理を終了する。   On the other hand, if it is determined in step S204 that the lens unit 100 is a lens unit that supports blur correction, the process proceeds to step S205. In step S205, the system controller 204 sets the image stabilization data flag to “1” and ends the process.

図4及び図5は、本発明の第1の実施形態における撮影処理の流れについて示すフローチャートである。カメラ操作スイッチ群213が操作されると、例えば割り込み信号がシステムコントローラ204に入力され、この割り込み入力信号に応じてシステムコントローラ204が備えるMPUがFlashRom216内の所定アドレスに記憶されている撮影処理のプログラムを実行し、撮影処理が開始される。   4 and 5 are flowcharts showing the flow of the photographing process in the first embodiment of the present invention. When the camera operation switch group 213 is operated, for example, an interrupt signal is input to the system controller 204, and an MPU included in the system controller 204 is stored at a predetermined address in the FlashRom 216 in response to the interrupt input signal. Is executed to start the photographing process.

なお、以下に説明する処理は、レンズ制御コンピュータ106及びシステムコントローラ204のそれぞれに備わるMPUがそれぞれ所定のプログラムに記載された命令を実行することによって実現されるが、説明を簡単にするためにレンズ制御コンピュータ106及びシステムコントローラ204を主体として説明を行う。   Note that the processing described below is realized by the MPUs provided in the lens control computer 106 and the system controller 204 executing instructions described in predetermined programs, respectively. The description will be made with the control computer 106 and the system controller 204 as main components.

撮影処理が開始されると、ステップS301においてシステムコントローラ204は、1stレリーズスイッチがオン状態となったか否かを判定する。1stレリーズスイッチがオン状態でない、即ちオフ状態の場合には、1stレリーズスイッチがオン状態となるまでステップS301の判定を繰り返す。   When the photographing process is started, in step S301, the system controller 204 determines whether or not the first release switch has been turned on. When the 1st release switch is not in the on state, that is, in the off state, the determination in step S301 is repeated until the 1st release switch is in the on state.

一方、ステップS301の判定において、1stレリーズスイッチがオン状態となった場合に、システムコントローラ204は処理をステップS302に移行する。ステップS302において、システムコントローラ204は、AF回路210の出力値からデフォーカス量を算出する。また、測光回路211の出力値から絞り値及びシャッタスピードを算出する。デフォーカス量等の算出が完了すると、システムコントローラ204は、処理をステップS303に移行する。ステップS303においてシステムコントローラ204は、ステップS302で算出したデフォーカス量をレンズユニット100内のレンズ制御コンピュータ106に通信する。これを受けてレンズ制御コンピュータ106は、ステップS401においてデフォーカス量を取得する。その後、処理をステップS402に移行する。ステップS402において、レンズ制御コンピュータ106は、取得したデフォーカス量に応じてアクチュエータ駆動回路104を駆動して焦点レンズ101aの位置を調整する。   On the other hand, when the first release switch is turned on in the determination in step S301, the system controller 204 shifts the processing to step S302. In step S <b> 302, the system controller 204 calculates a defocus amount from the output value of the AF circuit 210. Further, the aperture value and the shutter speed are calculated from the output value of the photometry circuit 211. When the calculation of the defocus amount and the like is completed, the system controller 204 moves the process to step S303. In step S <b> 303, the system controller 204 communicates the defocus amount calculated in step S <b> 302 to the lens control computer 106 in the lens unit 100. In response to this, the lens control computer 106 acquires the defocus amount in step S401. Thereafter, the process proceeds to step S402. In step S402, the lens control computer 106 adjusts the position of the focus lens 101a by driving the actuator drive circuit 104 according to the acquired defocus amount.

ステップS303において、デフォーカス量の送信が完了すると、システムコントローラ204は、処理をステップS304に移行する。そして、システムコントローラ204は、ステップS304において、2ndレリーズスイッチがオン状態となったか否かを判定する。ステップS304の判定において、2ndレリーズスイッチがオン状態でない、即ちオフ状態の場合には、2ndレリーズスイッチがオン状態となるまでステップS304の判定を繰り返す。   In step S303, when the transmission of the defocus amount is completed, the system controller 204 proceeds to step S304. In step S304, the system controller 204 determines whether the 2nd release switch is turned on. If it is determined in step S304 that the 2nd release switch is not in the on state, that is, in the off state, the determination in step S304 is repeated until the 2nd release switch is in the on state.

一方、ステップS304の判定において、2ndレリーズスイッチがオン状態となった場合には、システムコントローラ204は、処理をステップS305に移行する。そして、システムコントローラ204は、レンズユニット100内のズームエンコーダ103によって検出される位置情報の取得要求をレンズユニット100内のレンズ制御コンピュータ106に送る。これを受けてレンズ制御コンピュータ106は、ズームエンコーダ103からの位置情報をシステムコントローラ204に送信する。これを受けてシステムコントローラ204は、ズームエンコーダ103からの位置情報を取得し、取得した位置情報をFlashRom216に格納する。   On the other hand, if it is determined in step S304 that the 2nd release switch is turned on, the system controller 204 proceeds to step S305. Then, the system controller 204 sends a position information acquisition request detected by the zoom encoder 103 in the lens unit 100 to the lens control computer 106 in the lens unit 100. In response to this, the lens control computer 106 transmits the position information from the zoom encoder 103 to the system controller 204. In response to this, the system controller 204 acquires the position information from the zoom encoder 103 and stores the acquired position information in the FlashRom 216.

ステップS305において、ズームエンコーダ103で検出された位置情報を取得すると、システムコントローラ204は、処理をステップS306に移行する。そして、ステップS302において算出した絞り値をレンズ制御コンピュータ106に送信する。これを受けてレンズ制御コンピュータ106は、ステップS404において、システムコントローラ204から送信された絞り値を取得し、処理をステップS405に移行する。そして、ステップS405において、取得した絞り値に応じてアクチュエータ駆動回路104を駆動させて絞り101bを調整する。次に、レンズ制御コンピュータ106は、処理をステップS406に移行して、カメラボディ200のシステムコントローラ204から露光終了信号を受信したか否かを判定する。この判定は、露光終了信号を受信するまで繰り返す。   In step S305, when the position information detected by the zoom encoder 103 is acquired, the system controller 204 proceeds to step S306. Then, the aperture value calculated in step S302 is transmitted to the lens control computer 106. In response to this, the lens control computer 106 acquires the aperture value transmitted from the system controller 204 in step S404, and proceeds to step S405. In step S405, the actuator drive circuit 104 is driven according to the acquired aperture value to adjust the aperture 101b. Next, the lens control computer 106 shifts the processing to step S406 and determines whether or not an exposure end signal has been received from the system controller 204 of the camera body 200. This determination is repeated until an exposure end signal is received.

また、ステップS306においてレンズ制御コンピュータ106への絞り値の送信が完了すると、システムコントローラ204は、処理をステップS307に移行する。そして、ステップS307において、システムコントローラ204は、ミラー駆動機構205を駆動させて、入射光が撮像素子202に入射するようにクイックリターンミラー201aをレンズユニット100内の撮影レンズの光軸上から退避させるミラーアップ動作を行う。   When the transmission of the aperture value to the lens control computer 106 is completed in step S306, the system controller 204 moves the process to step S307. In step S <b> 307, the system controller 204 drives the mirror driving mechanism 205 to retract the quick return mirror 201 a from the optical axis of the photographing lens in the lens unit 100 so that incident light enters the image sensor 202. Mirror up operation is performed.

ステップS307においてミラーアップ動作が完了すると、システムコントローラ204は、処理をステップS308に移行する。そして、ボディ防振スイッチがオン状態であるか否かを判定する。ステップS308の判定において、ボディ防振スイッチがオン状態でない場合には処理をステップS309に移行する。ステップS309において、システムコントローラ204は防振フラグの値を“0”にリセットして、処理をステップS312に移行する。一方、ステップS308の判定において、ボディ防振スイッチがオン状態である場合には処理をステップS310に移行する。ステップS310において、システムコントローラ204は防振フラグの値を“1”にセットし、処理をステップS311に移行する。ステップS311においてシステムコントローラ204は、詳細は後述する防振準備処理を行う。その後、処理をステップS312に移行する。   When the mirror up operation is completed in step S307, the system controller 204 proceeds to step S308. Then, it is determined whether or not the body vibration isolation switch is in an on state. If it is determined in step S308 that the body anti-shake switch is not on, the process proceeds to step S309. In step S309, the system controller 204 resets the value of the image stabilization flag to “0”, and the process proceeds to step S312. On the other hand, if it is determined in step S308 that the body anti-shake switch is on, the process proceeds to step S310. In step S310, the system controller 204 sets the value of the image stabilization flag to “1”, and the process proceeds to step S311. In step S311, the system controller 204 performs anti-vibration preparation processing described in detail later. Thereafter, the process proceeds to step S312.

ステップS312において、システムコントローラ204は、シャッタチャージ機構206を駆動させてシャッタ201dを開き、露光動作を開始する。次に、システムコントローラ204は、処理をステップS313に移行して防振フラグの値が“1”であるか否かを判定する。ステップS313の判定において、防振フラグの値が1でなければシステムコントローラ204は処理をステップS315に移行する。一方、ステップS313の判定において、防振フラグの値が1であれば処理をステップS314に移行して詳細は後述する防振制御処理を行う。その後、処理をステップS315に移行する。   In step S312, the system controller 204 drives the shutter charge mechanism 206 to open the shutter 201d, and starts an exposure operation. Next, the system controller 204 moves the process to step S313, and determines whether or not the value of the image stabilization flag is “1”. If it is determined in step S313 that the value of the image stabilization flag is not 1, the system controller 204 proceeds to step S315. On the other hand, if it is determined in step S313 that the value of the image stabilization flag is 1, the process proceeds to step S314, and an image stabilization control process described later in detail is performed. Thereafter, the process proceeds to step S315.

ステップS315において、システムコントローラ204は、露光時間が所定の露光時間経過したか否かを判定する。ステップS315の判定において、露光時間が所定の露光時間経過していない場合には処理をステップS313に移行する。   In step S315, the system controller 204 determines whether a predetermined exposure time has elapsed. If it is determined in step S315 that the exposure time has not elapsed, the process proceeds to step S313.

一方、ステップS315の判定において、露光時間が所定の露光時間経過した場合には処理をステップS316に移行して、システムコントローラ204は、シャッタチャージ機構206を駆動させてシャッタ201dを閉じ、露光動作を終了する。次に、処理をステップS317に移行してレンズユニット100のレンズ制御コンピュータ106に露光動作の終了を通知するための露光終了信号を送信する。これを受けてレンズ制御コンピュータ106は、処理をステップS406からステップS407に移行する。そして、ステップS407においてレンズ制御コンピュータ106は、アクチュエータ駆動回路104を駆動して絞り101bを開放し、処理を終了する。   On the other hand, if it is determined in step S315 that the exposure time has elapsed, the process proceeds to step S316, the system controller 204 drives the shutter charge mechanism 206 to close the shutter 201d, and performs the exposure operation. finish. Next, the process proceeds to step S317, and an exposure end signal for notifying the end of the exposure operation is transmitted to the lens control computer 106 of the lens unit 100. In response to this, the lens control computer 106 shifts the processing from step S406 to step S407. In step S407, the lens control computer 106 drives the actuator drive circuit 104 to open the diaphragm 101b, and the process ends.

また、システムコントローラ204は、ステップS317の処理の後、処理をステップS318に移行する。ステップS318においてシステムコントローラ204は、防振フラグの値が“1”であるか否かを判定する。ステップS318の判定において防振フラグの値が1でない場合には、処理をステップS320に移行する。一方、ステップS318の判定において防振フラグの値が1である場合には、処理をステップS319に移行して撮像素子202を予め定められた原点位置(例えば、撮像面の中心がレンズユニット100の撮影レンズの光軸と一致する位置)に復帰させ、その後、処理をステップS320に移行する。   Further, the system controller 204 moves the process to step S318 after the process of step S317. In step S318, the system controller 204 determines whether or not the value of the image stabilization flag is “1”. If the value of the image stabilization flag is not 1 in the determination in step S318, the process proceeds to step S320. On the other hand, if the value of the image stabilization flag is 1 in the determination in step S318, the process proceeds to step S319, and the image sensor 202 is set to a predetermined origin position (for example, the center of the imaging surface is the center of the lens unit 100). Then, the process proceeds to step S320.

ステップS320において、システムコントローラ204は、ミラー駆動機構205を駆動させて、クイックリターンミラー201aをレンズユニット100の撮影レンズの光軸上の位置に戻すミラーダウン動作を行う。ミラーダウン動作が完了すると、システムコントローラ204は、処理をステップS321に移行する。ステップS321においてシステムコントローラ204は、撮像素子202から撮像素子IF回路203を介して電気信号を読み出して画像データを生成し、生成した画像データを圧縮して記録メディア214に記録させる。これにより撮影処理が終了する。   In step S320, the system controller 204 performs a mirror-down operation that drives the mirror drive mechanism 205 to return the quick return mirror 201a to the position on the optical axis of the photographing lens of the lens unit 100. When the mirror down operation is completed, the system controller 204 proceeds to step S321. In step S321, the system controller 204 reads out an electrical signal from the image sensor 202 via the image sensor IF circuit 203, generates image data, compresses the generated image data, and records it on the recording medium 214. Thereby, the photographing process is completed.

図6は、図4のステップS311における防振準備処理の詳細を示すフローチャートである。
防振準備処理が開始されると、システムコントローラ204は、ステップS501で防振データフラグが“1”であるか否かを判定する。ステップS501の判定において、防振データフラグが1であれば、処理をステップS502に移行して撮像素子202のぶれ補正量を演算するためのぶれ補正係数kを演算する。その後、処理をステップS503に移行して、システムコントローラ204は、撮像素子202の原点位置からの移動量の許容最大値である補正限界値Δhを演算する。一方、ステップS501の判定において、防振データフラグが1でなければ、処理をステップS510に移行して、システムコントローラ204は、ぶれ補正係数kを近似演算をする。その後、処理をステップS511に移行して、システムコントローラ204は、補正限界値Δhを既定値Δh0に設定する。これらぶれ補正係数及び補正限界値の演算内容についての詳細は後述する。
FIG. 6 is a flowchart showing details of the image stabilization preparation process in step S311 of FIG.
When the image stabilization preparation process is started, the system controller 204 determines whether or not the image stabilization data flag is “1” in step S501. If it is determined in step S501 that the image stabilization data flag is 1, the process proceeds to step S502, and a shake correction coefficient k for calculating the shake correction amount of the image sensor 202 is calculated. Thereafter, the process proceeds to step S503, and the system controller 204 calculates a correction limit value Δh that is an allowable maximum value of the movement amount of the image sensor 202 from the origin position. On the other hand, if it is determined in step S501 that the image stabilization data flag is not 1, the process proceeds to step S510, and the system controller 204 approximates the shake correction coefficient k. Thereafter, the process proceeds to step S511, and the system controller 204 sets the correction limit value Δh to a predetermined value Δh0. Details of the calculation contents of the blur correction coefficient and the correction limit value will be described later.

ぶれ補正係数k及び補正限界値Δhが演算された後、処理をステップS504に移行する。ステップS504において、システムコントローラ204は、撮像素子202の現在位置を示す変数x0、y0の値をそれぞれ0にする。続くステップS505において、システムコントローラ204は、補正目標位置を示す変数x、yの値をそれぞれ0にする。その後、ステップS506で変数t0、tの値をそれぞれ0とする。続くステップS507においてシステムコントローラ204内のMPU内のタイマにより上記変数tの時間のカウントを開始する。その後処理を終了する。   After the shake correction coefficient k and the correction limit value Δh are calculated, the process proceeds to step S504. In step S504, the system controller 204 sets the values of variables x0 and y0 indicating the current position of the image sensor 202 to 0, respectively. In subsequent step S505, the system controller 204 sets the values of variables x and y indicating the correction target position to 0, respectively. Thereafter, the values of the variables t0 and t are set to 0 in step S506. In subsequent step S507, the timer in the MPU in the system controller 204 starts counting the time of the variable t. Thereafter, the process ends.

図7は、図5のステップS314の防振制御処理の詳細を示すフローチャートである。
防振制御処理が開始されると、まずステップS601においてシステムコントローラ204は、角速度センサ209から角速度ωx、ωyを読み込む。ここで、ωxはレンズユニット100内部の撮影レンズの光軸の水平方向のぶれの角速度を示し、ωyは垂直方向のぶれの角速度を示す。図8に、レンズユニット100内部の撮影レンズ(上述したように焦点レンズ101a及び変倍レンズ101c等から構成されている)701と撮像素子202との関係を示す。撮影レンズ701の光軸702の水平方向のぶれは図8に示すx軸方向のぶれであり、垂直方向のぶれは図8に示すy軸方向のぶれである。
FIG. 7 is a flowchart showing details of the image stabilization control process in step S314 of FIG.
When the image stabilization control process is started, first, in step S601, the system controller 204 reads angular velocities ωx and ωy from the angular velocity sensor 209. Here, ωx represents the angular velocity of the blur in the horizontal direction of the optical axis of the photographing lens inside the lens unit 100, and ωy represents the angular velocity of the blur in the vertical direction. FIG. 8 shows the relationship between the imaging lens 701 (consisting of the focus lens 101a and the variable magnification lens 101c as described above) 701 inside the lens unit 100 and the imaging element 202. The horizontal blur of the optical axis 702 of the photographing lens 701 is the blur in the x-axis direction shown in FIG. 8, and the blur in the vertical direction is the blur in the y-axis direction shown in FIG.

また、図8には撮影レンズ701によって被写体像を形成可能な範囲(イメージサークル)を参照符号703で示している。このイメージサークル703の範囲内で撮像素子202の撮像面202aをシフトさせてぶれ補正を行う限りにおいては良好な画像が得られる。一方、撮影レンズ701を通過した光が撮像面202aに入射する際には、像高h(撮像面202上での光軸中心から結像位置までの距離)に応じてその光量が低下するため、ぶれ補正を行う際には、この光量の低下を考慮してぶれ補正量を制限することが好ましい。そこで、第1の実施形態では以下のようにしてぶれの補正を行う。   In FIG. 8, a range (image circle) in which a subject image can be formed by the photographing lens 701 is indicated by reference numeral 703. As long as blur correction is performed by shifting the imaging surface 202a of the imaging element 202 within the range of the image circle 703, a good image can be obtained. On the other hand, when the light passing through the photographing lens 701 enters the imaging surface 202a, the amount of light decreases according to the image height h (the distance from the optical axis center to the imaging position on the imaging surface 202). When performing blur correction, it is preferable to limit the blur correction amount in consideration of the decrease in the light amount. Therefore, in the first embodiment, blur correction is performed as follows.

ステップS601において角速度ωx、ωyを読み込んだ後、システムコントローラ204は、ステップS602において、撮影レンズの光軸の角度ぶれに対応する撮像素子202の撮像面202a上での水平方向の補正目標位置x及び垂直方向の補正目標位置yをそれぞれ以下のように演算する。   After reading the angular velocities ωx and ωy in step S601, the system controller 204 in step S602, the horizontal correction target position x and the horizontal correction target position x on the imaging surface 202a of the imaging element 202 corresponding to the angular blur of the optical axis of the imaging lens. The correction target position y in the vertical direction is calculated as follows.

x→x0+k・ωx(t−t0) (1)
y→y0+k・ωy(t−t0) (2)
ここで、上記式(1)及び(2)は、後述する撮影レンズの角度ぶれによる像ぶれを補正するための撮像素子202のシフト補正量から、ぶれ補正するために必要な撮像素子202の移動位置を求める式となっている。
x → x0 + k · ωx (t−t0) (1)
y → y0 + k · ωy (t−t0) (2)
Here, the above formulas (1) and (2) are based on the shift correction amount of the image sensor 202 for correcting the image blur due to the angle blur of the photographic lens described later, and the movement of the image sensor 202 necessary for the blur correction. This is a formula for obtaining the position.

補正目標位置を演算した後、ステップS603において、システムコントローラ204は、t0の値をその時点でのタイマ値tの値にする。続くステップS604において、補正目標位置x、yが補正限界値Δh以内にあるか否かを、次式が真であるか否かで判定する。   After calculating the corrected target position, in step S603, the system controller 204 sets the value of t0 to the value of the timer value t at that time. In a succeeding step S604, it is determined whether or not the correction target positions x and y are within the correction limit value Δh based on whether or not the following expression is true.

√(x+y)>Δh (3)
ステップS604の判定において、上記式(3)が真であれば、補正目標位置が補正限界値を超えているのでぶれ補正を行わずに処理を終了する。一方、ステップS604の判定において、上記式(3)が真でなければ処理をステップS605に移行して、システムコントローラ204は、撮像素子変位機構207により撮像素子202の位置を補正目標位置x、yに移動させる。その後ステップS606においてx0、y0の値をそれぞれx、yの値とし、処理を終了する。
√ (x 2 + y 2 )> Δh (3)
If the above expression (3) is true in the determination of step S604, the correction target position exceeds the correction limit value, so the process is terminated without performing the shake correction. On the other hand, if the above expression (3) is not true in the determination in step S604, the process proceeds to step S605, and the system controller 204 uses the image sensor displacement mechanism 207 to change the position of the image sensor 202 to the corrected target position x, y. Move to. Thereafter, in step S606, the values of x0 and y0 are set to x and y, respectively, and the process ends.

図9は、撮影レンズの光軸の角度ぶれ量と像ぶれを補正するための撮像素子202のシフト補正量との関係を示す光路概念図である。この図9を参照して、撮影レンズの光軸の角度ぶれ量とそれによる像ぶれを補正するために必要な撮像素子202のシフト補正量の関係について説明する。   FIG. 9 is an optical path conceptual diagram showing the relationship between the amount of angular blur of the optical axis of the photographic lens and the amount of shift correction of the image sensor 202 for correcting image blur. With reference to FIG. 9, the relationship between the amount of angular blur of the optical axis of the photographing lens and the amount of shift correction of the image sensor 202 necessary for correcting the resulting image blur will be described.

図9に示す撮影レンズの光軸Oo−Oiが点Cを中心にθ[rad]傾いたとき、傾く前に光軸上にある被写体の点Ooを再び撮像素子202の結像面中心Oi(θ回転後には移動して位置Oi’となる)に結像させるために必要な撮像素子202のシフト量Iθがぶれ補正に必要なシフト補正量である。ここで、被写体Ooは被写体距離Lだけ離れた位置にある結像面Oiに結像しているものとすると、結像理論(近軸理論)より、
1/a+1/b=1/f (4)
となる。ここで、fは撮影レンズの焦点距離であり、aは被写体Ooから撮影レンズの前側主点Hまでの距離(物体距離)であり、bは撮影レンズの後側主点H’から結像面Oiまでの距離(像距離)である。
When the optical axis Oo-Oi of the photographic lens shown in FIG. 9 is tilted by θ [rad] around the point C, the point Oo of the subject on the optical axis before tilting is again set as the imaging plane center Oi ( after theta rotation is the shift amount of correction needed to shift I theta is blurring correction of the imaging device 202 necessary for imaging to become) position Oi 'moves. Here, assuming that the subject Oo is imaged on the imaging plane Oi at a position separated by the subject distance L, from the imaging theory (paraxial theory),
1 / a + 1 / b = 1 / f (4)
It becomes. Here, f is the focal length of the photographing lens, a is the distance (object distance) from the subject Oo to the front principal point H of the photographing lens, and b is the imaging plane from the rear principal point H ′ of the photographing lens. This is the distance (image distance) to Oi.

また、図9に示すように被写体距離Lは、
L=a+Δ+b (5)
である。ここで、Δは主点間隔(撮影レンズの前側主点Hから後側主点H’までの距離)である。更に、露光中の光軸のぶれによる傾き角θは十分小さく、
tanθ≒θ (6)
とみなせるものとする。
Also, as shown in FIG. 9, the subject distance L is
L = a + Δ + b (5)
It is. Here, Δ is a principal point interval (a distance from the front principal point H to the rear principal point H ′ of the photographing lens). Furthermore, the tilt angle θ due to the shake of the optical axis during exposure is sufficiently small,
tan θ≈θ (6)
Can be considered.

この場合、撮影レンズの前側主点H及び後側主点H’の、ぶれ角度θによる光軸に垂直な方向に対する移動量S及びSH’はそれぞれ、
=(b−d+Δ)θ (7)
H’=(b−d)θ (8)
となる。ここで、dは光軸の回転中心Cから結像面中心Oiまでの距離(回転中心距離)である。
In this case, the front principal point H and a rear principal point H of the imaging lens 'of the movement amount S H and S H with respect to the direction perpendicular to the optical axis by the vibration angle theta', respectively,
S H = (b−d + Δ) θ (7)
S H ′ = (b−d) θ (8)
It becomes. Here, d is a distance (rotation center distance) from the rotation center C of the optical axis to the imaging plane center Oi.

光軸がθだけ回転した後に被写体Ooを結像面中心Oiに結像させるためには、Ooから回転後の前側主点Hに向かう光線(θ傾いた撮影レンズの光軸となす角度θ)が結像する位置(回転後の結像面中心位置Oi’から距離Iθの位置)に撮像素子202の結像面中心をシフトさせてやればよい。このシフト量Iθはθが分かれば求めることができる。つまり、図9においてθとSとには、
=a(θ−θ) (9)
の関係がある。この式(9)と先の式(7)との関係より、
(b−d+Δ)θ=a(θ−θ) (10)
となる。この式(10)よりθは、
θ=(a+b+Δ−d)/a・θ={1+(Δ+b−d)/a}θ (11)
となる。ここで、被写体から前側主点Hへ向かう光線は、後側主点H’から結像面へ向かって光軸と角度θをなすから、撮像素子202に必要なシフト量(ぶれ補正量)Iθは、
θ=d・θ+SH’+b(θ−θ)
=d・θ+(b−d)θ+b{1+(Δ+b−d)/a}θ−b・θ
={b+b(Δ+b−d)/a}θ
=b{1+(Δ+b−d)/a}θ (12)
となる。特に、d=0(撮像素子202の結像面中心の回転ぶれ)の場合は、
θ=b{1+(Δ+b)/a}θ (13)
となる。ここで、式(6)においてtanθをθに近似して以後の計算を行っているが、この近似を行わずに計算を行っても良いことは言うまでもない。
In order to form an image of the subject Oo on the imaging plane center Oi after the optical axis has been rotated by θ, a light beam traveling from Oo to the front principal point H after rotation (the angle θ s formed with the optical axis of the tilted photographic lens) ) may do it shifts the imaging plane center of the imaging device 202 in a position for imaging (position from image plane center position after rotation Oi 'distance I theta). The shift I theta can be determined knowing the theta s. That is, the theta s and S H 9,
S H = a (θ s −θ) (9)
There is a relationship. From the relationship between this equation (9) and the previous equation (7),
(B−d + Δ) θ = a (θ s −θ) (10)
It becomes. From this equation (10), θ s is
θ s = (a + b + Δ−d) / a · θ = {1+ (Δ + b−d) / a} θ (11)
It becomes. Here, since the light ray traveling from the subject toward the front principal point H forms an angle θ s with the optical axis from the rear principal point H ′ toward the image formation plane, the shift amount (blurring correction amount) necessary for the image sensor 202. I θ is
I θ = d · θ + SH + b (θ s −θ)
= D · θ + (b−d) θ + b {1+ (Δ + b−d) / a} θ−b · θ
= {B + b (Δ + b−d) / a} θ
= B {1+ (Δ + b−d) / a} θ (12)
It becomes. In particular, when d = 0 (rotational blurring of the center of the imaging surface of the image sensor 202),
I θ = b {1+ (Δ + b) / a} θ (13)
It becomes. Here, in the equation (6), tan θ is approximated to θ and the subsequent calculation is performed. However, it goes without saying that the calculation may be performed without performing this approximation.

なお、角速度センサでは角速度を検出するので、角速度を積分したぶれ角度θは検出できるが、式(12)の回転中心距離dは求められないので、dの値はカメラの形態などを考慮して、発生する角度ぶれについて実験的に妥当な値、例えばd=0とみなして角度ぶれの補正を計算する。あるいは、加速度センサなどを付加して光軸の回転以外に平行移動のぶれを検出して回転中心距離dを求めて計算してもよい。第1の実施形態では簡単のために、以降、d=0として説明を続ける。このように、ぶれ動作に起因する回転中心距離dを除けば、角度ぶれを打ち消すための補正量を求めるには、撮影レンズの像距離b、主点間隔Δ、撮影レンズの物体距離aについてのデータが必要になることが分かる。一般に像距離bは焦点レンズ101aの繰り出しにより変化するため、焦点レンズ101aの繰り出し量に応じた関数として求める必要がある。また物体距離aは式(4)から次のように求めることができる。
a=f・b/(b−f) (14)
次に、レンズユニット100のFlashRom107に格納されるぶれ補正用データについて説明する。図10は、第1の実施形態におけるぶれ補正用データの配置図である。ここで、ぶれ補正用データとは、ぶれ補正の際の種々の値を求めるために必要なデータである。第1の実施形態では、ぶれ補正用データとしてイメージサークル径に係るデータと撮像素子202のぶれ補正量を演算するためのデータとを含む。なお、図10においては、係数k1、k2、k3及び主点間隔Δがぶれ補正量を演算するためのデータであり、周辺光量低下値ΔE1、ΔE2、ΔE3がイメージサークル径に係るデータである。
Note that since the angular velocity sensor detects the angular velocity, the blur angle θ obtained by integrating the angular velocity can be detected. However, since the rotation center distance d in Expression (12) cannot be obtained, the value of d takes into consideration the form of the camera and the like. The angle blur correction is calculated assuming that the generated angle blur is an experimentally valid value, for example, d = 0. Alternatively, an acceleration sensor or the like may be added to detect translational movement other than the rotation of the optical axis, and calculate and calculate the rotation center distance d. In the first embodiment, for the sake of simplicity, the description will be continued with d = 0. As described above, in order to obtain the correction amount for canceling the angular blur except for the rotation center distance d caused by the blurring operation, the image distance b of the photographing lens, the principal point interval Δ, and the object distance a of the photographing lens are determined. You can see that you need data. In general, since the image distance b changes with the extension of the focus lens 101a, it must be obtained as a function corresponding to the extension amount of the focus lens 101a. Further, the object distance a can be obtained from the equation (4) as follows.
a = f · b / (b−f) (14)
Next, blur correction data stored in the FlashRom 107 of the lens unit 100 will be described. FIG. 10 is a layout diagram of the blur correction data in the first embodiment. Here, the blur correction data is data necessary for obtaining various values at the time of blur correction. In the first embodiment, data relating to the image circle diameter and data for calculating the blur correction amount of the image sensor 202 are included as blur correction data. In FIG. 10, the coefficients k1, k2, and k3 and the principal point interval Δ are data for calculating the blur correction amount, and the peripheral light amount decrease values ΔE1, ΔE2, and ΔE3 are data related to the image circle diameter.

レンズユニット100内の変倍レンズ101cのズーム位置Zpはズームエンコーダ103によりn分割して検出されるようになっている。FlashRom107内には、このn個のズーム位置Z1からZnに対応したn組のぶれ補正用データが格納されている。図10においては、各ぶれ補正用データに、ズーム位置に対応する番号の添え字をつけて各ズーム位置での値としている。   The zoom position Zp of the variable magnification lens 101 c in the lens unit 100 is detected by dividing it into n by the zoom encoder 103. In the FlashRom 107, n sets of blur correction data corresponding to the n zoom positions Z1 to Zn are stored. In FIG. 10, each blur correction data is given a subscript with a number corresponding to the zoom position to obtain a value at each zoom position.

なお、図2のステップS203におけるレンズデータの取得の際には、図10に示すぶれ補正用データの他、レンズ種別を表すレンズ種別データなどのレンズユニット100内部の撮影レンズに関する撮影準備に必要なデータがすべてシステムコントローラ204に送信される。   When acquiring lens data in step S203 in FIG. 2, in addition to the blur correction data shown in FIG. 10, lens preparation data such as lens type data indicating the lens type is necessary for shooting preparation related to the shooting lens inside the lens unit 100. All data is sent to the system controller 204.

図10に示す係数k1、k2、k3はそれぞれ、各ズーム位置における像距離bを求めるための係数である。これら係数は、焦点レンズ101aの無限遠位置からの繰り出し量dfを用いて、以下の式でbが求められるような係数となっている。
b=f・(k1・df+k2・df+k3) (15)
または、係数k1、k2、k3を、
b=f+k1・df+k2・df+k3 (16)
という計算式に対応する係数としてもよい。
The coefficients k1, k2, and k3 shown in FIG. 10 are coefficients for obtaining the image distance b at each zoom position. These coefficients are such that b can be obtained by the following equation using the amount df of the focal lens 101a from the infinity position.
b = f · (k1 · df 2 + k2 · df + k3) (15)
Or the coefficients k1, k2, k3 are
b = f + k1 · df 2 + k2 · df + k3 (16)
It is good also as a coefficient corresponding to the calculation formula.

ここで、焦点レンズ101aの繰り出しによる像距離の変化の関係がほぼ線形とみなせる場合には、式(15)及び式(16)におけるdfの2次の係数k1を省略してもよい。逆に、繰り出しによる像距離の変化の関係がより複雑である場合には、dfについての3次以上の係数を追加した形式としてもよい。   Here, when the relationship of the change in the image distance due to the extension of the focus lens 101a can be regarded as almost linear, the second-order coefficient k1 of df in the equations (15) and (16) may be omitted. On the contrary, when the relationship of the change in the image distance due to the feeding is more complicated, a form in which a third or higher order coefficient for df is added may be used.

また、係数k1、k2、k3をfによらない関数として、
b=k1・df+k2・df+k3 (17)
という計算式に対応する係数としておいてもよい。
In addition, the coefficients k1, k2, and k3 are functions that do not depend on f.
b = k1 · df 2 + k2 · df + k3 (17)
A coefficient corresponding to the calculation formula may be used.

また、主点間隔Δは、図9を参照して説明した撮影レンズの前側主点から後側主点までの距離である。ここで、図10に示すように、主点間隔Δはズーム位置毎に1つの値としているが、撮影レンズの設計により、焦点レンズ101aの繰り出しによって主点間隔Δが変化する場合には、像距離と同様に、主点間隔Δを繰り出し量dfによる関数とし、その係数をFlashRom107に格納するようにしてもよい。更に、上記式(5)の関係から、主点間隔Δは、物体距離a、像距離b、及び被写体距離Lから求めることができるので、AF回路110において被写体距離Lを測定するようにすれば、主点間隔Δのデータを省略することもできる。   The principal point interval Δ is a distance from the front principal point to the rear principal point of the photographing lens described with reference to FIG. Here, as shown in FIG. 10, the principal point interval Δ is set to one value for each zoom position. However, when the principal point interval Δ changes due to the extension of the focus lens 101a due to the design of the photographing lens, an image is obtained. Similarly to the distance, the principal point interval Δ may be a function of the feed amount df, and the coefficient may be stored in the FlashRom 107. Further, from the relationship of the above formula (5), the principal point interval Δ can be obtained from the object distance a, the image distance b, and the subject distance L. Therefore, if the subject distance L is measured in the AF circuit 110, The data of the principal point interval Δ can be omitted.

また、周辺光量低下値は、撮影レンズの光軸中心における光量に対する周辺の光量の低下値を示す値である。図11に撮影レンズの像高と周辺光量低下値との関係を表す特性図を示す。上述したように、撮影レンズを通過した光は、像高hに応じてその光量が低下する。第1の実施形態では、撮影レンズの光軸中心(像高h=0)における光量に対する周辺の光量低下値ΔEを、所定の像高h1、h2、h3における周辺光量低下値ΔE1、ΔE2、ΔE3としている。ここで、像高h1は撮像素子202の撮像面の対角位置に相当する像高であり、通常撮影において撮影レンズで被写体像を形成可能な範囲を示すイメージサークル703の半径よりも短い値(図8参照)である。また、像高h3は、撮像素子202の撮像面の対角位置の像高h1に、撮像素子変位機構207により変位可能な光軸中心位置からの最大シフト値Δhmを加えた値である。更に、像高h2は像高h1と像高h3の中間の値である。   The peripheral light amount decrease value is a value indicating a decrease value of the peripheral light amount with respect to the light amount at the optical axis center of the photographing lens. FIG. 11 is a characteristic diagram showing the relationship between the image height of the photographing lens and the peripheral light amount reduction value. As described above, the amount of light that has passed through the photographing lens decreases according to the image height h. In the first embodiment, the peripheral light amount decrease value ΔE with respect to the light amount at the optical axis center (image height h = 0) of the photographing lens is set to the peripheral light amount decrease values ΔE1, ΔE2, ΔE3 at predetermined image heights h1, h2, h3. It is said. Here, the image height h1 is an image height corresponding to the diagonal position of the imaging surface of the image sensor 202, and is a value shorter than the radius of the image circle 703 that indicates a range in which a subject image can be formed by the photographing lens in normal shooting ( FIG. 8). The image height h3 is a value obtained by adding the maximum shift value Δhm from the optical axis center position that can be displaced by the image sensor displacement mechanism 207 to the image height h1 at the diagonal position of the imaging surface of the image sensor 202. Further, the image height h2 is an intermediate value between the image height h1 and the image height h3.

ここで、周辺光量低下値ΔE1、ΔE2、及びΔE3に対応する像高h1、h2、h3の値は、上述した値に限るものではなく、カメラの仕様等に応じて適宜決定することができる。また、周辺光量低下値ΔEに対応する像高hの値も対にして、ぶれ補正用データとして持たせても良い。   Here, the values of the image heights h1, h2, and h3 corresponding to the peripheral light amount decrease values ΔE1, ΔE2, and ΔE3 are not limited to the values described above, and can be determined as appropriate according to the specifications of the camera. Further, the image height h value corresponding to the peripheral light amount decrease value ΔE may be paired and provided as blur correction data.

また、図10の例では、周辺光量低下値ΔEは3箇所の像高に対応する値をFlashRom107に格納しているが、これらの途中の像高位置における周辺光量低下値は例えば補間演算によって求めれば良い。また、撮像素子202の最大シフト値が少なければ、FlashRom107に格納する周辺光量低下値ΔEは、例えばΔE1とΔE3の2つとしてもよく、逆に、最大シフト量が多ければ、より多くの像高に対応する周辺光量低下値のデータを格納しておいてもよい。   In the example of FIG. 10, the peripheral light amount decrease value ΔE stores values corresponding to three image heights in the FlashRom 107, but the peripheral light amount decrease value at the intermediate image height position is obtained by, for example, interpolation calculation. It ’s fine. Further, if the maximum shift value of the image sensor 202 is small, the peripheral light amount decrease value ΔE stored in the FlashRom 107 may be two, for example, ΔE1 and ΔE3. Conversely, if the maximum shift amount is large, a larger image height is obtained. The data of the peripheral light amount decrease value corresponding to may be stored.

また、周辺光量低下値ΔEは、焦点レンズ101aの繰り出し量及び絞り103の絞り量によってもある程度変化するが、その変化はそれほど大きくないので、代表的な値(例えば絞り103が開放状態で焦点レンズ101aが無限遠位置にある場合の周辺光量低下値)を持たせておけばよい。あるいは最悪条件での値(例えば最短撮影距離)における周辺光量低下値としておいても良い。   Further, the peripheral light amount decrease value ΔE varies to some extent depending on the amount of extension of the focus lens 101a and the amount of aperture of the aperture 103. However, since the change is not so large, a representative value (for example, the focus lens when the aperture 103 is in an open state). The peripheral light amount decrease value when 101a is at an infinite position may be provided. Alternatively, it may be a peripheral light amount decrease value at a worst-case value (for example, the shortest shooting distance).

なお、予め複数種類のレンズユニット100の特性に対応したぶれ補正用データをカメラボディ200内のFlashRom216に格納しておくようにしても良い。このようにカメラボディ200側にもぶれ補正用データを格納しておけば、レンズユニット100がぶれ補正対応のレンズユニットでなくとも第1の実施形態のぶれ補正を行うことが可能である。   Note that blur correction data corresponding to the characteristics of a plurality of types of lens units 100 may be stored in the FlashRom 216 in the camera body 200 in advance. By storing the blur correction data on the camera body 200 side in this way, it is possible to perform the blur correction of the first embodiment even if the lens unit 100 is not a lens unit that supports blur correction.

次に、図10に示すぶれ補正量を求めるためのデータから、ぶれ補正係数k及びシフト補正量Iθを演算する手法について説明する。 Next, from the data for determining the shake correction amount shown in FIG. 10 will be described technique of calculating a blur correction coefficient k and the shift correction amount I theta.

まず、上記ぶれ補正係数kを、
k=b{1+(Δ+b)/a} (18)
と定義すると、先のぶれ角度θとシフト補正量Iθの関係式(13)から、必要なシフト補正量Iθは、
θ=k・θ (19)
として計算できる。
First, the blur correction coefficient k is
k = b {1+ (Δ + b) / a} (18)
From the relational expression (13) between the blur angle θ and the shift correction amount I θ , the required shift correction amount I θ is
I θ = k · θ (19)
Can be calculated as

実際に図5の防振制御処理のステップS602においては、角速度ωx、ωyと時間差t−t0から、
θx=ωx・(t−t0) (20)
θy=ωy・(t−t0) (21)
の計算により、時間差t−t0の間のx、y各方向におけるぶれ角度を求め、これらぶれ角度にぶれ補正係数kを乗じることにより補正目標位置x、yを演算している。
Actually, in step S602 of the image stabilization control process of FIG. 5, from the angular velocities ωx and ωy and the time difference t−t0,
θx = ωx · (t−t0) (20)
θy = ωy · (t−t0) (21)
Is calculated to obtain the shake angles in the x and y directions during the time difference t−t0, and the shake correction coefficient k is multiplied by these shake angles to calculate the correction target positions x and y.

ここで、式(18)に基づいてkを演算する際には、予め読み取ったレンズデータから、2ndレリーズスイッチがオンされた直後のズームエンコーダ103からの位置情報Zpに対応する焦点距離f、係数k1、k2、k3、及び主点間隔Δの値を図10に示すデータの中から選択し、これらデータと、2ndレリーズスイッチがオンされた時点の焦点レンズ101aのフォーカス繰り出し量dfとから、まず、bを式(15)により求め、次に、b及びfからaを式(14)により計算する。こうして求めたb及びaと、主点間隔Δとから式(18)によりkを求める。   Here, when calculating k based on Expression (18), the focal length f and the coefficient corresponding to the position information Zp from the zoom encoder 103 immediately after the 2nd release switch is turned on from the lens data read in advance. The values of k1, k2, k3 and principal point interval Δ are selected from the data shown in FIG. 10, and from these data and the focus extension amount df of the focus lens 101a at the time when the 2nd release switch is turned on, first, , B is obtained from equation (15), and a is calculated from b and f according to equation (14). K is obtained by the equation (18) from the b and a thus obtained and the principal point interval Δ.

ここで、式(15)の焦点レンズ101aの繰り出し量dfは、AF回路210の出力より、システムコントローラ204で求められたデフォーカス量から求めることができる。つまり、焦点レンズ101aの無限遠位置からの繰り出し量を求めるには、レンズユニット100をカメラボディ200に取り付けたときに焦点レンズ101aの初期位置を無限遠位置にセットし、その初期位置からの繰り出し量をカメラボディ200内のシステムコントローラ204において積算していけばよい。あるいは、レンズユニット100内のレンズ制御コンピュータ106において焦点レンズ101aを繰り出すごとにその繰り出し量をシステムコントローラ204に送信するようにしておき、システムコントローラ204において無限遠位置からの繰り出し量を積算してもよい。   Here, the payout amount df of the focus lens 101 a in Expression (15) can be obtained from the defocus amount obtained by the system controller 204 from the output of the AF circuit 210. That is, in order to obtain the extension amount of the focus lens 101a from the infinity position, the initial position of the focus lens 101a is set to the infinity position when the lens unit 100 is attached to the camera body 200, and the extension from the initial position is performed. The amount may be accumulated in the system controller 204 in the camera body 200. Alternatively, every time the focus lens 101a is extended in the lens control computer 106 in the lens unit 100, the extension amount is transmitted to the system controller 204, and the extension amount from the infinity position is integrated in the system controller 204. Good.

このように第1の実施形態では、撮影レンズの実際の物体距離及び像距離や主点間隔を考慮して撮像素子202のシフト補正量を求めることができる。   As described above, in the first embodiment, the shift correction amount of the image sensor 202 can be obtained in consideration of the actual object distance, image distance, and principal point interval of the photographing lens.

次に、図10に示すイメージサークル径に係るデータから、補正限界値Δhを演算する手法について説明する。ステップS503では、撮影レンズの周辺光量低下値と撮像素子202の特性及びシステムコントローラ204における画像処理の特性との関係を考慮して、補正限界値Δhを演算する。   Next, a method for calculating the correction limit value Δh from the data related to the image circle diameter shown in FIG. 10 will be described. In step S <b> 503, the correction limit value Δh is calculated in consideration of the relationship between the peripheral light amount decrease value of the photographing lens, the characteristics of the image sensor 202, and the image processing characteristics of the system controller 204.

図12は、撮像素子202の特性及びシステムコントローラ204における画像処理の特性による像面露光量Hと記録画像輝度値Yとの関係を示す図である。ここで、像面露光量Hは撮像素子202からの出力値(輝度値)の対数値を示し、記録画像輝度値Yはシステムコントローラ204における画像処理(階調変換処理)後の画像データの輝度値を示す。   FIG. 12 is a diagram showing the relationship between the image plane exposure amount H and the recorded image luminance value Y based on the characteristics of the image sensor 202 and the characteristics of image processing in the system controller 204. Here, the image surface exposure amount H indicates a logarithmic value of the output value (luminance value) from the image sensor 202, and the recorded image luminance value Y indicates the luminance of the image data after image processing (gradation conversion processing) in the system controller 204. Indicates the value.

例えば、像面露光量Hと記録画像輝度値Yとの関係が特性Bで示される線図で表されるとき、基準露光量Hに対する基準記録画像輝度値Yに対して、記録画像の周辺光量の低下値として画像観賞上許容される限界値がΔY(例えば−2EV相当)であるとすると、この限界値ΔYの低下に対応する像面露光量の低下量はΔHb(例えば、−2EV相当)となる。 For example, when the relationship between the image surface exposure amount H and the recorded image luminance value Y is represented by a diagram indicated by the characteristic B, the recorded image has a reference image luminance value Y s with respect to the reference exposure amount H s . Assuming that the limit value allowed for image viewing as the decrease value of the peripheral light amount is ΔY (equivalent to −2 EV), the decrease amount of the image surface exposure amount corresponding to the decrease of the limit value ΔY is ΔHb (for example −2 EV). Equivalent).

ここで、カメラボディ200のFlashRom216にはこの低下量ΔHbに対応する周辺光量低下値の下限値ΔELを予め格納しておき、ぶれ補正用データの周辺光量低下値ΔE1、ΔE2、ΔE3から適切な補間近似(例えば線形補間)をすることにより、ΔELに対応する像高h(図11参照)を求めることができる。この像高hは撮影レンズによって撮影可能な最大像面範囲の半径を示す像高を示す。像高hから、補正限界値Δhは、
Δh=h−h1 (22)
として演算される。この式(22)から求まる補正限界値Δhは、撮影レンズの撮影可能な最大像面範囲の半径と撮像素子202の中心位置から対角位置までの距離との差を示すものとなり、この補正限界値Δhの範囲内でぶれ補正を行う場合には、記録画像の周辺光量の低下値が画像鑑賞上許容されるものとなる。なお、カメラボディ200のFlashRom217に撮像素子202の対角長の値(即ち、h1の2倍の値)が格納されている場合には、Δhを求める際に例えばhを2倍(つまり、撮影レンズの撮影可能な最大像面範囲の直径を示すことになる)すれば良い。
Here, the flash ROM 216 of the camera body 200 stores in advance a lower limit value ΔEL of the peripheral light amount decrease value corresponding to the decrease amount ΔHb, and performs appropriate interpolation from the peripheral light amount decrease values ΔE1, ΔE2, and ΔE3 of the blur correction data. By performing approximation (for example, linear interpolation), an image height h L (see FIG. 11) corresponding to ΔEL can be obtained. This image height h L indicates the image height indicating the radius of the maximum image plane range that can be photographed by the photographing lens. From the image height h L , the correction limit value Δh is
Δh = h L −h1 (22)
Is calculated as The correction limit value Δh obtained from this equation (22) indicates the difference between the radius of the maximum image plane range that can be photographed by the photographing lens and the distance from the center position of the image sensor 202 to the diagonal position. When blur correction is performed within the range of the value Δh, the decrease value of the peripheral light amount of the recorded image is allowed for image viewing. When the value of the diagonal length of the image sensor 202 is stored in the FlashRom 217 of the camera body 200 (that is, twice the value of h1), for example, h L is doubled (ie, when Δh is obtained) The diameter of the maximum image plane range that can be photographed by the photographing lens may be indicated).

このように、第1の実施形態では、イメージサークル径に係るデータとして周辺光量低下値のデータを格納するようにしているので、撮像素子202のシフト補正量をイメージサークルの範囲内に制限することができ、これにより撮像素子202をシフトさせてもけられなどが発生することがない。   As described above, in the first embodiment, the peripheral light amount reduction value data is stored as the data related to the image circle diameter, and thus the shift correction amount of the image sensor 202 is limited within the range of the image circle. As a result, even if the image sensor 202 is shifted, no damage or the like occurs.

ここで、像面露光量Hと記録画像輝度値Yとの関係が異なるカメラの場合には、図9の特性は、特性Bに対してより傾き(所謂γ値)の小さい特性A、或いは特性Bに対して傾きの大きい特性Cとなる。その場合には、輝度低下の限界値ΔYに対応する像面露光量の低下量が、特性Aの場合にΔHa、特性Cの場合にΔHcとなる。この値が異なることで、同じ輝度低下の限界値ΔYに対しても周辺光量低下値の下限値ΔELが異なり、結果として、補正限界値Δhも異なるようになる。また、同じカメラボディでも、画像処理による特性が異なる画質モードを設けてある場合には、これら画質モード毎に異なる周辺光量低下値の下限値ΔELをFlashRom216に格納しておくことで、画質モード毎に最適な補正限界値を設定することができる。   Here, in the case of a camera in which the relationship between the image plane exposure amount H and the recorded image luminance value Y is different, the characteristic shown in FIG. 9 is characteristic A having a smaller slope (so-called γ value) than characteristic B, or characteristic. The characteristic C has a large inclination with respect to B. In that case, the reduction amount of the image surface exposure amount corresponding to the limit value ΔY of the luminance reduction is ΔHa for the characteristic A and ΔHc for the characteristic C. Due to the difference, the lower limit value ΔEL of the peripheral light amount decrease value is different for the same luminance decrease limit value ΔY, and as a result, the correction limit value Δh is also different. In addition, even in the same camera body, when image quality modes having different characteristics due to image processing are provided, the lower limit value ΔEL of the peripheral light amount decrease value different for each image quality mode is stored in the FlashRom 216, so that each image quality mode is stored. It is possible to set an optimum correction limit value.

なお、周辺光量低下値の下限値ΔELを格納しておく以外に、図12の特性に係るパラメータそのものを格納しておき、使用者が任意に指定した輝度低下の限界値ΔYに対応する周辺光量低下値の下限値ΔELを求めるようにしても良い。また、撮影時のズーム位置に対応する周辺光量低下値によって補正限界値を決定せずに、ズーム領域内の周辺光量低下値の最悪値(周辺光量低下値の最大値)をぶれ補正用データの中から検索し、この周辺光量低下値の最悪値から補正限界値を演算するようにしてもよい。この場合には、撮影毎に補正限界値を演算する必要がない。即ち、レンズユニット100の装着時などでレンズデータを読み込んだときに補正限界値を演算すれば、レンズユニットを取り替えない限り補正限界値を再演算する必要がなくなり、動作の高速化や消費電力の低減が図れる。   In addition to storing the lower limit value ΔEL of the peripheral light amount decrease value, the parameter itself relating to the characteristics of FIG. 12 is stored, and the peripheral light amount corresponding to the luminance decrease limit value ΔY arbitrarily designated by the user. The lower limit value ΔEL of the decrease value may be obtained. Further, without determining the correction limit value based on the peripheral light amount decrease value corresponding to the zoom position at the time of shooting, the worst value of the peripheral light amount decrease value in the zoom area (the maximum value of the peripheral light amount decrease value) is determined. It is possible to search from the inside and calculate the correction limit value from the worst value of the peripheral light amount decrease value. In this case, it is not necessary to calculate the correction limit value for each photographing. That is, if the correction limit value is calculated when the lens data is read when the lens unit 100 is mounted or the like, there is no need to recalculate the correction limit value unless the lens unit is replaced. Reduction can be achieved.

次に、ぶれ補正用データを持たないレンズユニットがカメラボディに装着された場合の、ぶれ補正係数kの近似計算の手法について説明する。   Next, an approximate calculation method of the blur correction coefficient k when a lens unit that does not have blur correction data is attached to the camera body will be described.

ぶれ補正用データを持たないレンズユニット100がカメラボディ200に装着された場合には、主点間隔Δ=0、b=f+dfと近似する。ただし、この場合には、撮影レンズの焦点距離f及び焦点レンズ101aの繰り出し量dfが分かることが前提である。これらf及びdfの値が分かる場合には、式(14)により、
a=f(f+df)/df=f/df+f (23)
としてaを近似計算し、次に式(18)により、
k=(f+df){1+(f+df)/a} (24)
として計算することによってkを求めることができる。ここで、焦点レンズ101aの繰り出し量dfが焦点距離fに比べて充分小さければ、式(24)を更に、
k=f(1+f/a) (25)
として計算してもよい。また、dfがfに比べて充分小さいときには、被写体は無限遠に近く、f/aが1に比べて充分小さいことになるから、
k=f (26)
としてkをfで近似してもよい。
When the lens unit 100 having no blur correction data is attached to the camera body 200, the distance between the principal points Δ = 0 and b = f + df is approximated. However, in this case, it is assumed that the focal length f of the photographing lens and the extension amount df of the focal lens 101a are known. When the values of f and df are known, the equation (14)
a = f (f + df) / df = f 2 / df + f (23)
A is approximated as follows, and then according to equation (18)
k = (f + df) {1+ (f + df) / a} (24)
K can be obtained by calculating as follows. Here, if the extension amount df of the focal lens 101a is sufficiently smaller than the focal length f, the expression (24) is further calculated.
k = f (1 + f / a) (25)
May be calculated as When df is sufficiently smaller than f, the subject is close to infinity and f / a is sufficiently smaller than 1, so
k = f (26)
K may be approximated by f.

次に、ぶれ補正用データを持たないレンズユニットがカメラボディに装着された場合に補正限界値として設定される既定値Δh0について説明する。   Next, the predetermined value Δh0 set as the correction limit value when a lens unit that does not have blur correction data is attached to the camera body will be described.

図6のステップS511では、補正限界値ΔhにFlashRom216に予め格納されている既定値Δh0を設定する。この既定値Δh0は、最大シフト値Δhm以下であり、通常の撮影レンズでは周辺光量低下が問題にならず、かつぶれ補正の効果が発揮されるような適切な値とする。例えば、規定値Δh0は、最大シフト値Δhmが1mmの場合にΔh0は0.5mmなどに設定しておく。あるいは、ぶれ補正用データを持たないレンズユニットでは撮像素子202の対角長に相当するイメージサークルの外側で周辺光量低下が問題となるような場合にはΔh0を0としてもよい。その場合、ぶれ補正用データのないレンズユニットでは、ぶれ補正のための撮像素子202のシフトは実際には行われず、ぶれ補正機能を停止させたのと同等となる。この場合、撮像素子202をシフトさせてぶれ補正した場合に想定される通常撮影以上の周辺光量低下は起こらないようにできる。   In step S511 in FIG. 6, a predetermined value Δh0 stored in advance in FlashRom 216 is set as the correction limit value Δh. The predetermined value Δh0 is equal to or less than the maximum shift value Δhm, and is set to an appropriate value that does not cause a decrease in the amount of peripheral light in a normal photographing lens and exhibits the effect of correcting the crushing. For example, the specified value Δh0 is set to 0.5 mm or the like when the maximum shift value Δhm is 1 mm. Alternatively, in a lens unit that does not have blur correction data, Δh0 may be set to 0 when a decrease in the amount of peripheral light becomes a problem outside the image circle corresponding to the diagonal length of the image sensor 202. In that case, in the lens unit without the blur correction data, the image pickup element 202 is not actually shifted for blur correction, which is equivalent to stopping the blur correction function. In this case, it is possible to prevent the peripheral light amount from being lowered more than normal photographing that is assumed when the image pickup device 202 is shifted and shake correction is performed.

[第2の実施形態]
次に本発明の第2の実施形態について説明する。第2の実施形態はレンズユニット100内の撮影レンズが、ズーム位置の端部Z1(例えば焦点距離の広角端位置)において周辺光量低下が最も大きくなるようなレンズを想定している。これに対応して第1の実施形態とはぶれ補正用データの内容が異なっている。なお、これら以外の構成については第1の実施形態と同様である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the second embodiment, it is assumed that the photographing lens in the lens unit 100 has the largest decrease in peripheral light amount at the zoom position end Z1 (for example, the wide-angle end position of the focal length). Correspondingly, the content of the blur correction data is different from that of the first embodiment. Other configurations are the same as those in the first embodiment.

図13は、第2の実施形態におけるレンズユニット100のFlashRom107に格納されるぶれ補正用データの配置図である。図13に示すように、第2の実施形態においては、周辺光量低下値ΔEはズーム位置Z1での値に対応したものしかなく、他のズーム位置のデータはない。図6のステップS503で補正限界値Δhを演算する時には、ズーム位置Z1に対応する周辺光量低下値ΔE1、ΔE2、ΔE3を参照してΔhを演算する。   FIG. 13 is an arrangement diagram of shake correction data stored in the FlashRom 107 of the lens unit 100 according to the second embodiment. As shown in FIG. 13, in the second embodiment, the peripheral light amount decrease value ΔE only corresponds to the value at the zoom position Z1, and there is no data at other zoom positions. When calculating the correction limit value Δh in step S503 of FIG. 6, Δh is calculated with reference to the peripheral light amount decrease values ΔE1, ΔE2, and ΔE3 corresponding to the zoom position Z1.

このような第2の実施形態によれば、周辺光量低下値のデータをズーム領域内での最悪値(周辺光量低下値の最大値)とすることにより、FlashRom107に格納するレンズデータの容量を減らすことができ、コストの低減やレンズデータの読み込み時間の短縮による動作の高速化を図ることができる。   According to the second embodiment, the data of the peripheral light amount decrease value is set to the worst value (maximum value of the peripheral light amount decrease value) in the zoom region, thereby reducing the capacity of the lens data stored in the FlashRom 107. Therefore, the operation speed can be increased by reducing the cost and shortening the reading time of the lens data.

ここで、第2の実施形態においても複数のレンズユニットに対応する複数のレンズデータをカメラボディ200内のFlashRom216に格納するようにしても良い。   Here, also in the second embodiment, a plurality of lens data corresponding to a plurality of lens units may be stored in the FlashRom 216 in the camera body 200.

[第3の実施形態]
次に本発明の第3の実施形態について説明する。図14は、第3の実施形態におけるレンズユニット100のFlashRom107に格納されるぶれ補正用データの配置図である。なお、これ以外の構成については第1の実施形態と同様である。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. FIG. 14 is a layout diagram of shake correction data stored in the FlashRom 107 of the lens unit 100 according to the third embodiment. Other configurations are the same as those in the first embodiment.

図14においては、周辺光量低下値ΔEの代わりに、撮影レンズによって撮影可能な最大像面範囲の半径を示す像高の値であるhをぶれ補正用データとして用いている。上述したようにhは、図11に示す周辺光量低下値の限界値ΔELに対応する像高である。図6のステップS503において補正限界値Δhを演算する時には、そのときのズーム位置Zpに対応するhを参照して式(22)からΔhを演算する。 In FIG. 14, instead of the peripheral light amount decrease value ΔE, h L that is an image height value indicating the radius of the maximum image plane range that can be photographed by the photographing lens is used as blur correction data. As described above, h L is the image height corresponding to the limit value ΔEL of the peripheral light amount decrease value shown in FIG. When calculating the correction limit value Δh in step S503 of FIG. 6, Δh is calculated from the equation (22) with reference to h L corresponding to the zoom position Zp at that time.

このように第3の実施形態では、第1の実施形態の周辺光量低下値のデータの代わりにイメージサークル径に相当するデータとしての像高のデータを持たせてある。これにより、FlashRom107に格納するレンズデータの容量を減らすことができ、コストを低減することができると共に、演算が簡単になり、動作の高速化が図れる。   As described above, in the third embodiment, image height data as data corresponding to the image circle diameter is provided instead of the peripheral light amount decrease value data of the first embodiment. Thereby, the capacity of the lens data stored in the FlashRom 107 can be reduced, the cost can be reduced, the calculation is simplified, and the operation speed can be increased.

ここで、イメージサークル径に相当する像高hの代わりに補正限界値Δhのデータをレンズユニット100のFlashRom107の持たせて、直接、補正限界値Δhを求めるようにしてもよい。更に、第2の実施形態と同様に、ズーム位置によるイメージサークル径の最悪値(最小値)のみを持たせて、ズーム位置によらず、最悪値によって補正限界値を決めるようにしてもよい。この場合、更にデータ容量を減らすことができる。また、例えばぶれ補正用データを有するレンズユニットにおいて、誤補正防止等のためにカメラボディ200によるぶれ補正を動作させたくないような場合に、hをh1或いはΔhを0としておくことで、ぶれ補正用データを有しているレンズでも、意図的にカメラのぶれ補正機能を動作させないようにすることもできる。また、ぶれ補正可能な場合に、カメラボディにおけるぶれ補正量の最大値hm内で動作させてもイメージサークルに余裕があり周辺光量などの問題がないのであれば、hの値を0か1の2値データ形式とし、値が1の時には補正限界値をΔhmに設定するようにしてもよい。 Here, instead of the image height h L corresponding to the image circle diameter, the correction limit value Δh may be included in the FlashRom 107 of the lens unit 100 to directly obtain the correction limit value Δh. Furthermore, as in the second embodiment, only the worst value (minimum value) of the image circle diameter according to the zoom position may be provided, and the correction limit value may be determined based on the worst value regardless of the zoom position. In this case, the data capacity can be further reduced. For example, in a lens unit having blur correction data, if it is not desired to operate blur correction by the camera body 200 to prevent erroneous correction, the blur is set by setting h L to h1 or Δh to 0. Even with a lens having correction data, it is possible to intentionally prevent the camera shake correction function from operating. In addition, when shake correction is possible, the h L value is set to 0 or 1 if there is a margin in the image circle and there is no problem such as peripheral light amount even if the camera body is operated within the maximum shake correction amount hm. In this case, the correction limit value may be set to Δhm when the value is 1.

更には、第3の実施形態においても複数のレンズユニットに対応する複数のレンズデータをカメラボディ200内のFlashRom216に格納するようにしても良い。   Furthermore, in the third embodiment, a plurality of lens data corresponding to a plurality of lens units may be stored in the FlashRom 216 in the camera body 200.

[第4の実施形態]
次に、本発明の第4の実施形態について説明する。第1の実施形態にて説明してきたぶれ補正量の演算手法は、種々の近似が行われており、特にぶれの回転中心距離dを0と仮定している。被写体が遠方にある場合、即ち結像倍率が十分に小さい場合には、回転中心位置の差異は無視することができる。しかし、結像倍率が大きくなるような近距離の被写体を撮影する場合には、回転中心距離dの変化によるぶれ補正量の差は大変大きく、高倍ズーム系や望遠系のレンズのようにレンズ全長の長いレンズでは演算精度を決める大きな要因となる。第4の実施形態では、回転中心位置の差異まで考慮した、更に正確なぶれ補正量の演算を実現するための方法である。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. The blur correction amount calculation method described in the first embodiment has various approximations, and in particular, it is assumed that the rotation center distance d of the blur is zero. When the subject is far away, that is, when the imaging magnification is sufficiently small, the difference in the rotation center position can be ignored. However, when shooting a subject at a short distance that increases the imaging magnification, the difference in the amount of blur correction due to the change in the rotation center distance d is very large, and the total lens length as in a high-magnification zoom system or a telephoto lens is large. A long lens is a major factor in determining the calculation accuracy. The fourth embodiment is a method for realizing a more accurate calculation of the shake correction amount in consideration of the difference in the rotation center position.

式(12)より、
θ=b・θ+(Δ+b−d)(b/a)θ (27)
となる。ここで、b/aは横倍率であり、これをBとおくと、式(14)より像距離b=(1+B)fである。また、Δ+bは前側主点位置から像面までの距離であり、これをHとすると、式(27)は以下のようになる。
θ=(1+B)f・θ+(H−d)B・θ (28)
ここで、式(28)において、d=Hのとき、第2項は0となる。このとき、Iθ=(1+B)f・θとなり、これは式(25)と同一である。つまり、前側主点を基準としてぶれ補正を考えると、式の展開が非常に簡単になり、かつ見通しの良い計算式を得ることができる。また、式(28)において、第1項は前側主点を回転中心とした回転ぶれに起因する手ぶれを表している。更に、式(28)の第2項は、実際の回転中心がCの位置にあるために、前側主点に生じた平行移動ぶれに起因する手ぶれを表している。即ち、ぶれ補正量の演算を、前側主点における回転ぶれと平行移動ぶれの和として実行することができる。
From equation (12)
I θ = b · θ + (Δ + b−d) (b / a) θ (27)
It becomes. Here, b / a is a lateral magnification, and when this is set to B, the image distance b = (1 + B) f from the equation (14). Further, Δ + b is the distance from the front principal point position to the image plane. If this is H, Expression (27) is as follows.
I θ = (1 + B) f · θ + (H−d) B · θ (28)
Here, in the equation (28), when d = H, the second term is zero. At this time, I θ = (1 + B) f · θ, which is the same as equation (25). In other words, considering blur correction with the front principal point as a reference, the development of the formula becomes very simple, and a calculation formula with good visibility can be obtained. Further, in Expression (28), the first term represents camera shake caused by rotational shake with the front principal point as the rotation center. Further, the second term of the equation (28) represents a camera shake caused by the translational movement generated at the front principal point because the actual center of rotation is at the position C. That is, the calculation of the shake correction amount can be executed as the sum of the rotational shake and the translational shake at the front principal point.

一方、像距離bは後側主点から像面までの距離であるから、式(27)のように後側主点を基準とした式へ変形することも可能である。しかしながらこの場合、主点間隔のデータも必要となるため、記憶させるべきデータ数が増えてしまう。そのため、データ容量の削減あるいは演算速度の高速化等を鑑みれば、式(28)のように前側主点を基準とした計算式を用いることが好ましい。   On the other hand, since the image distance b is the distance from the rear principal point to the image plane, it can be transformed into an expression based on the rear principal point as shown in Expression (27). However, in this case, since the data of the principal point interval is also necessary, the number of data to be stored increases. Therefore, in view of reduction of data capacity or increase in calculation speed, it is preferable to use a calculation formula based on the front principal point as shown in Formula (28).

次に、回転中心距離dの計算法について説明する。図9において、像面におけるカメラの平行移動のぶれ量OiOi’をδとおくと、δ=d・θである。ただし、ここではtanθ=θと近似している。また、平行移動のぶれ量δは、回転ぶれ量を測定するための角速度センサとは別に、加速度センサなどを付加して測定することができる。もし、δの測定位置が像面と一致していない場合には、その差分を補正して回転中心距離dを計算すれば良い。   Next, a method for calculating the rotation center distance d will be described. In FIG. 9, δ = d · θ, where δ is the amount of camera shake OiOi ′ on the image plane. However, it is approximated here as tan θ = θ. Also, the translational shake amount δ can be measured by adding an acceleration sensor or the like in addition to the angular velocity sensor for measuring the rotational shake amount. If the measurement position of δ does not coincide with the image plane, the rotation center distance d may be calculated by correcting the difference.

式(28)にd=δ/θを代入して整理すると、
θ={(1+B)f+B・H}θ−B・δ (29)
となる。この式(29)は、ぶれ角度θと平行移動ぶれ量δとからぶれ補正量Iθを正確に求めるための式である。ぶれ補正量演算のためのデータはB、f、Hの3種類が必要であるが、いずれもズーム状態あるいはフォーカス状態にて変化するものである。これらのデータを、例えば無限時の数値で近似してしまうと、ぶれ補正量の演算精度が悪くなり、十分なぶれ補正効果を得られなくなってしまう。したがって、式(29)によってぶれ補正量Iθを精度良く演算するためには、各データを正確に保有する事が望ましい。
Substituting d = δ / θ into equation (28) and rearranging,
I θ = {(1 + B) f + B · H} θ−B · δ (29)
It becomes. The equation (29) is an expression for obtaining a correction amount I theta blur from the blur angle theta and parallel movement blurring amount δ accurately. Three types of data B, f, and H are necessary for the blur correction amount calculation, and all of them change in the zoom state or the focus state. If these data are approximated by numerical values at infinity, for example, the calculation accuracy of the blur correction amount deteriorates, and a sufficient blur correction effect cannot be obtained. Therefore, in order to accurately calculates the correction amount I theta shake by equation (29), it is desirable to accurately retain the data.

データを記憶する具体的な方法としては、図10で示したように、繰り出し量dfに関する関数近似で表現することができる。
例えば、
B=kb1・df+kb2・df+kb3
f=kf1・df+kf2・df+kf3 (30)
H=kh1・df+kh2・df+kh3
のように、各データを2次関数で近似する。これらのぶれ補正量を求めるためのレンズデータは、図15に示すように、各ズームエンコーダに対応する係数値を記憶させると良い。このとき、近似次数は、更に高次での展開も考えられるが、演算精度、演算スピード及びデータ容量等を考慮すると、2次近似程度が望ましい。なお、df=0、即ち無限物点の場合はB=0となるので上記kb3=0である。
As a specific method for storing data, as shown in FIG. 10, it can be expressed by function approximation regarding the feed amount df.
For example,
B = kb1 · df 2 + kb2 · df + kb3
f = kf1 · df 2 + kf2 · df + kf3 (30)
H = kh1 · df 2 + kh2 · df + kh3
As shown, each data is approximated by a quadratic function. As lens data for obtaining these blur correction amounts, coefficient values corresponding to the respective zoom encoders may be stored as shown in FIG. At this time, the approximation order may be expanded at a higher order. However, considering the calculation accuracy, the calculation speed, the data capacity, and the like, a second order approximation is desirable. Note that df = 0, that is, in the case of an infinite object point, B = 0, so kb3 = 0.

また、ぶれ補正量演算用のレンズデータの記憶方法として、関数近似での係数値ではなく、ズームエンコーダ及びフォーカスエンコーダに対応して、実際の数値を持たせることも可能である。図16において、ズームエンコーダがn個、フォーカスエンコーダがm個ある場合に、各組み合わせにおいてレンズデータBij、Fij、及びHijの値が記憶されている。   In addition, as a method of storing lens data for calculating the amount of blur correction, it is possible to have actual numerical values corresponding to the zoom encoder and the focus encoder instead of the coefficient values obtained by function approximation. In FIG. 16, when there are n zoom encoders and m focus encoders, the values of lens data Bij, Fij, and Hij are stored for each combination.

更に、式(30)においては、変数として繰り出し量を用いているが、一般的に繰り出し量はズーム位置及びフォーカス位置にて変化するものである。一方、レンズ内部では繰り出し量ではなく、フォーカスレンズの繰り出しパルス数等で制御していることが多いが、このときの単位パルス当たりの繰り出し量は一定とは限らない。したがって、繰り出しパルス数から繰り出し量を演算しようとすると複雑な計算が必要となり、演算スピードの低下を招いてしまうことがある。このような問題を解決するために、式(30)の係数値は、予め繰り出しパルス数の関数として記憶させておくことが望ましい。ただし、無限物点に対する繰り出しパルス数は必ずしも0ではないので、式(30)の係数kb3が必要な場合もある。   Further, in equation (30), the feed amount is used as a variable, but generally the feed amount changes at the zoom position and the focus position. On the other hand, in many cases, control is performed not by the amount of extension but by the number of extension pulses of the focus lens, etc., but the amount of extension per unit pulse at this time is not always constant. Therefore, if the feed amount is calculated from the feed pulse number, a complicated calculation is required, and the calculation speed may be reduced. In order to solve such a problem, it is desirable to store the coefficient value of the equation (30) as a function of the number of feed pulses in advance. However, since the number of extended pulses for an infinite object point is not necessarily 0, the coefficient kb3 in Expression (30) may be necessary.

以上実施形態に基づいて本発明を説明したが、本発明は上記した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

更に、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題が解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

ここで、本発明の要旨をまとめると特許請求の範囲に記載したものに加えて以下のようなものを含む。
(1) 光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成され、手ぶれ補正手段を有するカメラボディとを有するカメラシステムにおいて、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定する判定手段と、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットでないと判定された場合に警告を行う警告手段とを具備することを特徴とするカメラシステム。
この(1)の態様によれば、レンズユニットが手ぶれ補正手段に対応していないレンズユニットでない場合には警告が行われるため、使用者はこれを受けてレンズユニットを交換するなどの対策を考えることができる。
Here, if the summary of this invention is summarized, in addition to what was described in the claim, the following things are included.
(1) In a camera system having a lens unit having an optical system and a camera body having a detachable lens unit and having a camera shake correction unit, the lens unit is a lens unit corresponding to the camera shake correction unit. And a warning unit that issues a warning when it is determined that the lens unit is not a lens unit corresponding to the camera shake correction unit.
According to the aspect (1), a warning is issued when the lens unit is not a lens unit that does not correspond to the camera shake correction means, and accordingly, the user considers a countermeasure such as replacing the lens unit. be able to.

(2) 光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成され、手ぶれ補正手段を有するカメラボディとを有するカメラシステムにおいて、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定する判定手段と、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットでないと判定された場合に前記手ぶれ補正手段による補正を停止させる停止手段とを具備することを特徴とするカメラシステム。
この(2)の態様によれば、レンズユニットが手ぶれ補正手段に対応していないレンズユニットでない場合には補正動作が停止されるため、ぶれ補正した場合に想定される通常撮影以上の周辺光量低下は起こらないようにすることができる。
(2) In a camera system having a lens unit having an optical system and a camera body in which the lens unit is configured to be detachable and having camera shake correcting means, the lens unit is a lens unit corresponding to the camera shake correcting means. Determining means for determining whether or not the lens unit is not a lens unit corresponding to the camera shake correcting means, and stopping means for stopping correction by the camera shake correcting means. Camera system.
According to the aspect of (2), since the correction operation is stopped when the lens unit is not a lens unit that does not correspond to the camera shake correction unit, the peripheral light amount lower than the normal photographing assumed when the camera shake is corrected. Can be prevented from happening.

本発明の第1の実施形態に係るカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system which concerns on the 1st Embodiment of this invention. レンズ種別判定処理を示すフローチャートである。It is a flowchart which shows a lens classification determination process. ぶれ補正対応のレンズユニットでない時の警告メッセージをコントロールパネルに表示する際の例を示す図である。It is a figure which shows the example at the time of displaying the warning message when it is not a lens unit corresponding to blurring correction on a control panel. 撮影処理を示すフローチャートの前半部である。It is the first half part of the flowchart which shows an imaging | photography process. 撮影処理を示すフローチャートの後半部である。It is the latter half part of the flowchart which shows an imaging | photography process. 防振準備処理を示すフローチャートである。It is a flowchart which shows a vibration proof preparation process. 防振制御処理を示すフローチャートである。It is a flowchart which shows an anti-vibration control process. レンズユニット内部の撮影レンズと撮像素子の撮像面との関係を示す図である。It is a figure which shows the relationship between the imaging lens inside a lens unit, and the imaging surface of an image pick-up element. 撮影レンズ光軸の角度ぶれ量と像ぶれを補正するための撮像素子のシフト補正量との関係を示す光路概念図である。It is an optical path conceptual diagram which shows the relationship between the amount of angular blurs of a photographic lens optical axis, and the shift correction amount of an image pick-up element for correct | amending image blur. 本発明の第1の実施形態におけるレンズユニットのFlashRom内に格納されたぶれ補正用データの配置図である。FIG. 6 is an arrangement diagram of shake correction data stored in the FlashRom of the lens unit according to the first embodiment of the present invention. 撮影レンズの像高と周辺光量低下値との関係を表す特性図である。It is a characteristic view showing the relationship between the image height of a photographic lens and the peripheral light amount reduction value. 像面露光量と記録画像輝度値との関係を表す特性図である。It is a characteristic view showing the relationship between an image surface exposure amount and a recorded image luminance value. 本発明の第2の実施形態におけるレンズユニットのFlashRom内に格納されたぶれ補正用データの配置図である。FIG. 10 is an arrangement diagram of shake correction data stored in the FlashRom of the lens unit according to the second embodiment of the present invention. 本発明の第3の実施形態におけるレンズユニットのFlashRom内に格納されたぶれ補正用データの配置図である。FIG. 14 is a layout diagram of shake correction data stored in the FlashRom of the lens unit according to the third embodiment of the present invention. 本発明の第4の実施形態におけるレンズユニットのFlashRom内に格納されたぶれ補正用データの配置図である。It is an arrangement plan of blur correction data stored in the FlashRom of the lens unit in the fourth embodiment of the present invention. 本発明の第4の実施形態におけるレンズユニットのFlashRom内に格納されたぶれ補正用データの配置図の別の実施例である。It is another Example of the arrangement | positioning figure of the data for blur correction stored in FlashRom of the lens unit in the 4th Embodiment of this invention.

符号の説明Explanation of symbols

100…レンズユニット、101a…焦点レンズ、101b…絞り、101c…変倍レンズ、102…焦点調整機構、103…ズームエンコーダ、104…アクチュエータ駆動回路、106…レンズ制御コンピュータ、107…FlashRom、108…レンズ操作スイッチ群、109…レンズマウント、200…カメラボディ、201a…クイックリターンミラー、201b…ペンタプリズム、201c…接眼レンズ、201d…シャッタ、202…撮像素子、203…撮像素子インターフェイス(IF)回路、204…システムコントローラ、205…ミラー駆動機構、206…シャッタチャージ機構、207…撮像素子変位機構、208…アクチュエータ駆動回路、209…角速度センサ、210…オートフォーカス(AF)回路、211…測光回路、212…液晶モニタ、213…カメラ操作スイッチ群、214…記録メディア、215…SDRAM、217…USBデバイスコントローラ、218…ボディマウント、501…コントロールパネル、502…ファインダ表示部   DESCRIPTION OF SYMBOLS 100 ... Lens unit, 101a ... Focus lens, 101b ... Aperture, 101c ... Variable magnification lens, 102 ... Focus adjustment mechanism, 103 ... Zoom encoder, 104 ... Actuator drive circuit, 106 ... Lens control computer, 107 ... FlashRom, 108 ... Lens Operation switch group, 109 ... lens mount, 200 ... camera body, 201a ... quick return mirror, 201b ... pentaprism, 201c ... eyepiece, 201d ... shutter, 202 ... image sensor, 203 ... image sensor interface (IF) circuit, 204 DESCRIPTION OF SYMBOLS ... System controller, 205 ... Mirror drive mechanism, 206 ... Shutter charge mechanism, 207 ... Image sensor displacement mechanism, 208 ... Actuator drive circuit, 209 ... Angular velocity sensor, 210 ... Auto focus (AF) circuit, 11 ... light measuring circuit, 212 ... LCD monitor, 213 ... camera operating switch group, 214 ... recording medium, 215 ... SDRAM, 217 ... USB device controller, 218 ... body mount, 501 ... control panel, 502 ... finder display unit

Claims (25)

被写体像を形成するための光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディと、を有するカメラシステムにおいて、
前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、
前記光学系の主点位置に対応するデータを少なくとも記憶する記憶手段と、
前記記憶手段に記憶された光学系の主点位置に対応するデータから、前記手ぶれ補正手段における補正の際の補正量を演算する制御手段と、
を有することを特徴とするカメラシステム。
In a camera system having a lens unit having an optical system for forming a subject image, and a camera body configured to be detachable from the lens unit,
Camera shake correcting means for correcting the effect of camera shake on the camera body;
Storage means for storing at least data corresponding to the principal point position of the optical system;
Control means for calculating a correction amount at the time of correction in the camera shake correction means from data corresponding to the principal point position of the optical system stored in the storage means;
A camera system comprising:
被写体像を形成するための光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディと、を有するカメラシステムにおいて、
前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、
前記光学系の主点位置に対応するデータと前記光学系の主点間隔に対応するデータとを少なくとも記憶する記憶手段と、
前記記憶手段に記憶された光学系の主点位置に対応するデータと前記光学系の主点間隔に対応するデータとから、前記手ぶれ補正手段における補正の際の補正量を演算する制御手段と、
を有することを特徴とするカメラシステム。
In a camera system having a lens unit having an optical system for forming a subject image, and a camera body configured to be detachable from the lens unit,
Camera shake correcting means for correcting the effect of camera shake on the camera body;
Storage means for storing at least data corresponding to the principal point position of the optical system and data corresponding to the principal point interval of the optical system;
Control means for calculating a correction amount at the time of correction in the camera shake correction means from data corresponding to the principal point position of the optical system stored in the storage means and data corresponding to the principal point interval of the optical system;
A camera system comprising:
前記光学系の主点位置に対応するデータは、前記光学系の焦点距離から、前記光学系の主点位置を求めるための変換係数であることを特徴とする請求項1又は2に記載のカメラシステム。   3. The camera according to claim 1, wherein the data corresponding to the principal point position of the optical system is a conversion coefficient for obtaining the principal point position of the optical system from the focal length of the optical system. system. 前記光学系の主点位置に対応するデータは、前記光学系のフォーカス繰り出し量に応じた値を演算する関数の係数であり、
前記制御手段は、前記フォーカス繰り出し量と前記光学系の主点位置に対応するデータとから、前記補正量を演算することを特徴とする請求項1又は2に記載のカメラシステム。
The data corresponding to the principal point position of the optical system is a coefficient of a function that calculates a value according to the focus extension amount of the optical system,
The camera system according to claim 1, wherein the control unit calculates the correction amount from the focus extension amount and data corresponding to a principal point position of the optical system.
前記光学系は、ズーム駆動により焦点距離を変更自在に構成されており、
前記記憶手段は、前記光学系のズーム位置に応じた複数の光学系の主点位置に対応するデータを記憶することを特徴とする請求項1又は2に記載のカメラシステム。
The optical system is configured to be able to change the focal length by zoom driving,
The camera system according to claim 1, wherein the storage unit stores data corresponding to principal point positions of a plurality of optical systems according to a zoom position of the optical system.
前記記憶手段は、前記レンズユニットに設けられていることを特徴とする請求項1又は2に記載のカメラシステム。   The camera system according to claim 1, wherein the storage unit is provided in the lens unit. 前記記憶手段は、前記カメラボディに設けられていることを特徴とする請求項1又は2に記載のカメラシステム。   The camera system according to claim 1, wherein the storage unit is provided in the camera body. 光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディとを有するカメラシステムにおいて、
前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、
前記手ぶれ補正手段のぶれ補正量を演算するためのデータを記憶する記憶手段と、
前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定する判定手段と、
前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであると判定された場合には前記記憶手段に記憶された前記ぶれ補正量を演算するためのデータに基づいて前記手ぶれ補正手段のぶれ補正量を演算し、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットでないと判定された場合に、前記手ぶれ補正手段のぶれ補正量を、前記光学系の焦点距離と前記光学系の光軸のぶれ角度とに基づいて近似演算する制御手段と、
を具備することを特徴とするカメラシステム。
In a camera system having a lens unit having an optical system and a camera body in which the lens unit is configured to be detachable,
Camera shake correcting means for correcting the effect of camera shake on the camera body;
Storage means for storing data for calculating a shake correction amount of the camera shake correction means;
Determination means for determining whether or not the lens unit is a lens unit corresponding to the camera shake correction means;
When it is determined that the lens unit is a lens unit corresponding to the camera shake correction unit, the camera shake correction amount of the camera shake correction unit is based on data for calculating the camera shake correction amount stored in the storage unit. And when it is determined that the lens unit is not a lens unit corresponding to the camera shake correction unit, the camera shake correction amount of the camera shake correction unit is calculated based on the focal length of the optical system and the optical axis shake of the optical system. A control means for calculating an approximation based on the angle;
A camera system comprising:
前記ぶれ補正量は、以下の式によって近似演算されることを特徴とする請求項8に記載のカメラシステム。
θ=k・θ
(Iθ:ぶれ補正量、θ:ぶれ角度)
及び
k=f
(f:光学系の焦点距離)
The camera system according to claim 8, wherein the blur correction amount is approximated by the following expression.
I θ = k · θ
(I θ : blur correction amount, θ: blur angle)
And k = f
(F: focal length of optical system)
前記ぶれ補正量は、以下の式によって近似演算されることを特徴とする請求項8に記載のカメラシステム。
θ=k・θ
(Iθ:ぶれ補正量、θ:ぶれ角度)
及び
k=f(1+f/a)
(f:光学系の焦点距離、a:光学系の物体距離)
The camera system according to claim 8, wherein the blur correction amount is approximated by the following expression.
I θ = k · θ
(I θ : blur correction amount, θ: blur angle)
And k = f (1 + f / a)
(F: focal length of optical system, a: object distance of optical system)
前記ぶれ補正量は、以下の式によって近似演算されることを特徴とする請求項8に記載のカメラシステム。
θ=k・θ
(Iθ:ぶれ補正量、θ:ぶれ角度)
及び
k=(f+df){(1+(f+df)/a)}
(f:光学系の焦点距離、a:光学系の物体距離、df:光学系のフォーカス繰り出し量)
The camera system according to claim 8, wherein the blur correction amount is approximated by the following expression.
I θ = k · θ
(I θ : blur correction amount, θ: blur angle)
And k = (f + df) {(1+ (f + df) / a)}
(F: focal length of optical system, a: object distance of optical system, df: focus feed amount of optical system)
前記記憶手段は、レンズユニットの種別を識別するためのレンズ種別データを更に記憶し、
前記判定手段は、前記レンズ種別データに基づいて前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定することを特徴とする請求項8に記載のカメラシステム。
The storage means further stores lens type data for identifying the type of the lens unit,
The camera system according to claim 8, wherein the determination unit determines whether the lens unit is a lens unit corresponding to the camera shake correction unit based on the lens type data.
前記判定手段は、前記ぶれ補正量を演算するためのデータの有無に基づいて前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定することを特徴とする請求項8に記載のカメラシステム。   9. The determination unit according to claim 8, wherein the determination unit determines whether the lens unit is a lens unit corresponding to the camera shake correction unit based on presence / absence of data for calculating the blur correction amount. The camera system described. 前記ぶれ補正量を演算するためのデータは、少なくとも前記光学系の主点位置に対応するデータを含むことを特徴とする請求項8に記載のカメラシステム。   9. The camera system according to claim 8, wherein the data for calculating the blur correction amount includes at least data corresponding to a principal point position of the optical system. 光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディとを有するカメラシステムにおいて、
前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、
前記手ぶれ補正手段のぶれ補正量を演算するためのデータを記憶する記憶手段と、
前記記憶手段に記憶されたデータから、前記手ぶれ補正手段における補正の際の補正量を演算する制御手段と、
を具備することを特徴とするカメラシステム。
In a camera system having a lens unit having an optical system and a camera body in which the lens unit is configured to be detachable,
Camera shake correcting means for correcting the effect of camera shake on the camera body;
Storage means for storing data for calculating a shake correction amount of the camera shake correction means;
Control means for calculating a correction amount at the time of correction in the camera shake correction means from the data stored in the storage means;
A camera system comprising:
前記記憶手段に記憶されたデータは、フォーカスレンズ群の繰り出し量から光学系のレンズデータを求めるための変換係数であることを特徴とする請求項15に記載のカメラシステム。   16. The camera system according to claim 15, wherein the data stored in the storage means is a conversion coefficient for obtaining lens data of an optical system from a feed amount of the focus lens group. 前記記憶手段に記憶されたデータは、フォーカスレンズ群の繰り出しパルス数から光学系のレンズデータを求めるための変換係数であることを特徴とする請求項15に記載のカメラシステム。   16. The camera system according to claim 15, wherein the data stored in the storage means is a conversion coefficient for obtaining lens data of the optical system from the number of extended pulses of the focus lens group. 前記手ぶれ補正量を演算するためのデータは、前記光学系の横倍率、前記光学系の焦点距離、及び前記光学系の前側主点位置を含むことを特徴とする請求項15に記載のカメラシステム。   16. The camera system according to claim 15, wherein the data for calculating the camera shake correction amount includes a lateral magnification of the optical system, a focal length of the optical system, and a front principal point position of the optical system. . 前記手ぶれ補正手段は、前記カメラボディの回転によるぶれ角度を検出する手段を有し、
前記ぶれ補正量は、前記ぶれ補正量を演算するためのデータと前記回転によるぶれ角度とから演算されることを特徴とする請求項15に記載のカメラシステム。
The camera shake correction means includes means for detecting a camera shake angle due to rotation of the camera body,
The camera system according to claim 15, wherein the shake correction amount is calculated from data for calculating the shake correction amount and a shake angle due to the rotation.
前記ぶれ補正量は、以下の式によって演算されることを特徴とする請求項19に記載のカメラシステム。
θ=k・θ
(Iθ:ぶれ補正量、θ:ぶれ角度)
及び
k=(1+B)f+B・H
(f:光学系の焦点距離、B:光学系の横倍率、H:像面から前側主点までの距離)
The camera system according to claim 19, wherein the blur correction amount is calculated by the following equation.
I θ = k · θ
(I θ : blur correction amount, θ: blur angle)
And k = (1 + B) f + B · H
(F: focal length of optical system, B: lateral magnification of optical system, H: distance from image plane to front principal point)
前記手ぶれ補正手段は、
前記カメラボディの回転によるぶれ角度を検出する手段と、
前記カメラの平行移動ぶれ量を検出する手段と、
を有し、
前記ぶれ補正量は、前記ぶれ補正量を演算するためのデータと、前記回転によるぶれ角度と、前記平行移動ぶれ量とから演算されることを特徴とする請求項15に記載のカメラシステム。
The camera shake correction means includes
Means for detecting a blur angle due to rotation of the camera body;
Means for detecting a translational blur amount of the camera;
Have
16. The camera system according to claim 15, wherein the shake correction amount is calculated from data for calculating the shake correction amount, a shake angle due to the rotation, and the translational shake amount.
前記ぶれ補正量は、以下の式によって演算されることを特徴とする請求項21に記載のカメラシステム。
θ=k1・θ+k2・δ
(Iθ:ぶれ補正量、θ:ぶれ角度、δ:平行移動ぶれ量)
及び
k1=(1+B)f+B・H
k2=−B
(f:光学系の焦点距離、B:光学系の横倍率、H:像面から前側主点までの距離)
The camera system according to claim 21, wherein the blur correction amount is calculated by the following equation.
I θ = k1 · θ + k2 · δ
(I θ : blur correction amount, θ: blur angle, δ: translation blur amount)
And k1 = (1 + B) f + B · H
k2 = -B
(F: focal length of optical system, B: lateral magnification of optical system, H: distance from image plane to front principal point)
前記記憶手段は、前記レンズユニットに設けられていることを特徴とする請求項15に記載のカメラシステム。   The camera system according to claim 15, wherein the storage unit is provided in the lens unit. 前記記憶手段は、前記カメラボディに設けられていることを特徴とする請求項15に記載のカメラシステム。   The camera system according to claim 15, wherein the storage unit is provided in the camera body. 光学系を有するレンズユニットと、前記レンズユニットが着脱自在に構成されたカメラボディとを有するカメラシステムにおいて、
前記カメラボディにおけるぶれの影響を補正する手ぶれ補正手段と、
前記手ぶれ補正手段のぶれ補正量を演算するためのデータを記憶する記憶手段と、
前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであるか否かを判定する判定手段と、
前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットであると判定された場合には前記記憶手段に記憶された前記ぶれ補正量を演算するためのデータに基づいて前記手ぶれ補正手段のぶれ補正量を演算し、前記レンズユニットが前記手ぶれ補正手段に対応するレンズユニットでないと判定された場合に、前記手ぶれ補正手段のぶれ補正量を、前記光学系の焦点距離と前記光学系の撮影距離と前記光学系の光軸のぶれ角度とに基づいて近似演算する制御手段と、
を具備することを特徴とするカメラシステム。
In a camera system having a lens unit having an optical system and a camera body in which the lens unit is configured to be detachable,
Camera shake correcting means for correcting the effect of camera shake on the camera body;
Storage means for storing data for calculating a shake correction amount of the camera shake correction means;
Determination means for determining whether or not the lens unit is a lens unit corresponding to the camera shake correction means;
When it is determined that the lens unit is a lens unit corresponding to the camera shake correction unit, the camera shake correction amount of the camera shake correction unit is based on data for calculating the camera shake correction amount stored in the storage unit. And when it is determined that the lens unit is not a lens unit corresponding to the camera shake correction unit, the camera shake correction amount of the camera shake correction unit is calculated using the focal length of the optical system, the shooting distance of the optical system, and the Control means for performing an approximate calculation based on the angle of shake of the optical axis of the optical system;
A camera system comprising:
JP2006016226A 2005-07-29 2006-01-25 Camera system Pending JP2007058160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006016226A JP2007058160A (en) 2005-07-29 2006-01-25 Camera system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005220413 2005-07-29
JP2006016226A JP2007058160A (en) 2005-07-29 2006-01-25 Camera system

Publications (2)

Publication Number Publication Date
JP2007058160A true JP2007058160A (en) 2007-03-08
JP2007058160A5 JP2007058160A5 (en) 2008-11-20

Family

ID=37921682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006016226A Pending JP2007058160A (en) 2005-07-29 2006-01-25 Camera system

Country Status (1)

Country Link
JP (1) JP2007058160A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224076A (en) * 2009-03-23 2010-10-07 Nikon Corp Imaging device
JP2010286594A (en) * 2009-06-10 2010-12-24 Canon Inc Image shake correction apparatus and imaging apparatus
US7970266B2 (en) 2007-11-09 2011-06-28 Panasonic Corporation Camera
US8330824B2 (en) 2007-11-09 2012-12-11 Panasonic Corporation Camera, camera system, and camera body
WO2015087533A1 (en) * 2013-12-11 2015-06-18 旭化成エレクトロニクス株式会社 Camera shake correction device and adjustment method therefor, camera shake correction circuit, camera shake correction method, camera module and position control method for optical element of camera module
JP2016045426A (en) * 2014-08-25 2016-04-04 キヤノン株式会社 Imaging apparatus and control method thereof
JP2021162633A (en) * 2020-03-31 2021-10-11 キヤノン株式会社 Imaging equipment, control methods, and programs
JP2022124048A (en) * 2021-02-15 2022-08-25 キヤノン株式会社 LENS APPARATUS, IMAGING SYSTEM, LENS APPARATUS CONTROL METHOD, AND PROGRAM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297442A (en) * 1991-06-21 1993-11-12 Nikon Corp Image blur correcting device for photographing device
JPH09236838A (en) * 1996-02-29 1997-09-09 Canon Inc Imaging equipment
JPH11271831A (en) * 1998-03-24 1999-10-08 Nikon Corp Interchangeable lens and image stabilization camera
JP2002049067A (en) * 2000-08-03 2002-02-15 Canon Inc Anti-vibration device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297442A (en) * 1991-06-21 1993-11-12 Nikon Corp Image blur correcting device for photographing device
JPH09236838A (en) * 1996-02-29 1997-09-09 Canon Inc Imaging equipment
JPH11271831A (en) * 1998-03-24 1999-10-08 Nikon Corp Interchangeable lens and image stabilization camera
JP2002049067A (en) * 2000-08-03 2002-02-15 Canon Inc Anti-vibration device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970266B2 (en) 2007-11-09 2011-06-28 Panasonic Corporation Camera
US8330824B2 (en) 2007-11-09 2012-12-11 Panasonic Corporation Camera, camera system, and camera body
JP2010224076A (en) * 2009-03-23 2010-10-07 Nikon Corp Imaging device
JP2010286594A (en) * 2009-06-10 2010-12-24 Canon Inc Image shake correction apparatus and imaging apparatus
CN105814484A (en) * 2013-12-11 2016-07-27 旭化成微电子株式会社 Shake correction device and adjustment method thereof, shake correction circuit, shake correction method, and position control method of camera module and optical element thereof
WO2015087533A1 (en) * 2013-12-11 2015-06-18 旭化成エレクトロニクス株式会社 Camera shake correction device and adjustment method therefor, camera shake correction circuit, camera shake correction method, camera module and position control method for optical element of camera module
JPWO2015087533A1 (en) * 2013-12-11 2017-03-16 旭化成エレクトロニクス株式会社 Camera shake correction apparatus, camera shake correction circuit, and camera shake correction method
US10613342B2 (en) 2013-12-11 2020-04-07 Asahi Kasei Microdevices Corporation Image stabilizer and adjustment method thereof, image stabilizing circuit, image stabilizing method, and camera module and position control method of optical component thereof
JP2016045426A (en) * 2014-08-25 2016-04-04 キヤノン株式会社 Imaging apparatus and control method thereof
JP2021162633A (en) * 2020-03-31 2021-10-11 キヤノン株式会社 Imaging equipment, control methods, and programs
US11659280B2 (en) 2020-03-31 2023-05-23 Canon Kabushiki Kaisha Image pickup apparatus, control method, and storage medium for controlling an image stabilization unit
JP2022124048A (en) * 2021-02-15 2022-08-25 キヤノン株式会社 LENS APPARATUS, IMAGING SYSTEM, LENS APPARATUS CONTROL METHOD, AND PROGRAM
JP7665351B2 (en) 2021-02-15 2025-04-21 キヤノン株式会社 Lens apparatus, imaging system, and method and program for controlling the lens apparatus

Similar Documents

Publication Publication Date Title
JP4717748B2 (en) Camera body and camera system having the same
JP5558956B2 (en) Imaging apparatus and control method thereof
EP1819149A1 (en) Camera system with image stabililizing function, camera body thereof, and interchangeable lens thereof
CN110462507B (en) Image blur correction device, interchangeable lens, and imaging device
EP2993506B1 (en) Interchangeable lens apparatus, image capturing apparatus and system
CN110494802B (en) Image pickup device, control method for image pickup, and storage medium
JP2009296561A (en) Imaging apparatus and imaging method
JP2007034141A (en) Camera system and lens unit
JP2012128356A (en) Shake correction device and optical apparatus
US11350036B2 (en) Image pickup apparatus and lens device that have image blur correction function
JP5020800B2 (en) Imaging apparatus and control method thereof
JP2007025298A (en) Camera system
US8013896B2 (en) Imaging apparatus including shaking correction for a second imaging sensor
JP2007058160A (en) Camera system
JP5724057B2 (en) Imaging device
JP2007233166A (en) Camera with shake correction function
JP2007033740A (en) Camera system with camera shake correction function
EP4250755A1 (en) Control apparatus, lens apparatus, image pickup apparatus, camera system, control method, and program
WO2007148453A1 (en) Camera body, camera system, interchangeable lens unit, and control method
JP4951803B2 (en) Camera shake correction control device, camera body including the same, and interchangeable lens
JP2007052235A (en) Camera system
US10498969B2 (en) Image pickup apparatus, control apparatus, and exposure control method
JP2007034023A (en) Focusing device for camera
JP7418116B2 (en) Shake correction control device, imaging device, and shake correction control method
JP2009037031A (en) Display device and camera equipped with the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110927