[go: up one dir, main page]

JP2011114486A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2011114486A
JP2011114486A JP2009267771A JP2009267771A JP2011114486A JP 2011114486 A JP2011114486 A JP 2011114486A JP 2009267771 A JP2009267771 A JP 2009267771A JP 2009267771 A JP2009267771 A JP 2009267771A JP 2011114486 A JP2011114486 A JP 2011114486A
Authority
JP
Japan
Prior art keywords
image
distortion
input image
correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009267771A
Other languages
Japanese (ja)
Inventor
Yasuhiro Iijima
靖博 飯島
Kanichi Furuyama
貫一 古山
Yasuhachi Hamamoto
安八 浜本
Yukitsugu Kimura
幸嗣 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009267771A priority Critical patent/JP2011114486A/en
Publication of JP2011114486A publication Critical patent/JP2011114486A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform stable FP (focal plane) distortion correction even when a panning operation, or the like is performed. <P>SOLUTION: The imaging device includes: an image motion-detecting part 52 for generating image motion information by performing optical flow detection of an input image from image data of the input image; a sensor part 53 for using an angular velocity sensor to generate sensor motion information; a pan and tilt-determining part 54 for using those information to perform pan and tilt determination; an FP correction amount-calculating part 55 for calculating an FP correction amount from the image motion information when panning or tilting is performed, and on the other hand, calculating the FP correction amount from the sensor motion information when they are not performed; and a correction processing part 56 for executing FP distortion correction processing of removing the FP distortion of the input image on the basis of the FP correction amount and electronic camera-shake correction processing on the basis of the image motion information or the sensor motion information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタルビデオカメラ、デジタルスチルカメラ等の撮像装置に関し、特にフォーカルプレーン歪みを除去する技術に関する。   The present invention relates to an imaging apparatus such as a digital video camera or a digital still camera, and more particularly to a technique for removing focal plane distortion.

固体撮像素子に用いられる電子シャッタは、撮像面の全受光画素が共通タイミングで露光されるグローバルシャッタと、異なる水平ライン間で露光タイミングが異なるローリングシャッタに大別される。ローリングシャッタは、画素単位で受光画素の出力信号を読み出すことのできるXYアドレス型の固体撮像素子、例えば、CMOSイメージセンサで利用される。   Electronic shutters used in solid-state imaging devices are roughly classified into a global shutter in which all light receiving pixels on the imaging surface are exposed at a common timing, and a rolling shutter in which exposure timing is different between different horizontal lines. The rolling shutter is used in an XY address type solid-state imaging device, for example, a CMOS image sensor, which can read out an output signal of a light receiving pixel in a pixel unit.

ローリングシャッタを採用した撮像装置では、撮影者の手ぶれ等の影響によって撮影時に固体撮像素子に位置的変化が生じると、原理上、撮影画像にフォーカルプレーン歪み(以下、FP歪みという)が発生することが知られている。但し、撮影画像に対して適切な画像処理を行えば、FP歪みを低減することが可能である。   In an imaging apparatus that employs a rolling shutter, a focal plane distortion (hereinafter referred to as FP distortion) occurs in a captured image in principle when a positional change occurs in a solid-state imaging device during shooting due to the influence of a camera shake of a photographer. It has been known. However, FP distortion can be reduced by performing appropriate image processing on the captured image.

例えば、撮像装置に設けられたセンサ部の出力から、手ぶれ等による撮像装置の動きを検出し、検出した動きに基づいて撮影画像を補正することでFP歪みを低減する方法が知られている。このようなセンサ部の内部構成図を、図23に示す。センサ部には、撮像装置の角速度を表す検出信号を出力する角速度センサ901及び該検出信号に含まれる直流成分及び低周波成分を低減するHPF(ハイパスフィルタ)902が設けられている。図23には示されてないが、センサ部には、角速度センサ901及びHPF902から成るブロックが複数個設けられ、複数のブロックに設けられた複数の角速度センサ901が、互いに異なる方向への角速度を検出する。   For example, a method is known in which the movement of the imaging apparatus due to camera shake or the like is detected from the output of a sensor unit provided in the imaging apparatus, and the FP distortion is reduced by correcting the captured image based on the detected movement. FIG. 23 shows an internal configuration diagram of such a sensor unit. The sensor unit is provided with an angular velocity sensor 901 that outputs a detection signal representing the angular velocity of the imaging apparatus, and an HPF (High Pass Filter) 902 that reduces a direct current component and a low frequency component included in the detection signal. Although not shown in FIG. 23, the sensor unit is provided with a plurality of blocks each including an angular velocity sensor 901 and an HPF 902, and the plurality of angular velocity sensors 901 provided in the plurality of blocks have different angular velocities in different directions. To detect.

角速度センサ901の出力信号には、角速度センサ901の性質上、直流オフセット成分が不可避に含まれるため、これを除去するべくHPF902が設けられている。HPF902により、角速度センサ901の出力信号に含まれる不要な信号成分が除去され、有効な信号成分のみを抽出することができるのであるが、撮像装置にパンニング又はチルティングが成されている時には、HPF902の存在がセンサ部の出力信号に悪影響を与える。   Since the output signal of the angular velocity sensor 901 inevitably contains a DC offset component due to the nature of the angular velocity sensor 901, an HPF 902 is provided to remove this component. The HPF 902 can remove unnecessary signal components included in the output signal of the angular velocity sensor 901 and extract only effective signal components. However, when panning or tilting is performed on the imaging apparatus, the HPF 902 The presence of this adversely affects the output signal of the sensor unit.

図24を参照して該悪影響を説明する。例えば、一定方向に一定速度で撮像装置を振るパンニング操作が成されると、パンニング期間中、継続的に、大きな信号値を有する角速度信号が角速度センサ901から出力される。この時における角速度センサ901の出力信号から直流オフセット成分を除いた信号は、本来、センサ部から出力されるべき理想的な信号921である。しかしながら、パンニング期間中には、HPF902の影響によりセンサ部の出力信号が本来の信号から減衰し、パンニングの終了時にはHPF902の影響によりセンサ部の出力信号が過度に減少して本来は正となるべきセンサ部の出力信号が負になったりする。本来の信号から減衰した信号に基づいてFP歪み補正を行えば補正が不足し、正負が逆の信号に基づいてFP歪み補正を行えば改悪画像又は過補正画像が得られる。このように、パンニング操作時には、センサ部から正確な信号を得にくく、結果、FP歪みの補正を正確に実行し難いという問題があった。   The adverse effect will be described with reference to FIG. For example, when a panning operation is performed in which the imaging apparatus is shaken at a constant speed in a constant direction, an angular velocity signal having a large signal value is output from the angular velocity sensor 901 continuously during the panning period. The signal obtained by removing the DC offset component from the output signal of the angular velocity sensor 901 at this time is an ideal signal 921 that should be output from the sensor unit. However, during the panning period, the output signal of the sensor unit attenuates from the original signal due to the influence of the HPF 902, and at the end of panning, the output signal of the sensor part should excessively decrease due to the influence of the HPF 902 and should be positive in nature. The output signal of the sensor unit becomes negative. If the FP distortion correction is performed based on the signal attenuated from the original signal, the correction is insufficient, and if the FP distortion correction is performed based on the signal having the opposite sign, a corrupted image or an overcorrected image is obtained. As described above, there is a problem in that it is difficult to obtain an accurate signal from the sensor unit during the panning operation, and as a result, it is difficult to accurately correct the FP distortion.

ところで、撮像装置の動きを検出するセンサ部を用いた従来方法が様々に提案されている。例えば、下記特許文献1及び2には、パンニング又はチルティング操作を考慮しつつ、角速度センサ情報と画像データに基づく動きベクトル情報とを併用して光学式手ぶれ補正を行う方法が提案されている。しかしながら、この方法は、光学式手ぶれ補正に関する方法であって、FP歪みに対する上記問題に何ら解決策を与えない。また、下記特許文献3には、振動検出手段の検出結果から手ぶれ補正を行う方法において、パンニング又はチルティングがあった時に振動検出手段の出力信号を変更する方法が開示されている。しかしながら、この方法は、パンニング又はチルティング操作時に発生しうる、いわゆる揺り戻し現象を軽減するための方法であって、FP歪みに対する上記問題に何ら解決策を与えない。   By the way, various conventional methods using a sensor unit that detects the movement of the imaging apparatus have been proposed. For example, Patent Documents 1 and 2 below propose a method of performing optical camera shake correction using both angular velocity sensor information and motion vector information based on image data in consideration of panning or tilting operations. However, this method is a method related to optical image stabilization, and does not provide any solution to the above-described problem with respect to FP distortion. Further, Patent Document 3 below discloses a method of changing the output signal of the vibration detecting means when panning or tilting is performed in the method of correcting camera shake from the detection result of the vibration detecting means. However, this method is a method for reducing a so-called swing-back phenomenon that may occur during a panning or tilting operation, and does not provide any solution to the above problem with respect to FP distortion.

特開平11−187308号公報JP 11-187308 A 特開平05−14801号公報JP 05-14801 A 特開2007−324929号公報JP 2007-324929 A

そこで本発明は、パンニング等が成されているときにおいても安定した画像補正を行うことのできる撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging apparatus capable of performing stable image correction even when panning or the like is performed.

本発明に係る撮像装置は、互いに異なる水平ライン間で露光タイミングを異ならせつつ撮影を行って入力画像を生成する撮像素子を備えた撮像装置において、前記撮像素子の出力に基づく複数の入力画像間のオプティカルフローを前記撮像素子の出力に基づいて検出する動き検出部と、当該撮像装置の動きを検出するセンサ部と、前記動き検出部の検出結果及び前記センサ部の検出結果の双方又は一方に基づいて前記動き検出部の検出結果及び前記センサ部の検出結果のどちらかを選択し、選択した検出結果に基づいて前記入力画像を補正することにより出力画像を生成する補正部と、を備えたことを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup device that generates an input image by shooting while varying exposure timing between different horizontal lines, and includes a plurality of input images based on the output of the image pickup device. A motion detection unit that detects the optical flow of the imaging device based on the output of the imaging device, a sensor unit that detects the motion of the imaging device, and / or a detection result of the motion detection unit and a detection result of the sensor unit. A correction unit that selects either a detection result of the motion detection unit or a detection result of the sensor unit based on the correction value, and generates an output image by correcting the input image based on the selected detection result. It is characterized by that.

これにより、パンニング等が成されているときなど、センサ部の検出結果の正確性が疑われるときには、動き検出部の検出結果を用いて入力画像を補正することが可能となる。この結果、正確性が疑われるセンサ部の検出結果を用いることによる、入力画像の誤補正が回避される。   Thereby, when the accuracy of the detection result of the sensor unit is suspected, such as when panning or the like is performed, the input image can be corrected using the detection result of the motion detection unit. As a result, erroneous correction of the input image by using the detection result of the sensor unit suspected of being accurate is avoided.

具体的には例えば、前記補正部は、異なる水平ライン間で露光タイミングが異なることによって前記入力画像に生じた歪みを補正する。   Specifically, for example, the correction unit corrects distortion generated in the input image due to different exposure timings between different horizontal lines.

また例えば、前記補正部は、複数の入力画像から成る入力動画像の撮影期間中における当該撮像装置の動きによって発生した、前記入力動画像上のぶれをも更に補正し、前記ぶれの補正は、前記動き検出部の検出結果又は前記センサ部の検出結果に基づいて行われる。   Further, for example, the correction unit further corrects a shake on the input moving image generated by a movement of the imaging apparatus during a shooting period of the input moving image including a plurality of input images. This is performed based on the detection result of the motion detection unit or the detection result of the sensor unit.

より具体的には例えば、当該撮像装置は、前記動き検出部の検出結果及び前記センサ部の検出結果の双方又は一方に基づいて当該撮像装置のパンニング又はチルティングの有無を判定する判定部を更に備え、前記補正部は、前記パンニング又はチルティングが有ると判定された場合には前記動き検出部の検出結果を選択する一方で、そうでない場合には前記センサ部の検出結果を選択する。   More specifically, for example, the imaging apparatus further includes a determination unit that determines the presence or absence of panning or tilting of the imaging apparatus based on both or one of the detection result of the motion detection unit and the detection result of the sensor unit. The correction unit selects the detection result of the motion detection unit when it is determined that the panning or tilting is present, and selects the detection result of the sensor unit otherwise.

また例えば、前記補正部は、異なる水平ライン間で露光タイミングが異なることによって前記入力画像に生じた歪みを補正する歪み補正部、及び、複数の入力画像から成る入力動画像の撮影期間中における当該撮像装置の動きによって発生した、前記入力動画像上のぶれを補正するぶれ補正部を備え、前記歪みの補正は前記選択した検出結果に基づいて行われる一方で、前記ぶれの補正は前記動き検出部の検出結果又は前記センサ部の検出結果に基づいて行われ、前記補正部は、当該撮像装置にパンニング又はチルティングが成されていないときには、前記歪み補正部及び前記ぶれ補正部を用いて前記入力画像から前記出力画像を生成し、当該撮像装置にパンニング又はチルティングが成されているときには、前記ぶれ補正部を用いることなく前記歪み補正部を用いて前記入力画像から前記出力画像を生成する。   In addition, for example, the correction unit corrects distortion generated in the input image due to different exposure timings between different horizontal lines, and the correction unit during a shooting period of an input moving image including a plurality of input images A blur correction unit that corrects a blur on the input moving image generated by a motion of the imaging apparatus, and the distortion correction is performed based on the selected detection result, while the blur correction is the motion detection; Is performed based on the detection result of the part or the detection result of the sensor part, and the correction part uses the distortion correction part and the shake correction part when the panning or tilting is not performed on the imaging device. When the output image is generated from the input image and panning or tilting is performed on the imaging device, the blur correction unit should not be used. Generating the output image from the input image using the distortion correction unit.

パンニング又はチルティングはユーザの意図によるものであるため、パンニング又はチルティングが成されているときには、ぶれ補正部を用いずに出力画像を生成した方が自然である。故に、上記の如く撮像装置を形成しても良い。   Since panning or tilting is based on the user's intention, when panning or tilting is performed, it is natural to generate an output image without using the shake correction unit. Therefore, an imaging device may be formed as described above.

また例えば、前記補正部は、前記歪みの補正の強度を変更可能に形成されている。   Further, for example, the correction unit is formed so as to be able to change the intensity of correction of the distortion.

これにより、状況に応じた歪み補正強度の最適化が図られる。   Thereby, optimization of the distortion correction intensity according to the situation is achieved.

本発明によれば、パンニング等が成されているときにおいても安定した画像補正を行うことのできる撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus capable of performing stable image correction even when panning or the like is performed.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

本発明の第1実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to a first embodiment of the present invention. 図1に示される撮像部の内部構成図である。It is an internal block diagram of the imaging part shown by FIG. 図2の撮像素子の有効画素領域における水平ライン配列を示す図である。It is a figure which shows the horizontal line arrangement | sequence in the effective pixel area | region of the image pick-up element of FIG. 図2の撮像素子における露光タイミング及び信号読み出しタイミングを表す図である。It is a figure showing the exposure timing and signal read-out timing in the image sensor of FIG. 本発明の第1実施形態に係る画像補正機能部の内部ブロック図である。It is an internal block diagram of the image correction function part which concerns on 1st Embodiment of this invention. 有効画素領域と入力画像用のメモリ領域との関係を示す図である。It is a figure which shows the relationship between an effective pixel area | region and the memory area for input images. 時系列上に並ぶ複数の入力画像と、各入力画像の露光タイミング及び信号読み出しタイミングと、を表す図である。It is a figure showing the several input image arranged on a time series, and the exposure timing and signal read-out timing of each input image. 入力画像の全体画像領域内に9つの動き検出ブロックが設定される様子を示す図である。It is a figure which shows a mode that nine motion detection blocks are set in the whole image area | region of an input image. 2枚の入力画像間のオプティカルフローを示す図である。It is a figure which shows the optical flow between two input images. 図5のセンサ部の内部構成例を表す図である。It is a figure showing the internal structural example of the sensor part of FIG. FP歪みの存在しない入力画像(a)と、水平FP歪みが生じている入力画像(b)と、垂直FP歪みが生じている入力画像(c)と、を示す図である。It is a figure which shows the input image (a) in which FP distortion does not exist, the input image (b) in which horizontal FP distortion has arisen, and the input image (c) in which vertical FP distortion has arisen. 入力画像のフレーム間動きベクトル(隣接する入力画像間の全体動きベクトル)から、入力画像のフレーム内動きベクトルを生成する方法を説明するための図である。It is a figure for demonstrating the method to produce | generate the intra-frame motion vector of an input image from the inter-frame motion vector of an input image (overall motion vector between adjacent input images). 本発明の第1実施形態に係り、水平FP歪みを含む入力画像と、該入力画像にFP歪み補正処理を施すことで得られる歪み補正画像と、を示す図である。FIG. 4 is a diagram illustrating an input image including horizontal FP distortion and a distortion correction image obtained by performing FP distortion correction processing on the input image according to the first embodiment of the present invention. 本発明の第1実施形態に係り、垂直FP歪みを含む入力画像と、該入力画像にFP歪み補正処理を施すことで得られる歪み補正画像と、を示す図である。FIG. 4 is a diagram illustrating an input image including vertical FP distortion and a distortion correction image obtained by performing FP distortion correction processing on the input image according to the first embodiment of the present invention. 本発明の第1実施形態に係る手ぶれ補正処理を説明するための図である。It is a figure for demonstrating the camera-shake correction process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置の動作フローチャートである。3 is an operation flowchart of the imaging apparatus according to the first embodiment of the present invention. 本発明の第2実施形態に係る画像補正機能部の内部ブロック図である。It is an internal block diagram of the image correction function part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係り、水平FP歪みを含む入力画像と、該入力画像にFP歪み補正処理を施すことで得られる歪み補正画像と、を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the input image containing a horizontal FP distortion, and the distortion correction image obtained by performing an FP distortion correction process to this input image. 本発明の第2実施形態に係り、垂直FP歪みを含む入力画像と、該入力画像にFP歪み補正処理を施すことで得られる歪み補正画像と、を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the input image containing a vertical FP distortion, and the distortion correction image obtained by performing an FP distortion correction process to this input image. 本発明の第2実施形態に係り、ズーム倍率(ZF)から補正強度係数(kh,kv)を設定する場合における両者間の関係を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship between both in the case of setting correction | amendment intensity | strength coefficients (kh, kv) from zoom magnification (ZF). 本発明の第2実施形態に係り、動き検出の信頼度(RL)から補正強度係数(kh,kv)を設定する場合における両者間の関係を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship between both in the case of setting correction | amendment intensity | strength coefficients (kh, kv) from the reliability (RL) of motion detection. 本発明の第2実施形態に係る撮像装置の動作フローチャートである。It is an operation | movement flowchart of the imaging device which concerns on 2nd Embodiment of this invention. 従来の撮像装置に設けられたセンサ部の内部構成図である。It is an internal block diagram of the sensor part provided in the conventional imaging device. 従来技術に係り、パンニング期間中におけるセンサ部の出力信号を、理想的な信号と共に示した図である。It is a figure which showed the output signal of the sensor part during a panning period with an ideal signal according to a prior art.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を同時に撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は撮像装置1の外部装置(不図示)に設けられたものである、と解釈するようにしても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is an overall block diagram of an imaging apparatus 1 according to the first embodiment of the present invention. The imaging device 1 has each part referred by the codes | symbols 11-28. The imaging device 1 is a digital video camera, and can capture a moving image and a still image, and also can simultaneously capture a still image during moving image capturing. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25. The display unit 27 and / or the speaker 28 may be interpreted as being provided in an external device (not shown) of the imaging device 1.

撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、固体撮像素子である撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、撮像部11の画角を調節するためのズームレンズ30及び焦点を合わせるためのフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。CPU23からの制御信号に基づき、光学系35内におけるズームレンズ30及びフォーカスレンズ31の位置並びに絞り32の開度が制御されることによって、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量が制御される。   The imaging unit 11 captures a subject using an imaging element. FIG. 2 is an internal configuration diagram of the imaging unit 11. The imaging unit 11 includes an optical system 35, a diaphragm 32, an imaging element 33 that is a solid-state imaging element, and a driver 34 that drives and controls the optical system 35 and the diaphragm 32. The optical system 35 is formed of a plurality of lenses including a zoom lens 30 for adjusting the angle of view of the imaging unit 11 and a focus lens 31 for focusing. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. Based on the control signal from the CPU 23, the position of the zoom lens 30 and the focus lens 31 in the optical system 35 and the opening of the diaphragm 32 are controlled, so that the focal length (field angle) and the focal position of the imaging unit 11 and the imaging are controlled. The amount of light incident on the element 33 is controlled.

撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成される。撮像素子33の各受光画素は、光学系35及び絞り32を介して入射した被写体の光学像を光電変換し、該光電変換によって得られた電気信号をAFE12(Analog Front End)に出力する。   The image sensor 33 is formed by arranging a plurality of light receiving pixels in the horizontal and vertical directions. Each light receiving pixel of the image sensor 33 photoelectrically converts an optical image of a subject incident through the optical system 35 and the diaphragm 32, and outputs an electric signal obtained by the photoelectric conversion to an AFE 12 (Analog Front End).

AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU(Central Processing Unit)23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して必要な画像処理を施し、画像処理後の画像についての映像信号を生成する。マイク14は、撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The AFE 12 amplifies the analog signal output from the image sensor 33 (each light receiving pixel), converts the amplified analog signal into a digital signal, and outputs the digital signal to the video signal processing unit 13. The amplification degree of signal amplification in the AFE 12 is controlled by a CPU (Central Processing Unit) 23. The video signal processing unit 13 performs necessary image processing on the image represented by the output signal of the AFE 12, and generates a video signal for the image after the image processing. The microphone 14 converts the ambient sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号及び音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の映像信号及び音声信号を記録する。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 using a predetermined compression method. The internal memory 17 is composed of a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores various data. The external memory 18 as a recording medium is a non-volatile memory such as a semiconductor memory or a magnetic disk, and records a video signal and an audio signal compressed by the compression processing unit 16.

伸張処理部19は、外部メモリ18から読み出された圧縮された映像信号及び音声信号を伸張する。伸張処理部19による伸張後の映像信号又は映像信号処理部13からの映像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音声信号は、音声出力回路21を介してスピーカ28に送られて音として出力される。   The decompression processing unit 19 decompresses the compressed video signal and audio signal read from the external memory 18. The video signal expanded by the expansion processing unit 19 or the video signal from the video signal processing unit 13 is sent to the display unit 27 such as a liquid crystal display via the display processing unit 20 and displayed as an image. Further, the audio signal that has been expanded by the expansion processing unit 19 is sent to the speaker 28 via the audio output circuit 21 and output as sound.

TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。TG22は、更に、CPU23の制御の下、撮像素子33の駆動パルスを生成して撮像素子33に供給する。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b、並びに、ズーム倍率を指定するためのズームボタン26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。   The TG (timing generator) 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and gives the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The TG 22 further generates a drive pulse for the image sensor 33 under the control of the CPU 23 and supplies the drive pulse to the image sensor 33. The CPU 23 comprehensively controls the operation of each part in the imaging apparatus 1. The operation unit 26 includes a recording button 26a for instructing start / end of moving image shooting and recording, a shutter button 26b for instructing shooting and recording of a still image, and a zoom button for designating a zoom magnification. 26c and the like, and accepts various operations by the user. The operation content for the operation unit 26 is transmitted to the CPU 23.

撮像素子33は、電子シャッタ機能を備えており、所謂ローリングシャッタによって各受光画素の露光を実施する。撮像素子33には、複数の受光画素によって形成される撮像面が設けられており、撮像面上に定義された複数の水平ライン及び複数の垂直ラインに沿って受光画素が二次元配列されている。ローリングシャッタでは、撮像面の各受光画素が露光されるタイミングが水平ラインごとに異なる。つまり、撮像面における異なる水平ライン間で受光画素の露光タイミングが異なる。   The image sensor 33 has an electronic shutter function, and performs exposure of each light receiving pixel by a so-called rolling shutter. The imaging element 33 is provided with an imaging surface formed by a plurality of light receiving pixels, and the light receiving pixels are two-dimensionally arrayed along a plurality of horizontal lines and a plurality of vertical lines defined on the imaging surface. . In the rolling shutter, the timing at which each light receiving pixel on the imaging surface is exposed differs for each horizontal line. That is, the exposure timing of the light receiving pixels is different between different horizontal lines on the imaging surface.

図3及び図4を参照しつつ、撮像素子33のローリングシャッタについて説明を補足する。図3に示す如く、撮像面において、垂直ラインに沿った方向(即ち撮像面の垂直方向)が上下方向であり、撮像面の有効画素領域33Aの最上端に配置された水平ラインが第1水平ラインであって且つ有効画素領域33Aの最下端に配置された水平ラインが第M水平ラインであるとする(Mは、2以上の整数であり、一般的には数100から数1000である)。そうすると、図4に示す如く、或る1つの注目フレームについて、第(i+1)水平ライン上の受光画素における露光の開始時刻は、第i水平ライン上の受光画素における露光の開始時刻よりもΔt秒だけ遅い(Δt>0且つiは整数)。1つのフレームにおいて、第i水平ライン上の受光画素の露光が行われる時間の長さは第(i+1)水平ライン上の受光画素のそれと同じであると共に、Δtはiの値に依存せず一定である。各受光画素の露光の終了後に、各受光画素の出力信号を読み出すことができ、読み出された出力信号はAFE12に送られる。 A supplementary description of the rolling shutter of the image sensor 33 will be given with reference to FIGS. 3 and 4. As shown in FIG. 3, on the imaging surface, the direction along the vertical line (that is, the vertical direction of the imaging surface) is the vertical direction, and the horizontal line arranged at the uppermost end of the effective pixel area 33 A on the imaging surface is the first. It is assumed that the horizontal line and the horizontal line arranged at the lowermost end of the effective pixel area 33 A is the Mth horizontal line (M is an integer equal to or larger than 2, generally in the range of several hundreds to several thousand. is there). Then, as shown in FIG. 4, for a certain target frame, the exposure start time at the light receiving pixels on the (i + 1) th horizontal line is Δt seconds from the exposure start time at the light receiving pixels on the i th horizontal line. Slow (Δt> 0 and i is an integer). In one frame, the exposure time of the light receiving pixels on the i-th horizontal line is the same as that of the light receiving pixels on the (i + 1) -th horizontal line, and Δt is constant regardless of the value of i. It is. After the exposure of each light receiving pixel is completed, the output signal of each light receiving pixel can be read, and the read output signal is sent to the AFE 12.

Δt及びΔtの整数倍を、異なる水平ライン間における露光タイミング差という。Δtは、隣接水平ライン間における露光タイミング差である。   An integer multiple of Δt and Δt is called an exposure timing difference between different horizontal lines. Δt is an exposure timing difference between adjacent horizontal lines.

尚、第1〜第M水平ラインの内、露光タイミングが互いに同じとなる複数の水平ラインが存在していても構わない。例えば、2本の水平ラインごとに露光タイミングが異なっていても構わない。この場合、第2水平ラインの露光タイミングと第3水平ラインの露光タイミングが異なるものの、第1及び第2水平ラインの露光タイミングが同じであって且つ第3及び第4水平ラインの露光タイミングが同じとなる。また、1つの水平ラインにおいても各受光画素の露光タイミングは順次ずれるが、1つの水平ライン上の異なる受光画素間の露光タイミング差は、異なる水平ライン間のそれよりも十分小さいため、1つの水平ライン上における各受光画素の露光タイミングを同じとみなすことができる。   Of the first to Mth horizontal lines, there may be a plurality of horizontal lines having the same exposure timing. For example, the exposure timing may be different for every two horizontal lines. In this case, although the exposure timing of the second horizontal line and the exposure timing of the third horizontal line are different, the exposure timing of the first and second horizontal lines is the same and the exposure timing of the third and fourth horizontal lines is the same. It becomes. Further, although the exposure timing of each light receiving pixel is sequentially shifted in one horizontal line, the difference in exposure timing between different light receiving pixels on one horizontal line is sufficiently smaller than that between different horizontal lines, so The exposure timing of each light receiving pixel on the line can be regarded as the same.

撮像素子33は、例えば、XYアドレス型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。CMOSを形成可能な半導体基板上に、複数の受光画素から成る撮像面、垂直走査回路、水平走査回路及び画素信号出力回路等を形成することによって、CMOSイメージセンサが形成される。但し、撮像素子33がローリングシャッタによって各受光画素の露光を実施するものであるならば、撮像素子33は、XYアドレス走査型のCMOSイメージセンサでなくても構わない。   The image sensor 33 is, for example, an XY address type CMOS (Complementary Metal Oxide Semiconductor) image sensor. A CMOS image sensor is formed by forming an imaging surface composed of a plurality of light receiving pixels, a vertical scanning circuit, a horizontal scanning circuit, a pixel signal output circuit, and the like on a semiconductor substrate capable of forming a CMOS. However, if the image pickup device 33 performs exposure of each light receiving pixel by a rolling shutter, the image pickup device 33 may not be an XY address scanning type CMOS image sensor.

背景技術の説明でも述べたように、ローリングシャッタにて撮影された画像には、FP歪み(フォーカルプレーン歪み)が発生する。FP歪みは、Δtが0よりも大きいことに起因して生じ、Δtが大きいほどFP歪みは増加する傾向にある。撮像装置1には、このFP歪みを適切に除去する機能が備えられている。   As described in the description of the background art, FP distortion (focal plane distortion) occurs in an image taken with a rolling shutter. The FP distortion occurs due to Δt being larger than 0, and the FP distortion tends to increase as Δt increases. The imaging device 1 has a function of appropriately removing this FP distortion.

図5に、第1実施形態に係る、FP歪みの除去機能を担う画像補正機能部50のブロック図を示す。画像補正機能部50は撮像装置1に設けられ、画像補正機能部50は、符号51〜56によって参照される各部位を含む。フレームメモリ51は、図1の内部メモリ17にて実現される。画像動き検出部52及び補正処理部56は、例えば、図1の映像信号処理部13に設けられる。パン・チルト判定部54及びFP補正量算出部55は、映像信号処理部13によって、或いは、CPU23によって、或いは、映像信号処理部13及びCPU23によって実現される。   FIG. 5 shows a block diagram of the image correction function unit 50 having the FP distortion removal function according to the first embodiment. The image correction function unit 50 is provided in the imaging apparatus 1, and the image correction function unit 50 includes each part referred to by reference numerals 51 to 56. The frame memory 51 is realized by the internal memory 17 of FIG. The image motion detection unit 52 and the correction processing unit 56 are provided, for example, in the video signal processing unit 13 of FIG. The pan / tilt determination unit 54 and the FP correction amount calculation unit 55 are realized by the video signal processing unit 13, the CPU 23, or the video signal processing unit 13 and the CPU 23.

所定のフレームレート(例えば、30フレーム/秒)にて撮像素子33の各受光画素の出力信号が読み出され、撮像素子33の各受光画素の出力信号は、入力画像の画像信号としてフレームメモリ51に保存される。但し、各受光画素の出力信号に必要な信号処理を施して得た信号が入力画像の画像信号であるとする。ここにおける信号処理には、AFE12における信号増幅及び信号デジタル化が含まれ、更に、画像信号の信号形式をRAWデータ形式からYUV形式に変換するデモザイキング処理等も含まれうる。YUV形式の画像信号は、輝度信号と色差信号から形成される。   The output signal of each light receiving pixel of the image sensor 33 is read out at a predetermined frame rate (for example, 30 frames / second), and the output signal of each light receiving pixel of the image sensor 33 is used as an image signal of the input image. Saved in. However, it is assumed that a signal obtained by performing necessary signal processing on the output signal of each light receiving pixel is an image signal of the input image. The signal processing here includes signal amplification and signal digitization in the AFE 12, and further includes demosaicing processing for converting the signal format of the image signal from the RAW data format to the YUV format. The YUV image signal is formed from a luminance signal and a color difference signal.

上記信号処理の内容は本発明の特徴的機能に特に関与しないため、以下の説明では、説明の簡略化上、上記信号処理の存在を無視する。本明細書において、画像信号と映像信号は同義である。また、或る受光画素又は画素についての画像信号を特に画素信号とも言う。以下の説明では、画像信号及び画素信号を画像データとも称する。また、本明細書では、符号又は記号を付記することによって符号又は記号に対応する名称を略記又は省略することがある。例えば、後述の図8等にて参照される、記号BL[1]に対応する動き検出ブロックを、ブロックBL[1]又は単にBL[1]と称することがある。   Since the contents of the signal processing are not particularly related to the characteristic functions of the present invention, the presence of the signal processing is ignored in the following description for the sake of simplicity. In this specification, an image signal and a video signal are synonymous. Further, an image signal for a certain light receiving pixel or pixel is also referred to as a pixel signal. In the following description, the image signal and the pixel signal are also referred to as image data. Moreover, in this specification, the name corresponding to a code | symbol or a symbol may be abbreviated or abbreviate | omitted by attaching a code | symbol or a symbol. For example, the motion detection block corresponding to the symbol BL [1] referred to in FIG. 8 described later may be referred to as a block BL [1] or simply BL [1].

フレームメモリ51において、1枚の入力画像に対するメモリ空間として二次元のメモリ領域51Aが割り当てられる。図6に示す如く、メモリ領域51Aは撮像素子33の有効画素領域33Aと同じ構造を有しており、有効画素領域33A上の位置(x,y)における受光画素の出力信号は、メモリ領域51A上のアドレス(x,y)に保存される(x及びyは整数)。撮像素子33において、位置(x,y)における受光画素とは、第x垂直ライン上であって且つ第y水平ライン上に位置する受光画素である。有効画素領域33Aの左端に配置された垂直ラインは第1垂直ラインであって、有効画素領域33Aにおいて、第(i+1)垂直ラインは第i垂直ラインの右側に隣接する垂直ラインである(iは整数)。有効画素領域33A上に水平及び垂直ラインが配列される方法と同様の方法にて、メモリ領域51Aにも水平及び垂直ラインが定義される。メモリ領域51A上に表現される二次元画像は、有効画素領域33A上に結像する画像と同じものである。尚、入力画像に代表される任意の二次元画像、撮像素子33、有効画素領域33A及びメモリ領域51Aにおいて、左右方向は水平方向及び水平ラインと平行であって上下方向は垂直方向及び垂直ラインと平行である。 In the frame memory 51, a two-dimensional memory area 51 A as a memory space is allocated for one input image. As shown in FIG. 6, the memory area 51 A has the same structure as the effective pixel area 33 A of the image sensor 33, and the output signal of the light receiving pixel at the position (x, y) on the effective pixel area 33 A is It is stored at an address (x, y) on the memory area 51 A (x and y are integers). In the image sensor 33, the light receiving pixel at the position (x, y) is a light receiving pixel located on the xth vertical line and on the yth horizontal line. The vertical line arranged at the left end of the effective pixel area 33 A is a first vertical line, and in the effective pixel area 33 A , the (i + 1) th vertical line is a vertical line adjacent to the right side of the i-th vertical line ( i is an integer). In the same manner as the horizontal and vertical lines are arranged in the effective pixel region on 33 A, the horizontal and vertical lines are also defined in the memory area 51 A. Two-dimensional image represented in the memory region 51 A is the same as the image to be imaged on the effective pixel region on 33 A. Incidentally, any of the two-dimensional image represented by the input image, the image sensor 33, in the effective pixel region 33 A and the memory area 51 A, vertical horizontal direction be parallel to the horizontal direction and the horizontal lines in the vertical direction and the vertical Parallel to the line.

フレームメモリ51に、メモリ領域51Aを複数個設けておくことにより、複数枚の入力画像の画像データをフレームメモリ51に保存しておくことができる。フレームメモリ51に保存された各入力画像の画像データは、画像動き検出部52及び補正処理部56に送られる。 By providing a plurality of memory areas 51 A in the frame memory 51, image data of a plurality of input images can be stored in the frame memory 51. The image data of each input image stored in the frame memory 51 is sent to the image motion detection unit 52 and the correction processing unit 56.

今、図7に示す如く、単位時間TAが経過するごとに、現在時刻が時刻tn-1、tn、tn+1、・・・になるものとする(nは整数)。従って、時刻tn-1から単位時間TAが経過した時刻が時刻tnである。単位時間TAは上記フレームレートの逆数であるフレーム周期である。但し、単位時間TAはフレーム周期の整数倍であってもよい。時刻tnを起点としてn番目の入力画像の撮影が行われる。n番目の入力画像を符号Inにて表す。時刻tn-1及びtn-1’は、それぞれ入力画像In-1を取得するための露光期間の開始時刻及び終了時刻であり、時刻tn及びtn’は、それぞれ入力画像Inを取得するための露光期間の開始時刻及び終了時刻である(時刻tn+1及びtn+1’等についても同様)。時刻tn-1及びtn-1’間の時間長さや時刻tn及びtn’間の時間長さに等しい、各入力画像の露光期間の時間長さをTBにて表す。本実施形態において、TB(例えば約10msec)はTA(例えば約33msec)よりも短いものとする。但し、TB=TAであっても構わない。 Now, as shown in FIG. 7, it is assumed that the current time becomes times t n−1 , t n , t n + 1 ,... Each time the unit time T A elapses (n is an integer). Therefore, the time when the unit time T A has elapsed from the time t n-1 is the time t n . The unit time T A is a frame period that is the reciprocal of the frame rate. However, the unit time T A may be an integral multiple of the frame period. The nth input image is shot starting from time tn. The n-th input image is denoted by reference numeral I n. Times t n−1 and t n−1 ′ are the start time and end time of the exposure period for acquiring the input image I n−1 , respectively, and the times t n and t n ′ are respectively the input image I n. Are the start time and end time of the exposure period for obtaining the same (the same applies to the times t n + 1 and t n + 1 ′). The time length of the exposure period of each input image, which is equal to the time length between times t n-1 and t n-1 ′ and the time length between times t n and t n ′, is denoted by T B. In the present embodiment, T B (for example, about 10 msec) is shorter than T A (for example, about 33 msec). However, it may be a T B = T A.

また、時系列上に並ぶ複数の画像の集まりを画像列と呼ぶ。従って例えば、入力画像In-1、In及びIn+1から成る画像列は入力画像列と称される。画像列は、動画像であるとも言える。 A collection of a plurality of images arranged in time series is called an image sequence. Therefore, for example, an image sequence composed of the input images I n−1 , I n and I n + 1 is referred to as an input image sequence. It can be said that the image sequence is a moving image.

図5の画像動き検出部52は、時間的に隣接する2枚の入力画像の画像データに基づいて当該2枚の入力画像間におけるオプティカルフローを算出し、該オプティカルフローから当該2枚の入力画像についての画像動き情報を生成して出力する。オプティカルフローの算出に当たり、画像動き検出部52では、各入力画像の全体画像領域が複数の領域に分割され、各分割領域に動き検出ブロックが設定される。   The image motion detection unit 52 in FIG. 5 calculates an optical flow between the two input images based on the image data of the two input images that are temporally adjacent to each other, and the two input images are calculated from the optical flow. Generate and output image motion information for. In calculating the optical flow, the image motion detection unit 52 divides the entire image area of each input image into a plurality of areas, and sets a motion detection block in each divided area.

図8の符号210は、或る1枚の入力画像を表している。例として、入力画像210の全体画像領域を水平及び垂直方向の夫々において3等分して9つの分割領域を定義することにより計9つの動き検出ブロックBL[1]〜BL[9]を設定することを想定する。iを0、1又は2とした場合、BL[i+1]〜BL[i+3]は水平方向に並ぶ動き検出ブロックであって、且つ、BL[i+1]、BL[i+4]及びBL[i+7]は垂直方向に並ぶ動き検出ブロックである。従って、iを0、1又は2とした場合、動き検出ブロックに内包される水平ラインはブロックBL[i+1]〜BL[i+3]間で同じであり、動き検出ブロックに内包される垂直ラインはブロックBL[i+1]、BL[i+4]及びBL[i+7]間で同じである。更に、iを0、1又は2とした場合、BL[i+1]は入力画像210の左端側に配置され、BL[i+3]は入力画像210の右端側に配置され、BL[i+2]はBL[i+1]及びBL[i+3]間に配置され、BL[i+1]は入力画像210の上端側に配置され、BL[i+7]は入力画像210の下端側に配置され、BL[i+4]はBL[i+1]及びBL[i+7]間に配置される。   A reference numeral 210 in FIG. 8 represents a certain input image. As an example, nine motion detection blocks BL [1] to BL [9] are set by defining nine divided regions by dividing the entire image region of the input image 210 into three equal parts in the horizontal and vertical directions. Assume that. When i is 0, 1 or 2, BL [i + 1] to BL [i + 3] are motion detection blocks arranged in the horizontal direction, and BL [i + 1], BL [i + 4] and BL [i + 7] are vertical. It is a motion detection block arranged in the direction. Therefore, when i is 0, 1 or 2, the horizontal line included in the motion detection block is the same between the blocks BL [i + 1] to BL [i + 3], and the vertical line included in the motion detection block is the block. It is the same among BL [i + 1], BL [i + 4] and BL [i + 7]. Further, when i is 0, 1 or 2, BL [i + 1] is arranged on the left end side of the input image 210, BL [i + 3] is arranged on the right end side of the input image 210, and BL [i + 2] is BL [i + 2]. i + 1] and BL [i + 3], BL [i + 1] is arranged on the upper end side of the input image 210, BL [i + 7] is arranged on the lower end side of the input image 210, and BL [i + 4] is BL [i + 1]. ] And BL [i + 7].

図9を参照し、時間的に隣接する2枚の入力画像を符号220及び230によって表した上で、画像動き情報の生成方法を説明する。入力画像230は入力画像220の次に生成される入力画像であり、例えば、入力画像220がIn-1であるなら入力画像230はInであり、入力画像220がInであるなら入力画像230はIn+1である。 With reference to FIG. 9, a method of generating image motion information will be described after two temporally adjacent input images are represented by reference numerals 220 and 230. The input image 230 is an input image generated next to the input image 220. For example, if the input image 220 is I n−1 , the input image 230 is I n , and if the input image 220 is I n , the input image 230 is input. Image 230 is In + 1 .

画像動き検出部52によって求められる、入力画像220及び230間のオプティカルフローは、複数の動きベクトルから成る。画像動き検出部52は、ブロックマッチング法、代表点マッチング法又は勾配法等を用いて、動き検出ブロックごとに動きベクトルを算出する。図9に示す如く、BL[1]〜BL[9]に対して求められた動きベクトルを、夫々、記号MV[1]〜MV[9]によって表す(図9では、図示の煩雑化防止のため、記号MV[1]〜MV[9]の内、一部のみを図示)。動きベクトルは、入力画像220を基準として求められる。従って、入力画像220のブロックBL[i]内の特徴点の位置が第1位置であって、且つ、該特徴点に対応する点の、入力画像230上の位置が第2位置である場合、動きベクトルMV[i]は、第1位置を始点とし第2位置を終点とするベクトルとなる。   The optical flow between the input images 220 and 230 obtained by the image motion detection unit 52 is composed of a plurality of motion vectors. The image motion detection unit 52 calculates a motion vector for each motion detection block using a block matching method, a representative point matching method, a gradient method, or the like. As shown in FIG. 9, the motion vectors obtained for BL [1] to BL [9] are represented by symbols MV [1] to MV [9], respectively (in FIG. 9, the complication prevention shown in the figure is prevented). Therefore, only a part of the symbols MV [1] to MV [9] is shown). The motion vector is obtained with reference to the input image 220. Therefore, when the position of the feature point in the block BL [i] of the input image 220 is the first position and the position corresponding to the feature point on the input image 230 is the second position, The motion vector MV [i] is a vector having a first position as a start point and a second position as an end point.

画像動き検出部52は、MV[1]〜MV[9]の平均ベクトルを全体動きベクトルMVとして求める。入力画像220及び230に対する全体動きベクトルMVは、入力画像220及び230の撮影期間中における撮像装置1の動きの向き及び大きさ(より詳細には例えば、入力画像220の露光期間の中間時点と入力画像230の露光期間の中間時点との間における撮像装置1の動きの向き及び大きさ)を表すベクトルの逆ベクトルとして求められる。全体動きベクトルMVの逆ベクトルは、後述の手ぶれの向き及び大きさを表すベクトルでもある。入力画像220及び230に対する画像動き情報には、入力画像220及び230間のベクトルMV[1]〜MV[9]並びにMVが含められる。   The image motion detection unit 52 obtains an average vector of MV [1] to MV [9] as the entire motion vector MV. The overall motion vector MV for the input images 220 and 230 is the direction and magnitude of the movement of the imaging apparatus 1 during the shooting period of the input images 220 and 230 (more specifically, for example, the intermediate point in the exposure period of the input image 220 and the input It is obtained as an inverse vector of a vector representing the direction and magnitude of the movement of the imaging apparatus 1 between the exposure point of the image 230 and the intermediate point in time. The inverse vector of the entire motion vector MV is also a vector representing the direction and size of hand movements described later. The image motion information for the input images 220 and 230 includes vectors MV [1] to MV [9] and MV between the input images 220 and 230.

図5のセンサ部53は、画像動き検出部52と異なり、センサを用いて撮像装置1の動き(換言すれば、撮像素子33の動き)を検出する。撮像装置1の動きは、いわゆる手ぶれなどによって生じる。よって、撮像装置1の動きを手ぶれとも称する。センサ部53は、フレーム周期(例えば約33msec)よりも十分に短いサンプリング間隔(例えば、1mseec間隔)で手ぶれの向き及び大きさを検出することで、任意の期間における手ぶれの向き及び大きさを検出する。センサ部53によって検出された、手ぶれの向き及び大きさを表すベクトルを、センサ手ぶれベクトルと呼ぶ。センサ部53は、1つのサンプリング間隔におけるセンサ手ぶれベクトルを生成することもできるし、サンプリング間隔の整数倍の期間におけるセンサ手ぶれベクトルを生成することもできる。センサ部53は、任意の期間のセンサ手ぶれベクトルを特定する情報をセンサ動き情報として出力する。   Unlike the image motion detection unit 52, the sensor unit 53 in FIG. 5 detects the motion of the imaging device 1 (in other words, the motion of the image sensor 33) using a sensor. The movement of the imaging device 1 is caused by a so-called camera shake or the like. Therefore, the movement of the imaging device 1 is also referred to as camera shake. The sensor unit 53 detects the direction and size of camera shake in an arbitrary period by detecting the direction and size of camera shake at a sampling interval (for example, 1 msec interval) that is sufficiently shorter than a frame period (for example, about 33 msec). To do. A vector that is detected by the sensor unit 53 and represents the direction and size of camera shake is referred to as a sensor camera shake vector. The sensor unit 53 can generate a sensor camera shake vector at one sampling interval, or can generate a sensor camera shake vector during a period that is an integral multiple of the sampling interval. The sensor unit 53 outputs information specifying a sensor shake vector for an arbitrary period as sensor motion information.

図10に、センサ部53の内部に設けられた角速度センサ71及びハイパスフィルタ72を示す。角速度センサ71は、撮像装置1の角速度を表す検出信号を出力する。ハイパスフィルタ72は、その検出信号中の直流オフセット成分を除去するために、該検出信号に含まれる直流成分及び低周波成分を低減する。センサ部53には、角速度センサ71及びハイパスフィルタ72から成るブロックが複数個設けられ、複数のブロックに設けられた複数の角速度センサ71が、互いに異なる方向への角速度を検出する。各ブロックのハイパスフィルタ72の出力信号(即ち、直流成分及び低周波成分が低減された検出信号)よりセンサ手ぶれベクトルが生成される。尚、センサ部53に設けられるセンサは、角速度センサ以外(例えば加速度センサ)であっても良い。   FIG. 10 shows an angular velocity sensor 71 and a high-pass filter 72 provided inside the sensor unit 53. The angular velocity sensor 71 outputs a detection signal indicating the angular velocity of the imaging device 1. The high-pass filter 72 reduces the direct current component and the low frequency component included in the detection signal in order to remove the direct current offset component in the detection signal. The sensor unit 53 includes a plurality of blocks each including an angular velocity sensor 71 and a high-pass filter 72, and the plurality of angular velocity sensors 71 provided in the plurality of blocks detect angular velocities in different directions. A sensor camera shake vector is generated from the output signal of the high-pass filter 72 of each block (that is, the detection signal in which the DC component and the low-frequency component are reduced). The sensor provided in the sensor unit 53 may be other than an angular velocity sensor (for example, an acceleration sensor).

図5のパン・チルト判定部54(以下、判定部54と略記することがある)は、画像動き情報及び/又はセンサ動き情報に基づいて、撮像装置1にパンニング又はチルティングが成されているか否かを判定し、その判定結果を含む情報をパン・チルト判定情報として出力する。この判定を、以下、パン・チルト判定と呼ぶ。一般的に理解されているように、パンニングとは、ユーザが撮像装置1を水平方向に意図的に振る操作を指し、チルティングとは、ユーザが撮像装置1を垂直方向に意図的に振る操作を指す。撮像装置1にパンニング又はチルティングが成されていると判定されることを「パン・チルト有り」と表現し、撮像装置1にパンニング又はチルティングが成されていないと判定されることを「パン・チルト無し」と表現する。   Whether the pan / tilt determination unit 54 (hereinafter may be abbreviated as the determination unit 54) of FIG. 5 is panned or tilted in the imaging device 1 based on the image motion information and / or sensor motion information. The information including the determination result is output as pan / tilt determination information. This determination is hereinafter referred to as pan / tilt determination. As generally understood, panning refers to an operation in which the user intentionally shakes the imaging device 1 in the horizontal direction, and tilting refers to an operation in which the user intentionally shakes the imaging device 1 in the vertical direction. Point to. Determining that panning or tilting has been performed on the imaging apparatus 1 is expressed as “with pan / tilt”, and determining that panning or tilting has not been performed on the imaging apparatus 1 is “panning”. • Expressed as “no tilt”.

画像動き情報及び/又はセンサ動き情報に基づいて行われる公知の任意のパン・チルト判定を、判定部54にて行うことができる。例えば、パン・チルト判定として、特開2008−129554号公報や特開平11−187308号公報に記載の方法を利用可能である。   Any known pan / tilt determination performed based on the image motion information and / or sensor motion information can be performed by the determination unit 54. For example, the methods described in Japanese Patent Application Laid-Open Nos. 2008-129554 and 11-187308 can be used for pan / tilt determination.

具体的に例えば、判定部54は、以下に示される第1〜第5判定条件の何れかが満たされるとき、撮像装置1にパンニング又はチルティングが成されていると判断して、「パン・チルト有り」を表す情報をパン・チルト判定情報に含め、第1〜第5判定条件の何れもが満たされないとき、撮像装置1にパンニング又はチルティングが成されていないと判断して、「パン・チルト無し」を表す情報をパン・チルト判定情報に含める。   Specifically, for example, the determination unit 54 determines that panning or tilting has been performed on the imaging device 1 when any of the following first to fifth determination conditions is satisfied, When information indicating “tilt” is included in the pan / tilt determination information and none of the first to fifth determination conditions is satisfied, it is determined that panning or tilting is not performed on the imaging apparatus 1 and “panning” is performed. Information including “no tilt” is included in the pan / tilt determination information.

第1判定条件は、「所定の判定期間中、継続して、同一の向きを向いている全体動きベクトルMVが検出される」という条件である。判定期間とは一定の時間長さを有する期間であり、判定期間をフレーム周期の整数倍とすることができる。判定期間がフレーム周期の10倍である場合、時間的に連続する11枚の入力画像に対して求められた計10個の全体動きベクトルMVが参照される。そして、その10個のベクトルMVの向きが同じであるとき第1判定条件は成立し、そうでないとき第1判定条件は成立しない。尚、ここにおける、ベクトルの向きが同じとは幅を有する概念であり、対比されるベクトルの向きが所定の微小角度分だけ異なっていても該対比されるベクトルの向きは同じとみなされる(第2判定条件においても同様)。   The first determination condition is a condition that “the entire motion vector MV facing in the same direction is continuously detected during a predetermined determination period”. The determination period is a period having a certain time length, and the determination period can be an integral multiple of the frame period. When the determination period is 10 times the frame period, a total of 10 total motion vectors MV obtained for 11 temporally continuous input images are referred to. When the directions of the ten vectors MV are the same, the first determination condition is satisfied, and when not, the first determination condition is not satisfied. Here, the same vector direction is a concept having a width, and even if the direction of the compared vector is different by a predetermined minute angle, the direction of the compared vector is regarded as the same (No. The same applies to 2 judgment conditions).

第2判定条件は、「所定の判定期間中、継続して、同一の向きを向いているセンサ手ぶれベクトルが検出される」という条件である。判定期間中における各センサ手ぶれベクトルの向きが互いに同じであるとき第2判定条件は成立し、そうでないとき第2判定条件は成立しない。   The second determination condition is a condition that “a sensor shake vector pointing in the same direction is continuously detected during a predetermined determination period”. The second determination condition is satisfied when the directions of the sensor shake vectors during the determination period are the same, and otherwise the second determination condition is not satisfied.

第3判定条件は、「所定の判定期間中に属する全ての全体動きベクトルMVの合成ベクトルの大きさが所定の基準大きさ以上である」という条件である。   The third determination condition is a condition that “the size of the combined vector of all the entire motion vectors MV belonging to the predetermined determination period is equal to or larger than a predetermined reference size”.

第4判定条件は、「所定の判定期間中に属する全てのセンサ手ぶれベクトルの合成ベクトルの大きさが所定の基準大きさ以上である」という条件である。   The fourth determination condition is a condition that “the size of the combined vector of all sensor shake vectors belonging to the predetermined determination period is equal to or larger than a predetermined reference size”.

第5判定条件は、「所定期間中の手ぶれの向き及び大きさを表す1つのセンサ手ぶれベクトルの大きさが所定の大きさ以上である」という条件である。   The fifth determination condition is a condition that “the magnitude of one sensor camera shake vector indicating the direction and magnitude of camera shake during a predetermined period is greater than or equal to a predetermined magnitude”.

尚、画像動き情報及びセンサ動き情報の双方を用いてパン・チルト判定を行うことも可能である。例えば、第1及び第2判定条件の双方が満たされる場合にのみ、又は、第3及び第4判定条件の双方が満たされる場合にのみ、撮像装置1にパンニング又はチルティングが成されていると判断するようにしても良い。   It is also possible to perform pan / tilt determination using both image motion information and sensor motion information. For example, panning or tilting is performed on the imaging apparatus 1 only when both the first and second determination conditions are satisfied, or only when both the third and fourth determination conditions are satisfied. You may make it judge.

ここで、図11(a)〜(c)を用いてFP歪みの現れ方について説明する。実空間上において垂直方向に伸びる棒状被写体を撮像装置1にて撮影することで入力画像が取得されることを考える。棒状被写体は、実空間上で静止しているものとする。   Here, how FP distortion appears will be described with reference to FIGS. Consider that an input image is acquired by photographing a rod-like subject extending in the vertical direction in real space with the imaging device 1. It is assumed that the rod-shaped subject is stationary in real space.

図11(a)の画像310は、入力画像の露光期間中に撮像装置1が静止していた場合に得られる入力画像であり、図11(b)の画像320は、入力画像の露光期間中に撮像装置1が右方向に動いた場合に得られる入力画像であり、図11(c)の画像330は、入力画像の露光期間中に撮像装置1が下方向に動いた場合に得られる入力画像である。今、入力画像310の最下端に現れる、上記棒状被写体上の特定部分に注目する。図11(a)〜(c)の位置311、321及び331は、夫々、入力画像310、320及び330上における上記特定部分の位置を表している。入力画像の露光期間中における撮像装置1の右方向の動きにより、入力画像320上において棒状被写体は傾き、結果、位置321は位置311から左側に距離Dhだけ離れている。入力画像の露光期間中における撮像装置1の下方向の動きにより、入力画像330上において棒状被写体は垂直方向に縮み、結果、位置331は位置311から上側に距離Dvだけ離れている。尚、周囲の如く、入力画像の露光期間中に撮像装置1が上方向に動いたのならば、得られた入力画像上で棒状被写体は本来の姿よりも伸びて現れることとなる。特定部分の位置を位置311から位置321へと水平方向に歪ませるFP歪みを水平FP歪みと呼び、特定部分の位置を位置311から位置331へと伸縮方向に歪ませるFP歪みを垂直FP歪み(又は伸縮FP歪み)と呼ぶ。   An image 310 in FIG. 11A is an input image obtained when the imaging apparatus 1 is stationary during the exposure period of the input image, and an image 320 in FIG. 11B is during the exposure period of the input image. 11 is an input image obtained when the imaging apparatus 1 moves in the right direction, and an image 330 in FIG. 11C is an input obtained when the imaging apparatus 1 moves downward during the exposure period of the input image. It is an image. Attention is now paid to a specific portion on the bar-shaped subject that appears at the lowermost end of the input image 310. Positions 311, 321, and 331 in FIGS. 11A to 11C represent the positions of the specific portions on the input images 310, 320, and 330, respectively. Due to the rightward movement of the imaging apparatus 1 during the exposure period of the input image, the rod-shaped subject is tilted on the input image 320, and as a result, the position 321 is separated from the position 311 to the left by the distance Dh. Due to the downward movement of the imaging apparatus 1 during the exposure period of the input image, the rod-like subject contracts in the vertical direction on the input image 330, and as a result, the position 331 is separated from the position 311 by the distance Dv. If the imaging apparatus 1 moves upward during the exposure period of the input image as in the surroundings, the bar-shaped subject appears to extend from the original appearance on the obtained input image. The FP distortion that horizontally distorts the position of the specific part from the position 311 to the position 321 is called horizontal FP distortion, and the FP distortion that distorts the position of the specific part from the position 311 to the position 331 in the expansion / contraction direction is vertical FP distortion ( (Or stretching FP distortion).

図5のFP補正量算出部55(以下、算出部55と略記することがある)は、パン・チルト判定情報に基づいて画像動き情報及びセンサ動き情報を選択的に用いることにより、FP補正量を算出する。FP補正量は、補正処理部56において入力画像に含まれるFP歪みを低減する際に用いられる補正量であり、向き及び大きさを有する二次元量である。パン・チルト無しと判定されている期間においては、センサ動き情報を選択し、センサ動き情報に基づいてFP補正量を算出する。一方、パン・チルト有りと判定されている期間においては、画像動き情報を選択し、画像動き情報に基づいてFP補正量を算出する。背景技術において述べたように、パンニング又はチルティングが成されているときには、センサ動き情報の正確性が疑われるからである。   The FP correction amount calculation unit 55 (hereinafter may be abbreviated as the calculation unit 55) in FIG. 5 selectively uses the image motion information and the sensor motion information based on the pan / tilt determination information, thereby obtaining the FP correction amount. Is calculated. The FP correction amount is a correction amount used when the correction processing unit 56 reduces the FP distortion included in the input image, and is a two-dimensional amount having a direction and a size. In a period in which it is determined that there is no pan / tilt, sensor motion information is selected, and an FP correction amount is calculated based on the sensor motion information. On the other hand, during a period in which it is determined that there is pan / tilt, image motion information is selected, and an FP correction amount is calculated based on the image motion information. As described in the background art, when panning or tilting is performed, the accuracy of the sensor motion information is suspected.

補正処理部56は、算出部55にて生成されたFP補正量に基づいて入力画像のFP歪みを補正するFP歪み補正処理と、手ぶれによって生じた入力画像列(換言すれば入力動画像)上の像のぶれを補正する手ぶれ補正処理と、を実行することができる。但し、手ぶれ補正処理は実行されないことある(詳細は後述)。入力画像にFP歪み補正処理を施して得た画像、又は、入力画像にFP歪み補正処理及び手ぶれ補正処理を施して得た画像を、出力画像と呼ぶ。順次得られる複数の出力画像を出力動画像として、外部メモリ18に記録することができると共に表示部27に表示することができる。補正処理部56に、FP歪み補正処理を実行する歪み補正部及び手ぶれ補正処理を実行するぶれ補正部が内在している、と考えることもできる。   The correction processing unit 56 corrects the FP distortion of the input image based on the FP correction amount generated by the calculation unit 55 and the input image sequence (in other words, the input moving image) generated by the camera shake. And a camera shake correction process for correcting the image blur. However, camera shake correction processing may not be executed (details will be described later). An image obtained by performing FP distortion correction processing on an input image or an image obtained by performing FP distortion correction processing and camera shake correction processing on an input image is referred to as an output image. A plurality of sequentially obtained output images can be recorded as output moving images in the external memory 18 and displayed on the display unit 27. It can also be considered that the correction processing unit 56 includes a distortion correction unit that performs FP distortion correction processing and a shake correction unit that performs camera shake correction processing.

[FP歪み補正処理]
パン・チルト有りと判定されている期間には、画像動き情報からFP補正量が算出される。このため、パン・チルト有りと判定されている期間には、画像動き情報に基づくFP歪み補正処理が成される。画像動き情報に基づくFP歪み補正処理(換言すれば、入力画像列のオプティカルフローに基づいて各入力画像のFP歪みを低減する処理)として、公知の任意の処理を利用可能である。
[FP distortion correction processing]
During the period in which it is determined that there is pan / tilt, the FP correction amount is calculated from the image motion information. For this reason, FP distortion correction processing based on image motion information is performed during a period in which it is determined that there is pan / tilt. As the FP distortion correction processing based on the image motion information (in other words, processing for reducing the FP distortion of each input image based on the optical flow of the input image sequence), any known processing can be used.

本実施形態で採用される、画像動き情報に基づくFP補正量の算出方法及びFP歪み補正処理を説明する。   A method for calculating an FP correction amount based on image motion information and an FP distortion correction process employed in this embodiment will be described.

入力画像In-1及びIn間の全体動きベクトルMVを、特にMV[n−1,n]にて表す。他の2枚の入力画像についての全体動きベクトルMVも同様である。入力画像In-1及びIn間の全体動きベクトルMV[n−1,n]は、時刻tn-1及びtn’間における撮像装置1の平均的な動きを表している(図7参照)。一方、入力画像InのFP歪みは、入力画像Inの露光期間中における撮像装置1の動きにより生じる。従って、入力画像InのFP歪みを精度良く除去するためには、入力画像Inの露光期間中における撮像装置1の動きに対応したFP補正量を、入力画像Inに対するFP補正量として推定する必要がある。 The entire motion vector MV between the input images I n-1 and I n is particularly represented by MV [n-1, n]. The same applies to the entire motion vector MV for the other two input images. The overall motion vector MV [n−1, n] between the input images I n−1 and I n represents the average motion of the imaging device 1 between times t n−1 and t n ′ (FIG. 7). reference). On the other hand, FP distortion of the input image I n is caused by movement of the imaging apparatus 1 during the exposure period of the input image I n. Therefore, in order to accurately remove the FP distortion of the input image I n is estimated FP correction amount corresponding to the motion of the imaging apparatus 1 during the exposure period of the input image I n, the FP correction amount for the input image I n There is a need to.

この必要性を満たすべく、算出部55は、複数の全体動きベクトルMVから、補間を用いて、各入力画像の露光期間中における撮像装置1の動きを表すフレーム内動きベクトルを算出し、フレーム内動きベクトルよりFP補正量を導出する。入力画像Inに対するフレーム内動きベクトルは、入力画像Inの露光期間中における撮像装置1の動きを表している。 In order to satisfy this need, the calculation unit 55 calculates an intra-frame motion vector representing the motion of the imaging apparatus 1 during the exposure period of each input image from a plurality of overall motion vectors MV using interpolation. The FP correction amount is derived from the motion vector. Frame motion vector for the input image I n represents the motion of the imaging apparatus 1 during the exposure period of the input image I n.

具体的には例えば、図12(a)及び(b)に示す如く、入力画像In-1及びIn間の全体動きベクトルMV[n−1,n]と入力画像In及びIn+1間の全体動きベクトルMV[n,n+1]の平均ベクトル250を、入力画像Inのフレーム内動きベクトルとして求めることができる。図12(b)のグラフは、各ベクトルの向き及び大きさをイメージ化したグラフである(後述の図12(d)も同様)。図12(a)及び(b)では、各ベクトルに対応する時刻位置を白丸にて表現している(後述の図12(c)及び(d)も同様)。 Specifically, for example, as shown in FIG. 12 (a) and (b), the overall motion between the input image I n-1 and I n vectors MV [n-1, n] and the input image I n and I n + the total motion vector MV [n, n + 1] mean vector 250 between 1 can be obtained as frame motion vector of the input image I n. The graph of FIG. 12B is a graph in which the direction and size of each vector are imaged (the same applies to FIG. 12D described later). 12A and 12B, the time position corresponding to each vector is represented by a white circle (the same applies to FIGS. 12C and 12D described later).

或いは例えば、図12(c)及び(d)に示す如く、入力画像In-2及びIn-1間の全体動きベクトルMV[n−2,n−1]を時刻tn-2及びtn-1’間の中間時刻のベクトルとして取り扱うと共に、入力画像In-1及びIn間の全体動きベクトルMV[n−1,n]を時刻tn-1及びtn’間の中間時刻のベクトルとして取り扱った上で、ベクトルMV[n−2,n−1]及びMV[n−1,n]を時間方向に線形補間することで、入力画像Inの露光期間の中間時刻におけるベクトル260を推定し、推定したベクトル260を入力画像Inのフレーム内動きベクトルとして求めるようにしても良い。 Or, for example, as shown in FIGS. 12C and 12D, the entire motion vector MV [n−2, n−1] between the input images I n−2 and I n−1 can be represented as times t n−2 and t 'together handled as a vector of intermediate time between input images I n-1 and the overall motion vector MV [n-1, n] the time t n-1 and t n between I n' n-1 intermediate time between vector at after having handled as a vector, at an intermediate time of the exposure period of the vector MV [n-2, n- 1] and MV [n-1, n] by linear interpolation in the time direction, the input image I n 260 estimates the may be obtained the estimated vector 260 as frame motion vector of the input image I n.

上述の例では、2つの全体動きベクトルに基づいて1つのフレーム内動きベクトルを求めているが、3以上の全体動きベクトルに基づいて1つのフレーム内動きベクトルを求めるようにしても良い。   In the above example, one intra-frame motion vector is obtained based on two overall motion vectors, but one intra-frame motion vector may be obtained based on three or more overall motion vectors.

入力画像Inに対するFP補正量は、入力画像Inのフレーム内動きベクトルそのもの、或いは、それの逆ベクトルとされる。入力画像InのFP補正量の大きさから、入力画像Inの露光期間中に撮像装置1が動いた距離が定まり、入力画像InのFP補正量の向きから、入力画像Inの露光期間中に撮像装置1が動いた向きが定まる。ここで定まる距離及び向きは、入力画像In上における距離及び向きである。図11(a)〜(c)を参照して説明した例においては、入力画像InのFP補正量によって、位置311から位置321に向かう向き及び距離Dhが定まる、或いは、位置311から位置331に向かう向き及び距離Dvが定まる。 FP correction amount for the input image I n is a frame in the motion vector itself of the input image I n, or is an inverse vector of it. From the size of the FP correction amount of the input image I n, Sadamari the distance the imaging apparatus 1 has moved during the exposure period of the input image I n, the orientation of the FP correction amount of the input image I n, the exposure of the input image I n The direction in which the imaging device 1 has moved during the period is determined. Distance and orientation determined here is the distance and orientation on the input image I n. In the example described with reference to FIGS. 11 (a) ~ (c) , the FP correction amount of the input image I n, determined orientation and distance Dh toward the position 321 from the position 311, or position from the position 311 331 The direction and distance Dv to go to are determined.

FP歪み補正処理後の入力画像を歪み補正画像と呼ぶ。FP歪み補正処理では、入力画像InのFP補正量に基づき、入力画像InのFP歪みを除去するための幾何学的変換を入力画像Inに施すことで、入力画像Inについての歪み補正画像を生成することができる。幾何学的変換には、平行移動及び再標本化等が含まれる。 The input image after the FP distortion correction process is called a distortion corrected image. In FP distortion correction processing, based on the FP correction amount of the input image I n, by performing a geometric transformation to remove FP distortion of the input image I n in the input image I n, the distortion of the input image I n A corrected image can be generated. Geometric transformation includes translation and resampling.

例えば、入力画像320が入力画像Inである場合、上記棒状被写体の像を入力画像310のそれから入力画像320のそれへと歪ませる水平FP歪みが発生しており、その水平FP歪みが入力画像Inに含まれていることがFP補正量に規定されているため、そのFP補正量に基づき、入力画像310を入力画像320へと変換する幾何学的変換の逆変換を、入力画像320としての入力画像Inに施す。これにより得られる歪み補正画像320aを図13に示す。 For example, if the input image 320 is an input image I n, and a horizontal FP distortion to distort and to it it from the input image 320 of the rodlike subject input image 310 an image of generated, the horizontal FP distortion input image because what is contained in the I n are defined in the FP correction amount, based on the FP correction amount, the inverse transformation of the geometric transformation that transforms into an input image 320 input image 310, as an input image 320 applied to the input image I n of. FIG. 13 shows a distortion corrected image 320a obtained as a result.

入力画像320の水平ラインが第1〜第M水平ラインから形成されるのであれば、入力画像320としての入力画像Inの第i水平ラインを入力画像上の右方向に(i−1)×(Dh/(M−1))だけ平行移動させることで歪み補正画像320aの第i水平ラインが得られる。尚、入力画像InのFP歪みが水平FP歪みの場合には、周知の如く、メモリ領域51Aから画像データを読み出す時の読み出し開始位置を制御することでもFP歪みを除去することができる。 If the the horizontal lines of the input image 320 is formed from the first to M horizontal lines, in the right direction on the input image a i-th horizontal line of the input image I n as the input image 320 (i-1) × By translating by (Dh / (M−1)), the i-th horizontal line of the distortion-corrected image 320a is obtained. In the case of the FP distortion horizontal FP distortion of the input image I n is as well known, even by controlling the readout start position at the time of reading the image data from the memory area 51 A can be removed FP distortion.

また例えば、入力画像330が入力画像Inである場合、上記棒状被写体の像を入力画像310のそれから入力画像330のそれへと歪ませる垂直FP歪みが発生しており、その垂直FP歪みが入力画像Inに含まれていることがFP補正量に規定されているため、そのFP補正量に基づき、入力画像310を入力画像330へと変換する幾何学的変換の逆変換を、入力画像330としての入力画像Inに施す。これにより得られる歪み補正画像330aを図14に示す。 Also, for example, if the input image 330 is an input image I n, and the vertical FP distortion to distort and to it it from the input image 330 of the rodlike subject input image 310 an image of occurs, its vertical FP distortion input because what is contained in the image I n are defined in the FP correction amount, based on the FP correction amount, the inverse transformation of the geometric transformation that transforms into an input image 330 input image 310, an input image 330 applied to the input image I n as. FIG. 14 shows a distortion corrected image 330a obtained as a result.

入力画像330の水平ラインが第1〜第M水平ラインから形成され且つ位置331が第MO水平ラインに属しているのであれば(1<MO<M)、入力画像330としての入力画像Inの第i水平ラインを入力画像上の下方向に(i−1)×(Dv/(MO−1))だけ平行移動させることで歪み補正画像330aの第i水平ラインが得られる。 If the horizontal line of the input image 330 is formed from the first to Mth horizontal lines and the position 331 belongs to the M O horizontal line (1 <M O <M), the input image I as the input image 330 is input. The i-th horizontal line of the distortion-corrected image 330a is obtained by translating the n- th horizontal line in the downward direction on the input image by (i−1) × (Dv / (M O −1)).

水平FP歪みと垂直FP歪みの検出及び補正方法を別個に説明したが、入力画像Inに水平FP歪みと垂直FP歪みが発生している場合には、水平FP歪みと垂直FP歪みが共に補正されることで歪み補正画像が生成される。この際、水平FP歪みと垂直FP歪みを同時に補正するようにしても良いし、水平FP歪みと垂直FP歪みを順番に補正するようにしても良い。 Although the detection and correction method of the horizontal FP distortion and vertical FP distortion explained separately, when the horizontal FP distortion and perpendicular FP distortion in the input image I n is occurring, both corrected horizontal FP distortion and vertical FP distortion As a result, a distortion-corrected image is generated. At this time, the horizontal FP distortion and the vertical FP distortion may be corrected simultaneously, or the horizontal FP distortion and the vertical FP distortion may be corrected in order.

パン・チルト無しと判定されている期間には、センサ動き情報からFP補正量が算出される。このため、パン・チルト無しと判定されている期間には、センサ動き情報に基づくFP歪み補正処理が成される。センサ動き情報に基づくFP歪み補正処理(換言すれば、センサによる、撮像装置1の動きの検出結果に基づいて各入力画像のFP歪みを低減する処理)として、公知の任意の処理を利用可能である。センサ動き情報に含まれる、入力画像Inの露光期間中に得られた全センサ手ぶれベクトルの合成ベクトル、又は、その合成ベクトルの逆ベクトルが入力画像InのFP補正量とされる。FP補正量に基づくFP歪み補正処理の内容自体は、FP補正量が画像動き情報に基づいて求められた場合とセンサ動き情報に基づいて求められた場合との間で同様であっても良い。 During the period when it is determined that there is no pan / tilt, the FP correction amount is calculated from the sensor motion information. For this reason, FP distortion correction processing based on sensor motion information is performed during a period in which it is determined that there is no pan / tilt. Any known process can be used as the FP distortion correction process based on the sensor motion information (in other words, the process of reducing the FP distortion of each input image based on the motion detection result of the imaging device 1 by the sensor). is there. Included in the sensor motion information, a composite vector of all sensors hand movement vector obtained during the exposure period of the input image I n, or, inverse vector of the resultant vector is the FP correction amount of the input image I n. The content of the FP distortion correction process based on the FP correction amount may be the same between the case where the FP correction amount is obtained based on the image motion information and the case where the FP correction amount is obtained based on the sensor motion information.

[手ぶれ補正処理]
図5の補正処理部56は、画像動き情報又はセンサ動き情報に基づいて手ぶれ補正処理を行う。補正処理部56にて実行される手ぶれ補正処理は、手ぶれによって生じた入力画像列(換言すれば入力動画像)上の像のぶれを補正する電子式手ぶれ補正処理であり、補正処理部56において公知の電子式手ぶれ補正処理を利用することができる。FP歪み補正処理を行った後に手ぶれ補正処理を行っても良いし、手ぶれ補正処理を行った後にFP歪み補正処理を行っても良い。尚、手ぶれ補正処理とFP歪み補正処理を同時に実行するようにしても良い。
[Image stabilization processing]
The correction processing unit 56 in FIG. 5 performs camera shake correction processing based on image motion information or sensor motion information. The camera shake correction process executed by the correction processing unit 56 is an electronic camera shake correction process for correcting image blur on an input image sequence (in other words, an input moving image) caused by camera shake. A known electronic camera shake correction process can be used. The camera shake correction process may be performed after the FP distortion correction process, or the FP distortion correction process may be performed after the camera shake correction process. The camera shake correction process and the FP distortion correction process may be executed simultaneously.

本実施形態では、FP歪み補正処理を行った後に手ぶれ補正処理を行うこととする。この場合、入力画像列を形成する各入力画像にFP歪み補正処理を成すことによって得られた歪み補正画像列が手ぶれ補正処理の対象となる。手ぶれ補正処理では、各歪み補正画像に切り出し枠を設定し、各歪み補正画像から切り出し枠内の画像を出力画像として切り出す。切り出し枠内の画像は歪み補正画像の一部である。この際、出力画像列上において手ぶれに基づく像のぶれが生じないように、画像動き情報又はセンサ動き情報に基づき切り出し位枠の位置が調整される。   In the present embodiment, the camera shake correction process is performed after the FP distortion correction process. In this case, the distortion correction image sequence obtained by performing the FP distortion correction processing on each input image forming the input image sequence is the target of camera shake correction processing. In the camera shake correction process, a cutout frame is set for each distortion correction image, and an image in the cutout frame is cut out as an output image from each distortion correction image. The image in the cutout frame is a part of the distortion corrected image. At this time, the position of the clipping position frame is adjusted based on the image motion information or the sensor motion information so that the image blur based on the camera shake does not occur on the output image sequence.

例えば、図15に示す如く、入力画像In-1に基づく歪み補正画像350上の位置(x,y)に現れている被写体としての静止点が、入力画像Inに基づく歪み補正画像360上では位置(x+Δx,y)に現れている場合を考える(該静止点は実空間上で静止しているものとする)。この場合、画像動き情報に含まれる、入力画像In-1及びIn間の全体動きベクトルは位置(x,y)及び(x+Δx,y)間のずれを表すベクトルとなる(但し、検出誤差は無視)。また、センサ動き情報からも、位置(x,y)及び(x+Δx,y)間のずれを表すベクトルが求まる(但し、検出誤差は無視)。従って、補正処理部56は、手ぶれ補正処理において、画像動き情報又はセンサ動き情報に基づき、歪み補正画像360に対して設定する切り出し枠361の中心位置を歪み補正画像350の切り出し枠351の中心位置よりも水平方向にΔxだけずらすことで、上記静止点を入力画像In-1及びInに基づく出力画像列上で静止させる。 For example, as shown in FIG. 15, a stationary point as a subject appearing at a position (x, y) on the distortion correction image 350 based on the input image I n-1 is on the distortion correction image 360 based on the input image I n. Let us consider a case where it appears at a position (x + Δx, y) (assuming that the stationary point is stationary in real space). In this case, the entire motion vector between the input images I n−1 and I n included in the image motion information is a vector representing a shift between the positions (x, y) and (x + Δx, y) (however, a detection error) Is ignored). Further, from the sensor motion information, a vector representing a deviation between the positions (x, y) and (x + Δx, y) is obtained (however, the detection error is ignored). Therefore, the correction processing unit 56 uses the center position of the cutout frame 361 set for the distortion correction image 360 based on the image motion information or the sensor motion information in the camera shake correction processing as the center position of the cutout frame 351 of the distortion correction image 350. The stationary point is made still on the output image sequence based on the input images I n-1 and I n by shifting by Δx in the horizontal direction.

[動作フロー]
次に、図16を参照して、撮像装置1の動作手順について説明する。図16は、撮像装置1の動作の手順を表すフローチャートである。
[Operation flow]
Next, an operation procedure of the imaging apparatus 1 will be described with reference to FIG. FIG. 16 is a flowchart illustrating an operation procedure of the imaging apparatus 1.

まず、ステップS11では、撮像部11を用いて入力画像の生成が成され、ステップS12において、最新の入力画像に対する画像動き情報の生成及び最新の入力画像に対するセンサ動き情報の生成が成される。続くステップS13では、ステップS12にて生成された画像動き情報及び/又はセンサ動き情報に基づき、パン・チルト判定が成される。   First, in step S11, an input image is generated using the imaging unit 11, and in step S12, image motion information for the latest input image and sensor motion information for the latest input image are generated. In subsequent step S13, pan / tilt determination is made based on the image motion information and / or sensor motion information generated in step S12.

ステップS13においてパン・チルト無しと判定された場合には、ステップS13からステップS14に移行し、最新の入力画像に対してセンサ動き情報に基づくFP補正量の算出及びFP歪み補正処理が成され、FP歪み補正処理によって得られた歪み補正画像に対してステップS15にて手ぶれ補正処理を行うことで出力画像を生成する。ステップS15にて生成された出力画像は外部メモリ18に記録されると共に表示部27に表示される。ステップS15における手ぶれ補正処理を、センサ動き情報に基づいて行うと良い。この場合、センサ部53からの1フレーム分のセンサ動き情報より、手ぶれ補正処理用の切り出し枠の位置が決定される。但し、上述したように、ステップS15における手ぶれ補正処理を、画像動き情報に基づいて行うようにしても良い。   If it is determined in step S13 that there is no pan / tilt, the process proceeds from step S13 to step S14, and the calculation of the FP correction amount based on the sensor motion information and the FP distortion correction process are performed on the latest input image. An output image is generated by performing a camera shake correction process in step S15 on the distortion corrected image obtained by the FP distortion correction process. The output image generated in step S15 is recorded in the external memory 18 and displayed on the display unit 27. The camera shake correction process in step S15 may be performed based on the sensor motion information. In this case, the position of the clipping frame for camera shake correction processing is determined from the sensor motion information for one frame from the sensor unit 53. However, as described above, the camera shake correction processing in step S15 may be performed based on the image motion information.

ステップS13においてパン・チルト有りと判定された場合には、ステップS13からステップS16に移行する。ステップS16では、最新の入力画像に対して、画像動き情報に基づくFP補正量の算出及びFP歪み補正処理が成されるが、手ぶれ補正処理は成されない。即ち、FP歪み補正処理によって得られた歪み補正画像に対して切り出し枠の位置変更を行うことなく(換言すれば、前回及び今回の歪み補正画像間で切り出し枠の位置を変更させることなく)、歪み補正画像の切り出し枠内画像を切り出すことで出力画像を生成する。ステップS16にて生成された出力画像は外部メモリ18に記録されると共に表示部27に表示される。パンニング又はチルティングによる動きはユーザの意図による動きであるため、記録画像に該動きを反映した方が自然である。故に、ステップS16では手ぶれ補正処理を不実行とする。   If it is determined in step S13 that there is pan / tilt, the process proceeds from step S13 to step S16. In step S16, the calculation of the FP correction amount based on the image motion information and the FP distortion correction process are performed on the latest input image, but the camera shake correction process is not performed. That is, without changing the position of the cutout frame for the distortion correction image obtained by the FP distortion correction processing (in other words, without changing the position of the cutout frame between the previous and current distortion correction images), An output image is generated by cutting out the image within the cutout frame of the distortion corrected image. The output image generated in step S16 is recorded in the external memory 18 and displayed on the display unit 27. Since the movement by panning or tilting is a movement by the intention of the user, it is natural to reflect the movement on the recorded image. Therefore, the camera shake correction process is not executed in step S16.

ステップS15又はS16の処理の後、ステップS11に戻り、ステップS11以降の各ステップの処理が繰り返し実行される。パン・チルト無しと判定されている期間中には、S11〜S15の処理が繰り返し実行され、パン・チルト有りと判定されている期間中には、S11〜S13及びS16の処理が繰り返し実行される。   After the process of step S15 or S16, the process returns to step S11, and the processes of steps after step S11 are repeatedly executed. During the period when it is determined that there is no pan / tilt, the processes of S11 to S15 are repeatedly executed, and during the period when it is determined that there is pan / tilt, the processes of S11 to S13 and S16 are repeatedly executed. .

本実施形態によれば、パンニングが成されているときなど、センサ部53の検出結果の正確性が疑われるときには、画像データに基づく画像動き情報に基づいてFP歪み補正が成される。この結果、正確性が疑われるセンサ部53の検出結果を用いることによる、入力画像の誤補正が回避される。   According to this embodiment, when the accuracy of the detection result of the sensor unit 53 is suspected, such as when panning is performed, FP distortion correction is performed based on image motion information based on image data. As a result, erroneous correction of the input image by using the detection result of the sensor unit 53 suspected of accuracy is avoided.

<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態に係る撮像装置の全体ブロック図は、図1のそれと同じであるため、第2実施形態に係る撮像装置も符号1によって参照する。図17は、第2実施形態に係る、FP歪みの除去機能を担う画像補正機能部50aのブロック図である。画像補正機能部50aは撮像装置1に設けられ、画像補正機能部50aは、符号51〜57によって参照される各部位を含む。第1実施形態に係る図5の画像補正機能部50に補正強度調整部57を追加することで、図17の画像補正機能部50aが得られる。この追加を除き、第2実施形態に係る撮像装置1と第1実施形態に係る撮像装置1は同様のものであり、以下、第1実施形態との相違点を説明する。
<< Second Embodiment >>
A second embodiment of the present invention will be described. Since the entire block diagram of the imaging apparatus according to the second embodiment is the same as that of FIG. 1, the imaging apparatus according to the second embodiment is also referred to by reference numeral 1. FIG. 17 is a block diagram of the image correction function unit 50a responsible for the FP distortion removal function according to the second embodiment. The image correction function unit 50 a is provided in the imaging apparatus 1, and the image correction function unit 50 a includes each part referred to by reference numerals 51 to 57. By adding the correction intensity adjustment unit 57 to the image correction function unit 50 of FIG. 5 according to the first embodiment, the image correction function unit 50a of FIG. 17 is obtained. Except for this addition, the imaging device 1 according to the second embodiment and the imaging device 1 according to the first embodiment are the same, and differences from the first embodiment will be described below.

第2実施形態において、FP補正量算出部55によって算出されたFP補正量は、補正処理部56に送られる前に一旦補正強度調整部57に送られる。補正強度調整部57は、調整用情報に基づいてFP補正量を調整し、調整後のFP補正量を補正処理部56に送る。従って、第2実施形態における補正処理部56は、調整後のFP補正量に基づいてFP歪み補正処理を行う。   In the second embodiment, the FP correction amount calculated by the FP correction amount calculation unit 55 is once sent to the correction strength adjustment unit 57 before being sent to the correction processing unit 56. The correction intensity adjustment unit 57 adjusts the FP correction amount based on the adjustment information, and sends the adjusted FP correction amount to the correction processing unit 56. Accordingly, the correction processing unit 56 in the second embodiment performs FP distortion correction processing based on the adjusted FP correction amount.

本実施形態では、説明の具体化のため、図11(a)の入力画像310を図11(b)の入力画像320へと歪ませる水平FP歪み、又は、図11(a)の入力画像310を図11(c)の入力画像330へと歪ませる垂直FP歪みが入力画像Inに生じていることを想定する。 In the present embodiment, for the sake of concrete explanation, the horizontal FP distortion that distorts the input image 310 in FIG. 11A into the input image 320 in FIG. 11B or the input image 310 in FIG. vertical FP distortion distorting to the input image 330 shown in FIG. 11 (c) is assumed to be caused in the input image I n.

このため、入力画像Inに水平FP歪みが生じている場合には、入力画像Inの最下端の水平ラインに属する位置321が水平FP歪みによって入力画像In上の左側に距離Dhだけ本来位置311からずれていることを示すFP補正量が、画像動き情報又はセンサ動き情報により求められているものとする。同様に、入力画像Inに垂直FP歪みが生じている場合には、垂直FP歪みのない入力画像310では最下端の水平ラインに属している位置311が垂直FP歪みによって入力画像In上では上側に距離Dvだけずれて位置331に移動していることを示すFP補正量が、画像動き情報又はセンサ動き情報により求められているものとする。 Therefore, when the horizontal FP distortion has occurred in the input image I n, only the left side of the distance Dh in the input image I n position 321 belonging to the horizontal line of the lowermost is the horizontal FP distortion of the input image I n original It is assumed that the FP correction amount indicating that the position is shifted from the position 311 is obtained from the image motion information or the sensor motion information. Similarly, if the vertical FP distortion occurs in the input image I n, the position 311 belonging to the horizontal line of the vertical FP undistorted input image 310 lowermost end is in the input image I n by a vertical FP distortion It is assumed that the FP correction amount indicating that the position is shifted to the position 331 by being shifted by the distance Dv is obtained from the image motion information or the sensor motion information.

補正強度調整部57は、調整用情報に基づいて補正強度係数kh及びkvを設定する。そして、水平FP歪みについてのFP補正量の大きさDhを、補正強度係数khを用いて大きさDh’へと変更し、垂直FP歪みについてのFP補正量の大きさDvを、補正強度係数kvを用いて大きさDv’へと変更する。具体的には、
Dh’=kh×Dh、
Dv’=kh×Dv、
に従って、Dh’及びDv’が求められる。補正強度調整部57において、FP補正量の向きに対する変更は成されない。
The correction intensity adjustment unit 57 sets correction intensity coefficients kh and kv based on the adjustment information. Then, the magnitude Dh of the FP correction amount for the horizontal FP distortion is changed to the magnitude Dh ′ using the correction intensity coefficient kh, and the magnitude Dv of the FP correction amount for the vertical FP distortion is changed to the correction intensity coefficient kv. To change to the size Dv ′. In particular,
Dh ′ = kh × Dh,
Dv ′ = kh × Dv,
Accordingly, Dh ′ and Dv ′ are obtained. In the correction intensity adjustment unit 57, no change is made to the direction of the FP correction amount.

補正強度係数kh及びkvは、0≦kh≦1且つ0≦kv≦1を満たすように設定される。Dh’は、水平FP歪みについての、調整後のFP補正量の大きさであり、Dv’は、垂直FP歪みについての、調整後のFP補正量の大きさである。水平FP歪みに関し、係数khがゼロに近いほど調整後のFP補正量の大きさDh’が小さくなるのでFP歪み補正処理の補正強度は小さくなり、係数khが1に近いほど調整後のFP補正量の大きさDh’が大きくなるのでFP歪み補正処理の補正強度は大きくなる。垂直FP歪みに関しても同様である。   The correction strength coefficients kh and kv are set so as to satisfy 0 ≦ kh ≦ 1 and 0 ≦ kv ≦ 1. Dh ′ is the magnitude of the FP correction amount after adjustment for horizontal FP distortion, and Dv ′ is the magnitude of the FP correction amount after adjustment for vertical FP distortion. As for the horizontal FP distortion, the closer the coefficient kh is to zero, the smaller the FP correction amount Dh ′ after adjustment is, so the correction strength of the FP distortion correction process is smaller, and the closer the coefficient kh is to 1, the FP correction after adjustment. Since the magnitude Dh ′ of the quantity increases, the correction strength of the FP distortion correction process increases. The same applies to the vertical FP distortion.

入力画像320としての入力画像Inに上記の水平FP歪みが発生している場合、FP補正量の大きさDhは大きさDh’へと変更される。この場合、補正処理部56は、Dh’の大きさを有するFP補正量に基づいて、入力画像320を入力画像310に近づけるための幾何学的変換を、入力画像320としての入力画像Inに施す。これにより得られる歪み補正画像320bを図18に示す。歪み補正画像320bは、0<kh<1の場合に得られる歪み補正画像である。 If the above horizontal FP distortion in the input image I n as the input image 320 is generated, the size Dh of FP correction amount is changed to the size Dh '. In this case, the correction processing unit 56 on the basis of the FP correction amount having a size of Dh ', the geometrical transformation to approximate the input image 310 input image 320, the input image I n as an input image 320 Apply. FIG. 18 shows a distortion corrected image 320b obtained as a result. The distortion correction image 320b is a distortion correction image obtained when 0 <kh <1.

入力画像320の水平ラインが第1〜第M水平ラインから形成されるのであれば、入力画像320としての入力画像Inの第i水平ラインを入力画像上の右方向に(i−1)×(Dh’/(M−1))だけ平行移動させることで歪み補正画像320bの第i水平ラインが得られる。尚、メモリ領域51Aから画像データを読み出す時の読み出し開始位置を制御することで、歪み補正画像320bを生成するようにしても良い。 If the the horizontal lines of the input image 320 is formed from the first to M horizontal lines, in the right direction on the input image a i-th horizontal line of the input image I n as the input image 320 (i-1) × The i-th horizontal line of the distortion-corrected image 320b is obtained by translating only (Dh ′ / (M−1)). Incidentally, by controlling the read start position at the time of reading the image data from the memory area 51 A, may be generated distortion correction image 320b.

入力画像320としての入力画像Inに上記の垂直FP歪みが発生している場合、FP補正量の大きさDvは大きさDv’へと変更される。この場合、補正処理部56は、Dv’の大きさを有するFP補正量に基づいて、入力画像330を入力画像310に近づけるための幾何学的変換を、入力画像330としての入力画像Inに施す。これにより得られる歪み補正画像330bを図19に示す。歪み補正画像330bは、0<kv<1の場合に得られる歪み補正画像である。 If the above vertical FP distortion in the input image I n as the input image 320 is generated, the size Dv of the FP correction amount is changed to the size Dv '. In this case, the correction processing unit 56 on the basis of the FP correction amount having a size of Dv ', the geometrical transformation to approximate the input image 310 input image 330, the input image I n as an input image 330 Apply. FIG. 19 shows a distortion correction image 330b obtained as a result. The distortion correction image 330b is a distortion correction image obtained when 0 <kv <1.

入力画像330の水平ラインが第1〜第M水平ラインから形成され且つ位置331が第MO水平ラインに属しているのであれば(1<MO<M)、入力画像330としての入力画像Inの第i水平ラインを入力画像上の下方向に(i−1)×(Dv’/(MO−1))だけ平行移動させることで歪み補正画像330bの第i水平ラインが得られる。 If the horizontal line of the input image 330 is formed from the first to Mth horizontal lines and the position 331 belongs to the M O horizontal line (1 <M O <M), the input image I as the input image 330 is input. The i-th horizontal line of the distortion-corrected image 330b is obtained by translating the n- th horizontal line in the downward direction on the input image by (i−1) × (Dv ′ / (M O −1)).

水平FP歪みと垂直FP歪みの補正方法を別個に説明したが、入力画像Inに水平FP歪みと垂直FP歪みが発生している場合には、水平FP歪みと垂直FP歪みが共に補正されることで歪み補正画像が生成される。この際、水平FP歪みと垂直FP歪みを同時に補正するようにしても良いし、水平FP歪みと垂直FP歪みを順番に補正するようにしても良い。 It has been separately described a method of correcting the horizontal FP distortion and vertical FP distortion, horizontal FP distortion and vertical FP distortion in in which case, the horizontal FP distortion and vertical FP distortion are both corrected in the input image I n Thus, a distortion corrected image is generated. At this time, the horizontal FP distortion and the vertical FP distortion may be corrected simultaneously, or the horizontal FP distortion and the vertical FP distortion may be corrected in order.

補正強度係数kh及びkvの設定に用いられる調整用情報として、複数種類の情報を利用可能である。以下、調整用情報に基づく補正強度係数kh及びkvの設定方法の例として、第1〜第3設定方法を説明する。   A plurality of types of information can be used as the adjustment information used for setting the correction strength coefficients kh and kv. Hereinafter, first to third setting methods will be described as examples of methods for setting the correction strength coefficients kh and kv based on the adjustment information.

[第1設定方法]
第1設定方法を説明する。第1実施形態の説明から明らかなように、補正処理部56による手ぶれ補正処理は動画像用の手ぶれ補正処理である。ユーザは、この手ぶれ補正処理を有効とするか或いは無効とするか否かを、操作部26等を用いて撮像装置1に自由に指定することができる。手ぶれ補正処理を有効にすることが指定された場合、第1実施形態で述べた方法に従って入力画像に手ぶれ補正処理が成されるが、手ぶれ補正処理を無効にすることが指定された場合、パン・チルト判定の結果に依存せず、常に入力画像には手ぶれ補正処理が成されない(上述の図16及び後述の図22のステップS15においても手ぶれ補正処理は成されない)。
[First setting method]
The first setting method will be described. As is apparent from the description of the first embodiment, the camera shake correction process by the correction processing unit 56 is a camera shake correction process for moving images. The user can freely specify to the imaging apparatus 1 using the operation unit 26 or the like whether to enable or disable the camera shake correction process. When it is specified that the camera shake correction process is to be enabled, the camera shake correction process is performed on the input image according to the method described in the first embodiment. When it is specified that the camera shake correction process is to be disabled, panning is performed. Regardless of the result of the tilt determination, the camera shake correction process is not always performed on the input image (the camera shake correction process is not performed also in step S15 in FIG. 16 described above and FIG. 22 described later).

第1設定方法における調整用情報は、手ぶれ補正処理の有効/無効を表す情報である。そして、手ぶれ補正処理を無効にすることが指定されている場合におけるkh及びkvが、手ぶれ補正処理を有効にすることが指定されている場合におけるkh及びkvよりも小さくなるように、補正強度係数kh及びkvを設定する。具体的には、手ぶれ補正処理を有効にすることが指定されている場合においてはkh及びkvを共に1に設定し、手ぶれ補正処理を無効にすることが指定されている場合においてはkh及びkvを共に0以上且つ0.5以下の範囲内の任意の値に設定することができる(特に、kh=kv=0とすることも有益であり、kh=kv=0のとき、FP歪みの補正強度はゼロとなる)。   The adjustment information in the first setting method is information indicating whether the camera shake correction process is valid / invalid. Then, the correction strength coefficient is set so that kh and kv in the case where invalidation of the camera shake correction process is specified are smaller than kh and kv in the case where it is specified to enable the camera shake correction process. Set kh and kv. Specifically, when it is specified that the camera shake correction process is enabled, both kh and kv are set to 1, and when it is specified that the camera shake correction process is disabled, kh and kv. Can be set to any value within the range of 0 or more and 0.5 or less (in particular, it is also beneficial to set kh = kv = 0, and when kh = kv = 0, correction of FP distortion) The intensity is zero).

手ぶれ補正処理が無効にされている場合、それが有効とされている場合と比べて出力動画像上のフレーム間の位置ずれが大きくなる。フレーム間の位置ずれが小さい場合には、出力動画像上においてFP歪みが視覚的に目立つが、それが大きい場合にはFP歪みがあまり目立たない。これを考慮し、第1設定方法では、上述の如く、手ぶれ補正処理が無効とされている場合にはFP歪みの補正強度を弱くする或いはゼロにする。   When the camera shake correction process is disabled, the positional deviation between frames on the output moving image becomes larger than when the camera shake correction process is enabled. When the positional deviation between the frames is small, the FP distortion is visually noticeable on the output moving image, but when it is large, the FP distortion is not very noticeable. Considering this, in the first setting method, as described above, when the camera shake correction process is invalidated, the correction strength of the FP distortion is weakened or made zero.

[第2設定方法]
第2設定方法を説明する。第2設定方法における調整用情報は、ズーム倍率を表す情報である。ズーム倍率のワイド端側で撮影している場合(即ち低ズーム倍率にて撮影している場合)には、ズーム倍率のテレ端側で撮影している場合(即ち高ズーム倍率にて撮影している場合)と比べて、手ぶれの影響、実空間上における被写体の移動の影響、FP歪みの影響は小さい。従って、ズーム倍率のワイド端側で撮影している場合には、FP歪みが小さくFP歪みが目立ちにくいため、FP歪みの補正強度を弱く或いはゼロにしても良い。
[Second setting method]
The second setting method will be described. The adjustment information in the second setting method is information indicating the zoom magnification. When shooting at the wide end of the zoom magnification (that is, when shooting at a low zoom magnification), when shooting at the tele end of the zoom magnification (ie, shooting at a high zoom magnification) Are less affected by camera shake, movement of the subject in real space, and FP distortion. Accordingly, when shooting at the wide end of the zoom magnification, the FP distortion is small and the FP distortion is not conspicuous, so the correction strength of the FP distortion may be weak or zero.

例えば、図20のグラフに示すような折れ線410に従い、ズーム倍率ZFから補正強度係数kh及びkvを設定するようにしても良い。図20のグラフは、ZFとkh及びkvとの関係を表すグラフである。即ち、不等式「1≦ZF<THA1」が満たされる場合には「kh=kv=0」とし、不等式「THA1≦ZF<THA2」が満たされる場合には、「kh=kv=(ZF−THA1)/(THA2−THA1)」とし、不等式「THA2≦ZF」が満たされる場合には「kh=kv=1」とすることができる。ここで、THA1及びTHA2は「THA1<THA2」を満たす所定値をとる。倍率THA1はズーム倍率ZFの可変範囲の下限倍率(即ち1倍)以上であり、倍率THA2はズーム倍率ZFの可変範囲の上限倍率以下である。 For example, the correction strength coefficients kh and kv may be set from the zoom magnification ZF according to a broken line 410 as shown in the graph of FIG. The graph of FIG. 20 is a graph showing the relationship between ZF and kh and kv. That is, when the inequality “1 ≦ ZF <TH A1 ” is satisfied, “kh = kv = 0” is set, and when the inequality “TH A1 ≦ ZF <TH A2 ” is satisfied, “kh = kv = (ZF −TH A1 ) / (TH A2 −TH A1 ) ”, and when the inequality“ TH A2 ≦ ZF ”is satisfied,“ kh = kv = 1 ”. Here, TH A1 and TH A2 take a predetermined value satisfying “TH A1 <TH A2 ”. The magnification TH A1 is greater than or equal to the lower limit magnification (ie, 1 ×) of the variable range of the zoom magnification ZF, and the magnification TH A2 is less than or equal to the upper limit magnification of the variable range of the zoom magnification ZF.

ズーム倍率ZFは、光学ズームを用いる場合には光学ズーム倍率ZFOPTであり、電子ズームを用いる場合には電子ズーム倍率ZFELであり、光学ズーム及び電子ズームの双方を用いる場合には光学ズーム倍率ZFOPTと電子ズーム倍率ZFELの積である。ユーザは、図1のズームボタン26cの操作を介してズーム倍率ZFの変更を指示することができる。 The zoom magnification ZF is the optical zoom magnification ZF OPT when the optical zoom is used, the electronic zoom magnification ZF EL when the electronic zoom is used, and the optical zoom magnification when both the optical zoom and the electronic zoom are used. It is the product of ZF OPT and electronic zoom magnification ZF EL . The user can instruct to change the zoom magnification ZF through the operation of the zoom button 26c in FIG.

光学ズーム倍率ZFOPTの変更は、図2のズームレンズ30の移動によって実現される。光学ズーム倍率ZFOPTが或る基準倍率ZFREFである状態を基準として、光学ズーム倍率ZFOPTが基準倍率ZFREFのkZ倍になれば、基準との比較において、入力画像の画角は水平及び垂直方向の夫々において(1/kZ)倍となる。 The change of the optical zoom magnification ZF OPT is realized by moving the zoom lens 30 in FIG. Based on the state optical zoom magnification ZF OPT is some scale factor ZF REF, if the optical zoom magnification ZF OPT is the k Z times the reference magnification ZF REF, in comparison with the reference, the angle of view of the input image horizontal And (1 / k Z ) times in each of the vertical directions.

電子ズームは、撮像素子33から入力画像を生成する段階、又は、入力画像から出力画像を生成する段階において、電子ズーム倍率ZFELに応じた画像のトリミングを行うことで実現される。例えば、歪み補正画像から出力画像を生成する段階で電子ズームを行う場合には、歪み補正画像に設定する切り出し枠の大きさを電子ズーム倍率ZFELに応じて調整すればよい。この場合、電子ズーム倍率ZFELが或る基準倍率ZFREFである状態を基準として、電子ズーム倍率ZFELが基準倍率ZFREFのkZ倍になれば、基準との比較において、歪み補正画像に設定される切り出し枠の水平及び垂直方向の大きさは夫々(1/kZ)倍となる。 The electronic zoom is realized by trimming an image according to the electronic zoom magnification ZF EL at the stage of generating an input image from the image sensor 33 or the stage of generating an output image from the input image. For example, when the electronic zoom is performed at the stage of generating the output image from the distortion corrected image, the size of the clipping frame set in the distortion corrected image may be adjusted according to the electronic zoom magnification ZF EL . In this case, based on the state electronic zoom magnification ZF EL is some scale factor ZF REF, if the electronic zoom magnification ZF EL is the k Z times the reference magnification ZF REF, in comparison with the reference, the distortion correction image The horizontal and vertical sizes of the cutout frame to be set are each (1 / k Z ) times.

[第3設定方法]
第3設定方法を説明する。第3設定方法における調整用情報は画像動き検出部52による動き検出の信頼度であり、該信頼度が低い場合に、FP歪み補正の補正強度を弱く又はゼロにすることができる。画像動き検出部52では、時間的に隣接する入力画像間の動きベクトル検出が動き検出として成されるが、被写体の状況等により該動き検出の信頼度は変化する。例えば、コントラストが比較的高い被写体を撮影している場合には、高い信頼度を有する動きベクトルを得ることができる一方で、コントラストが比較的低い被写体(例えば、空、海、壁など)を撮影している場合には、得られる動きベクトルの信頼度は低くなる。
[Third setting method]
A third setting method will be described. The adjustment information in the third setting method is the reliability of motion detection by the image motion detection unit 52. When the reliability is low, the correction strength of the FP distortion correction can be reduced or zero. In the image motion detection unit 52, motion vector detection between temporally adjacent input images is performed as motion detection, but the reliability of the motion detection changes depending on the condition of the subject. For example, when shooting a subject with relatively high contrast, a motion vector with high reliability can be obtained, while shooting a subject with relatively low contrast (eg, sky, sea, wall, etc.). In such a case, the reliability of the obtained motion vector is low.

画像動き検出部52は、動きベクトルの検出の際、検出した動きベクトルの信頼度RLも併せて算出し、信頼度RLを画像動き情報に含める。画像データに基づいて検出される動きベクトルの信頼度RLの算出方法として、公知の方法を含む任意の方法(例えば、特開2008−60927号公報に記載された方法)を利用することが可能であり、動き検出ブロックBL[i]内の画像のコントラストや、動き検出ブロックごとに求められた動きベクトルMV[1]〜MV[9]のばらつき等に基づいて信頼度RLを算出することが可能である(図9参照)。   When detecting the motion vector, the image motion detection unit 52 also calculates the reliability RL of the detected motion vector, and includes the reliability RL in the image motion information. As a method for calculating the reliability RL of the motion vector detected based on the image data, any method including a known method (for example, a method described in Japanese Patent Laid-Open No. 2008-60927) can be used. Yes, the reliability RL can be calculated based on the contrast of the image in the motion detection block BL [i], the variation of the motion vectors MV [1] to MV [9] obtained for each motion detection block, and the like. (See FIG. 9).

例えば、図9の入力画像220及び230に対して求められた動きベクトルMV[1]〜MV[9]に基づき、
σ=Σ{||MV[i]−MVAVE||2
に従ってばらつきσを算出し、ばらつきσが増大するにつれて信頼度RLが減少するようにばらつきσから信頼度RLを求めることができる(例えば、RL=1/σ)。ここで、MVAVEは、ベクトルMV[1]〜MV[9]の平均ベクトルであり、||MV[i]−MVAVE||は、ベクトル(MV[i]−MVAVE)のノルムであり、σは、||MV[1]−MVAVE||2、||MV[2]−MVAVE||2、・・・、||MV[8]−MVAVE||2及び||MV[9]−MVAVE||2の総和である。
For example, based on the motion vectors MV [1] to MV [9] obtained for the input images 220 and 230 in FIG.
σ = Σ {|| MV [i] −MV AVE || 2 }
Accordingly, the reliability RL can be calculated from the variation σ so that the reliability RL decreases as the variation σ increases (for example, RL = 1 / σ). Here, MV AVE is an average vector of vectors MV [1] to MV [9], and || MV [i] −MV AVE || is a norm of the vector (MV [i] −MV AVE ). , Σ are || MV [1] -MV AVE || 2 , || MV [2] -MV AVE || 2 ,..., || MV [8] -MV AVE || 2 and || MV [9] is the sum of -MV AVE || 2.

画像データに基づく動きベクトル算出の原理上、撮影範囲内の全ての被写体が静止しておればσは小さくなるが、撮影範囲内の一部を占める被写体が移動すればσは大きくなる。FP歪みは撮像装置1の動きによって生じる歪みであり、被写体の移動成分はFP歪みに関与しない。従って、動きベクトルMV[1]〜MV[9]を平均化することで全体動きベクトル及びFP補正量を導出する場合において、ばらつきσが大きく信頼度RLが低い場合には、比較的大きな誤差がFP補正量に含まれている可能性が高い。   On the principle of calculating a motion vector based on image data, σ decreases if all subjects within the shooting range are stationary, but increases when a subject occupying a part of the shooting range moves. The FP distortion is a distortion caused by the movement of the imaging apparatus 1, and the moving component of the subject is not involved in the FP distortion. Accordingly, when the overall motion vector and the FP correction amount are derived by averaging the motion vectors MV [1] to MV [9], if the variation σ is large and the reliability RL is low, a relatively large error occurs. The possibility of being included in the FP correction amount is high.

これを考慮し、図21のグラフに示すような折れ線420に従って、信頼度RLから補正強度係数kh及びkvを設定するようにしても良い。図21のグラフは、RLとkh及びkvとの関係を表すグラフである。即ち、不等式「1≦RL<THB1」が満たされる場合には「kh=kv=0」とし、不等式「THB1≦RL<THB2」が満たされる場合には、「kh=kv=(RL−THB1)/(THB2−THB1)」とし、不等式「THB2≦RL」が満たされる場合には「kh=kv=1」とすることができる。ここで、THB1及びTHB2は「THB1<THB2」を満たす所定値をとる。倍率THB1は信頼度RLの可変範囲の下限値以上であり、倍率THB2は信頼度RLの可変範囲の上限値以下である。 In consideration of this, the correction strength coefficients kh and kv may be set from the reliability RL according to the broken line 420 as shown in the graph of FIG. The graph of FIG. 21 is a graph showing the relationship between RL and kh and kv. That is, when the inequality “1 ≦ RL <TH B1 ” is satisfied, “kh = kv = 0” is set, and when the inequality “TH B1 ≦ RL <TH B2 ” is satisfied, “kh = kv = (RL −TH B1 ) / (TH B2 −TH B1 ) ”, and when the inequality“ TH B2 ≦ RL ”is satisfied,“ kh = kv = 1 ”. Here, TH B1 and TH B2 take a predetermined value satisfying “TH B1 <TH B2 ”. The magnification TH B1 is not less than the lower limit value of the variable range of the reliability RL, and the magnification TH B2 is not more than the upper limit value of the variable range of the reliability RL.

尚、信頼度RLに基づくkh及びkvの設定方法は、画像動き情報に基づいてFP歪み補正処理を行う場合にのみ有効な方法であり、センサ動き情報に基づいてFP歪み補正処理を行う場合にはkh及びkvは1で固定される。   Note that the kh and kv setting method based on the reliability RL is effective only when the FP distortion correction process is performed based on the image motion information, and when the FP distortion correction process is performed based on the sensor motion information. Kh and kv are fixed at 1.

[動作フロー]
図22は、第2実施形態に係る撮像装置1の動作の手順を表すフローチャートである。図16及び図22間の対比からも分かるように、第2実施形態では、第1実施形態におけるステップS14及びS16が夫々ステップS14a及びS16aに置換されており、その置換を除き、撮像装置1の動作手順は第1及び第2実施形態間で同じである。
[Operation flow]
FIG. 22 is a flowchart illustrating an operation procedure of the imaging apparatus 1 according to the second embodiment. As can be seen from the comparison between FIG. 16 and FIG. 22, in the second embodiment, steps S14 and S16 in the first embodiment are replaced with steps S14a and S16a, respectively. The operation procedure is the same between the first and second embodiments.

ステップS13においてパン・チルト無しと判定された場合には、ステップS13からステップS14aに移行する。ステップS14aでは、最新の入力画像に対して画像動き情報に基づくFP補正量の算出が行われた後、該FP補正量が調整用情報に基づいて調整され、調整後のFP補正量に基づいてFP歪み補正処理が行われる。FP歪み補正処理によって得られた歪み補正画像に対してステップS15にて手ぶれ補正処理を行うことで出力画像が生成される。   If it is determined in step S13 that there is no pan / tilt, the process proceeds from step S13 to step S14a. In step S14a, after the FP correction amount based on the image motion information is calculated for the latest input image, the FP correction amount is adjusted based on the adjustment information, and based on the adjusted FP correction amount. FP distortion correction processing is performed. An output image is generated by performing camera shake correction processing in step S15 on the distortion corrected image obtained by the FP distortion correction processing.

ステップS13においてパン・チルト有りと判定された場合には、ステップS13からステップS16aに移行する。ステップS16aでは、最新の入力画像に対して画像動き情報に基づくFP補正量の算出が行われた後、該FP補正量が調整用情報に基づいて調整され、調整後のFP補正量に基づいてFP歪み補正処理が行われる。ステップS13においてパン・チルト有りと判定された場合は、第1実施形態と同様、手ぶれ補正処理は成されない。即ち、FP歪み補正処理によって得られた歪み補正画像に対して切り出し枠の位置変更を行うことなく(換言すれば、前回及び今回の歪み補正画像間で切り出し枠の位置を変更させることなく)、歪み補正画像の切り出し枠内画像を切り出すことで出力画像を生成する。   If it is determined in step S13 that there is pan / tilt, the process proceeds from step S13 to step S16a. In step S16a, after the FP correction amount based on the image motion information is calculated for the latest input image, the FP correction amount is adjusted based on the adjustment information, and based on the adjusted FP correction amount. FP distortion correction processing is performed. If it is determined in step S13 that there is pan / tilt, camera shake correction processing is not performed as in the first embodiment. That is, without changing the position of the cutout frame for the distortion correction image obtained by the FP distortion correction processing (in other words, without changing the position of the cutout frame between the previous and current distortion correction images), An output image is generated by cutting out the image within the cutout frame of the distortion corrected image.

本実施形態によっても第1実施形態と同様の効果を得ることができる。更に、FP歪みが目立ちにくいと判断される場合、或いは、FP歪み補正の誤差が大きくなる可能性が高いと判断される場合にFP歪みの補正強度を弱めることで、状況に応じたFP歪み補正を成すことが可能となる。特に、調整用情報に応じ、FP歪みの補正強度をゼロにしてFP歪み補正処理そのものを行わないようにすれば、計算負荷の軽減及びそれに伴う消費電力の削減効果が得られる。   According to this embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, when it is determined that the FP distortion is not conspicuous, or when it is determined that the error of the FP distortion correction is likely to be large, the FP distortion correction strength is reduced to reduce the FP distortion correction according to the situation. Can be achieved. In particular, if the FP distortion correction intensity is set to zero and the FP distortion correction process itself is not performed according to the adjustment information, the calculation load can be reduced and the power consumption can be reduced accordingly.

<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 4 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述の例では、入力画像の全体画像領域を9つに分割することで入力画像に9つの動き検出ブロックを設定しているが、入力画像に設定されるべき動き検出ブロックの個数は9以外であっても良い。
[Note 1]
In the above example, nine motion detection blocks are set in the input image by dividing the entire image area of the input image into nine. However, the number of motion detection blocks to be set in the input image is other than nine. There may be.

[注釈2]
図6を参照して上述した例では、有効画素領域33A上の位置(x,y)における受光画素の出力信号は、入力画像用のメモリ領域51A上のアドレス(x,y)に保存される。即ち、上述の例では、有効画素領域33A上の各受光画素の出力信号を全て個別に読み出すことで入力画像が生成されることを想定している。但し、有効画素領域33Aの各受光画素の出力信号を間引き読み出し又は加算読み出しすることで入力画像を生成するようにしても構わない。
[Note 2]
In the example described above with reference to FIG. 6, the output signal of the light receiving pixel at the position (x, y) on the effective pixel area 33 A is stored at the address (x, y) on the memory area 51 A for the input image. Is done. That is, in the above example, it is assumed that the input image is generated by reading the output signal of the light receiving pixels on the effective pixel region 33 A All individual. However, it may be generated an input image to be read or the addition reading decimated output signals of the light receiving pixels in the effective pixel region 33 A.

間引き読み出しでは、有効画素領域33A内の一部の受光画素の出力信号のみが入力画像の画像データとして読み出される。加算読み出しでは、有効画素領域33A内の複数の受光画素の出力信号の加算信号を1つの受光画素の出力信号とみなした上で受光画素の出力信号の読み出しが成される。間引き読み出し又は加算読み出しを用いて入力画像を生成する場合、入力画像の画素数は有効画素領域33Aの受光画素数よりも小さくなる。 The skip readout, only the output signal of the part of the light receiving pixels in the effective pixel region 33 A is read out as image data of the input image. In addition reading, the reading of the output signal of the light receiving pixels on which was considered as the output signal of one light receiving pixel addition signal of the output signals of a plurality of light receiving pixels in the effective pixel region 33 A is made. When generating an input image by using a thinning-out reading or addition reading, the number of pixels of the input image is smaller than the number of light receiving pixels in the effective pixel region 33 A.

[注釈3]
上述の各実施形態では、画像動き情報に基づいてFP歪み補正処理を行う際、動き検出ブロックごとに算出された動きベクトルを平均化することで全体動きベクトルを算出し、全体動きベクトルに基づくFP補正量にてFP歪み補正処理を行うようにしている。但し、画像動き情報に基づいてFP歪み補正処理を行う方法は、これに限定されない。即ち、画像動き情報に基づいてFP歪み補正処理を行う場合、例えば特開2006−186481号公報に記載された方法のように、動き検出ブロックごとに算出された動きベクトルに基づき動き検出ブロックごとにFP歪み補正処理を行うようにしても良い。
[Note 3]
In each of the above-described embodiments, when performing the FP distortion correction process based on the image motion information, an overall motion vector is calculated by averaging the motion vectors calculated for each motion detection block, and the FP based on the overall motion vector is obtained. FP distortion correction processing is performed with the correction amount. However, the method for performing the FP distortion correction process based on the image motion information is not limited to this. In other words, when performing FP distortion correction processing based on image motion information, for example, a method described in Japanese Patent Application Laid-Open No. 2006-186482, for each motion detection block based on a motion vector calculated for each motion detection block. FP distortion correction processing may be performed.

[注釈4]
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。
[Note 4]
The imaging apparatus 1 in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device (for example, a computer).

1 撮像装置
11 撮像部
33 撮像素子
33A 有効画素領域
50、50a 画像補正機能部
51 フレームメモリ
52 画像動き検出部
53 センサ部
54 パン・チルト判定部
55 FP補正量算出部
56 補正処理部
57 補正強度調整部
DESCRIPTION OF SYMBOLS 1 Image pick-up device 11 Image pick-up part 33 Image pick-up element 33 A effective pixel area 50, 50a Image correction function part 51 Frame memory 52 Image motion detection part 53 Sensor part 54 Pan / tilt determination part 55 FP correction amount calculation part 56 Correction processing part 57 Correction Strength adjustment section

Claims (6)

互いに異なる水平ライン間で露光タイミングを異ならせつつ撮影を行って入力画像を生成する撮像素子を備えた撮像装置において、
前記撮像素子の出力に基づく複数の入力画像間のオプティカルフローを前記撮像素子の出力に基づいて検出する動き検出部と、
当該撮像装置の動きを検出するセンサ部と、
前記動き検出部の検出結果及び前記センサ部の検出結果の双方又は一方に基づいて前記動き検出部の検出結果及び前記センサ部の検出結果のどちらかを選択し、選択した検出結果に基づいて前記入力画像を補正することにより出力画像を生成する補正部と、を備えた
ことを特徴とする撮像装置。
In an imaging apparatus including an imaging element that performs imaging while generating different exposure timings between different horizontal lines,
A motion detector for detecting an optical flow between a plurality of input images based on the output of the image sensor based on the output of the image sensor;
A sensor unit for detecting movement of the imaging device;
Select either the detection result of the motion detection unit or the detection result of the sensor unit based on both or one of the detection result of the motion detection unit and the detection result of the sensor unit, and based on the selected detection result An image pickup apparatus comprising: a correction unit that generates an output image by correcting an input image.
前記補正部は、異なる水平ライン間で露光タイミングが異なることによって前記入力画像に生じた歪みを補正する
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the correction unit corrects distortion generated in the input image due to different exposure timings between different horizontal lines.
前記補正部は、複数の入力画像から成る入力動画像の撮影期間中における当該撮像装置の動きによって発生した、前記入力動画像上のぶれをも更に補正し、
前記ぶれの補正は、前記動き検出部の検出結果又は前記センサ部の検出結果に基づいて行われる
ことを特徴とする請求項2に記載の撮像装置。
The correction unit further corrects a shake on the input moving image generated by a movement of the imaging apparatus during a shooting period of the input moving image including a plurality of input images,
The imaging apparatus according to claim 2, wherein the blur correction is performed based on a detection result of the motion detection unit or a detection result of the sensor unit.
前記動き検出部の検出結果及び前記センサ部の検出結果の双方又は一方に基づいて当該撮像装置のパンニング又はチルティングの有無を判定する判定部を更に備え、
前記補正部は、前記パンニング又はチルティングが有ると判定された場合には前記動き検出部の検出結果を選択する一方で、そうでない場合には前記センサ部の検出結果を選択する
ことを特徴とする請求項1〜請求項3の何れかに記載の撮像装置。
A determination unit for determining the presence or absence of panning or tilting of the imaging device based on both or one of the detection result of the motion detection unit and the detection result of the sensor unit;
The correction unit selects the detection result of the motion detection unit when it is determined that there is panning or tilting, and selects the detection result of the sensor unit otherwise. The imaging device according to any one of claims 1 to 3.
前記補正部は、異なる水平ライン間で露光タイミングが異なることによって前記入力画像に生じた歪みを補正する歪み補正部、及び、複数の入力画像から成る入力動画像の撮影期間中における当該撮像装置の動きによって発生した、前記入力動画像上のぶれを補正するぶれ補正部を備え、
前記歪みの補正は前記選択した検出結果に基づいて行われる一方で、前記ぶれの補正は前記動き検出部の検出結果又は前記センサ部の検出結果に基づいて行われ、
前記補正部は、
当該撮像装置にパンニング又はチルティングが成されていないときには、前記歪み補正部及び前記ぶれ補正部を用いて前記入力画像から前記出力画像を生成し、
当該撮像装置にパンニング又はチルティングが成されているときには、前記ぶれ補正部を用いることなく前記歪み補正部を用いて前記入力画像から前記出力画像を生成する
ことを特徴とする請求項1に記載の撮像装置。
The correction unit includes a distortion correction unit that corrects distortion generated in the input image due to different exposure timings between different horizontal lines, and the imaging apparatus during the shooting period of the input moving image including a plurality of input images. A shake correction unit that corrects a shake on the input moving image generated by the movement;
The distortion correction is performed based on the selected detection result, while the blur correction is performed based on the detection result of the motion detection unit or the detection result of the sensor unit,
The correction unit is
When panning or tilting is not performed on the imaging device, the output image is generated from the input image using the distortion correction unit and the shake correction unit,
2. The output image is generated from the input image using the distortion correction unit without using the blur correction unit when panning or tilting is performed on the imaging apparatus. Imaging device.
前記補正部は、前記歪みの補正の強度を変更可能に形成されている
ことを特徴とする請求項2又は請求項5に記載の撮像装置。
The imaging apparatus according to claim 2, wherein the correction unit is formed to be capable of changing a strength of correcting the distortion.
JP2009267771A 2009-11-25 2009-11-25 Imaging device Pending JP2011114486A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267771A JP2011114486A (en) 2009-11-25 2009-11-25 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267771A JP2011114486A (en) 2009-11-25 2009-11-25 Imaging device

Publications (1)

Publication Number Publication Date
JP2011114486A true JP2011114486A (en) 2011-06-09

Family

ID=44236517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267771A Pending JP2011114486A (en) 2009-11-25 2009-11-25 Imaging device

Country Status (1)

Country Link
JP (1) JP2011114486A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075685A (en) * 2012-10-04 2014-04-24 Panasonic Corp Image processor and image processing method
JP2016105547A (en) * 2014-12-01 2016-06-09 株式会社ソシオネクスト Image processing device and image processing method
JP2017060192A (en) * 2016-12-13 2017-03-23 キヤノン株式会社 Image shake correction device, image shake correction method, program, and storage medium
US10708511B2 (en) 2017-02-06 2020-07-07 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional motion obtaining apparatus and three-dimensional motion obtaining method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075685A (en) * 2012-10-04 2014-04-24 Panasonic Corp Image processor and image processing method
JP2016105547A (en) * 2014-12-01 2016-06-09 株式会社ソシオネクスト Image processing device and image processing method
JP2017060192A (en) * 2016-12-13 2017-03-23 キヤノン株式会社 Image shake correction device, image shake correction method, program, and storage medium
US10708511B2 (en) 2017-02-06 2020-07-07 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional motion obtaining apparatus and three-dimensional motion obtaining method

Similar Documents

Publication Publication Date Title
US8913140B2 (en) Rolling shutter reduction based on motion sensors
JP6124538B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2011114649A (en) Imaging device
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
JP5764740B2 (en) Imaging device
JP2008109336A (en) Image processing apparatus and imaging apparatus
JP5143172B2 (en) Imaging apparatus and image reproduction apparatus
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP2011114486A (en) Imaging device
JP5748579B2 (en) Image composition device, imaging device, control method thereof, and control program
JP2009135713A (en) Method and apparatus for correcting image distortion caused by camera shake
JP2018148512A (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
WO2017104102A1 (en) Imaging device
JP2012235198A (en) Imaging apparatus
JP4125331B2 (en) Imaging apparatus and control method thereof
JP4953770B2 (en) Imaging device
JP2007243335A (en) Camera shake correction method, camera shake correction apparatus, and imaging apparatus
JP4969349B2 (en) Imaging apparatus and imaging method
JP4753856B2 (en) Motion detection apparatus and method, and imaging apparatus
JP2011087203A (en) Imaging apparatus
JP2007110636A (en) Camera device
JP2010193475A (en) Imaging device and image reproducing device
JP5341536B2 (en) Imaging device
JP6797566B2 (en) Image pickup device, control method of image pickup device, and image processing device
JP2011030065A (en) Imaging device