[go: up one dir, main page]

JP2019083407A - Image blur correction device and control method therefor, and imaging device - Google Patents

Image blur correction device and control method therefor, and imaging device Download PDF

Info

Publication number
JP2019083407A
JP2019083407A JP2017209632A JP2017209632A JP2019083407A JP 2019083407 A JP2019083407 A JP 2019083407A JP 2017209632 A JP2017209632 A JP 2017209632A JP 2017209632 A JP2017209632 A JP 2017209632A JP 2019083407 A JP2019083407 A JP 2019083407A
Authority
JP
Japan
Prior art keywords
tracking
image
information
shake
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017209632A
Other languages
Japanese (ja)
Other versions
JP7013205B2 (en
JP2019083407A5 (en
Inventor
勇太 川村
Yuta Kawamura
勇太 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017209632A priority Critical patent/JP7013205B2/en
Publication of JP2019083407A publication Critical patent/JP2019083407A/en
Publication of JP2019083407A5 publication Critical patent/JP2019083407A5/ja
Application granted granted Critical
Publication of JP7013205B2 publication Critical patent/JP7013205B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮像画像の特徴点の3次元座標の推定状態に拠らずに良好な像振れ補正を行う装置及その制御方法並びに撮像装置を提供する。【解決手段】撮像装置は振れ情報を検出し、撮像画像信号から動きベクトルを検出する。特徴点追跡部210は、動きベクトルに基づき、撮像画像にて同一の特徴点の座標値を追跡情報として算出する。追跡期間算出部209は撮像画像間の視差量と特徴点に基づいて特徴点の追跡期間を算出する。統合処理部205は、振れ情報及び特徴点の追跡情報に基づき撮像装置の位置姿勢情報を推定し、被写体と撮像装置との奥行きを含めた位置関係を示す特徴点の3次元座標を推定する。目標位置算出部212は、追跡期間に基づく3次元座標推定の寄与度に応じて振れ情報及び撮像装置の位置姿勢情報を合成し、像振れ補正レンズ103の駆動制御の目標位置を算出する。追跡期間が長くなるにつれて3次元座標推定の寄与度が高く制御される。【選択図】図2PROBLEM TO BE SOLVED: To provide a device for performing good image shake correction regardless of an estimation state of three-dimensional coordinates of a feature point of a captured image, a control method thereof, and an imaging device. An image pickup apparatus detects runout information and detects a motion vector from a captured image signal. The feature point tracking unit 210 calculates the coordinate values of the same feature points as tracking information in the captured image based on the motion vector. The tracking period calculation unit 209 calculates the tracking period of the feature points based on the parallax amount between the captured images and the feature points. The integrated processing unit 205 estimates the position / orientation information of the image pickup device based on the runout information and the tracking information of the feature points, and estimates the three-dimensional coordinates of the feature points showing the positional relationship including the depth between the subject and the image pickup device. The target position calculation unit 212 synthesizes the shake information and the position / orientation information of the image pickup device according to the contribution of the three-dimensional coordinate estimation based on the tracking period, and calculates the target position of the drive control of the image shake correction lens 103. As the tracking period becomes longer, the contribution of the 3D coordinate estimation is controlled to be higher. [Selection diagram] Fig. 2

Description

本発明は、ビデオカメラ、デジタルスチルカメラ等の撮像装置において像振れを補正する技術に関する。   The present invention relates to a technique for correcting image blurring in an imaging device such as a video camera and a digital still camera.

デジタルカメラ等による撮像時に、カメラ本体部を保持するユーザの手振れ等で被写体の像振れが生ずる場合がある。撮像装置が行う像振れ補正には、光学式像振れ補正と電子式像振れ補正がある。例えば光学式像振れ補正では、カメラ本体部に加えられた振動を角速度センサ等で検出し、検出結果に応じて撮像光学系内に設けた補正レンズを移動させる制御が行われる。撮像光学系の光軸方向を変化させて撮像素子の受光面に結像される像を移動させることにより、像振れが補正される。また電子式像振れ補正では、撮像画像に対する画像処理により、擬似的に像振れの補正処理が行われる。   At the time of imaging by a digital camera or the like, an image blur of a subject may occur due to a camera shake of a user who holds the camera body. Image blur correction performed by the imaging apparatus includes optical image blur correction and electronic image blur correction. For example, in the optical image shake correction, control is performed to detect a vibration applied to the camera body with an angular velocity sensor or the like and move a correction lens provided in the imaging optical system according to the detection result. Image blurring is corrected by changing the optical axis direction of the imaging optical system to move the image formed on the light receiving surface of the imaging device. In electronic image shake correction, image shake correction processing is performed in a pseudo manner by image processing on a captured image.

手振れ等により発生する像振れを補正するためには、撮像装置の位置姿勢変化を検出する必要がある。撮像装置の姿勢および位置を検出する自己位置推定方法として、SFM(Structure from Motion)と慣性センサを用いた位置姿勢推定(Visual and Inertial Sensor Fusion)技術を応用した方法がある。現実の空間(実空間)に存在する物体の3次元座標と撮像装置の位置姿勢を推定する方法が知られている。特許文献1には、特徴点の動きを追跡し、追跡結果を使用して像振れを補正する技術が開示されている。   In order to correct an image blur generated due to camera shake or the like, it is necessary to detect a change in position and orientation of the imaging device. As a self-position estimation method for detecting an attitude and a position of an imaging device, there is a method to which a SFM (Structure from Motion) and a position and orientation estimation (Visual and Inertial Sensor Fusion) technology using an inertial sensor are applied. There is known a method of estimating the three-dimensional coordinates of an object existing in a real space (real space) and the position and orientation of an imaging device. Patent Document 1 discloses a technique of tracking the movement of feature points and correcting an image blur using the tracking result.

特開2016−119572号公報JP, 2016-119572, A

従来の技術では、撮影された画像間の視差量が小さい場合、SFMによる物体の3次元座標推定に失敗する可能性がある。特許文献1では、画像間の視差量が大きくなるように、追跡を行う画像を選択することで視差量が小さくなることを回避している。しかしこの技術では、視差量の小さい画像同士の比較結果を考慮することができない。そのため処理が行われない期間が発生してしまい、像振れ補正に関して制御されない期間が発生する可能性がある。特に細かな手振れにより像振れが長期間に亘って発生する場合、像振れを補正することは困難である。
本発明は、撮像画像の特徴点の3次元座標を利用した像振れ補正において、3次元座標の推定状態に拠らずに良好な像振れ補正を行うことを目的とする。
In the prior art, when the amount of parallax between captured images is small, there is a possibility that three-dimensional coordinate estimation of an object by SFM may fail. In Patent Document 1, reduction in the amount of parallax is avoided by selecting an image to be tracked such that the amount of parallax between images is large. However, this technique can not take into consideration the comparison result between images with small parallax amounts. Therefore, a period in which the process is not performed may occur, and a period in which the image blur correction is not controlled may occur. It is difficult to correct the image blur particularly when the image blur occurs over a long period of time due to fine hand movement.
An object of the present invention is to perform good image blur correction regardless of the estimation state of three-dimensional coordinates in image blur correction using three-dimensional coordinates of feature points of a captured image.

本発明の一実施形態の装置は、撮像装置に加わる振れにより生じる像振れを、振れ補正手段によって補正する像振れ補正装置であって、撮像画像の画像信号から得られる動きベクトル情報を用いて撮像画像における特徴点を抽出して追跡し、前記特徴点の座標を追跡情報として算出する追跡手段と、前記撮像装置に加わる振れに係る振れ情報および前記追跡情報を用いて前記撮像装置の位置姿勢情報を推定する第1の推定手段と、前記位置姿勢情報を用いて被写体と前記撮像装置との奥行きを含めた位置関係を示す前記特徴点の3次元座標を推定する第2の推定手段と、複数の撮像画像間の視差量および前記特徴点から前記特徴点の追跡期間を算出する第1の算出手段と、前記第1の算出手段から取得した前記追跡期間が長い場合に、前記追跡期間が短い場合よりも前記振れ情報に対する前記位置姿勢情報の合成の割合を高くして前記振れ情報および前記位置姿勢情報を合成することにより、前記振れ補正手段の目標位置を算出する第2の算出手段と、前記目標位置にしたがって前記振れ補正手段を制御する制御手段と、を備える。   An apparatus according to an embodiment of the present invention is an image shake correction apparatus that corrects an image shake generated by a shake applied to an imaging apparatus by a shake correction unit, and captures an image using motion vector information obtained from an image signal of a captured image. Tracking means for extracting and tracking feature points in an image and calculating coordinates of the feature points as tracking information, shake information related to shake applied to the imaging device, and position and orientation information of the imaging device using the tracking information A second estimation means for estimating the three-dimensional coordinates of the feature point indicating the positional relationship including the depth between the subject and the imaging device using the position and orientation information; The first calculation means for calculating the tracking period of the feature point from the amount of parallax between the captured images of the first and second feature points, and the tracking period obtained from the first calculation means is long when the tracking period is long. A second calculation of calculating a target position of the shake correction unit by combining the shake information and the position and attitude information by setting the ratio of combining the position and attitude information to the shake information higher than when the period is short And means for controlling the shake correcting means in accordance with the target position.

本発明によれば、撮像画像の特徴点の3次元座標を利用した像振れ補正において、3次元座標の推定状態に拠らずに良好な像振れ補正を行うことができる。   According to the present invention, in image blur correction using three-dimensional coordinates of feature points of a captured image, it is possible to perform good image blur correction regardless of the estimated state of three-dimensional coordinates.

本発明の第1実施形態の撮像装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of an imaging device of a 1st embodiment of the present invention. 像振れ補正装置の構成例を示す図である。FIG. 2 is a diagram showing an example of the configuration of an image shake correction apparatus. 像振れ補正装置の処理を説明するフローチャートである。5 is a flowchart illustrating processing of the image shake correction apparatus. 特徴点追跡部の構成例を示す図である。It is a figure which shows the structural example of a feature point tracking part. 特徴点追跡処理を説明するフローチャートである。It is a flowchart explaining a feature point tracking process. 特徴点抽出の説明図である。It is explanatory drawing of feature point extraction. テンプレートマッチングの説明図である。It is explanatory drawing of template matching. 相関値マップの説明図である。It is explanatory drawing of a correlation value map. 相関値マップの表現方法を説明する図である。It is a figure explaining the expression method of a correlation value map. 特徴点の追跡信頼度を表す相関値指標を説明する図である。It is a figure explaining the correlation value index showing the tracking reliability of a feature point. 特徴点の追跡信頼度の算出方法を説明する図である。It is a figure explaining the calculation method of tracking reliability of a feature point. 透視射影モデルの説明図である。It is explanatory drawing of a perspective projection model. 3次元座標の推定方法を説明する図である。It is a figure explaining the estimation method of a three-dimensional coordinate. 位置姿勢推定値の補正処理のフローチャートである。It is a flowchart of a correction process of a position and orientation estimated value. 目標位置算出部の構成例を示す図である。It is a figure which shows the structural example of a target position calculation part. 目標位置算出処理のフローチャートである。It is a flowchart of target position calculation processing. 追跡期間に対するゲイン量の説明図である。It is explanatory drawing of the gain amount with respect to a tracking period. 第2実施形態の像振れ補正装置の構成例を示す図である。It is a figure which shows the structural example of the image blurring correction | amendment apparatus of 2nd Embodiment. 第2実施形態の像振れ補正装置の処理を説明するフローチャートである。It is a flowchart explaining the process of the image blurring correction apparatus of 2nd Embodiment. 第2実施形態の動きベクトル演算部の構成例を示す図である。It is a figure which shows the structural example of the motion vector calculating part of 2nd Embodiment. 第2実施形態の動きベクトル演算部が行う処理のフローチャートである。It is a flowchart of the process which the motion vector calculating part of 2nd Embodiment performs. 第2実施形態の目標位置算出部の構成例を示す図である。It is a figure which shows the structural example of the target position calculation part of 2nd Embodiment.

以下に本発明の実施形態を、添付図面を参照して詳細に説明する。本発明は、ビデオカメラ、デジタルカメラおよび銀塩スチルカメラ等の撮像装置や、撮像部を有する電子機器に適用可能である。以下では、撮像装置の振れ検出信号を用いて像振れの補正を行う動作を「像振れ補正動作」という。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. The present invention is applicable to an imaging apparatus such as a video camera, a digital camera, and a silver halide still camera, and an electronic apparatus having an imaging unit. Hereinafter, an operation of correcting an image shake using a shake detection signal of an imaging device is referred to as an “image shake correction operation”.

[第1実施形態]
図1は、本実施形態の撮像装置の構成例を示す図である。図1に示す撮像装置は、例えばデジタルスチルカメラである。なお、撮像装置が動画撮影機能を有していてもよい。撮像装置はズームユニット101を備える。ズームユニット101は、撮像光学系(結像光学系)を構成する、倍率が可変な撮影レンズの一部であり、撮影倍率を変更するズームレンズを含む。ズーム駆動部102は、制御部117からの制御信号に従ってズームユニット101を駆動する。
First Embodiment
FIG. 1 is a view showing an example of the arrangement of an image pickup apparatus according to this embodiment. The imaging device shown in FIG. 1 is, for example, a digital still camera. Note that the imaging device may have a moving image shooting function. The imaging device includes a zoom unit 101. The zoom unit 101 is a part of a variable magnification imaging lens that constitutes an imaging optical system (imaging optical system), and includes a zoom lens that changes the imaging magnification. The zoom drive unit 102 drives the zoom unit 101 in accordance with the control signal from the control unit 117.

像振れ補正レンズ(以下、単に補正レンズともいう)103は、撮像装置に加わる振れにより生じる像振れの補正に用いられる補正部材(振れ補正手段)である。補正レンズ103は、撮影レンズの光軸方向に対して直交する方向に移動可能である。像振れ補正レンズ駆動部104は、制御部117からの制御信号に従って、補正レンズ103を駆動する。絞り・シャッタユニット105は、絞り機能をもつメカニカルシャッタを備える。絞り・シャッタ駆動部106は、制御部117からの制御信号に従って絞り・シャッタユニット105を駆動する。焦点調節に使用するフォーカスレンズ107は、撮影レンズの一部であり、撮影レンズの光軸に沿って位置を変更可能である。フォーカス駆動部108は、制御部117からの制御信号に従って、フォーカスレンズ107を駆動する。   An image shake correction lens (hereinafter, also simply referred to as a correction lens) 103 is a correction member (shake correction means) used for correcting an image shake caused by a shake applied to an imaging device. The correction lens 103 is movable in a direction orthogonal to the optical axis direction of the photographing lens. The image shake correction lens drive unit 104 drives the correction lens 103 in accordance with the control signal from the control unit 117. The aperture / shutter unit 105 includes a mechanical shutter having an aperture function. The diaphragm / shutter driving unit 106 drives the diaphragm / shutter unit 105 in accordance with the control signal from the control unit 117. The focus lens 107 used for focusing is a part of the photographing lens, and can change its position along the optical axis of the photographing lens. The focus drive unit 108 drives the focus lens 107 in accordance with the control signal from the control unit 117.

撮像部109は、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備える。CCDは、“Charge Coupled Device”の略号であり、CMOSは、“Complementary Metal-Oxide Semiconductor”の略号である。撮像素子は、撮像光学系により結像される光学像を、画素単位の電気信号に変換する。   The imaging unit 109 includes an imaging element such as a CCD image sensor or a CMOS image sensor. CCD is an abbreviation of "Charge Coupled Device", and CMOS is an abbreviation of "Complementary Metal-Oxide Semiconductor". The imaging element converts an optical image formed by the imaging optical system into an electrical signal in pixel units.

撮像信号処理部110は、撮像部109が出力する電気信号に対して、A(Analog)/D(Digital)変換、相関二重サンプリング、ガンマ補正、ホワイトバランス補正、色補間処理等を行い、映像信号に変換する。映像信号処理部111は、撮像信号処理部110が出力した映像信号を用途に応じて加工する。具体的には、映像信号処理部111は、表示用の映像データを生成し、また記録用に符号化処理やデータファイル化を行う。表示部112は、映像信号処理部111が出力する表示用の映像信号に基づいて、必要に応じて画像表示を行う。   The imaging signal processing unit 110 performs A (Analog) / D (Digital) conversion, correlated double sampling, gamma correction, white balance correction, color interpolation processing, and the like on the electrical signal output from the imaging unit 109, and Convert to a signal. The video signal processing unit 111 processes the video signal output from the imaging signal processing unit 110 according to the application. Specifically, the video signal processing unit 111 generates video data for display, and performs encoding processing and data filing for recording. The display unit 112 performs image display as needed based on the display video signal output from the video signal processing unit 111.

電源部113は、撮像装置全体に、用途に応じて電源を供給する。外部入出力端子部114は、外部装置との間で通信信号および映像信号の入出力を行う際に使用される。操作部115は、ユーザが撮像装置に指示を与えるためのボタンやスイッチ等を有する。記憶部116は、映像情報等を含む様々なデータを記憶する。   The power supply unit 113 supplies power to the entire imaging apparatus according to the application. The external input / output terminal unit 114 is used to input / output communication signals and video signals to / from an external device. The operation unit 115 includes a button, a switch, and the like for the user to give an instruction to the imaging apparatus. The storage unit 116 stores various data including video information and the like.

制御部117は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備え、撮像装置全体を制御する。ROMに記憶された制御プログラムをRAMに展開してCPUが実行することによって、撮像装置の各部が制御され、以下に説明する様々な動作が実現される。振れ検出部118は撮像装置に加わる振れを検出するセンサを備え、振れ検出信号を制御部117に出力する。   The control unit 117 includes, for example, a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM), and controls the entire imaging apparatus. The control program stored in the ROM is expanded on the RAM and executed by the CPU to control each part of the imaging apparatus, and various operations described below are realized. The shake detection unit 118 includes a sensor that detects a shake applied to the imaging device, and outputs a shake detection signal to the control unit 117.

操作部115は、レリーズボタンの押し込み量に応じて第1スイッチ(SW1と記す)および第2スイッチ(SW2と記す)が順にオンするように構成されたレリーズスイッチを有する。レリーズボタンの半押し操作で、SW1がオンし、レリーズボタンの全押し操作でSW2がオンする。SW1がオンすると、制御部117は、映像信号処理部111が表示部112に出力する表示用の映像信号に基づいて、AF(オートフォーカス)評価値を算出する。そして、制御部117は、AF評価値に基づいてフォーカス駆動部108を制御することにより、自動焦点検出および焦点調節制御を行う。また、制御部117は、映像信号の輝度情報および予め定められたプログラム線図に基づいて、適切な露光量を得るための絞り値およびシャッタ速度を決定するAE(自動露出)処理を行う。SW2がオン操作されると、制御部117は、決定した絞り値およびシャッタ速度で撮影を行い、撮像部109で得た画像データを記憶部116に記憶させるように各処理部を制御する。   The operation unit 115 has a release switch configured such that the first switch (denoted as SW1) and the second switch (denoted as SW2) are sequentially turned on in accordance with the pressing amount of the release button. When the release button is pressed halfway, SW1 turns on, and when the release button is fully pressed, SW2 turns on. When the switch SW1 is turned on, the control unit 117 calculates an AF (Auto Focus) evaluation value based on the display video signal output from the video signal processing unit 111 to the display unit 112. Then, the control unit 117 performs automatic focus detection and focus adjustment control by controlling the focus drive unit 108 based on the AF evaluation value. Further, the control unit 117 performs AE (automatic exposure) processing for determining an aperture value and a shutter speed for obtaining an appropriate exposure amount based on luminance information of the video signal and a predetermined program chart. When the switch SW2 is turned on, the control unit 117 performs imaging with the determined aperture value and shutter speed, and controls each processing unit to store the image data obtained by the imaging unit 109 in the storage unit 116.

また操作部115は、像振れ補正(防振)モードの選択に使用する操作スイッチを有する。この操作スイッチの操作により像振れ補正モードが選択されると、制御部117は、振れ検出部118から振れ検出信号を取得し、像振れ補正レンズ駆動部104に像振れ補正動作を指示する。制御部117の制御指令を受けた像振れ補正レンズ駆動部104は、像振れ補正のオフ指示が行われるまでの間、像振れ補正動作を行う。   The operation unit 115 also has an operation switch used to select an image blur correction (vibration reduction) mode. When the image blur correction mode is selected by the operation of the operation switch, the control unit 117 acquires a shake detection signal from the shake detection unit 118 and instructs the image blur correction lens driving unit 104 to perform an image blur correction operation. The image shake correction lens drive unit 104 that has received the control command from the control unit 117 performs an image shake correction operation until an instruction to turn off the image shake correction is issued.

操作部115は、静止画撮影モードや動画撮影モードを選択可能な撮影モード選択スイッチを有する。撮影モード選択スイッチのユーザ操作により撮影モードの選択処理が行われ、制御部117は、像振れ補正レンズ駆動部104の動作条件を変更する。また操作部115は、再生モードを選択するための再生モード選択スイッチを有する。再生モード選択スイッチのユーザ操作によって再生モードが選択されると、制御部117は像振れ補正動作を停止させる制御を行う。また操作部115は、ズーム倍率変更の指示を行う倍率変更スイッチを含む。倍率変更スイッチのユーザ操作によって、ズーム倍率の変更が指示されると、制御部117を介して指示を受けたズーム駆動部102は、ズームユニット101を駆動して、指示された位置にズームレンズを移動させる。   The operation unit 115 has a shooting mode selection switch capable of selecting a still image shooting mode or a moving image shooting mode. A shooting mode selection process is performed by a user operation of the shooting mode selection switch, and the control unit 117 changes the operating condition of the image shake correction lens driving unit 104. The operation unit 115 also has a playback mode selection switch for selecting a playback mode. When the reproduction mode is selected by the user operation of the reproduction mode selection switch, the control unit 117 performs control to stop the image blur correction operation. In addition, the operation unit 115 includes a magnification change switch that issues a zoom magnification change instruction. When an instruction to change the zoom magnification is given by the user operation of the magnification change switch, the zoom drive unit 102 that has received the instruction via the control unit 117 drives the zoom unit 101, and the zoom lens is moved to the instructed position. Move it.

図2は、本実施形態の像振れ補正装置の構成例を示す図である。像振れ補正装置は、撮像装置に加わる振れを検出し、像振れ補正レンズ103を駆動することによって像振れ補正を行う。第1振動センサ201は、例えば角速度センサであり、通常姿勢(撮像画像の長手方向が水平方向とほぼ一致する姿勢)における、撮像装置の垂直方向(ピッチ方向)、水平方向(ヨー方向)、光軸回りの回転方向(ロール方向)の振動を検出する。第2振動センサ203は、例えば加速度センサであり、通常姿勢における、撮像装置の垂直方向の移動量、水平方向の移動量、光軸方向の移動量を検出する。   FIG. 2 is a view showing an example of the arrangement of the image shake correction apparatus of this embodiment. The image shake correction apparatus detects shake applied to the imaging device and drives the image shake correction lens 103 to perform image shake correction. The first vibration sensor 201 is, for example, an angular velocity sensor, and the vertical direction (pitch direction), horizontal direction (yaw direction), light of the imaging apparatus in the normal posture (the posture in which the longitudinal direction of the captured image substantially matches the horizontal direction) Vibrations in the direction of rotation around the axis (rolling direction) are detected. The second vibration sensor 203 is, for example, an acceleration sensor, and detects the movement amount in the vertical direction, the movement amount in the horizontal direction, and the movement amount in the optical axis direction in the normal posture.

A/D変換器202は、第1振動センサ201により検出されるアナログ値をデジタル値へ変換し、後述の目標位置算出部212および減算器215に出力する。A/D変換器204は、第2振動センサ203により検出されるアナログ値をデジタル値へ変換し、後述の統合処理部205および追跡期間算出部209に出力する。また、A/D変換器217は、位置検出センサ211により検出される補正レンズの位置を示すアナログ値をデジタル値へ変換し、後述の減算器213および微分器216に出力する。   The A / D converter 202 converts an analog value detected by the first vibration sensor 201 into a digital value, and outputs the digital value to a target position calculation unit 212 and a subtractor 215 described later. The A / D converter 204 converts an analog value detected by the second vibration sensor 203 into a digital value, and outputs the digital value to the integration processing unit 205 and the tracking period calculation unit 209 described later. Further, the A / D converter 217 converts an analog value indicating the position of the correction lens detected by the position detection sensor 211 into a digital value, and outputs the digital value to a subtractor 213 and a differentiator 216 described later.

撮像部109の出力信号は撮像信号処理部110によって処理され、さらに特徴点追跡部210が処理する。特徴点追跡部210は、撮像信号処理部110より入力される映像信号に対して、追跡期間算出部209によって推定される複数の撮像画像間の視差量に基づいて特徴点を抽出し、追跡処理を行う。   The output signal of the imaging unit 109 is processed by the imaging signal processing unit 110, and the feature point tracking unit 210 further processes it. The feature point tracking unit 210 extracts a feature point from the video signal input from the imaging signal processing unit 110 based on the amount of parallax between the plurality of captured images estimated by the tracking period calculation unit 209, and performs tracking processing I do.

主被写体分離部208は、特徴点追跡部210から取得される特徴点に対して、主被写体領域に属する特徴点と主被写体以外の背景領域に属する特徴点を分離する。分離された特徴点のデータは、追跡期間算出部209および統合処理部205に出力される。追跡期間算出部209は、主被写体分離部208およびA/D変換器204の各出力を取得し、複数の撮像画像間の視差量および追跡期間を算出する。追跡期間算出部209は、主被写体分離部208によって分離された背景領域に属する特徴点の追跡情報を使用して視差量を算出し、視差量に基づいて特徴点の追跡期間を算出する。追跡情報は、例えば撮像画像において抽出されて追跡対象となる特徴点の座標等を示す情報である。   The main subject separation unit 208 separates the feature points belonging to the main subject region and the feature points belonging to the background region other than the main subject from the feature points acquired from the feature point tracking unit 210. Data of the separated feature points is output to the tracking period calculation unit 209 and the integration processing unit 205. The tracking period calculation unit 209 obtains each output of the main subject separation unit 208 and the A / D converter 204, and calculates the parallax amount and the tracking period between the plurality of captured images. The tracking period calculation unit 209 calculates the parallax amount using the tracking information of the feature points belonging to the background area separated by the main subject separation unit 208, and calculates the tracking period of the feature points based on the parallax amount. The tracking information is, for example, information indicating coordinates of feature points extracted in a captured image and to be tracked.

統合処理部205は、3次元座標推定部206と位置姿勢推定部207を有する。統合処理部205は、第1振動センサ201および第2振動センサ203による検出情報と、主被写体分離部208による画像情報とを統合し、撮像装置の位置姿勢および特徴点の3次元座標を推定する。位置姿勢推定部207には、減算器215がA/D変換器202の出力から微分器216の出力を減算して得た信号と、A/D変換器204の出力信号が入力される。3次元座標推定および位置姿勢推定の詳細については後述する。   The integration processing unit 205 includes a three-dimensional coordinate estimation unit 206 and a position and orientation estimation unit 207. The integration processing unit 205 integrates the detection information by the first vibration sensor 201 and the second vibration sensor 203 and the image information by the main subject separation unit 208, and estimates the position and orientation of the imaging apparatus and the three-dimensional coordinates of the feature points. . The position and orientation estimation unit 207 receives a signal obtained by subtracting the output of the differentiator 216 from the output of the A / D converter 202 by the subtractor 215 and an output signal of the A / D converter 204. Details of the three-dimensional coordinate estimation and the position and orientation estimation will be described later.

目標位置算出部212は、第1振動センサ201より得られる撮像装置のピッチ方向、ヨー方向の振れを表す振れ検出信号(角速度信号)と、統合処理部205の出力する位置姿勢情報を取得する。目標位置算出部212は、追跡期間算出部209によって算出された追跡期間の情報を、統合処理部205を介して取得する。目標位置算出部212は取得した情報に基づいて、像振れ補正レンズ103をピッチ方向やヨー方向に駆動するための補正位置制御信号を生成する。補正位置制御信号は、減算器213を通じて制御フィルタ214に供給される。減算器213は取得した補正位置制御信号から、A/D変換器217の出力である補正レンズのピッチ方向およびヨー方向における位置検出信号を減算し、減算後の信号を制御フィルタ214へ出力する。   The target position calculation unit 212 acquires a shake detection signal (angular velocity signal) representing a shake in the pitch direction and the yaw direction of the imaging device obtained from the first vibration sensor 201 and position and orientation information output from the integration processing unit 205. The target position calculation unit 212 acquires information on the tracking period calculated by the tracking period calculation unit 209 via the integration processing unit 205. The target position calculation unit 212 generates a correction position control signal for driving the image shake correction lens 103 in the pitch direction or the yaw direction based on the acquired information. The correction position control signal is supplied to the control filter 214 through the subtracter 213. The subtractor 213 subtracts the position detection signal in the pitch direction and the yaw direction of the correction lens, which is the output of the A / D converter 217, from the acquired correction position control signal, and outputs the subtracted signal to the control filter 214.

制御フィルタ214は、減算器213の出力に応じて像振れ補正レンズ103の駆動に係るフィードバック制御を行う。これにより、補正レンズの位置検出信号値が、目標位置算出部212による補正位置制御信号値に収束するように、像振れ補正レンズ駆動部104内のアクチュエータの制御が行われる。   The control filter 214 performs feedback control relating to driving of the image blur correction lens 103 in accordance with the output of the subtractor 213. As a result, control of the actuator in the image shake correction lens drive unit 104 is performed such that the position detection signal value of the correction lens converges to the correction position control signal value by the target position calculation unit 212.

図3のフローチャートを参照して、本実施形態の像振れ補正処理について説明する。S301からS304の処理とS305からS309の処理は、並行処理として実行される。S301で撮像部109は、被写体像の光信号を電気信号に光電変換し、撮像画像の画像信号を取得する。S302で撮像信号処理部110は、画像信号をアナログ信号からデジタル信号へ変換し、所定の画像処理を行う。特徴点追跡部210は撮像画像における特徴点を追跡するとともに、特徴点追跡の信頼度(以下、追跡信頼度と呼ぶ)を算出する。特徴点追跡部210の内部構成および処理の詳細については後述する。   The image blur correction process of the present embodiment will be described with reference to the flowchart of FIG. 3. The processes of S301 to S304 and the processes of S305 to S309 are executed as parallel processes. In step S301, the imaging unit 109 photoelectrically converts an optical signal of a subject image into an electrical signal, and acquires an image signal of the captured image. In S302, the imaging signal processing unit 110 converts an image signal from an analog signal to a digital signal, and performs predetermined image processing. The feature point tracking unit 210 tracks feature points in a captured image and calculates the reliability of feature point tracking (hereinafter, referred to as tracking reliability). Details of the internal configuration and processing of the feature point tracking unit 210 will be described later.

S303で主被写体分離部208は、S302で追跡された特徴点に対して、主被写体領域に属する特徴点と主被写体以外の背景領域に属する特徴点を分離する。特徴点の分離には、例えば公知のK−means法やEMアルゴリズムによるクラスタリングが用いられる。   In step S303, the main subject separation unit 208 separates feature points belonging to the main subject area and feature points belonging to background areas other than the main subject, with respect to the feature points tracked in step S302. For separation of feature points, for example, clustering by a known K-means method or an EM algorithm is used.

S304で追跡期間算出部209は、S302にて分離された背景領域の特徴座標を使用して、複数の撮像画像間の視差量を推定する。本実施形態では撮像装置の並進移動による、像面上の移動量を視差量として算出する。具体的には、背景領域に属する特徴座標のフレーム間変位量が視差量として算出される。なお、画像信号から視差量を算出する処理について説明するが、後述のS308で算出される第2振動センサ203による振れ加速度から撮像装置の並進移動量を算出し、これを視差量としてもよい。また、後述のS310で推定される3次元位置座標から像面上の移動量について奥行方向も考慮することで、より視差量の推定精度を高めることができる。算出された視差量に基づいて特徴点の追跡期間が算出される。具体的には画像間の視差量が小さいほど、追跡期間がより短く算出される。   In step S304, the tracking period calculation unit 209 estimates the amount of parallax between the plurality of captured images using the feature coordinates of the background area separated in step S302. In the present embodiment, the amount of movement on the image plane due to the translational movement of the imaging device is calculated as the amount of parallax. Specifically, an inter-frame displacement amount of feature coordinates belonging to the background area is calculated as a parallax amount. Although the process of calculating the amount of parallax from the image signal will be described, the amount of translational movement of the imaging device may be calculated from the shake acceleration by the second vibration sensor 203 calculated in S308 described later and used as the amount of parallax. Further, the accuracy of estimation of the amount of parallax can be further enhanced by considering the depth direction as to the amount of movement on the image plane from the three-dimensional position coordinates estimated in S310 described later. The tracking period of the feature point is calculated based on the calculated amount of parallax. Specifically, the tracking period is calculated to be shorter as the amount of parallax between images is smaller.

S305〜S309の処理は、位置姿勢推定部207が撮像装置の位置姿勢を推定する処理である。S305で第1振動センサ201は振れ角速度を検出する。S305からS312への矢印は、検出された振れ角速度が目標位置算出部212に出力される処理が行われることを示す。S306で微分器216は、像振れ補正レンズ103の検出位置にかかわる撮影フレーム間の差分を演算することで、像振れ補正レンズ103の移動速度を算出する。   The processing of S305 to S309 is processing in which the position and orientation estimation unit 207 estimates the position and orientation of the imaging device. In S305, the first vibration sensor 201 detects a shake angular velocity. The arrow from S305 to S312 indicates that the process of outputting the detected shake angular velocity to the target position calculation unit 212 is performed. In S306, the differentiator 216 calculates the moving speed of the image shake correction lens 103 by calculating the difference between the shooting frames related to the detection position of the image shake correction lens 103.

S307で減算器215は、第1振動センサ201による角速度情報から、像振れ補正レンズ103の移動速度を減算する。これにより、撮像装置の振れ補正残り角速度に相当する情報が算出され、位置姿勢推定部207に出力される。S308で第2振動センサ203は振れ加速度を検出する。S309で位置姿勢推定部207は、S307にて算出された振れ補正残り角速度の情報と、S308にて検出された振れ加速度の情報に基づき、撮像装置の実空間での位置姿勢を推定する。この位置姿勢は、振れ補正残り角速度を用いて推定されるため、像振れ補正後の補正残り位置姿勢に相当する。   In step S307, the subtractor 215 subtracts the moving speed of the image shake correction lens 103 from the angular velocity information of the first vibration sensor 201. Thus, information corresponding to the shake correction remaining angular velocity of the imaging device is calculated and output to the position and orientation estimation unit 207. In S308, the second vibration sensor 203 detects a shake acceleration. In step S309, the position and orientation estimation unit 207 estimates the position and orientation of the imaging device in the real space based on the information on the shake correction remaining angular velocity calculated in step S307 and the information on the shake acceleration detected in step S308. Since this position and orientation are estimated using the shake correction remaining angular velocity, it corresponds to the correction remaining position and posture after image shake correction.

S304、S309の処理後にS310へ進む。3次元座標推定部206は、S309で位置姿勢推定部207により推定された撮像装置の位置姿勢情報と、S302で得られた背景領域の特徴点情報に基づいて、実空間上の特徴点の奥行きを含めた3次元座標を推定する。つまり、被写体と撮像装置との奥行きを含めた位置関係を示す特徴点の3次元座標を推定して算出する処理が実行される。S311で位置姿勢推定部207は、S310で推定された特徴点の3次元座標と、S303で得られた背景領域の撮像画像上の2次元特徴点座標に基づいて、S309における振れ補正残りの位置姿勢推定値を補正する。3次元座標の推定方法および推定値の補正方法の詳細は後述する。   After the processing of S304 and S309, the process proceeds to S310. The three-dimensional coordinate estimation unit 206 determines the depth of the feature point in the real space based on the position and orientation information of the imaging device estimated by the position and orientation estimation unit 207 in S309 and the feature point information of the background area obtained in S302. Estimate three-dimensional coordinates including. That is, processing for estimating and calculating three-dimensional coordinates of feature points indicating a positional relationship including the depth of the subject and the imaging device is executed. The position and orientation estimation unit 207 determines the position of the shake correction remaining in step S309 based on the three-dimensional coordinates of the feature point estimated in step S310 and the two-dimensional feature point coordinates on the captured image of the background area obtained in step S303. Correct the pose estimate. Details of the method of estimating the three-dimensional coordinates and the method of correcting the estimated value will be described later.

S312で目標位置算出部212は、S304にて取得された追跡期間と、S305にて取得された振れ角速度信号と、S311における振れ補正残りの位置姿勢推定値を用いて、像振れ補正レンズ103の駆動に係る補正位置制御信号を生成する。その詳細については後述する。そしてS313にて像振れ補正レンズ駆動部104は、S312で生成された補正位置制御信号が示す目標位置に基づいて、像振れ補正レンズ103を駆動する。以下ではS302、S310、S311、S312の各ステップの処理について詳述する。   The target position calculation unit 212 in S312 uses the tracking period acquired in S304, the shake angular velocity signal acquired in S305, and the position / posture estimation value of the shake correction remaining in S311 to obtain the image blur correction lens 103. A correction position control signal related to driving is generated. The details will be described later. In step S313, the image shake correction lens driving unit 104 drives the image shake correction lens 103 based on the target position indicated by the correction position control signal generated in step S312. The processing of each step of S302, S310, S311, and S312 will be described in detail below.

図4および図5を参照して、図3のS302における特徴点追跡の詳細を説明する。図4は、特徴点追跡部210の内部構成を例示する図である。特徴点抽出部401は、撮像信号処理部110から画像信号を取得し、画像から特徴点を抽出する。特徴点設定部402は、特徴点抽出部401および動きベクトル検出部404および追跡信頼度算出部405の各出力に基づき、追跡対象とする特徴点を設定する。   Details of feature point tracking in S302 of FIG. 3 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating an internal configuration of the feature point tracking unit 210. The feature point extraction unit 401 acquires an image signal from the imaging signal processing unit 110 and extracts feature points from the image. The feature point setting unit 402 sets feature points to be tracked based on the outputs of the feature point extraction unit 401, the motion vector detection unit 404, and the tracking reliability calculation unit 405.

画像メモリ403は、撮像信号処理部110から入力された画像信号を一時的に記憶し、撮像時刻の異なる複数の画像の画像信号を蓄積する。動きベクトル検出部404は、特徴点設定部402で設定された特徴点に基づいて撮像信号処理部110および画像メモリ403から入力される画像信号に対して動きベクトルを検出する。追跡信頼度算出部405は、動きベクトル検出部404により検出された動きベクトルを取得し、特徴点追跡の信頼度、つまり追跡信頼度を算出する。   The image memory 403 temporarily stores the image signal input from the imaging signal processing unit 110, and accumulates the image signals of a plurality of images having different imaging times. The motion vector detection unit 404 detects a motion vector for the image signal input from the imaging signal processing unit 110 and the image memory 403 based on the feature points set by the feature point setting unit 402. The tracking reliability calculation unit 405 acquires the motion vector detected by the motion vector detection unit 404, and calculates the reliability of feature point tracking, that is, the tracking reliability.

図5は、特徴点追跡部210の処理を説明するフローチャートである。
S501にて特徴点抽出部401は、撮像信号処理部110からの入力画像に対して、特徴点を抽出する。図6は、特徴点の抽出例を説明する図である。特徴点抽出部401は、例えば、分割された複数の画像領域ごとに所定数の特徴点を抽出する。図6(A)において、白い矩形領域が、特徴点抽出を行う特徴抽出領域である。特徴点抽出領域の周辺には、斜線で示す周辺領域が設けられている。抽出される特徴点の位置によっては、後述する動きベクトル検出に用いるテンプレート領域およびサーチ領域が特徴抽出領域をはみ出す。したがって、はみ出し分だけ余剰の画像領域として斜線で示す周辺領域が設けられている。図6(B)は、格子状に分割された画像領域ごとに1個の特徴点601を抽出する処理例を示す。
FIG. 5 is a flowchart illustrating processing of the feature point tracking unit 210.
In S501, the feature point extraction unit 401 extracts feature points from the input image from the imaging signal processing unit 110. FIG. 6 is a diagram for explaining an example of feature point extraction. The feature point extraction unit 401 extracts, for example, a predetermined number of feature points for each of a plurality of divided image areas. In FIG. 6A, a white rectangular area is a feature extraction area for performing feature point extraction. A peripheral region indicated by hatching is provided around the feature point extraction region. Depending on the position of the feature point to be extracted, a template region and a search region used for motion vector detection to be described later extend beyond the feature extraction region. Therefore, a peripheral area indicated by oblique lines is provided as an extra image area by an amount corresponding to the protrusion. FIG. 6B shows an example of processing for extracting one feature point 601 for each of the image areas divided in a lattice.

特徴点の抽出方法としては、一般的な公知の方法である、Harris corner検出器またはShi and Tomasiの方法がある。画像の画素位置(x,y)における輝度値をI(x,y)と表現する。そして、画像に対して水平および垂直の1次微分フィルタを適用した結果Ix,Iyから、式(1)で示す自己相関行列Hが作成される。

Figure 2019083407
As a method of extracting feature points, there is a commonly known method such as Harris corner detector or Shi and Tomasi. The luminance value at the pixel position (x, y) of the image is expressed as I (x, y). Then, an autocorrelation matrix H represented by equation (1) is created from the results Ix and Iy of applying the horizontal and vertical first derivative filters to the image.
Figure 2019083407

式(1)において、Gは式(2)に示すガウス分布による平滑化の関数を表す。

Figure 2019083407
In Formula (1), G represents the function of smoothing by the Gaussian distribution shown in Formula (2).
Figure 2019083407

Harris corner検出器は、式(3)に示す特徴評価式により、特徴量が大きくなる画素を特徴点として抽出する。

Figure 2019083407
式(3)において、“det”は行列式を表し、“tr”は対角成分の和を表す。また、αは定数であり、実験的に0.04〜0.15の値が良いとされる。 The Harris corner detector extracts, as a feature point, a pixel whose feature amount becomes large according to the feature evaluation equation shown in Equation (3).
Figure 2019083407
In equation (3), "det" represents the determinant and "tr" represents the sum of diagonal components. Also, α is a constant, and a value of 0.04 to 0.15 is experimentally good.

一方、Shi and Tomasiの方法では、式(4)に示す特徴評価式が用いられる。

Figure 2019083407
式(4)は、式(1)の自己相関行列Hの固有値λ1,λ2のうち、小さい方の固有値を特徴量とすることを表す。Shi and Tomasiを用いる場合でも、特徴量が大きくなる画素を特徴点として抽出する処理が行われる。式(3)または式(4)により画素の特徴量が算出され、特徴量が高い方から所定数の画素が特徴点として抽出される。 On the other hand, in the method of Shi and Tomasi, the feature evaluation formula shown in Formula (4) is used.
Figure 2019083407
Expression (4) represents that the smaller one of the eigenvalues λ1 and λ2 of the autocorrelation matrix H of Expression (1) is used as the feature value. Even in the case of using Shi and Tomasi, a process of extracting a pixel whose feature amount becomes large as a feature point is performed. The feature amount of the pixel is calculated by the equation (3) or the equation (4), and a predetermined number of pixels are extracted as feature points from the one having the higher feature amount.

図5のS502では特徴点設定部402が、追跡対象とする特徴点を設定する。初期フレームに関しては、S501で新たに抽出された特徴点をそのまま追跡対象として設定すればよい。2フレーム目以降の設定方法については後述する。   In S502 of FIG. 5, the feature point setting unit 402 sets feature points to be tracked. With regard to the initial frame, the feature points newly extracted in S501 may be set as tracking targets as they are. The setting method for the second and subsequent frames will be described later.

S503にて動きベクトル検出部404は、S502で追跡対象として設定された特徴点を用いて動きベクトルの検出を行う。動きベクトルの検出方法としては公知の相関法やブロックマッチング法等がある。動きベクトルの算出方法に関しては、公知の任意の方法を適用可能である。以下ではブロックマッチング法の適用例について説明する。   In S503, the motion vector detection unit 404 detects a motion vector using the feature points set as tracking targets in S502. As a method of detecting a motion vector, there are known a correlation method and a block matching method. Any known method can be applied as a method of calculating a motion vector. An application example of the block matching method will be described below.

図7は、ブロックマッチング法の概要を示す模式図である。図7(A)は、2つのベクトル検出画像のうちの基準画像を示し、図7(B)は参照画像を示している。この例では、基準画像として画像メモリ403に保持されているフレーム画像、参照画像として撮像信号処理部110から直接入力される画像データを用いることで、過去のフレーム画像から現在のフレーム画像への動きベクトルが算出される。なお、基準画像と参照画像とは、入れ替えて適用してもよい。基準画像と参照画像とを入れ替えて適用することは、現在のフレーム画像から過去のフレーム画像への動きベクトルを算出することを意味する。   FIG. 7 is a schematic view showing an outline of the block matching method. FIG. 7A shows a reference image of two vector detection images, and FIG. 7B shows a reference image. In this example, by using a frame image held in the image memory 403 as a reference image and image data directly input from the imaging signal processing unit 110 as a reference image, movement from a past frame image to a current frame image A vector is calculated. The reference image and the reference image may be interchanged and applied. To replace and apply the reference image and the reference image means to calculate a motion vector from the current frame image to the past frame image.

動きベクトル検出部404は、基準画像にテンプレート領域701を配置し、参照画像にサーチ領域702を配置し、テンプレート領域701とサーチ領域702との相関値を算出する。テンプレート領域701は、図5のS502で設定された特徴点を中心に配置し、サーチ領域702は、テンプレート領域を上下左右の各方向で均等に包含するように、所定の大きさで配置すればよい。   The motion vector detection unit 404 arranges the template area 701 in the reference image, arranges the search area 702 in the reference image, and calculates a correlation value between the template area 701 and the search area 702. The template area 701 is disposed centering on the feature points set in S502 of FIG. 5, and the search area 702 is disposed with a predetermined size so that the template area is uniformly included in the upper, lower, left, and right directions. Good.

本実施形態では、相関値の算出方法として、差分絶対値和(Sum of Absolute Difference:以下、SADと略記する)を使用する。SADの計算式(5)を示す。

Figure 2019083407
In this embodiment, a sum of absolute differences (hereinafter abbreviated as SAD) is used as a method of calculating the correlation value. The calculation formula (5) of SAD is shown.
Figure 2019083407

式(5)において、f(i,j)はテンプレート領域701内の座標(i,j)での輝度値を示す。また、g(i,j)はサーチ領域702内において相関値の算出対象となる領域(以下、相関値算出領域という)703内の各座標での輝度値を示す。SADでは、両領域702,703内の輝度値f(i,j)とg(i,j)との差の絶対値を計算し、その総和を求めることで相関値S_SADが得られる。相関値S_SADの値が小さいほど、テンプレート領域701と相関値算出領域703とのテクスチャの類似度が高いことを表す。なお、相関値の算出にはSAD以外の方法としては、例えば差分二乗和(SSD)や正規化相互相関(NCC)を用いる方法でもよい。   In Formula (5), f (i, j) shows the luminance value in the coordinate (i, j) in the template area | region 701. As shown in FIG. Further, g (i, j) represents a luminance value at each coordinate in an area (hereinafter referred to as a correlation value calculation area) 703 for which a correlation value is to be calculated in the search area 702. In SAD, the absolute value of the difference between the brightness values f (i, j) and g (i, j) in both regions 702 and 703 is calculated, and the sum is obtained to obtain the correlation value S_SAD. The smaller the value of the correlation value S_SAD, the higher the similarity of the texture between the template area 701 and the correlation value calculation area 703. As a method other than SAD, for example, a method using differential sum of squares (SSD) or normalized cross correlation (NCC) may be used to calculate the correlation value.

動きベクトル検出部404は、サーチ領域702の全域にて相関値算出領域703を移動させて相関値を算出する。これにより、サーチ領域702に対して図8に示す相関値マップが作成される。   The motion vector detection unit 404 moves the correlation value calculation area 703 all over the search area 702 to calculate a correlation value. Thereby, the correlation value map shown in FIG. 8 is created for the search area 702.

図8は相関値マップの例を示す図である。図8(A)は、サーチ領域702の座標系で算出した相関値マップを示す。X軸とY軸は相関値マップ座標を表し、Z軸は各座標での相関値の大きさを表している。また図8(B)は、図8(A)の等高線を示す図である。   FIG. 8 is a diagram showing an example of the correlation value map. FIG. 8A shows a correlation value map calculated in the coordinate system of the search area 702. FIG. The X axis and the Y axis represent correlation value map coordinates, and the Z axis represents the magnitude of the correlation value at each coordinate. Moreover, FIG. 8 (B) is a figure which shows the contour line of FIG. 8 (A).

図8(A)および図8(B)において、最も小さい相関値は極小値801であり、サーチ領域702内で極小値801が算出された領域には、テンプレート領域701と非常に類似したテクスチャが存在していると判定できる。極小値802は、二番目の極小値、極小値803は、三番目の極小値である。極小値802、803が算出された領域においては、極小値801が算出された領域に次いで類似したテクスチャが存在している。このように、動きベクトル検出部404は、テンプレート領域701とサーチ領域702との間で相関値を算出し、相関値が最も小さくなる相関値算出領域703の位置を判定する。これにより、動きベクトル検出部404は、基準画像上のテンプレート領域701の参照画像上での移動先を特定する。そして、動きベクトル検出部404は、基準画像上でのテンプレート領域の位置を基準とした参照画像上での移動先への方向および移動量を方向および大きさとした動きベクトルを検出する。   In FIGS. 8A and 8B, the smallest correlation value is the local minimum value 801, and in the area where the local minimum value 801 is calculated in the search area 702, a texture very similar to the template area 701 is obtained. It can be determined that it exists. The minimum value 802 is a second minimum value, and the minimum value 803 is a third minimum value. In the area in which the local minimum values 802 and 803 are calculated, a texture similar to the area in which the local minimum value 801 is calculated exists next. As described above, the motion vector detection unit 404 calculates the correlation value between the template area 701 and the search area 702, and determines the position of the correlation value calculation area 703 where the correlation value is the smallest. Thereby, the motion vector detection unit 404 specifies the movement destination of the template area 701 on the reference image on the reference image. Then, the motion vector detection unit 404 detects a motion vector whose direction and amount of movement to the movement destination on the reference image are based on the position of the template region on the reference image.

図5のS504において、追跡信頼度算出部405は、S501で得られた特徴点情報と、S503で得られた相関値情報の少なくともいずれかを用いて、追跡信頼度を算出する。相関値情報は、動きベクトル情報の算出の際に実行される相関値の演算結果である。最初に、相関値情報を用いて追跡信頼度を算出する例を説明する。図9は、図8(B)の2次元相関値マップにおいて、矢印804のように相関値をラスター順に並べて1次元で表した図である。図9の縦軸は相関値を表し、横軸は相関値マップのX座標とY座標により一意に定まる画素アドレスを表す。以降、追跡信頼度を算出するため、図9の表現を用いることにする。位置901は、図8に示す極小値801に対応する位置である。   In S504 of FIG. 5, the tracking reliability calculation unit 405 calculates the tracking reliability using at least one of the feature point information obtained in S501 and the correlation value information obtained in S503. The correlation value information is the calculation result of the correlation value performed when calculating motion vector information. First, an example of calculating tracking reliability using correlation value information will be described. FIG. 9 is a diagram in which correlation values are arranged in raster order and represented in one dimension as indicated by an arrow 804 in the two-dimensional correlation value map of FIG. 8 (B). The vertical axis in FIG. 9 represents a correlation value, and the horizontal axis represents a pixel address uniquely determined by the X coordinate and Y coordinate of the correlation value map. Hereinafter, in order to calculate the tracking reliability, the expression of FIG. 9 is used. The position 901 is a position corresponding to the minimum value 801 shown in FIG.

図10は、追跡信頼度を表す相関値の指標の一例を示す。図10の横軸は画素のアドレスを表し、縦軸は相関値を表す。図10(A)に示す例では、指標として相関値の最小値と最大値との差分Daを用いる。差分Daは相関値マップのレンジを表しており、差分Daが小さく、例えばテクスチャのコントラストが低い場合に追跡信頼度が低いことを示す。図10(B)に示す例では、指標として相関値の最小値と最大値の差分Aと、最小値と平均値の差分Bとの比率Db(=B/A)を用いる。比率Dbは、相関値ピークの急峻性を表しており、比率Dbが小さく、例えばテンプレート領域とサーチ領域との類似度が低い場合、追跡信頼度が低いことを示す。   FIG. 10 shows an example of a measure of correlation value indicating tracking reliability. The horizontal axis of FIG. 10 represents the address of the pixel, and the vertical axis represents the correlation value. In the example shown in FIG. 10A, the difference Da between the minimum value and the maximum value of the correlation value is used as the index. The difference Da represents the range of the correlation value map, and indicates that the tracking reliability is low when the difference Da is small, for example, when the texture contrast is low. In the example shown in FIG. 10B, a ratio Db (= B / A) of the difference A between the minimum value and the maximum value of the correlation value and the difference B between the minimum value and the average value is used as an index. The ratio Db represents the steepness of the correlation value peak, and indicates that the tracking reliability is low when the ratio Db is small, for example, the similarity between the template region and the search region is low.

図10(C)に示す例では、指標として相関値の極小値(最小値)と二番目の極小値との差分Dcを用いる。相関値1001、1002、1003はそれぞれ、図8の極小値801、802、803と対応している。よって、図10(C)では、図8(B)の等高線において、相関値の最小値と類似した極小値が存在しないかを確認することができる。差分Dcは相関値マップの周期性を表し、差分Dcが小さい場合、例えばテクスチャが繰り返しパターンやエッジ等である場合、追跡信頼度が低いことを示す。なお、この例では、最小値と二番目の極小値を選択したが、相関値マップの周期性を判定できればよいため、その他の極小値を選択してもよい。   In the example shown in FIG. 10C, the difference Dc between the minimum value (minimum value) of the correlation value and the second minimum value is used as the index. The correlation values 1001, 1002 and 1003 correspond to the local minimum values 801, 802 and 803 in FIG. 8, respectively. Therefore, in FIG. 10 (C), it can be confirmed whether or not there is a minimum value similar to the minimum value of the correlation value in the contour line of FIG. 8 (B). The difference Dc represents the periodicity of the correlation value map, and indicates that the tracking reliability is low when the difference Dc is small, for example, when the texture is a repetitive pattern or an edge. Although the minimum value and the second minimum value are selected in this example, other minimum values may be selected as long as the periodicity of the correlation value map can be determined.

図10(D)に示す例では、指標として相関値の最小値Ddを用いる。最小値Ddが大きく、例えばテンプレート領域とサーチ領域との類似度が低い場合、追跡信頼度が低いことを表す。最小値Ddと追跡信頼度は反比例の関係にあるため、Ddの逆数(1/Dd)を指標とする。   In the example shown in FIG. 10D, the minimum value Dd of the correlation value is used as an index. When the minimum value Dd is large, for example, the similarity between the template region and the search region is low, it indicates that the tracking reliability is low. Since the minimum value Dd and the tracking reliability are in inverse proportion to each other, the reciprocal of Dd (1 / Dd) is used as an index.

上記相関値の指標は、そのまま信頼度として用いることができるが、相関値の指標から信頼度を算出方法がある。例えば図11(A)では、相関値指標Dと追跡信頼度の対応付けが行われる。図11(A)の横軸に示す相関値指標Dは、Da,Db,Dc,1/Ddのいずれかを表し、縦軸は追跡信頼度R1を表す。この例では、二つの閾値T1,T2(T1<T2)を設けている。D値がT1以下である場合にR1の値がゼロであり、T2以上である場合にR1の値が1である。閾値T1,T2は、相関値指標ごとに変更してもよい。またD値が閾値T1とT2との間の区間では、DとR1が線形関係にあり、D値の増加につれてR1の値が増加する。あるいは相関値指標Dと追跡信頼度R1とを非線形関係に対応付けてもよい。以降の説明では、各相関値指標Da,Db,Dc,1/Ddから得られる信頼度をそれぞれRa,Rb,Rc,Rdと表記する。ここで、任意の関数(fと記す)を用いてRa=f(Da),Rb=f(Db),Rc=f(Dc),Rd=f(Dd)の関係とする。   The index of the correlation value can be used as the reliability as it is, but there is a method of calculating the reliability from the index of the correlation value. For example, in FIG. 11A, the correlation value index D is associated with the tracking reliability. The correlation value index D shown on the horizontal axis of FIG. 11A represents any of Da, Db, Dc, and 1 / Dd, and the vertical axis represents the tracking reliability R1. In this example, two threshold values T1 and T2 (T1 <T2) are provided. When the D value is T1 or less, the value of R1 is zero, and when it is T2 or more, the value of R1 is one. The threshold values T1 and T2 may be changed for each correlation value index. Further, in a section where the D value is between the threshold values T1 and T2, D and R1 are in a linear relationship, and the value of R1 increases as the D value increases. Alternatively, the correlation value index D and the tracking reliability R1 may be associated with a non-linear relationship. In the following description, the degrees of reliability obtained from the correlation value indicators Da, Db, Dc, and 1 / Dd are denoted as Ra, Rb, Rc, and Rd, respectively. Here, using an arbitrary function (denoted as f), the relationship of Ra = f (Da), Rb = f (Db), Rc = f (Dc), Rd = f (Dd) is established.

最終的な追跡信頼度R1は、Ra,Rb,Rc,Rdを組み合わせて算出される。重み付け加算による方法と論理演算による方法を説明する。重み付け加算による方法では、Ra,Rb,Rc,Rdの重みをそれぞれWa,Wb,Wc,Wdと表記する。追跡信頼度R1は式(6)から計算される。

Figure 2019083407
例えば、重みをWa=0.4,Wb=0.3,Wc=0.2,Wd=0.1とする。全ての信頼度が十分に高く、Ra=Rb=Rc=Rd=1の場合には、式(6)よりR1=1.0となる。またRa=0.6,Rb=0.5,Rc=0.7,Rd=0.7の場合には、式(6)よりR1=0.6となる。 The final tracking reliability R1 is calculated by combining Ra, Rb, Rc, and Rd. The weighted addition method and the logical operation method will be described. In the weighted addition method, the weights of Ra, Rb, Rc, and Rd are denoted as Wa, Wb, Wc, and Wd, respectively. The tracking confidence R1 is calculated from equation (6).
Figure 2019083407
For example, the weights are set to Wa = 0.4, Wb = 0.3, Wc = 0.2, and Wd = 0.1. If all the reliabilities are sufficiently high and Ra = Rb = Rc = Rd = 1, then R1 = 1.0 according to equation (6). Further, in the case of Ra = 0.6, Rb = 0.5, Rc = 0.7, and Rd = 0.7, R1 = 0.6 according to equation (6).

論理演算による方法では、Ra,Rb,Rc,Rdに対する閾値をそれぞれTa,Tb,Tc,Tdと表記する。追跡信頼度R1は、例えば論理積演算を用いて式(7)から計算される。

Figure 2019083407
式(7)中の、
Figure 2019083407
は論理積演算を表す記号である。Ra≧Ta、Rb≧Tb,Rc≧Tc,Rd≧Tdが全て成立する場合にR1=1(高信頼度)であり、それ以外の場合にR1=0(低信頼度)となる。 In the method by logical operation, the threshold values for Ra, Rb, Rc, and Rd are denoted as Ta, Tb, Tc, and Td, respectively. The tracking reliability R1 is calculated from equation (7) using, for example, an AND operation.
Figure 2019083407
In equation (7),
Figure 2019083407
Is a symbol representing an AND operation. When Ra ≧ Ta, Rb ≧ Tb, Rc ≧ Tc, and Rd ≧ Td are all satisfied, R1 = 1 (high reliability), and otherwise R1 = 0 (low reliability).

また論理和演算を用いて、追跡信頼度R1を式(8)から計算してもよい。

Figure 2019083407
↓は否定論理和演算を表す記号である。Ra<Ta、Rb<Tb,Rc<Tc,Rd<Tdの全てが成立しない場合にR1=1(高信頼度)であり、それ以外の場合にR1=0(低信頼度)となる。 Also, the tracking reliability R1 may be calculated from the equation (8) using an OR operation.
Figure 2019083407
↓ is a symbol representing a negative disjunction operation. When all of Ra <Ta, Rb <Tb, Rc <Tc, and Rd <Td are not satisfied, R1 = 1 (high reliability), and otherwise R1 = 0 (low reliability).

次に、特徴点の特徴量を用いた追跡信頼度の算出例を説明する。撮像時刻の異なる画像間で同一の特徴点を正しく追跡できている場合、追跡前後で特徴点の特徴量の変化は小さくなる。そのため、追跡信頼度算出部405は追跡前後の特徴量の変化量に応じて追跡信頼度を算出する。特徴量の変化量は、追跡前後で式(3)または式(4)により特徴量を算出し、両者の差分を演算することで得られる。図11(B)を参照して具体例を説明する。   Next, an example of calculation of the tracking reliability using the feature amount of the feature point will be described. If the same feature point can be correctly tracked between images at different imaging times, the change in feature value of the feature point becomes small before and after tracking. Therefore, the tracking reliability calculation unit 405 calculates the tracking reliability according to the amount of change in the feature amount before and after the tracking. The amount of change of the feature amount can be obtained by calculating the feature amount using Equation (3) or Equation (4) before and after tracking, and calculating the difference between the two. A specific example will be described with reference to FIG.

図11(B)は、特徴量の変化量と信頼度の対応付けの一例を示す。図11(B)の横軸は特徴量の変化量を表し、縦軸は追跡信頼度R2を表す。この例では、2つの閾値T1,T2(T1<T2)を設けている。特徴量の変化量が閾値T1以下である場合、同一の特徴点を正しく追跡できているので、追跡信頼度R2は1である。特徴量の変化量が閾値T2以上である場合、異なる特徴点の誤追跡の可能性が高いので、追跡信頼度R2はゼロである。特徴量の変化量が閾値T1とT2との間の区間では、特徴量の変化量とR2とが線形関係であり、特徴量の変化量の増加につれてR2の値が減少する。あるいは特徴量の変化量と信頼度とを非線形関係に対応付けてもよい。   FIG. 11B shows an example of the correspondence between the variation of the feature amount and the reliability. The horizontal axis of FIG. 11B represents the variation of the feature amount, and the vertical axis represents the tracking reliability R2. In this example, two threshold values T1 and T2 (T1 <T2) are provided. When the amount of change of the feature amount is equal to or less than the threshold value T1, the same feature point can be correctly tracked, so the tracking reliability R2 is 1. If the amount of change in the feature amount is equal to or greater than the threshold T2, the possibility of mistracking of different feature points is high, and thus the tracking reliability R2 is zero. In a section where the feature amount variation is between the threshold values T1 and T2, the feature amount variation and R2 have a linear relationship, and the value of R2 decreases as the feature amount variation increases. Alternatively, the change amount of the feature amount and the reliability may be associated with a non-linear relationship.

以上の説明から、相関値指標情報と特徴点情報のそれぞれから追跡信頼度R1,R2を算出することができる。最終的な追跡信頼度Rとしては、いずれか一方を用いてもよいし、両者を組み合わせて用いてもよい。組み合わせに関しては、式(6)〜式(8)にて説明したように、重み付け加算や論理演算を用いればよい。   From the above description, the tracking reliabilities R1 and R2 can be calculated from each of the correlation value index information and the feature point information. As the final tracking reliability R, either one may be used, or both may be used in combination. With regard to the combination, as described in the equations (6) to (8), weighted addition or logical operation may be used.

図5のS505において特徴点追跡部210は、最終フレームまで処理が完了したかどうかを判定し、処理の完了時には以上に説明した一連の処理を終了する。一方、最終フレームまで処理が完了していない場合にはS501に戻り、処理を続行する。S502で特徴点設定部402は、図3のS304にて算出された追跡期間に基づき追跡対象の特徴点の制御を行う。追跡期間中には、S503で検出された動きベクトルの終点座標が、次のフレームでの追跡対象の特徴点として設定される。その結果、動きベクトルの終点座標は、特徴点の移動先を表しているため、複数のフレームに亘って特徴点を追跡することが可能になる。追跡期間が終了する場合、S501では新たに抽出された特徴点に置き換える処理が実行される。   In S505 of FIG. 5, the feature point tracking unit 210 determines whether the process is completed up to the final frame, and ends the series of processes described above when the process is completed. On the other hand, if the process is not completed up to the final frame, the process returns to S501 to continue the process. In step S502, the feature point setting unit 402 controls the feature points to be tracked based on the tracking period calculated in step S304 in FIG. During the tracking period, the end point coordinates of the motion vector detected in S503 are set as feature points to be tracked in the next frame. As a result, since the end point coordinates of the motion vector represent the movement destination of the feature point, it becomes possible to track the feature point across a plurality of frames. When the tracking period ends, in S501, processing is performed to replace the newly extracted feature points.

次に図12および図13を参照して、図3のS310における特徴点の3次元座標推定を詳説する。図12は透視射影モデルを示す模式図であり、特徴点の3次元座標P=(X,Y,Z)と、それを撮像画像上に射影した2次元座標p=(u,v)との関係を表す。ここでは、仮想的な撮像面がレンズの前方に、焦点距離fだけ離れた位置に設定されているものとする。OWは世界座標系の原点を表し、OCはカメラ座標系の原点であるカメラレンズ中心を表す。Z軸はカメラ光軸を表しており、点Pは世界座標系で表現され、点pはカメラ座標系で表現される。   Next, three-dimensional coordinate estimation of the feature point in S310 of FIG. 3 will be described in detail with reference to FIGS. FIG. 12 is a schematic diagram showing a perspective projection model, in which three-dimensional coordinates P = (X, Y, Z) of feature points and two-dimensional coordinates p = (u, v) obtained by projecting them on a captured image Represents a relationship. Here, it is assumed that the virtual imaging plane is set in front of the lens at a position separated by the focal length f. OW represents the origin of the world coordinate system, and OC represents the camera lens center which is the origin of the camera coordinate system. The Z axis represents the camera optical axis, the point P is represented in the world coordinate system, and the point p is represented in the camera coordinate system.

透視投影変換では、3次元座標系での点Pと2次元座標系での点pとの関係が式(9)で表される。

Figure 2019083407
In perspective projection conversion, the relationship between a point P in a three-dimensional coordinate system and a point p in a two-dimensional coordinate system is expressed by equation (9).
Figure 2019083407

(9)式中、Kは内部パラメータ行列と呼ばれ、カメラ固有のパラメータである。Kは、ピクセル単位の焦点距離fと主点c=(cx,cy)から成る。ここでは、主点を画像中心(0,0)とし、cx=cy=0として扱う。また、Rおよびtは外部パラメータ行列と呼ばれ、世界座標系に対するカメラの位置姿勢を表す。Rは回転行列、tは平行移動行列である。Rの要素をR11〜R33と表記し、tの要素をt〜tと表記する。 In the equation (9), K is called an internal parameter matrix and is a camera-specific parameter. K consists of a focal length f in pixel units and a principal point c = (cx, cy). Here, the principal point is set as the image center (0, 0), and it is treated as cx = cy = 0. Also, R and t are called external parameter matrices and represent the position and orientation of the camera with respect to the world coordinate system. R is a rotation matrix, and t is a translation matrix. The elements of R are denoted as R 11 to R 33, and the elements of t are denoted as t x to t z .

図13は、2つの異なるカメラ位置姿勢から3次元座標Pを観測する様子を示す模式図である。図13において、推定したい3次元座標をP=(X,Y,Z)とし、フレーム1でのカメラの位置をO(原点)、姿勢をI(単位行列)とし、その時の撮像画像上の特徴座標をp0=(u,v)とする。また、フレーム2でのカメラの位置をT、姿勢をR、その時の撮像画像上の特徴座標をp1=(u,v)とする。 FIG. 13 is a schematic view showing how three-dimensional coordinates P are observed from two different camera positions and orientations. In FIG. 13, the three-dimensional coordinates to be estimated are P = (X, Y, Z), the position of the camera at frame 1 is O (origin), and the attitude is I (unit matrix). The coordinates are p0 = (u 0 , v 0 ). Further, it is assumed that the position of the camera at frame 2 is T, the posture is R, and the feature coordinates on the captured image at that time are p1 = (u 1 , v 1 ).

式(9)より、3次元座標Pと、撮像画像上の2次元座標p0,p1との関係はそれぞれ式(10)、式(11)のように表される。

Figure 2019083407
Figure 2019083407
From equation (9), the relationship between the three-dimensional coordinates P and the two-dimensional coordinates p0 and p1 on the captured image is expressed as equations (10) and (11), respectively.
Figure 2019083407
Figure 2019083407

式(10)、式(11)中のfは撮像光学系の焦点距離である。RおよびTは図3のS309で得られる位置姿勢推定値、p0およびp1の座標値は図3のS304で得られる背景領域の特徴点情報を用いればよく、既知である。したがって、式(10)および式(11)の連立方程式を解くことで、未知数X,Y,Zを求め、3次元座標を得ることができる。なお、未知数の数がX,Y,Zの3個であるのに対して、連立方程式の数は、特徴点を追跡するフレーム数をnとすると、2n個になる。そのため、3次元座標Pを1フレームだけから観測した場合には、未知数の数が方程式の数よりも多いため、Pを一意に定めることができない。一方、2フレーム以上では、過剰条件の連立方程式となるので、例えば、公知の最小二乗法を用いて解くことができる。   In the equations (10) and (11), f is the focal length of the imaging optical system. The position and orientation estimation values obtained in S309 of FIG. 3 and the coordinate values of p0 and p1 of R and T may be known using the feature point information of the background area obtained in S304 of FIG. Therefore, by solving the simultaneous equations of Equations (10) and (11), the unknowns X, Y, Z can be determined, and three-dimensional coordinates can be obtained. Note that while the number of unknowns is three, that is, X, Y, Z, the number of simultaneous equations is 2n, where n is the number of frames for tracking feature points. Therefore, when the three-dimensional coordinates P are observed from only one frame, P can not be determined uniquely because the number of unknowns is larger than the number of equations. On the other hand, since two or more frames result in simultaneous equations under excess conditions, they can be solved using, for example, a known least squares method.

図14を参照して、図3のS311における振れ補正残り位置姿勢の推定補正について説明する。図14は、位置姿勢推定部207の処理を示すフローチャートである。
S1401では、式(9)を用いて、S310で推定された3次元座標を、撮像画像上の2次元座標に変換する処理が行われる。S1402では再射影誤差の算出処理が行われる。S1401で得られた2次元座標を、

Figure 2019083407
と表記し、図3のS303で得られた実際に観測された2次元座標を、
Figure 2019083407
と表記する。 The estimation and correction of the shake correction remaining position and posture in S311 of FIG. 3 will be described with reference to FIG. FIG. 14 is a flowchart showing the processing of the position and orientation estimation unit 207.
In S1401, a process of converting the three-dimensional coordinates estimated in S310 into two-dimensional coordinates on a captured image is performed using Expression (9). In S1402, calculation processing of reprojection error is performed. The two-dimensional coordinates obtained in S1401 are
Figure 2019083407
And the actually observed two-dimensional coordinates obtained in S303 of FIG.
Figure 2019083407
It is written as

再射影誤差をEと表記し、これは式(12)で表される。

Figure 2019083407
The reprojection error is expressed as E, which is expressed by equation (12).
Figure 2019083407

式(12)中のiは、フレーム番号を表し、jは特徴点番号を表す。フレーム数をn、特徴点数をmとすると、i=0〜n−1、j=0〜m−1の範囲で変化する。Wはi番目のフレームにおける特徴点重みを表す行列である。行列Wのi行j列目の要素は、i番目のフレームにおけるj番目の特徴点の重みwijであり、図3のS304で得られる。重み(加重係数)が大きい特徴点ほど、再射影誤差に与える影響が大きくなり、S1403における位置姿勢推定値の補正に対する寄与度が大きくなる。 In the equation (12), i represents a frame number, and j represents a feature point number. Assuming that the number of frames is n and the number of feature points is m, it changes in the range of i = 0 to n−1 and j = 0 to m−1. W i is a matrix representing feature point weights in the i-th frame. The element at the i-th row and the j-th column of the matrix W i is the weight w ij of the j-th feature point in the i-th frame, which is obtained in S304 of FIG. The feature point having a larger weight (weighting coefficient) has a greater influence on the reprojection error, and the degree of contribution to the correction of the position and orientation estimation value in S1403 becomes larger.

S1403では、カメラ位置姿勢の推定補正処理が行われる。位置姿勢推定部207は、S1402において式(12)より得られた再射影誤差が最小になるように、振れ補正残りの位置姿勢推定値を補正する。再射影誤差は、実際に観測された撮像画像上の2次元座標と、3次元座標を撮像画像上に投影した2次元座標との誤差である。したがって、3次元座標と、追跡した2次元の特徴座標が正しい場合、座標誤差は3次元座標を撮像画像上に投影した際の位置姿勢推定の誤差により生じていることになる。この再射影誤差が小さくなるほど、位置姿勢推定値は真値に近づく。以上から、位置姿勢推定値の補正は、位置姿勢推定値を変数とした再射影誤差の最小化問題となるため、例えば公知の重み付き最小二乗法により行うことができる。   In S1403, a camera position and orientation estimation correction process is performed. The position and orientation estimation unit 207 corrects the position and orientation estimated value after the shake correction so that the reprojection error obtained from the equation (12) in S1402 is minimized. The re-projection error is an error between two-dimensional coordinates on an actually observed captured image and two-dimensional coordinates obtained by projecting three-dimensional coordinates on the captured image. Therefore, when the three-dimensional coordinates and the tracked two-dimensional feature coordinates are correct, the coordinate error is caused by an error in position and orientation estimation when the three-dimensional coordinates are projected onto the captured image. As the reprojection error becomes smaller, the position and orientation estimation value approaches the true value. As described above, since the correction of the position and orientation estimated value is a minimization problem of the reprojection error using the position and orientation estimated value as a variable, it can be performed by, for example, a known weighted least squares method.

図15を参照して、目標位置算出部212の内部構成を説明する。図15は、目標位置算出部212の詳細な内部構成を示すブロック図である。ハイパスフィルタ1501は、A/D変換器202の出力信号を取得し、第1振動センサ201の出力に含まれるDCオフセット成分を除去する。ローパスフィルタ1502は、ハイパスフィルタ1501の出力を取得して、角速度信号から角度相当の信号へ変換する。積分ゲイン部1503はローパスフィルタ1502の出力に対して積分ゲインを乗算する。ゲイン乗算器1504は、統合処理部205の出力に対してゲインを乗算する。加算器1505は、積分ゲイン部1503およびゲイン乗算器1504の各出力信号の加算処理を行い、加算演算結果の信号を減算器213へ出力する。つまり、積分ゲイン部1503の出力に対してゲイン乗算器1504からのフィードバック量を加算する処理が行われる。   The internal configuration of the target position calculation unit 212 will be described with reference to FIG. FIG. 15 is a block diagram showing a detailed internal configuration of the target position calculation unit 212. As shown in FIG. The high pass filter 1501 obtains the output signal of the A / D converter 202 and removes the DC offset component included in the output of the first vibration sensor 201. The low pass filter 1502 obtains the output of the high pass filter 1501 and converts the angular velocity signal into a signal equivalent to an angle. The integral gain unit 1503 multiplies the output of the low pass filter 1502 by the integral gain. The gain multiplier 1504 multiplies the output of the integration processing unit 205 by a gain. The adder 1505 adds the output signals of the integral gain unit 1503 and the gain multiplier 1504, and outputs a signal of the result of the addition operation to the subtractor 213. That is, a process of adding the feedback amount from the gain multiplier 1504 to the output of the integral gain unit 1503 is performed.

図16を参照して、図3のS312における目標位置算出について詳説する。図16は、目標位置算出部212が行う処理のフローチャートである。S1601でハイパスフィルタ1501は、図3のS305で第1振動センサ201が検出した撮像装置の振れ角速度信号に対して、DCオフセット成分を除去する。S1602でローパスフィルタ1502は、S1601でDCオフセット成分が除去された振れ角速度信号に対して、ローパスフィルタ処理を行う。S1603で積分ゲイン部1503はゲイン乗算を行う。こうして振れ角速度信号が振れ角度信号に変換される。   The target position calculation in S312 of FIG. 3 will be described in detail with reference to FIG. FIG. 16 is a flowchart of processing performed by the target position calculation unit 212. In S1601, the high pass filter 1501 removes the DC offset component from the shake angular velocity signal of the imaging device detected by the first vibration sensor 201 in S305 of FIG. The low pass filter 1502 performs low pass filter processing on the shake angular velocity signal from which the DC offset component has been removed in step S1601 in step S1602. In step S1603, the integral gain unit 1503 performs gain multiplication. Thus, the shake angular velocity signal is converted to a shake angle signal.

S1604でゲイン乗算器1504は、統合処理部205から出力される振れ補正残り角度信号に対して乗算するゲインを決定する。ゲインの決定方法について、図17を用いて説明する。図17の横軸は追跡期間を表し、縦軸はゲイン量を表す。この例では、閾値時間T3を設けており、追跡期間の長さがゼロのときにゲイン量がゼロである。この原点を起点として、追跡期間の長さが閾値時間T3未満である区間では、追跡期間の増加につれてゲイン量が増加する線形関係を示す。追跡期間の長さが閾値時間T3以上である場合には、ゲイン量が1となる。よって追跡期間が長い場合には、追跡期間が短い場合よりも振れ検出信号に対する振れ補正残り角度信号(位置姿勢情報)の合成の割合が高くなる。   In step S1604, the gain multiplier 1504 determines a gain to be multiplied by the shake correction remaining angle signal output from the integration processing unit 205. The method of determining the gain will be described with reference to FIG. The horizontal axis in FIG. 17 represents the tracking period, and the vertical axis represents the amount of gain. In this example, a threshold time T3 is provided, and the amount of gain is zero when the length of the tracking period is zero. Starting from this origin, in a section where the length of the tracking period is less than the threshold time T3, a linear relationship in which the amount of gain increases as the tracking period increases is shown. When the length of the tracking period is equal to or longer than the threshold time T3, the amount of gain is one. Therefore, when the tracking period is long, the ratio of synthesis of the shake correction remaining angle signal (position and posture information) to the shake detection signal is higher than when the tracking period is short.

S1605で加算器1505は、S1603で算出される振れ角度信号と、S1604で得られるゲイン乗算後の振れ補正残り角度信号とを加算し、振れ補正レンズ103の目標位置を算出する。   In S1605, the adder 1505 adds the shake angle signal calculated in S1603 and the shake correction remaining angle signal after gain multiplication obtained in S1604 to calculate the target position of the shake correction lens 103.

本実施形態では、撮像装置の振れ角度信号に対して、特徴点の3次元座標を利用して生成した振れ補正残り角度信号を、視差量に応じて制御する。追跡情報に基づいて画像間の視差量から算出される追跡期間に基づく3次元座標の推定の寄与度を算出し、追跡期間が長くなるにつれて寄与度を高く設定する処理が行われ、寄与度にしたがって振れ情報および位置姿勢情報が合成される。3次元座標推定の精度が十分でない状況でも処理を中断することなく像振れ補正を行うことができる。したがって、3次元座標推定の推定状態に依らずに、良好な撮像画像を得ることができる。   In this embodiment, the shake correction remaining angle signal generated using the three-dimensional coordinates of the feature point is controlled according to the amount of parallax with respect to the shake angle signal of the imaging device. Based on the tracking information, the contribution of the estimation of the three-dimensional coordinates based on the tracking period calculated from the parallax amount between images is calculated, and the processing is performed to set the contribution higher as the tracking period becomes longer. Therefore, shake information and position and orientation information are synthesized. Image blur correction can be performed without interrupting processing even in a situation where the accuracy of three-dimensional coordinate estimation is insufficient. Therefore, a good captured image can be obtained regardless of the estimated state of three-dimensional coordinate estimation.

[第2実施形態]
次に、本発明の第2実施形態について、第1実施形態との相違点を主に説明する。
図18は、本実施形態の像振れ補正装置の構成例を示す図である。同図において第1実施形態に示した構成要素と共通する箇所については、既に使用した符号を付すことによって、それらの詳細な説明を割愛する。本実施形態の像振れ補正装置は、動きベクトル演算部1801を備える。動きベクトル演算部1801は、撮像信号処理部110の出力を取得して画像の動きベクトル演算を行い、演算結果を主被写体分離部208、目標位置算出部1802に出力する。
Second Embodiment
Next, in the second embodiment of the present invention, differences from the first embodiment will be mainly described.
FIG. 18 is a view showing an example of the arrangement of an image shake correction apparatus according to this embodiment. In the figure, the parts common to the components shown in the first embodiment are denoted by the reference numerals already used, and the detailed description thereof will be omitted. The image shake correction apparatus of the present embodiment includes a motion vector calculation unit 1801. The motion vector calculation unit 1801 obtains the output of the imaging signal processing unit 110 to calculate the motion vector of the image, and outputs the calculation result to the main subject separation unit 208 and the target position calculation unit 1802.

図19に示すフローチャートを参照して、本実施形態における処理について詳説する。図3との相違点は、S1901およびS1902のステップに示す処理である。動きベクトル演算部1801が行うS302(特徴点追跡)の次にS1901の処理へ進む。   The processing in the present embodiment will be described in detail with reference to the flowchart shown in FIG. The difference from FIG. 3 is the process shown in steps S1901 and S1902. After S302 (feature point tracking) performed by the motion vector calculation unit 1801, the process proceeds to S1901.

S1901において、動きベクトル演算部1801は、S302で得られた特徴点の追跡結果と、フレームごとに特徴点を更新してフレーム間のグローバルベクトルを推定した2つの結果を出力する。グローバルベクトルは、撮影画面全体での一様な動きを表すベクトルである。S1901からS1902への矢印は、算出されたグローバルベクトルが目標位置算出部1802に出力される処理が行われることを示す。   In S1901, the motion vector computing unit 1801 outputs the tracking result of the feature point obtained in S302 and two results of updating the feature point for each frame and estimating the global vector between the frames. The global vector is a vector that represents uniform motion over the entire shooting screen. The arrows from S1901 to S1902 indicate that the process of outputting the calculated global vector to the target position calculation unit 1802 is performed.

図20は、動きベクトル演算部1801の内部構成を示すブロック図である。特徴点抽出部401から追跡信頼度算出部405までの各部は、第1実施形態にて図4で説明したとおりである。本実施形態では、動きベクトル検出部404を第1の動きベクトル検出部とし、追加された動きベクトル検出部2001を第2の動きベクトル検出部とする。第2の動きベクトル検出部2001は、撮像信号処理部110と、特徴点抽出部401と、画像メモリ403から信号を取得して動きベクトルを算出する。つまり、第2の動きベクトル検出部2001は、特徴点抽出部401が抽出した特徴点に基づいて、撮像信号処理部110および画像メモリ403からそれぞれ入力される画像信号に対して、動きベクトル検出を行う。グローバルベクトル推定部2002は、第2の動きベクトル検出部2001から入力された動きベクトルによりグローバルベクトルを推定する。   FIG. 20 is a block diagram showing an internal configuration of the motion vector computing unit 1801. Each part from the feature point extraction part 401 to the tracking reliability calculation part 405 is as having demonstrated in FIG. 4 in 1st Embodiment. In the present embodiment, the motion vector detection unit 404 is a first motion vector detection unit, and the added motion vector detection unit 2001 is a second motion vector detection unit. The second motion vector detection unit 2001 obtains signals from the imaging signal processing unit 110, the feature point extraction unit 401, and the image memory 403 to calculate a motion vector. That is, based on the feature points extracted by the feature point extracting unit 401, the second motion vector detecting unit 2001 performs motion vector detection on the image signals input from the imaging signal processing unit 110 and the image memory 403. Do. A global vector estimation unit 2002 estimates a global vector from the motion vector input from the second motion vector detection unit 2001.

図21のフローチャートを参照して、動きベクトル演算部1801が行う処理について、説明する。図5に示すS501からS505の処理とは異なる、追加されたS2101およびS2102の処理を説明する。S2101およびS2102の処理は、S502からS504のステップで示す処理に対する、並行処理として実行される。   The process performed by the motion vector calculator 1801 will be described with reference to the flowchart in FIG. The processes of added S2101 and S2102 which are different from the processes of S501 to S505 shown in FIG. 5 will be described. The processes of S2101 and S2102 are executed as parallel processes with respect to the processes shown in steps S502 to S504.

S2101で第2の動きベクトル検出部2001は、S501で抽出された特徴点を用いて第2の動きベクトルを検出する。動きベクトルの検出方法についはS503と同様であるため説明を割愛する。S2102でグローバルベクトル推定部2002は、S2101にて推定された動きベクトルを使用し、グローバルベクトルを推定する。グローバルベクトルの推定方法には、検出された動きベクトルからヒストグラム処理を行い、最頻値をグローバルベクトルとして推定する方法がある。また、検出された動きベクトルの平均値をグローバルベクトルとして推定する方法がある。また、ヒストグラム処理によって特定される外れ値を除外し、残りの動きベクトルの平均値をグローバルベクトルとして推定する方法がある。S2102の処理後、S505の処理へ移行する。   In S2101, the second motion vector detection unit 2001 detects a second motion vector using the feature points extracted in S501. The method of detecting the motion vector is the same as that of step S503, and therefore the description is omitted. In S2102, the global vector estimation unit 2002 estimates the global vector using the motion vector estimated in S2101. As a method of estimating a global vector, there is a method of performing histogram processing from a detected motion vector and estimating a mode value as a global vector. There is also a method of estimating the average value of detected motion vectors as a global vector. There is also a method of excluding outliers specified by the histogram processing and estimating the average value of the remaining motion vectors as a global vector. After the process of S2102, the process proceeds to the process of S505.

図19のS1902で目標位置算出部1802は、補正レンズの目標位置を算出する。S304にて算出された追跡期間と、S311における振れ補正残りの位置姿勢推定値と、S1901から取得されたグローバルベクトルを用いて、像振れ補正レンズ103をピッチ方向またはヨー方向に駆動する補正位置制御信号が生成される。S1902の次にS313の処理に進む。   In S1902 of FIG. 19, the target position calculation unit 1802 calculates the target position of the correction lens. Correction position control for driving the image shake correction lens 103 in the pitch direction or the yaw direction using the tracking period calculated in S304, the position / posture estimation value after shake correction in S311, and the global vector acquired from S1901 A signal is generated. After S1902, the process proceeds to S313.

図22は、目標位置算出部1802の内部構成を示すブロック図である。図15との相違点は、ゲイン乗算器2201である。ゲイン乗算器2201は、統合処理部205の出力と、グローバルベクトル推定部2002の出力に対してそれぞれゲインを乗算する。   FIG. 22 is a block diagram showing an internal configuration of the target position calculation unit 1802. A difference from FIG. 15 is a gain multiplier 2201. The gain multiplier 2201 multiplies each of the output of the integration processing unit 205 and the output of the global vector estimation unit 2002 by a gain.

図16のフローチャートを流用して、本実施形態の目標位置算出処理を説明する。第1実施形態における処理との相違点は、S1604の処理内容である。本実施形態では、統合処理部205から出力される振れ補正残り角度信号と、グローバルベクトル推定部2002から出力されるグローバルベクトルに対して、ゲイン乗算器2201により乗算するゲインが決定される。ゲインの決定方法について、図17を流用して説明する。横軸は追跡情報に基づく追跡期間を表し、縦軸はグローバルベクトルのゲイン量を表す。閾値時間をT4とし、追跡期間の長さがゼロのときのグローバルベクトルのゲイン量をゼロとする。この例では、追跡期間の長さがゼロからT4未満である区間で、グローバルベクトルのゲイン量が追跡期間の長さに比例する。追跡期間の長さが閾値時間T4以上である場合に、グローバルベクトルのゲイン量が1となる。振れ補正残り角度信号に対するゲイン乗算に関しては第1実施形態のS1604で説明済みであるため、その詳細な説明を割愛する。ゲイン乗算器2201はゲイン乗算後の各出力を加算器1505に出力する。   The target position calculation process of the present embodiment will be described using the flowchart of FIG. The difference from the processing in the first embodiment is the processing content of S1604. In this embodiment, the gain multiplier 2201 determines a gain by which the shake correction remaining angle signal output from the integration processing unit 205 and the global vector output from the global vector estimation unit 2002 are multiplied. The method of determining the gain will be described with reference to FIG. The horizontal axis represents the tracking period based on the tracking information, and the vertical axis represents the amount of gain of the global vector. The threshold time is T4, and the amount of gain of the global vector when the length of the tracking period is zero is zero. In this example, the gain amount of the global vector is proportional to the length of the tracking period in an interval in which the length of the tracking period is from zero to less than T4. When the length of the tracking period is equal to or longer than the threshold time T4, the amount of gain of the global vector is one. The gain multiplication for the shake correction remaining angle signal has been described in S1604 of the first embodiment, and thus the detailed description thereof will be omitted. Gain multiplier 2201 outputs each output after gain multiplication to adder 1505.

本実施形態では、フレームごとに更新される特徴点を使用し、毎フレームで推定されるグローバルベクトルを、振れ補正残り角度信号に適用する。特徴点の追跡が長期間行われることによって蓄積される誤差を補正して低減することで、第1実施形態よりも良好な像振れ補正を行うことができる。   In this embodiment, feature points updated for each frame are used, and a global vector estimated for each frame is applied to the shake correction remaining angle signal. By correcting and reducing an error accumulated due to long-term tracking of feature points, it is possible to perform image shake correction better than in the first embodiment.

103 像振れ補正レンズ
104 像振れ補正レンズ駆動部
117 制御部
201,203 振動センサ
205 統合処理部
209 追跡期間算出部
210 特徴点追跡部
212 目標位置算出部

103 image blur correction lens 104 image blur correction lens drive unit 117 control unit 201, 203 vibration sensor 205 integrated processing unit 209 tracking period calculation unit 210 feature point tracking unit 212 target position calculation unit

Claims (11)

撮像装置に加わる振れにより生じる像振れを、振れ補正手段によって補正する像振れ補正装置であって、
撮像画像の画像信号から得られる動きベクトル情報を用いて撮像画像における特徴点を抽出して追跡し、前記特徴点の座標を追跡情報として算出する追跡手段と、
前記撮像装置に加わる振れに係る振れ情報および前記追跡情報を用いて前記撮像装置の位置姿勢情報を推定する第1の推定手段と、
前記位置姿勢情報を用いて被写体と前記撮像装置との奥行きを含めた位置関係を示す前記特徴点の3次元座標を推定する第2の推定手段と、
複数の撮像画像間の視差量および前記特徴点から前記特徴点の追跡期間を算出する第1の算出手段と、
前記第1の算出手段から取得した前記追跡期間が長い場合に、前記追跡期間が短い場合よりも前記振れ情報に対する前記位置姿勢情報の合成の割合を高くして前記振れ情報および前記位置姿勢情報を合成することにより、前記振れ補正手段の目標位置を算出する第2の算出手段と、
前記目標位置にしたがって前記振れ補正手段を制御する制御手段と、を備える
ことを特徴とする像振れ補正装置。
An image shake correction apparatus that corrects an image shake generated by a shake applied to an imaging device by a shake correction unit.
Tracking means for extracting and tracking feature points in a captured image using motion vector information obtained from an image signal of the captured image, and calculating coordinates of the feature points as tracking information;
First estimation means for estimating position and orientation information of the image pickup apparatus using shake information relating to a shake applied to the image pickup apparatus and the tracking information;
A second estimation unit configured to estimate three-dimensional coordinates of the feature point indicating a positional relationship including a depth of an object and the imaging device using the position and orientation information;
First calculating means for calculating a tracking period of the feature point from a parallax amount between a plurality of captured images and the feature point;
When the tracking period acquired from the first calculation means is long, the ratio of the position and orientation information to the vibration information is made higher than in the case where the tracking period is short, and the vibration information and the position and posture information are Second calculating means for calculating a target position of the shake correcting means by combining
An image blur correction apparatus, comprising: control means for controlling the shake correction means in accordance with the target position.
前記第2の算出手段は、前記追跡期間に基づく前記3次元座標の推定の寄与度を算出し、前記追跡期間が長くなるにつれて前記寄与度を高く制御して前記振れ情報および前記位置姿勢情報を合成する
ことを特徴とする請求項1に記載の像振れ補正装置。
The second calculation means calculates a contribution of the estimation of the three-dimensional coordinates based on the tracking period, and controls the contribution to be higher as the tracking period becomes longer to calculate the shake information and the position and orientation information. The image blur correction apparatus according to claim 1, wherein the image blur correction is performed.
前記第2の算出手段は、
前記追跡期間に対応するゲインを前記位置姿勢情報に乗算する乗算手段と、
前記振れ情報を前記ゲインが乗算された前記位置姿勢情報と加算する加算手段と、を備え、
前記ゲインの値は、前記追跡期間が長い場合に前記追跡期間が短い場合よりも大きい
ことを特徴とする請求項1または請求項2に記載の像振れ補正装置。
The second calculation means is
Multiplying means for multiplying the position and orientation information by a gain corresponding to the tracking period;
And adding means for adding the shake information to the position and orientation information multiplied by the gain,
The image blur correction device according to claim 1, wherein the value of the gain is larger when the tracking period is long than when the tracking period is short.
前記第1の算出手段は、前記視差量が小さいほど前記追跡期間を短く算出する
ことを特徴とする請求項1から3のいずれか1項に記載の像振れ補正装置。
The image blur correction device according to any one of claims 1 to 3, wherein the first calculation unit calculates the tracking period to be shorter as the amount of parallax is smaller.
前記追跡手段は、前記撮像画像のフレームごとに特徴点を抽出する抽出手段と、撮像時刻の異なる複数の画像信号を記憶する記憶手段と、動きベクトルを検出する検出手段を備え、前記追跡情報を用いて複数の前記撮像画像における同一の特徴点を抽出して追跡する処理を行う
ことを特徴とする請求項1または請求項2に記載の像振れ補正装置。
The tracking means comprises extraction means for extracting feature points for each frame of the captured image, storage means for storing a plurality of image signals at different imaging times, and detection means for detecting a motion vector, and the tracking information The image blur correction apparatus according to claim 1 or 2, wherein processing for extracting and tracking the same feature point in a plurality of the captured images is performed.
前記検出手段は、
前記追跡手段により追跡される前記特徴点に基づく第1の動きベクトルを検出する第1の検出手段と、
前記複数の画像信号から第2の動きベクトルを検出する第2の検出手段と、を備える
ことを特徴とする請求項5に記載の像振れ補正装置。
The detection means
First detection means for detecting a first motion vector based on the feature points tracked by the tracking means;
The image shake correction apparatus according to claim 5, further comprising: second detection means for detecting a second motion vector from the plurality of image signals.
前記第2の動きベクトルからグローバルベクトルを推定する第3の推定手段をさらに備え、
前記第2の算出手段は、前記追跡期間に対応するゲインを前記グローバルベクトルに乗算する乗算手段と、
前記振れ情報を前記ゲインが乗算された前記グローバルベクトルと加算する加算手段と、を備え、
前記ゲインの値は、前記追跡期間が長い場合に前記追跡期間が短い場合よりも大きい
ことを特徴とする請求項6に記載の像振れ補正装置。
The apparatus further comprises third estimation means for estimating a global vector from the second motion vector,
The second calculating means multiplies the global vector by a gain corresponding to the tracking period;
And adding means for adding the shake information to the global vector multiplied by the gain,
The image blur correction apparatus according to claim 6, wherein the value of the gain is larger when the tracking period is longer than when the tracking period is short.
前記追跡情報の信頼度である追跡信頼度を算出する信頼度算出手段と、
前記追跡信頼度を用いて追跡対象とする特徴点を設定する特徴点設定手段と、を備える
ことを特徴とする請求項1から7のいずれか1項に記載の像振れ補正装置。
Reliability calculation means for calculating tracking reliability which is reliability of the tracking information;
The image blur correction apparatus according to any one of claims 1 to 7, further comprising: feature point setting means for setting a feature point to be tracked using the tracking reliability.
前記信頼度算出手段は、前記動きベクトルが算出される際に用いられた複数の画像信号から演算される相関値、または追跡の前後における前記特徴点の特徴量の変化量により前記追跡信頼度を算出する
ことを特徴とする請求項8に記載の像振れ補正装置。
The reliability calculation means calculates the tracking reliability using correlation values calculated from a plurality of image signals used when the motion vector is calculated, or the amount of change of the feature of the feature point before and after tracking. The image blur correction apparatus according to claim 8, wherein the image blur correction apparatus calculates the image blur.
請求項1から9のいずれか1項に記載の像振れ補正装置を備える撮像装置。   An image pickup apparatus comprising the image blur correction device according to any one of claims 1 to 9. 撮像装置に加わる振れにより生じる像振れを、振れ補正手段によって補正する像振れ補正装置にて実行される制御方法であって、
撮像画像の画像信号から得られる動きベクトル情報を用いて撮像画像における特徴点を抽出して追跡し、前記特徴点の座標を追跡情報として算出する工程と、
前記撮像装置に加わる振れに係る振れ情報および前記追跡情報を用いて前記撮像装置の位置姿勢情報を推定する工程と、
前記位置姿勢情報を用いて被写体と前記撮像装置との奥行きを含めた位置関係を示す前記特徴点の3次元座標を推定する工程と、
複数の撮像画像間の視差量および前記特徴点から前記特徴点の追跡期間を算出する工程と、
前記追跡期間が長い場合に、前記追跡期間が短い場合よりも前記振れ情報に対する前記位置姿勢情報の合成の割合を高くして前記振れ情報および前記位置姿勢情報を合成することにより、前記振れ補正手段の目標位置を算出する工程と、
前記目標位置にしたがって前記振れ補正手段を制御する工程と、を有する
ことを特徴とする像振れ補正装置の制御方法。


A control method executed by an image shake correction apparatus that corrects an image shake generated by a shake applied to an imaging device by a shake correction unit.
Extracting and tracking a feature point in the captured image using motion vector information obtained from an image signal of the captured image, and calculating coordinates of the feature point as tracking information;
Estimating position and orientation information of the image pickup apparatus using shake information related to shake applied to the image pickup apparatus and the tracking information;
Estimating three-dimensional coordinates of the feature point indicating a positional relationship including a depth of the subject and the imaging device using the position and orientation information;
Calculating a tracking period of the feature point from the amount of parallax between the plurality of captured images and the feature point;
When the tracking period is long, the shake correction means combines the shake information and the position / posture information by combining the ratio of the position / posture information to the shake information as compared to the case where the tracking period is short. Calculating the target position of
And controlling the shake correction means in accordance with the target position.


JP2017209632A 2017-10-30 2017-10-30 Image shake correction device and its control method, image pickup device Active JP7013205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017209632A JP7013205B2 (en) 2017-10-30 2017-10-30 Image shake correction device and its control method, image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017209632A JP7013205B2 (en) 2017-10-30 2017-10-30 Image shake correction device and its control method, image pickup device

Publications (3)

Publication Number Publication Date
JP2019083407A true JP2019083407A (en) 2019-05-30
JP2019083407A5 JP2019083407A5 (en) 2020-12-10
JP7013205B2 JP7013205B2 (en) 2022-01-31

Family

ID=66670633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017209632A Active JP7013205B2 (en) 2017-10-30 2017-10-30 Image shake correction device and its control method, image pickup device

Country Status (1)

Country Link
JP (1) JP7013205B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979489A (en) * 2022-05-30 2022-08-30 西安理工大学 Gyroscope-based heavy equipment production scene video monitoring and image stabilizing method and system
JPWO2024024055A1 (en) * 2022-07-28 2024-02-01

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166269A (en) * 2005-12-14 2007-06-28 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2014126861A (en) * 2012-12-27 2014-07-07 Canon Inc Imaging device and control method of the same, program and storage medium
JP2015111764A (en) * 2013-12-06 2015-06-18 キヤノン株式会社 Image processing apparatus, imaging apparatus, and control method
JP2016119572A (en) * 2014-12-22 2016-06-30 カシオ計算機株式会社 Image processing apparatus, imaging apparatus, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166269A (en) * 2005-12-14 2007-06-28 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2014126861A (en) * 2012-12-27 2014-07-07 Canon Inc Imaging device and control method of the same, program and storage medium
JP2015111764A (en) * 2013-12-06 2015-06-18 キヤノン株式会社 Image processing apparatus, imaging apparatus, and control method
JP2016119572A (en) * 2014-12-22 2016-06-30 カシオ計算機株式会社 Image processing apparatus, imaging apparatus, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979489A (en) * 2022-05-30 2022-08-30 西安理工大学 Gyroscope-based heavy equipment production scene video monitoring and image stabilizing method and system
JPWO2024024055A1 (en) * 2022-07-28 2024-02-01

Also Published As

Publication number Publication date
JP7013205B2 (en) 2022-01-31

Similar Documents

Publication Publication Date Title
JP5179398B2 (en) Image processing apparatus, image processing method, and image processing program
JP6271990B2 (en) Image processing apparatus and image processing method
JP5997645B2 (en) Image processing apparatus and method, and imaging apparatus
CN102959586B (en) Depth estimation device and depth estimation method
JP6087671B2 (en) Imaging apparatus and control method thereof
JP6570327B2 (en) Control device, imaging device, control method, program, and storage medium
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
JP6904843B2 (en) Imaging device and its control method
US10764500B2 (en) Image blur correction device and control method
KR20180101466A (en) Depth information acquisition method and apparatus, and image acquisition device
JP7009107B2 (en) Image pickup device and its control method
JP2009124597A (en) Anti-shake image processing apparatus and anti-shake image processing method
KR20090019197A (en) Apparatus and method for motion estimation due to camera shake, and image capturing apparatus using the same
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017220885A (en) Image processing system, control method, and control program
JP2015207090A (en) Image processing apparatus and control method thereof
JP7013205B2 (en) Image shake correction device and its control method, image pickup device
JP6282133B2 (en) Imaging device, control method thereof, and control program
JP6648916B2 (en) Imaging device
JP2019121945A (en) Imaging apparatus, control method of the same, and program
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP2014096761A (en) Image processing apparatus, and control method and control program of the same
JP2017034616A (en) Image processing apparatus and control method therefor
JP2020065157A (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2012124939A (en) Imaging apparatus and imaging apparatus control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220119

R151 Written notification of patent or utility model registration

Ref document number: 7013205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151