JP2011055278A - Motion information acquiring apparatus and image processing device - Google Patents
Motion information acquiring apparatus and image processing device Download PDFInfo
- Publication number
- JP2011055278A JP2011055278A JP2009202780A JP2009202780A JP2011055278A JP 2011055278 A JP2011055278 A JP 2011055278A JP 2009202780 A JP2009202780 A JP 2009202780A JP 2009202780 A JP2009202780 A JP 2009202780A JP 2011055278 A JP2011055278 A JP 2011055278A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame rate
- motion information
- motion
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】高フレームレートの動画像を利用し、少ない処理量で正確な動きを求めることが可能な動き検出アルゴリズムを提供する。
【解決手段】動き情報取得装置は、基準フレームからなる第1のフレームレートの画像及び基準フレームを含む第1のフレームレートより高い第2のフレームレートの画像を撮像するイメージセンサ11と、第2のフレームレートの画像を用いて、第1のフレームレートの各画像を構成する各ブロックの動き情報として動きベクトルを順次検出する動き検出部12と、第1のフレームレートの画像とこれに対応する各ブロックの動きベクトルとを同期させるデータ作成部13とを備える。このデータ作成部13は、同期させた第1のフレームレートの画像と動きベクトルとを出力する。
【選択図】図8A motion detection algorithm that uses a high frame rate moving image and can obtain an accurate motion with a small amount of processing is provided.
A motion information acquisition apparatus includes an image sensor that captures an image having a first frame rate including a reference frame and an image having a second frame rate higher than the first frame rate including the reference frame. A motion detection unit 12 that sequentially detects a motion vector as motion information of each block constituting each image of the first frame rate using an image of the first frame rate, an image of the first frame rate, and the corresponding image And a data creation unit 13 for synchronizing the motion vectors of the respective blocks. The data creation unit 13 outputs the synchronized image and motion vector of the first frame rate.
[Selection] Figure 8
Description
本発明は、高フレームレートの動画像から動き情報を取得する動き情報取得装置及びその動き情報を用いて各種画像処理を行う画像処理装置に関する。 The present invention relates to a motion information acquisition device that acquires motion information from a high frame rate moving image and an image processing device that performs various image processing using the motion information.
フレーム間の動き情報を利用した動画像のアプリケーションは数多く存在する。例えば、(a)FRC(Frame Rate Conversion)の補間フレームを生成するための動き情報の利用、(b)手振れ補正のための動き情報の利用、(c)動画像符号化におけるインター予測用動きベクトルとしての動き情報の利用、(d)複数フレームから高解像度画像を得るための位置合わせのための動き情報の利用、などがある。 There are many moving image applications using motion information between frames. For example, (a) use of motion information for generating a frame rate conversion (FRC) interpolation frame, (b) use of motion information for camera shake correction, (c) motion vector for inter prediction in video coding (D) use of motion information for alignment for obtaining a high-resolution image from a plurality of frames.
図14は、従来の画像処理装置の構成例を示すブロック図である。図14(A)はFRCの補間フレームを生成するために動き情報を利用する場合あるいは動画像符号化におけるインター予測用動きベクトルとして動き情報を利用する場合の装置構成を示し、図14(B)は手振れ補正のために動き情報を利用する場合あるいは動画像符号化におけるインター予測用動きベクトルとして動き情報を利用する場合の装置構成を示し、図14(C)は手振れ補正のために動き情報を利用する場合の装置構成を示し、図14(D)は複数フレームから高解像度画像を得るための位置合わせに動き情報を利用する場合の装置構成を示す。 FIG. 14 is a block diagram illustrating a configuration example of a conventional image processing apparatus. FIG. 14A shows a device configuration when motion information is used to generate an FRC interpolation frame or when motion information is used as an inter prediction motion vector in moving image coding. FIG. 14C shows a device configuration when motion information is used for camera shake correction or when motion information is used as a motion vector for inter prediction in moving picture coding. FIG. 14C shows motion information for camera shake correction. FIG. 14D shows a device configuration in the case of using motion information for alignment for obtaining a high-resolution image from a plurality of frames.
図14において、101は撮像部、102は動画像エンコーダ、103は動画像デコーダ、104はFRC部、105は手振れ補正部、106は高解像度化処理部、107は静止画/動画像エンコーダ、108は静止画/動画像デコーダを示す。また、動き検出部及び位置合わせ部では動きベクトルが検出されるが、図14(A)の場合、動き検出部を動画像エンコーダ102とFRC部104の内部に設け、図14(B)の場合、動き検出部を動画像エンコーダ102と手振れ補正部105の内部に設け、図14(C)の場合、動き検出部を手振れ補正部105の内部に設け、図14(D)の場合、位置合わせ部を高解像度化処理部106の内部に設けている。
In FIG. 14, 101 is an imaging unit, 102 is a moving image encoder, 103 is a moving image decoder, 104 is an FRC unit, 105 is a camera shake correction unit, 106 is a high resolution processing unit, 107 is a still image / moving image encoder, 108 Indicates a still image / moving image decoder. In addition, in the case of FIG. 14A, the motion detection unit is provided inside the
上記の図14に示すように、アプリケーションに合わせて動画像エンコーダの内部、あるいは、動画像エンコーダあるいは静止画エンコーダの前処理、あるいは、動画像デコーダの後処理のように、装置内の様々な部分で別々に動きベクトルを求めていた。 As shown in FIG. 14 above, various parts in the apparatus such as the inside of the moving image encoder, the pre-processing of the moving image encoder or the still image encoder, or the post-processing of the moving image decoder according to the application. I was seeking motion vectors separately.
ところで、近年のイメージセンサの高フレームレート化により、高速撮像時の強いフレーム間拘束を利用すれば、小さな処理量で正確な動きベクトルを求めることができる。しかしながら、高フレームレートの動画像をセンサから出力すると、動画像のデータ量が膨大になるため、長時間連続して出力するためには、低解像度で出力するか、あるいは必要な情報のみに限定して出力しなければならない。 By the way, with the recent increase in the frame rate of an image sensor, an accurate motion vector can be obtained with a small amount of processing by using strong inter-frame constraints during high-speed imaging. However, if a high frame rate moving image is output from a sensor, the amount of moving image data becomes enormous, so in order to output continuously for a long time, output at a low resolution or limited to only necessary information. Must be output.
そこで、イメージセンサ内部で高フレームレートの動画像を用いて動き検出を行い、通常のフレームレートで撮像される画像の揺れを補正した後、撮像部から出力する技術が提案されている。 In view of this, a technique has been proposed in which motion detection is performed using a high frame rate moving image inside the image sensor, and after an image captured at a normal frame rate is corrected, the image is output from the imaging unit.
例えば、特許文献1には、動画像をアプリケーションに用いるフレームレート(30fpsあるいは60fps)の基準フレームと、それより高フレームレートのサブフレームとの2種類に分け、処理対象フレームの複数の局所領域に対し相関の高い参照フレーム中の領域を探索し、相関が最大となる領域を局所領域の移動先とみなし、動きベクトルを求め、この動きベクトルを用いて動画像の揺れを計算し、通常のフレームレートで取得した動画像に対し揺れを補正して出力する技術が記載されている。
For example, in
しかしながら、上記の特許文献1に記載の技術では、高フレームレートの動画像を利用しているにもかかわらず、動き検出のアルゴリズム自体は高フレームレートの特性を利用しない一般的なアルゴリズムであるため、処理負荷が十分小さくならないという問題がある。この特許文献1に記載の技術では、処理負荷を抑制するために、例えば、局所領域の数の上限を設ける等、1画面中の処理対象領域を制限するようにしている。また撮像部で動きベクトルを算出しているにもかかわらず、動きベクトルを撮像部内部のみで使用するため、特定の用途(この場合は揺れ補正)にしか利用できない。
However, in the technique described in
本発明は、上述のごとき実情に鑑みてなされたものであり、高フレームレートの動画像を利用し、少ない処理量で正確な動きを求めることが可能な動き検出アルゴリズムを提供し、また、検出した動きベクトルを複数の用途で利用するため、撮像装置と外部の機器間の互換性を保証する動画像と動きベクトルの出力フォーマットを提供すること、を目的とする。 The present invention has been made in view of the above circumstances, and provides a motion detection algorithm that uses a high frame rate moving image and can obtain an accurate motion with a small amount of processing. In order to use the motion vector for a plurality of purposes, it is an object to provide an output format of a moving image and a motion vector that guarantees compatibility between the imaging apparatus and an external device.
上記課題を解決するために、本発明の第1の技術手段は、基準フレームからなる第1のフレームレートの画像及び前記基準フレームを含む前記第1のフレームレートより高い第2のフレームレートの画像を撮像する撮像手段と、前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備えたことを特徴としたものである。 In order to solve the above-described problem, the first technical means of the present invention provides an image having a first frame rate composed of a reference frame and an image having a second frame rate higher than the first frame rate, including the reference frame. Imaging means for imaging the image, motion information detection means for sequentially detecting motion information of each block constituting each image at the first frame rate, using the image at the second frame rate, and the first Synchronizing means for synchronizing the image of the frame rate and the motion information of each block corresponding thereto, and output means for outputting the image of the first frame rate and the motion information synchronized by the synchronizing means It is characterized by.
第2の技術手段は、第1の技術手段において、前記動き情報検出手段は、前記第2のフレームレートの隣接画像間において既に検出した動き情報に基づいて、対象ブロックの動き探索範囲を変更する手段を備えたことを特徴としたものである。 According to a second technical means, in the first technical means, the motion information detecting means changes a motion search range of the target block based on motion information already detected between adjacent images of the second frame rate. It is characterized by having means.
第3の技術手段は、第1の技術手段において、前記動き情報検出手段は、前記第2のフレームレートの隣接画像間の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴としたものである。 The third technical means is the first technical means, wherein the motion information detecting means determines whether each pixel between adjacent images of the second frame rate belongs to a still area or a moving area. Means for evaluating the motion information, and evaluation means for evaluating the correlation between the target block and the reference block using corresponding pixel values of two images. The evaluation means is obtained by the determination means. According to the region to which each pixel belongs, the evaluation value is weighted when the evaluation value is calculated.
第4の技術手段は、第1の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、少なくとも1枚以上の第2のフレームレートの画像を構成する各ブロックの動き情報とを同期させ、前記出力手段は、前記同期手段で同期させた第1のフレームレートの画像と動き情報とを所定のフォーマットで出力することを特徴としたものである。 According to a fourth technical means, in the first technical means, the synchronizing means includes an image of the first frame rate and motion information of each block constituting at least one image of the second frame rate. And the output means outputs the image and motion information of the first frame rate synchronized by the synchronization means in a predetermined format.
第5の技術手段は、第4の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレーム間の動きベクトルとを同期させることを特徴としたものである。 A fifth technical means is the fourth technical means, wherein the synchronizing means synchronizes an image of the first frame rate and a motion vector between reference frames constituting the image of the second frame rate. It is characterized by that.
第6の技術手段は、第4の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレームとサブフレーム間の動きベクトルとを同期させることを特徴としたものである。 According to a sixth technical means, in the fourth technical means, the synchronizing means includes an image of the first frame rate, a motion vector between a reference frame and a subframe constituting the image of the second frame rate, and It is characterized by synchronizing.
第7の技術手段は、第1〜第6のいずれか1の技術手段における動き情報取得装置から出力された画像と動き情報とを用いて画像処理を行う画像処理装置であって、前記第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動き情報とから、該第2のフレームレートの少なくとも一部の画像を補間によって生成することを特徴としたものである。 A seventh technical means is an image processing apparatus that performs image processing using an image and motion information output from the motion information acquisition apparatus according to any one of the first to sixth technical means. Generating at least a partial image of the second frame rate by interpolation from the images of the frame rate of the second frame rate and the motion information corresponding to the images of the second frame rate located between the images. It is a thing.
本発明によれば、低フレームレートの動画像のみを利用する場合と比べて、処理量を大幅に削減しつつ、動き検出の精度を向上させることができる。また、撮像装置から同期を取って動画像および動きベクトルを出力するフォーマットを予め定めておくことで、後段の様々な画像処理に必要な動きベクトルとして、動きベクトルをそのまま、あるいは適宜修正して利用することができる。そのため後段の画像処理の動きベクトル検出に必要な処理を大幅に削減することができる。 According to the present invention, it is possible to improve the accuracy of motion detection while significantly reducing the processing amount as compared with a case where only a low frame rate moving image is used. In addition, by pre-determining a format for outputting moving images and motion vectors in synchronization with the imaging device, the motion vectors can be used as they are, or modified as appropriate, as the motion vectors required for various image processing at the subsequent stage. can do. Therefore, it is possible to greatly reduce the processing necessary for motion vector detection in the subsequent image processing.
以下、添付図面を参照しながら、本発明の動き情報取得装置及び画像処理装置に係る好適な実施の形態について説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments according to a motion information acquisition device and an image processing device of the invention will be described with reference to the accompanying drawings.
(第1の実施形態)
1.サブフレームを用いた動き検出
図1、2は、基準フレーム、サブフレーム、およびフレーム間の動きベクトルの関係の一例を示す図である。図1、2に示すように、基準フレームF(am)に対し、過去のサブフレームをF(am−1)、F(am−2)、・・・、F(a(m−1)+1)とし、直前の基準フレームをF(a(m−1))とする。この例では基準フレームの間隔はaフレーム、サブフレームの枚数は(a−1)枚とする。
(First embodiment)
1. Motion Detection Using Subframes FIGS. 1 and 2 are diagrams illustrating an example of a relationship between a reference frame, a subframe, and motion vectors between frames. As shown in FIGS. 1 and 2, with respect to the reference frame F (am), past subframes are represented by F (am−1), F (am−2),..., F (a (m−1) +1. ) And the immediately preceding reference frame is F (a (m−1)). In this example, the interval between the reference frames is a frame, and the number of sub-frames is (a-1).
図1(A)は、時間的に新しい基準フレームから古いフレームへと動きベクトルを順次検出する例について示したもので、図1(B)は図1(A)に示す基準フレームF(am)とF(a(m−1))及びこの間のサブフレームを拡大した図である。また、図2は、時間的に古い基準フレームから新しいフレームへと動きベクトルを順次検出する例について示したものである。これについては後述する。 FIG. 1A shows an example in which motion vectors are sequentially detected from a new reference frame to an old frame in time, and FIG. 1B shows a reference frame F (am) shown in FIG. And F (a (m−1)) and a subframe between them are enlarged. FIG. 2 shows an example in which motion vectors are sequentially detected from a temporally old reference frame to a new frame. This will be described later.
ここでサブフレームの画素値については、図示しないイメージセンサからの非破壊読み出しにより、図3(A)に示すような通常フレームレートより高いフレームレートで画素値を読み出すことができる。ここで、イメージセンサの中には、撮像途中でも、その時点における画像を随時取得できる「高速非破壊CMOSイメージセンサ」と呼ばれるものがある。これは、光を受けると電荷を蓄積する素子の一種であるが、通常のイメージセンサと異なり、画素値の読み出しを行っても蓄積された電荷が破壊されない特性を持つ。 Here, the pixel value of the subframe can be read at a frame rate higher than the normal frame rate as shown in FIG. 3A by nondestructive reading from an image sensor (not shown). Here, some image sensors are called “high-speed non-destructive CMOS image sensors” that can acquire an image at any time even during imaging. This is a kind of element that accumulates charges when receiving light. However, unlike a normal image sensor, the accumulated charges are not destroyed even if pixel values are read out.
図3において、縦軸は画素値、横軸は時間、Sは前フレームとの差分値を表している。このSの部分の値を取り出したものを図3(B)に示す。例えば、通常フレームレートが30fps、高フレームレートが240fpsの場合、図3(B)の画素値は1/240秒間蓄積した値である。図3(B)の画素値は、図3(A)の蓄積中間画素値の差分値として以外にも、単に高フレームレート撮像時の画素値として求められる。また図3(B)の画素値を通常フレームレートに相当する時間、加算したものを図3(C)に示す。図3(C)は高フレームレートで画像を取得するものの、その画素値の蓄積時間は、通常フレームレートで撮像した画素値と同じ蓄積時間である。 In FIG. 3, the vertical axis represents pixel values, the horizontal axis represents time, and S represents a difference value from the previous frame. FIG. 3B shows a value obtained by extracting the value of the S portion. For example, when the normal frame rate is 30 fps and the high frame rate is 240 fps, the pixel values in FIG. 3B are values accumulated for 1/240 seconds. The pixel value in FIG. 3B is obtained not only as the difference value of the accumulated intermediate pixel value in FIG. FIG. 3C shows the result of adding the pixel values in FIG. 3B for a time corresponding to the normal frame rate. Although FIG. 3C acquires an image at a high frame rate, the accumulation time of the pixel value is the same accumulation time as the pixel value imaged at the normal frame rate.
以下の説明において、基準フレーム、サブフレームの画素値はフレーム間の差分値(図3(B))、あるいは高フレームレート撮像時の画素値としてもよいし、基準フレームに相当する時間だけ蓄積した値(図3(C))を使ってもよい。 In the following description, the pixel values of the reference frame and subframe may be the difference value between frames (FIG. 3B), or the pixel value at the time of high frame rate imaging, or accumulated for the time corresponding to the reference frame. A value (FIG. 3C) may be used.
次に隣接する2枚のフレーム間の動きベクトルをΔVk=(ΔVxk、ΔVyk)(ここでk=1〜a)とする。例えばフレームF(am−b)とF(am−(b−1))(ここでb=1〜a)間の動きベクトルはΔVb=(ΔVxb、ΔVyb)と表される。
また基準フレームF(am)と各フレーム間の動きベクトルをVk=(Vxk、Vyk)(ここでk=1〜a)とする。例えば基準フレームF(am)とフレームF(am−b)(ここでb=1〜a)間の動きベクトルは
Next, a motion vector between two adjacent frames is assumed to be ΔVk = (ΔVxk, ΔVyk) (where k = 1 to a). For example, a motion vector between frames F (am−b) and F (am− (b−1)) (where b = 1 to a) is expressed as ΔVb = (ΔVxb, ΔVyb).
The motion vector between the reference frame F (am) and each frame is Vk = (Vxk, Vyk) (where k = 1 to a). For example, the motion vector between the reference frame F (am) and the frame F (am−b) (where b = 1 to a) is
と表される。最終的に基準フレームF(am)とF(a(m−1))間の動きベクトルであるVaを求めるのであるが、その探索方法には以下の2種類がある。 It is expressed. Finally, Va which is a motion vector between the reference frames F (am) and F (a (m−1)) is obtained. There are the following two search methods.
(方法1)ブロックマッチングを基準フレームF(am)との間で計算する方法
この方法1では、高フレームレートの動画像では物体の移動がごく狭い範囲にかぎられることを利用して、探索範囲を限定し、ブロックマッチングはフレームF(am−b)と基準フレームF(am)との間で計算する。図4(A)で基準フレームの対象ブロック(i,j)(ここでi,jはフレーム上の水平、垂直位置であり、ブロックの左上の画素に相当する)とF(am−(b−1))間の動きベクトルVb−1=(Vxb−1、Vyb−1)が求められているとする。
(Method 1) Method for calculating block matching with reference frame F (am) In this
次に、基準フレームF(am)とフレームF(am−b)間のマッチングを計算する時、探索範囲は(i+Vxb−1、j+Vyb−1)を中心に所定の範囲(±SRx、±SRy)を探索する。すなわち、方法1の場合、基準フレームの対象ブロック(i,j)とフレームF(am−(b−1))間の動きベクトルVb−1を参照しながら、基準フレームF(am)とフレームF(am−b)間のマッチングを順次計算していく。このようにして、フレームF(am−b)の上記範囲内で、基準フレームF(am)とフレームF(am−b)のマッチングを直接計算し、最もよく似た領域が基準フレームF(am)の対象ブロック(i,j)の移動先となる。
Next, when calculating the matching between the reference frame F (am) and the frame F (am−b), the search range is a predetermined range (± SRx, ± SRy) with (i + Vxb−1, j + Vyb−1) as the center. Explore. That is, in the case of the
上記したブロックマッチングの評価指標として、例えば、SAD(Sum of Absolute Difference)、あるいはSSD(Sum of Squared Difference)等を用いることができる。 For example, SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) can be used as the above-described evaluation index for block matching.
ここでbx、byはブロックの水平、垂直方向のサイズ、F(am,i,j)はフレームF(am)上の(i,j)に位置する画素値、(x,y) (ただし−SRx≦x≦SRx、−SRy≦y≦SRy)は対象ブロック(i,j)の変位量(隣接フレーム間の動きベクトル)を表す。 Here, bx and by are horizontal and vertical sizes of the block, F (am, i, j) is a pixel value located at (i, j) on the frame F (am), and (x, y) (where − SRx ≦ x ≦ SRx, −SRy ≦ y ≦ SRy) represents a displacement amount (motion vector between adjacent frames) of the target block (i, j).
(方法2)ブロックマッチングを隣接するフレームF(am−(b−1))とF(am−b)との間で計算する方法
この方法2では、ブロックマッチングを基準フレームとの間で計算するのではなく、図4(B)に示すように隣接する2枚のフレーム間で計算するところが方法1と異なる。この場合、SADあるいはSSDは次式で表される。
(Method 2) Method of calculating block matching between adjacent frames F (am- (b-1)) and F (am-b) In
方法1あるいは2で求めたSADあるいはSSDに対し、
ΔVb=(ΔVxb、ΔVyb)=(x’、y’) …(5)
となる。ここで(x’、y’)=arg min SAD(x、y)あるいは(x’、y’)=arg min SSD(x、y)(ただし-SRx≦x≦SRx、-SRy≦y≦SRy)である。さらに、
Vb=Vb-1+ΔVb …(6)
である。
For SAD or SSD obtained by
ΔVb = (ΔVxb, ΔVyb) = (x ′, y ′) (5)
It becomes. Where (x ′, y ′) = arg min SAD (x, y) or (x ′, y ′) = arg min SSD (x, y) (where −SRx ≦ x ≦ SRx, −SRy ≦ y ≦ SRy ). further,
Vb = Vb-1 + ΔVb (6)
It is.
方法1では、必ず基準フレームをブロックマッチングに使用するので、ノイズ等の影響を受けにくく、サブフレームを用いた複数回の探索の過程で検出誤りが発生しても、最終結果の基準フレーム間の動きベクトル検出に影響を及ぼしにくいというメリットがある。また、方法2では、ブロックマッチングを行う2フレーム間の相関が高いので、より正確な動きベクトルを求めやすいというメリットがある。また、方法1、2ともにサブフレームを使用することで動き検出の処理量を削減することができるという効果がある。各フレームにおける動きの探索範囲は、基準フレーム間で直接ブロックマッチングを取る場合の探索範囲(±Sx、±Sy)に対し、水平・垂直方向とも各々1/aとなり、サブフレームを介した場合の各ブロックの探索範囲は(±SRx、±SRy)=(±Sx/a、±Sy/a)である。サブフレームを用いることで、探索するフレーム数はa倍になるので、基準フレーム間の動きを検出するために必要な処理量は(1/a)・(1/a)・a=1/aとなり、サブフレームを使用することで動き検出の処理量を削減することができる。
In
2.可変探索範囲
上記の例では、サブフレームを用いた場合の探索範囲は、基準フレーム間で直接探索した探索範囲(Sx,Sy)の水平、垂直方向に対して各々1/aを固定的に設定したが、直前のサブフレームとのブロックマッチングの結果を利用して探索範囲を適応的に変更しても良い。直前のサブフレームにおけるフレーム間の動きΔVb−1=(ΔVxb−1,ΔVyb−1)と予め定められた閾値TH1との関係から、次のフレームとのブロックマッチングの探索範囲(±SRx、 ±SRy)は、
2. Variable search range In the above example, the search range when subframes are used is fixedly set to 1 / a with respect to the horizontal and vertical directions of the search range (Sx, Sy) directly searched between the reference frames. However, the search range may be adaptively changed using the result of block matching with the immediately preceding subframe. From the relationship between the motion ΔVb−1 = (ΔVxb−1, ΔVyb−1) between the frames in the immediately preceding subframe and a predetermined threshold TH1, the search range of block matching with the next frame (± SRx, ± SRy )
SRx=(1/a)・Sx if |ΔVxb-1|≧TH1 …(7)
Sxl otherwise
SRy=(1/a)・Sy if |ΔVyb-1|≧TH1 …(8)
Syl otherwise
SRx = (1 / a) · Sx if | ΔVxb-1 | ≧ TH1 (7)
Sxl otherwise
SRy = (1 / a) ・ Sy if | ΔVyb-1 | ≧ TH1 (8)
Syl otherwise
ここで、Sxl<(1/a)・Sx、Syl<(1/a)・Syである。直前のフレームにおいて動き量が小さい場合、次フレームに対する動き量も小さいと仮定し、動き検出の探索範囲を小さく設定する。上記の例では閾値TH1は水平方向と垂直方向で同じ値を使っているが、異なる値を設定してもよい。 Here, Sxl <(1 / a) · Sx and Syl <(1 / a) · Sy. When the amount of motion in the immediately preceding frame is small, it is assumed that the amount of motion for the next frame is also small, and the search range for motion detection is set small. In the above example, the same value is used for the threshold value TH1 in the horizontal direction and the vertical direction, but different values may be set.
3.画素の間引き
基準フレームとの距離に応じて処理対象とする画素を間引くことで、さらに処理量を削減することができる。例えば、サブフレームF(am−1)においては図5(A)に示すように、水平、垂直に対して各々a画素毎に処理の対象とし、サブフレームF(am−2)においては、図5(B)に示すように、水平、垂直に対して各々a/2画素毎に処理の対象とする等、基準フレームからの距離に応じて処理対象の画素数を変更する。なお、図5の例では、間引く画素数a=4、ブロックの水平方向のサイズbx=8、ブロックの垂直方向のサイズby=8としている。
3. Thinning out pixels By thinning out pixels to be processed according to the distance from the reference frame, the processing amount can be further reduced. For example, as shown in FIG. 5A, the subframe F (am-1) is subject to processing for each a pixel in the horizontal and vertical directions, and the subframe F (am-2) is shown in FIG. As shown in FIG. 5 (B), the number of pixels to be processed is changed according to the distance from the reference frame, for example, each a / 2 pixel is to be processed horizontally and vertically. In the example of FIG. 5, the number of pixels to be thinned out a = 4, the block horizontal size bx = 8, and the block vertical size by = 8.
これらの間引き処理を上記の可変探索範囲処理と組み合わせ、上記の式(7)、式(8)に示す可変探索範囲に対して適用することで、探索範囲を変更しない場合に較べて、さらにブロックマッチングの処理量を削減することも可能である。 By combining these thinning-out processes with the variable search range process described above and applying it to the variable search ranges shown in the above formulas (7) and (8), it is possible to further block compared to the case where the search range is not changed. It is also possible to reduce the amount of matching processing.
4.動領域の重み付け
以上の説明では、1ブロックの内部は均一の性質を持つ領域と仮定した。以下では1ブロック内に静止領域と動領域のような異なる領域が含まれる場合について説明する。ブロックマッチングを行うフレーム間の差分値d(ix,jy)と予め定められた閾値TH2との大小関係により、ブロックを図6に示すような静止領域と動領域とに分類する。
4). Weighting of moving area In the above description, it is assumed that the inside of one block is an area having a uniform property. Hereinafter, a case where different areas such as a still area and a moving area are included in one block will be described. Based on the magnitude relationship between the difference value d (ix, jy) between frames for which block matching is performed and a predetermined threshold value TH2, the blocks are classified into a still area and a moving area as shown in FIG.
方法1(基準フレームとのブロックマッチング)の場合、d(ix,jy)は次式で計算する。
d(ix,jy)=|F(am-b, ix, jy)-F(am, ix, jy)| …(9)
方法2(隣接フレーム間のブロックマッチング)の場合、d(ix,jy)は次式で計算する。
d(ix,jy)=|F(am-b, ix, jy)-F(am-b-1, ix, jy)| …(10)
In Method 1 (block matching with a reference frame), d (ix, jy) is calculated by the following equation.
d (ix, jy) = | F (am-b, ix, jy) -F (am, ix, jy) | (9)
In Method 2 (block matching between adjacent frames), d (ix, jy) is calculated by the following equation.
d (ix, jy) = | F (am-b, ix, jy) -F (am-b-1, ix, jy) | (10)
ここで(ix,jy)は対象画素の位置を示す。d(ix,jy)<TH2であれば画素(ix,jy)は静止領域に存在すると判定し、d(ix,jy)≧TH2であれば画素(ix,jy)は動領域に存在すると判定する。ブロック内の各画素を図6に示すように静止領域と動領域とに分類した後、SAD、SSD等の評価方法を、静止領域と動領域とで各画素毎に重みweightを変えて計算する。例えば方法1の場合に画素毎の重みweightを導入した評価方法を次式で示す。
Here, (ix, jy) indicates the position of the target pixel. If d (ix, jy) <TH2, it is determined that the pixel (ix, jy) exists in the static region, and if d (ix, jy) ≧ TH2, the pixel (ix, jy) is determined to exist in the moving region. To do. As shown in FIG. 6, after classifying each pixel in the block into a static region and a dynamic region, an evaluation method such as SAD and SSD is calculated by changing the weight weight for each pixel in the static region and the dynamic region. . For example, in the case of
ただしweight_m>weight_sである。これにより、評価方法に対し、動領域の画素差分値が大きく影響するように調整することが可能である。またブロック内のすべての画素値に対し、d(ix,jy)<TH2の場合、対象ブロックを静止ブロックとみなし、その後のブロックマッチング、評価方法の計算を省略し、動きベクトルを0とすることで、処理量を削減することが可能である。 However, weight_m> weight_s. Thereby, it is possible to adjust the evaluation method so that the pixel difference value of the moving region greatly affects. If all pixel values in the block are d (ix, jy) <TH2, the target block is regarded as a still block, the subsequent block matching and evaluation method calculations are omitted, and the motion vector is set to 0. Thus, the processing amount can be reduced.
以上の処理を図7のフローチャートに基づいて説明する。まず、基準フレーム番号m、サブフレーム番号b、ブロック番号pを初期化する(ステップS1)。次に、ブロックマッチングの探索範囲を前述の方法で決定する(ステップS2)。次に、決定した探索範囲に対し、前述した方法1あるいは方法2を使ってブロックマッチングを行う(ステップS3)。すなわち、方法1の場合には基準フレームF(am)とフレームF(am−b)間において、方法2の場合にはフレームF(am−(b−1))とF(am−b)間においてブロックマッチングを行う。
The above processing will be described based on the flowchart of FIG. First, the reference frame number m, subframe number b, and block number p are initialized (step S1). Next, the block matching search range is determined by the above-described method (step S2). Next, block matching is performed on the determined search range using the above-described
そして、上記処理を全てのブロックを対象として行い、1フレームの最後のブロックの処理が終了したか否かを判定する(ステップS4)。ここで、最後のブロックの処理が終了していないと判定した場合(NOの場合)、ブロック番号pを1つインクリメントして(ステップS5)、ステップS2に戻り処理を繰り返す。また、ステップS4において、最後のブロックの処理が終了したと判定した場合(YESの場合)、次のサブフレームに対して同様の処理を行う。 Then, the above process is performed for all blocks, and it is determined whether or not the process of the last block of one frame is completed (step S4). If it is determined that the process of the last block has not been completed (NO), the block number p is incremented by 1 (step S5), and the process returns to step S2 and is repeated. If it is determined in step S4 that the processing of the last block has been completed (in the case of YES), the same processing is performed on the next subframe.
そして、基準フレーム間の全サブフレームを対象として上記処理を行い、直前の基準フレームの処理が終了したか否かを判定する(ステップS6)。ここで、直前の基準フレームの処理が終了していないと判定した場合(NOの場合)、サブフレーム番号bを1つインクリメントして(ステップS7)、ステップS2に戻り処理を繰り返す。また、ステップS6において、直前の基準フレームの処理が終了したと判定した場合(YESの場合)、直前の基準フレームF(a(m−1))とF(am)間の動きベクトルを求める。 Then, the above process is performed on all the subframes between the reference frames, and it is determined whether or not the process of the immediately preceding reference frame is completed (step S6). Here, when it is determined that the processing of the immediately preceding reference frame has not been completed (in the case of NO), the subframe number b is incremented by 1 (step S7), and the processing returns to step S2 and is repeated. If it is determined in step S6 that the processing of the immediately preceding reference frame has been completed (in the case of YES), a motion vector between the immediately preceding reference frames F (a (m−1)) and F (am) is obtained.
そして、シーケンスの最終基準フレームの処理が終了したか否かを判定する(ステップS8)。ここで、最終基準フレームの処理が終了していないと判定した場合(NOの場合)、基準フレーム番号mを1つインクリメントして(ステップS9)、ステップS2に戻り処理を繰り返す。また、ステップS8において、最終基準フレームの処理が終了したと判定した場合(YESの場合)、一連の処理を終了する。 Then, it is determined whether or not the processing of the final reference frame of the sequence has been completed (step S8). Here, when it is determined that the processing of the final reference frame has not been completed (in the case of NO), the reference frame number m is incremented by one (step S9), and the process returns to step S2 and is repeated. If it is determined in step S8 that the process of the final reference frame has been completed (in the case of YES), the series of processes is terminated.
なお、本例では、1フレームの全ブロックの処理を終了した後、次のサブフレームの処理に移行したが、1ブロックにつき、全てのサブフレームの処理を行い、直前の基準フレームF(a(m−1))とF(am)間の動きベクトルを求めた後、次のブロックの処理に進む方法をとっても構わない。 In this example, after the processing of all the blocks in one frame is completed, the processing proceeds to the processing of the next subframe. However, the processing of all the subframes is performed for each block, and the immediately preceding reference frame F (a ( After obtaining the motion vector between m-1)) and F (am), the method may proceed to the processing of the next block.
以上の例では、前述の図1に基づいて、時間的に新しい(現在の)基準フレームから古い(過去の)フレームへと動きベクトルを順次検出したが、前述の図2に示すように、時間的に古い基準フレームから新しいフレームへと動きベクトルを順次検出することもできる。この場合、まず基準フレームF(a(m−1))とサブフレームF(a(m−1)+1)間の動きベクトルΔV1を求め、次にサブフレームF(a(m−1)+1)とサブフレームF(a(m−1)+2)間の動きベクトルΔV2を求め、同様に時間的に新しい方向へと動き検出処理を進める。もしくは、先と同様に、常に基準フレームF(a(m−1))との間でブロックマッチングを行う方法をとってもよい。 In the above example, the motion vectors are sequentially detected from the temporally new (current) reference frame to the old (past) frame based on FIG. 1 described above, but as shown in FIG. In particular, motion vectors can be sequentially detected from an old reference frame to a new frame. In this case, first, a motion vector ΔV 1 between the reference frame F (a (m−1)) and the subframe F (a (m−1) +1) is obtained, and then the subframe F (a (m−1) +1). ) And the subframe F (a (m−1) +2), the motion vector ΔV 2 is obtained, and similarly the motion detection process proceeds in a new direction in time. Alternatively, as before, a method of always performing block matching with the reference frame F (a (m−1)) may be used.
最終的に、基準フレームF(a(m−1))から基準フレームF(am)への動きベクトルであるVaが求められ、必要であれば、この動きベクトルVaを反転させて、基準フレームF(am)から基準フレームF(a(m−1))への動きベクトルを算出する。 Finally, Va, which is a motion vector from the reference frame F (a (m−1)) to the reference frame F (am), is obtained. If necessary, the motion vector Va is inverted and the reference frame F A motion vector from (am) to the reference frame F (a (m−1)) is calculated.
この方法では入力された画像を順次処理できるので、前述の図1の方法に比べ、必要とするメモリ量を削減できるメリットがある。つまり図1の場合、F(a(m−1))、F(am)間の動きベクトルを求めるためには、この間のサブフレームを全て蓄積し、F(am)を取得した後でなければ、動き検出処理ができなかったが、図2の場合は、F(a(m−1)+1)を取得した時点で動き検出処理を開始できる。 Since this method can sequentially process input images, there is an advantage that a required memory amount can be reduced as compared with the method shown in FIG. That is, in the case of FIG. 1, in order to obtain a motion vector between F (a (m−1)) and F (am), all subframes in between are accumulated and after F (am) is acquired. However, in the case of FIG. 2, the motion detection process can be started when F (a (m−1) +1) is acquired.
これまでに説明したように、本発明によれば、高フレームレートの動画像の高いフレーム間相関を利用し、処理量を削減しながらも正確な動きベクトルを求めることが可能となる。 As described so far, according to the present invention, it is possible to obtain an accurate motion vector while reducing the processing amount by using a high inter-frame correlation of a high frame rate moving image.
以下では、これまで説明した動きベクトルと動画像とを同期させて出力するときに、撮像装置と接続する機器間でデータの互換性を保証するための、動画像と動きベクトルのフォーマットについて説明する。 In the following, a format of a moving image and a motion vector for ensuring data compatibility between devices connected to the imaging apparatus when the motion vector and the moving image described so far are output in synchronization will be described. .
図8は、本発明の動き情報取得装置に相当する撮像装置の構成例を示すブロック図である。この撮像装置は、撮像手段に相当するイメージセンサ11、動き情報検出手段に相当する動き検出部12、同期手段及び出力手段に相当するデータ作成部13、及び出力画像選択部14とから構成される。イメージセンサ11では、高フレームレートの動画像を取得し、動き検出部12では、フレーム間の動きベクトルを計算する。動き検出部12の処理は、例えば、前述したように、高フレームレートの動画像を利用した動き検出処理であり、基準フレーム間あるいはサブフレーム間の動きベクトルを検出する。出力画像選択部14は、イメージセンサ11で取得した高フレームレートの動画像の中から基準フレームを選択する。データ作成部13は、動き検出部12で計算した動きベクトルと、出力画像選択部14で選択した基準フレームとを同期させて出力する。
FIG. 8 is a block diagram illustrating a configuration example of an imaging apparatus corresponding to the motion information acquisition apparatus of the present invention. The imaging apparatus includes an image sensor 11 corresponding to an imaging unit, a
なお、イメージセンサ11としては、例えば、前述の「高速非破壊CMOSイメージセンサ」を適用することができ、これによれば、入射光を2系統に分岐させ、一方の分岐光を第1のフレームレートで撮像し、他方の分岐光を第1のフレームレートより高い第2のフレームレートで撮像することができる。 As the image sensor 11, for example, the above-described “high-speed nondestructive CMOS image sensor” can be applied. According to this, incident light is branched into two systems, and one branched light is split into the first frame. It is possible to pick up an image at a rate and pick up the other branched light at a second frame rate higher than the first frame rate.
すなわち、本発明に係る撮像装置は、基準フレームからなる第1のフレームレートの画像及び基準フレームを含む第1のフレームレートより高い第2のフレームレートの画像を撮像するイメージセンサ11と、第2のフレームレートの画像を用いて、第1のフレームレートの各画像を構成する各ブロックの動き情報として動きベクトルを順次検出する動き検出部12と、第1のフレームレートの画像とこれに対応する各ブロックの動きベクトルとを同期させるデータ作成部13とを備え、このデータ作成部13は、同期させた第1のフレームレートの画像と動きベクトルとを出力する。
That is, the imaging apparatus according to the present invention includes an image sensor 11 that captures an image having a first frame rate including a reference frame and an image having a second frame rate higher than the first frame rate including the reference frame, A
また、動き検出部12は、前述したように、第2のフレームレートの隣接画像間において既に検出した動きベクトルに基づいて、対象ブロックの動き探索範囲を変更する手段を備えていてもよい。
Further, as described above, the
また、動き検出部12は、第2のフレームレートの画像の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、評価手段が、判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価するようにしてもよい。この領域の重み付け方法については前述した通りであるため、ここでの説明は省略する。
In addition, the
また、データ作成部13は、第1のフレームレートの画像と、これに対応する少なくとも1枚以上の第2のフレームレートの画像を構成する各ブロックの動きベクトルとを同期させて、所定のフォーマットで出力することができる。例えば、前述の図1の例の場合、データ作成部13は、第1のフレームレートの画像と、第2のフレームレートの画像を構成する基準フレームと基準あるいはサブフレーム間の動きベクトル(Vi(i=1〜a))とを同期させてもよく、あるいは、Viを隣接する2フレーム間の動きベクトル(ΔVi(i=1〜a))に分けて、同期させてもよい。
Further, the
上記において、撮像装置と接続する機器の間でデータの互換性を保証するため、予めフォーマットを定めておく必要がある。この一例として、1125/60方式HDTVスタジオシステム規格(BTA S−005B)に、動きベクトルを多重化する時のデータ構造と伝送方法が示されている。このBTA S−005Bにはデジタルブランキング期間に補助データを伝送するためのデータ構造が記載されており、補助データのパケット構造を図9に示す。 In the above, it is necessary to determine a format in advance in order to ensure data compatibility between devices connected to the imaging apparatus. As an example of this, a data structure and a transmission method when a motion vector is multiplexed are shown in the 1125/60 system HDTV studio system standard (BTA S-005B). This BTA S-005B describes a data structure for transmitting auxiliary data during the digital blanking period, and the auxiliary data packet structure is shown in FIG.
図9において、ADFは補助データパケットの開始を示す補助データフラグ(3ワード)である。DIDは後述のUDWの種類を示すデータ識別ワード(1ワード)である。DBNは同一のDIDを持つパケットの順序を示すデータブロック番号ワード(1ワード)である。DCはUDWのワード数を示すデータカウントワード(1ワード)である。UDWは256ワード以下の補助データを書き込む領域であり、前述の動きベクトルはこの領域に書き込む。CSはチェックサム値(1ワード)である。ここで1ワードは10ビットである。 In FIG. 9, ADF is an auxiliary data flag (3 words) indicating the start of an auxiliary data packet. The DID is a data identification word (1 word) indicating the type of UDW described later. DBN is a data block number word (1 word) indicating the order of packets having the same DID. DC is a data count word (1 word) indicating the number of words of UDW. UDW is an area in which auxiliary data of 256 words or less is written, and the aforementioned motion vector is written in this area. CS is a checksum value (1 word). Here, one word is 10 bits.
図10は、1125/60方式のHDTV信号における有効映像領域および補助データ多重可能領域を示す図である。図10(A)は輝度成分について示したもので、図10(B)は色差成分について示したものである。図中、縦軸にライン番号(走査線数1125本)、横軸(時間方向)に映像サンプル番号(サンプル数2200)を示し、15が有効映像領域(画像を格納する領域)、16が補助データ多重可能領域(補助データパケットを格納する領域)である。本例では、有効映像領域15に通常フレームレートの基準フレームの画像データを格納し、補助データ多重可能領域16に高フレームレートのサブフレームに対応する動きベクトルを、図9に示す補助データパケット(UDW)に格納した後、記録する。
FIG. 10 is a diagram showing an effective video area and an auxiliary data multiplexing possible area in the 1125/60 HDTV signal. FIG. 10A shows the luminance component, and FIG. 10B shows the color difference component. In the figure, the vertical axis indicates the line number (1125 scanning lines), the horizontal axis (time direction) indicates the video sample number (2200 samples), 15 is an effective video area (area for storing images), and 16 is auxiliary. This is a data-multiplexable area (area for storing auxiliary data packets). In this example, image data of a standard frame rate reference frame is stored in the
ここで格納する動きベクトルは、基準フレーム間の動きベクトル(図1,2のVa)でも、基準フレームとサブフレーム間の動きベクトル(図1,2のVk(ここでk=1〜a−1))でも、各サブフレーム間の差分動きベクトル(図1,2のΔVk(ここでk=1〜a−1))であってもよいが、以下では差分動きベクトルを格納する場合について説明する。また全てのサブフレームの動きベクトルではなく、qフレーム毎のサブフレームに対し、結合動きベクトルを格納しても良い。例えば、2フレーム毎のサブフレームに対し動きベクトルを格納する場合は、図1,2のΔV1+ΔV2、ΔV3+ΔV4、・・・が格納する差分動きベクトルの値となる。 The motion vector stored here may be a motion vector between reference frames (Va in FIGS. 1 and 2) or a motion vector between reference frames and subframes (Vk in FIGS. 1 and 2 (where k = 1 to a−1). )) Or a differential motion vector between subframes (ΔVk in FIGS. 1 and 2 (where k = 1 to a−1)) may be used. However, a case where a differential motion vector is stored will be described below. . Further, the combined motion vector may be stored for the subframes for every q frames instead of the motion vectors of all the subframes. For example, when motion vectors are stored in subframes every two frames, ΔV 1 + ΔV 2 , ΔV 3 + ΔV 4 ,... In FIGS.
なお、補助データ多重可能領域16に格納できるデータ量に制限があるため、格納可能なサブフレーム数は動きベクトルの対応するブロックサイズや、動きベクトルの精度に依存する。例えば図10の例の場合、補助データ多重可能領域16は、輝度成分(Y)および色差成分(Pb、Pr)を含め、458404ワードである。ブロックサイズが16x16、動きベクトルを5ビット(固定長符号)で表現する場合、1フレームに必要な動きベクトルのデータ量は8160ワード、補助データパケットは32個必要となり、1フレーム分の補助データは8384ワードとなる。従って、54フレーム分の動きベクトルを補助データ多重可能領域16に格納することができる。なお、ブロックサイズや動きベクトルの精度が異なる場合、格納可能なフレーム数も変わることになる。また、動きベクトルは可変長符号で表現することも可能である。
Since the amount of data that can be stored in the auxiliary data multiplexing
上記の動きベクトルは、前述した方法1あるいは方法2により取得することができる。以下は、動きベクトルの計算に方法1を使った場合の一例である。前述の図1に示したように、F(a(m−1))〜F(am)間のサブフレームの動きベクトルは、F(am)を撮像装置から取得しなければ計算することはできない。そこでデータ作成部13には、a+2フレーム分の画像データ、および動きベクトルを格納するメモリが必要である。a=4とした場合の例を図11に示す。
The motion vector can be obtained by the
図11において、時刻4m+1では、サブフレームF(4m+1)をメモリ5に格納する間に、基準フレームF(4m)とサブフレームF(4m−1)間の動きベクトルV1=ΔV1を計算し、メモリに格納する。時刻4m+2では、サブフレームF(4m−1)を格納していたメモリ3にサブフレームF(4m+2)の画像データを格納し、その間に基準フレームF(4m)とサブフレームF(4m−2)間の動きベクトルV2を計算し、ΔV2=V2-V1をメモリに格納する。同様に処理を続け、時刻4(m+1)では、基準フレームF(4m)とF(4(m−1))間の動きベクトルV4を計算し、ΔV4=V4-V3をメモリに格納し、一方、サブフレームF(4m−3)を格納していたメモリ1に基準フレームF(4(m+1))を格納する。ここで、基準フレームF(4m)の画像を図9の有効映像領域15に、F(4m)〜F(4(m−1))間の差分動きベクトルΔVk(k=1〜a)を補助データ多重可能領域16に格納し、外部に出力する。
11, at
以上の処理により、撮像装置から動画像と同期させた動きベクトルを出力することができる。なお、動画像と同期して格納するサブフレームの間隔(フレーム数)、動きベクトルの対応するブロックサイズ、動きベクトルの精度が可変である場合、先頭の補助データパケットのUDWには動きベクトルではなく、フレーム間隔、ブロックサイズ、精度等の値を格納することで、外部の処理装置にこれらの情報を通知することができる。 With the above processing, a motion vector synchronized with a moving image can be output from the imaging apparatus. When the subframe interval (number of frames) to be stored in synchronization with the moving image, the block size corresponding to the motion vector, and the accuracy of the motion vector are variable, the UDW of the first auxiliary data packet is not a motion vector. By storing values such as the frame interval, block size, and accuracy, it is possible to notify the external processing apparatus of these pieces of information.
(第2の実施形態)
本実施形態では、第1の実施形態で説明した所定のフォーマットで動画像と同期をとって出力される動きベクトルの利用方法について説明する。
図12は、撮像装置から出力される動画像、動きベクトルを利用して各種画像処理を行う画像処理装置の一例を示すブロック図である。図中、21は撮像装置(動き情報取得装置)、22は動画像エンコーダ、23は動画像デコーダ、24はFRC部、25は動きベクトルエンコーダ、26は動きベクトルデコーダ、27は手振れ補正部、28は高解像度化処理部、29は静止画/動画像エンコーダを示す。図12(A)の装置例の場合、動き検出部を動画像エンコーダ22とFRC部24に備え、図12(B)の装置例の場合、動き検出部を動画像エンコーダ22と手振れ補正部27に備え、図12(C)の装置例の場合、動き検出部を手振れ補正部27と動画像エンコーダ22に備え、図12(D)の装置例の場合、位置合わせ部を高解像度化処理部28に備えている。
(Second Embodiment)
In the present embodiment, a method for using a motion vector output in synchronization with a moving image in the predetermined format described in the first embodiment will be described.
FIG. 12 is a block diagram illustrating an example of an image processing apparatus that performs various types of image processing using moving images and motion vectors output from the imaging apparatus. In the figure, 21 is an imaging device (motion information acquisition device), 22 is a moving image encoder, 23 is a moving image decoder, 24 is an FRC unit, 25 is a motion vector encoder, 26 is a motion vector decoder, 27 is a camera shake correction unit, 28 Indicates a high resolution processing unit, and 29 indicates a still image / moving image encoder. In the case of the apparatus example in FIG. 12A, the motion detection unit is provided in the moving
図12に示す構成は、前述の図14に示した従来構成と基本的に同じであるが、独立に計算して求めていた動きベクトルを、撮像装置21から出力される動きベクトルで代替、あるいは、撮像装置21から出力される動きベクトルに基づいて計算する部分が異なる。撮像装置21の構成は前述の図8で説明したものであり、撮像装置21で求めた動きベクトルを、図12(A)、(B)では、動画像エンコーダ22の動き検出、動きベクトルエンコーダ25の動きベクトルに用いる場合について示し、さらに図12(A)ではFRC部24の動き検出に、図12(B)では手振れ補正部27の動き検出に用いる場合について示す。図12(C)では、前処理としての手ぶれ補正部の動き検出、および動画像エンコーダ22の動きベクトルに用いる場合について示し、図12(D)では、静止画のまたは動画像の高解像度化処理で必要な位置合わせの動き情報として用いる場合について示している。
The configuration shown in FIG. 12 is basically the same as the conventional configuration shown in FIG. 14 described above, but the motion vector obtained by independent calculation is replaced with the motion vector output from the
この中で図12(A)の装置構成を代表例として具体的に説明する。図12(A)の例は、撮像装置21で計算した動きベクトルを、動画像エンコーダ22の動き検出、および画像処理装置の一例である表示装置でのフレームレート変換(FRC:Frame Rate Conversion)に用いた場合について示したものである。撮像装置21から出力された動画像と動きベクトルは動画像エンコーダ22で動画像と動きベクトルに分離され、動きベクトルはまず動画像エンコーダ22内の動き検出部でそのまま、あるいは加工されて、動画像を符号化するために使用される。この符号化データは動画像デコーダ23で復号され、再生された動画像がFRC部24に入力される。撮像装置21で求めた動きベクトルを使用することで、動画像エンコーダ22の中で動き検出に関わる処理量を大幅に削減することができる。
Among these, the apparatus configuration in FIG. 12A will be specifically described as a representative example. In the example of FIG. 12A, the motion vector calculated by the
さらに、撮像装置21から出力された動画像と動きベクトルは、動きベクトルエンコーダ25において必要とされる動きベクトルのみ符号化される。例えば、動画像エンコーダ22で符号化される動画像が60fps、表示では120fpsの動画像が必要な場合、図13に示すように再生フレームから中間フレームを補間しなければならない。この場合、撮像装置21から出力されたサブフレーム用の動きベクトルの中から、中間フレーム(120fps)に相当する動きベクトルを作成し、符号化すればよい。表示側では、動きベクトルデコーダ26でこれを復号し、FRC部24に入力する。
Furthermore, only the motion vector required by the
FRC部24では、従来基準フレーム間の動きベクトルを用いて、例えば1/2にスケーリングして、中間フレームを補間していたが、本発明では、動画像と同期して入力される動きベクトルを用いて中間フレームを補間する。すなわち、FRC部24は、第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動きベクトルとから、第2のフレームレートの各画像を補間によって生成する。
The
この動きベクトルは撮像装置21で、実際の中間フレーム(120fpsの基準フレームあるいはサブフレーム)を用いて検出した動きベクトルであるため、(1)表示装置に入力された中間フレームを持たない動画像を用いて推定した動きベクトルよりも正確である、(2)膨大な処理を必要とする動き検出用の回路が表示側で不要となる、というメリットがある。
Since this motion vector is a motion vector detected by the
なお、サブフレームのフレームレートが表示可能なフレームレートより高い場合、例えば240fpsの場合には、撮像装置21から出力されたサブフレーム用の動きベクトルの中から、中間フレーム(120fps)に相当する動きベクトルのみを符号化しても良いし、全てのサブフレームの動きベクトルを符号化し、FRC部24で表示に必要な動きベクトルのみを使用してフレームを補間しても良い。この240fpsの場合には、サブフレームは3枚なので、FRC部24では真ん中のサブフレームの動きベクトルのみを使用してフレームを補間することになる。
When the frame rate of the subframe is higher than the displayable frame rate, for example, 240 fps, the motion corresponding to the intermediate frame (120 fps) among the subframe motion vectors output from the
現在、TVの高級機ではFRCは標準装備されているものの、これらはHD(ハイビジョン)までの解像度であり、今後更なる高解像度化が進み4K、8K解像度の動画像を視聴する時に、同時に膨大なデータ量の画像に対して動き検出を行うことは困難である。従って、今後の高解像度化に向けて、動きベクトルを撮影側で検出する効果は大きい。2倍速の中間フレーム以外にも、4倍速、8倍速等、複数の動きベクトルを用いて、複数枚のフレームを補間し、さらに動きを滑らかに見せることも可能である。 Currently, high-end TVs are equipped with FRC as standard, but these are resolutions up to HD (high definition), and when the resolution is further increased in the future, when viewing 4K and 8K resolution moving images, it is enormous. It is difficult to perform motion detection on an image with a large amount of data. Therefore, the effect of detecting a motion vector on the photographing side is great for future resolution enhancement. In addition to the 2 × speed intermediate frame, it is also possible to interpolate a plurality of frames using a plurality of motion vectors such as 4 × speed and 8 × speed to make the motion appear smoother.
11…イメージセンサ、12…動き検出部、13…データ作成部、14…出力画像選択部、15…有効映像領域、16…補助データ多重可能領域、21…撮像装置(動き情報取得装置)、22…動画像エンコーダ、23…動画像デコーダ、24…FRC部、25…動きベクトルエンコーダ、26…動きベクトルデコーダ、27…手振れ補正部、28…高解像化処理部、29…静止画/動画像エンコーダ。 DESCRIPTION OF SYMBOLS 11 ... Image sensor, 12 ... Motion detection part, 13 ... Data preparation part, 14 ... Output image selection part, 15 ... Effective image area | region, 16 ... Auxiliary data multiplexing possible area | region, 21 ... Imaging device (motion information acquisition apparatus), 22 ... moving image encoder, 23 ... moving image decoder, 24 ... FRC unit, 25 ... motion vector encoder, 26 ... motion vector decoder, 27 ... camera shake correction unit, 28 ... high resolution processing unit, 29 ... still image / moving image Encoder.
Claims (7)
前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、
前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、
該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備えたことを特徴とする動き情報取得装置。 Imaging means for capturing an image of a first frame rate composed of a reference frame and an image of a second frame rate higher than the first frame rate including the reference frame;
Motion information detecting means for sequentially detecting motion information of each block constituting each image of the first frame rate using the image of the second frame rate;
Synchronization means for synchronizing the image of the first frame rate and the motion information of each block corresponding thereto;
A motion information acquisition apparatus comprising: an output unit that outputs an image and motion information of a first frame rate synchronized by the synchronization unit.
前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、
該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴とする請求項1に記載の動き情報取得装置。 The motion information detection means; a determination means for determining whether each pixel between adjacent images of the second frame rate belongs to a still area or a motion area;
Evaluation means for evaluating the correlation between the target and the reference block using corresponding pixel values of the two images in order to obtain the motion information;
The motion information acquisition apparatus according to claim 1, wherein the evaluation unit performs weighting and evaluation when calculating an evaluation value according to a region to which each pixel obtained by the determination unit belongs.
前記第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動き情報とから、該第2のフレームレートの少なくとも一部の画像を補間によって生成することを特徴とする画像処理装置。 An image processing device that performs image processing using an image output from the motion information acquisition device according to any one of claims 1 to 6 and motion information,
Generating at least a part of the second frame rate by interpolation from the images of the first frame rate and motion information corresponding to images of the second frame rate located between the images. An image processing apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009202780A JP5216984B2 (en) | 2009-09-02 | 2009-09-02 | Motion information acquisition apparatus and image processing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009202780A JP5216984B2 (en) | 2009-09-02 | 2009-09-02 | Motion information acquisition apparatus and image processing apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2011055278A true JP2011055278A (en) | 2011-03-17 |
| JP5216984B2 JP5216984B2 (en) | 2013-06-19 |
Family
ID=43943825
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009202780A Expired - Fee Related JP5216984B2 (en) | 2009-09-02 | 2009-09-02 | Motion information acquisition apparatus and image processing apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5216984B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013162357A (en) * | 2012-02-06 | 2013-08-19 | Nikon Corp | Image processing program, image processing apparatus, and imaging apparatus |
| JP2013165485A (en) * | 2012-01-11 | 2013-08-22 | Panasonic Corp | Image processing apparatus, image capturing apparatus, and computer program |
| WO2016151734A1 (en) * | 2015-03-23 | 2016-09-29 | 日立マクセル株式会社 | Imaging device, image processing device, and digital camera |
| JP2016197795A (en) * | 2015-04-03 | 2016-11-24 | 日立オートモティブシステムズ株式会社 | Imaging device |
| WO2018207666A1 (en) * | 2017-05-11 | 2018-11-15 | ソニーセミコンダクタソリューションズ株式会社 | Imaging element, method for driving same, and electronic device |
| JP2019193272A (en) * | 2019-05-23 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | Imaging device |
| WO2021186889A1 (en) * | 2020-03-16 | 2021-09-23 | ソニーグループ株式会社 | Image sensor, image processing method, and program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH089379A (en) * | 1994-06-15 | 1996-01-12 | Sanyo Electric Co Ltd | Motion vector detection method |
| JPH11112993A (en) * | 1997-09-30 | 1999-04-23 | Victor Co Of Japan Ltd | Device and method for dynamic image encoding |
| JP2004289709A (en) * | 2003-03-25 | 2004-10-14 | Toshiba Corp | Imaging device and imaging method |
| WO2007063819A1 (en) * | 2005-11-29 | 2007-06-07 | Pioneer Corporation | Recording device, reproduction device, recording method, recording program, and computer-readable recording medium |
-
2009
- 2009-09-02 JP JP2009202780A patent/JP5216984B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH089379A (en) * | 1994-06-15 | 1996-01-12 | Sanyo Electric Co Ltd | Motion vector detection method |
| JPH11112993A (en) * | 1997-09-30 | 1999-04-23 | Victor Co Of Japan Ltd | Device and method for dynamic image encoding |
| JP2004289709A (en) * | 2003-03-25 | 2004-10-14 | Toshiba Corp | Imaging device and imaging method |
| WO2007063819A1 (en) * | 2005-11-29 | 2007-06-07 | Pioneer Corporation | Recording device, reproduction device, recording method, recording program, and computer-readable recording medium |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013165485A (en) * | 2012-01-11 | 2013-08-22 | Panasonic Corp | Image processing apparatus, image capturing apparatus, and computer program |
| JP2013162357A (en) * | 2012-02-06 | 2013-08-19 | Nikon Corp | Image processing program, image processing apparatus, and imaging apparatus |
| WO2016151734A1 (en) * | 2015-03-23 | 2016-09-29 | 日立マクセル株式会社 | Imaging device, image processing device, and digital camera |
| JP2016197795A (en) * | 2015-04-03 | 2016-11-24 | 日立オートモティブシステムズ株式会社 | Imaging device |
| KR20200006067A (en) * | 2017-05-11 | 2020-01-17 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | Imaging device, its driving method, and electronic device |
| WO2018207666A1 (en) * | 2017-05-11 | 2018-11-15 | ソニーセミコンダクタソリューションズ株式会社 | Imaging element, method for driving same, and electronic device |
| CN110786003A (en) * | 2017-05-11 | 2020-02-11 | 索尼半导体解决方案公司 | Imaging device, imaging device driving method, and electronic device |
| US11375136B2 (en) | 2017-05-11 | 2022-06-28 | Sony Semiconductor Solutions Corporation | Imaging device for high-speed read out, method of driving the same, and electronic instrument |
| KR102493027B1 (en) * | 2017-05-11 | 2023-01-30 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | Imaging device, driving method thereof, and electronic device |
| JP2019193272A (en) * | 2019-05-23 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | Imaging device |
| WO2021186889A1 (en) * | 2020-03-16 | 2021-09-23 | ソニーグループ株式会社 | Image sensor, image processing method, and program |
| JPWO2021186889A1 (en) * | 2020-03-16 | 2021-09-23 | ||
| JP7726202B2 (en) | 2020-03-16 | 2025-08-20 | ソニーグループ株式会社 | Image sensor, image processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5216984B2 (en) | 2013-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8315481B2 (en) | Image transmitting apparatus, image receiving apparatus, image transmitting and receiving system, recording medium recording image transmitting program, and recording medium recording image receiving program | |
| JP5216984B2 (en) | Motion information acquisition apparatus and image processing apparatus | |
| US8385422B2 (en) | Image processing apparatus and image processing method | |
| JP5844394B2 (en) | Motion estimation using adaptive search range | |
| US8072511B2 (en) | Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus | |
| JP5341010B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
| US6118488A (en) | Method and apparatus for adaptive edge-based scan line interpolation using 1-D pixel array motion detection | |
| CN102726037B (en) | Image processing device, imaging device and image processing method | |
| US20140010308A1 (en) | Block Error Compensating Apparatus of Image Frame and Method Thereof | |
| JP4317587B2 (en) | IMAGING PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM | |
| US8982248B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP2003501902A (en) | Video signal encoding | |
| JP5133038B2 (en) | Image restoration method and image restoration apparatus | |
| KR20100004110A (en) | Image processing device, image processing method, and program | |
| JP5812808B2 (en) | Image processing apparatus and image processing method | |
| US20120082394A1 (en) | Image processing apparatus and image processing method | |
| CN100583949C (en) | Image processing device and image processing method | |
| JP2009065283A (en) | Image shake correction apparatus | |
| JP2009044456A (en) | Image coding apparatus and image coding method | |
| JP2001339695A (en) | Image signal processing apparatus and image signal processing method | |
| JP2011223086A (en) | Resolution converting device and method, scanning line interpolating device and method, and video display device and method | |
| JP2009188470A (en) | High resolution device and method | |
| WO2010143497A1 (en) | Moving image data processing device, imaging device, and moving image reproduction device | |
| JP4250807B2 (en) | Field frequency conversion device and conversion method | |
| JP2008244686A (en) | Video processing apparatus and video processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121012 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121023 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121213 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130205 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5216984 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |