JP2002135784A - Video coding method - Google Patents
Video coding methodInfo
- Publication number
- JP2002135784A JP2002135784A JP2000319233A JP2000319233A JP2002135784A JP 2002135784 A JP2002135784 A JP 2002135784A JP 2000319233 A JP2000319233 A JP 2000319233A JP 2000319233 A JP2000319233 A JP 2000319233A JP 2002135784 A JP2002135784 A JP 2002135784A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- search range
- frame
- block
- motion search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【課題】 適応的動き探索範囲をともなう動き推定およ
び補償を用いたビデオ符号化方法を提供する。
【解決手段】 固定された動き探索範囲は、非常に高速
な動きに対して真の合致領域を見出せないことがときど
きある。また、固定された動き探索範囲は、非常に低速
な動きに対して膨大な処理時間を浪費する。動き探索範
囲を基準値から適応的に拡大・縮小する方法を利用する
ことにより動き推定の効率が上がり、その結果符号化効
率が向上する。
(57) Abstract: A video encoding method using motion estimation and compensation with an adaptive motion search range is provided. A fixed motion search range sometimes fails to find a true match for very fast motion. Also, a fixed motion search range wastes enormous processing time for very slow motion. By using a method of adaptively expanding / reducing the motion search range from the reference value, the efficiency of motion estimation is increased, and as a result, the coding efficiency is improved.
Description
【0001】[0001]
【発明の属する技術分野】本発明はビデオ信号の圧縮、
特に動画の動き推定および補償に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to compression of a video signal,
In particular, it relates to motion estimation and compensation for moving images.
【0002】[0002]
【従来の技術】テレビやビデオ信号のデジタル送信およ
び記憶が最近ますます注目されている。その理由はアナ
ログ信号と比較して品質が高く、かつ柔軟性が大きいた
めである。デジタルビデオ画像は大量の画像データを含
み、送信帯域幅が制限されているため、ビデオ信号の符
号化技術は極めて効率的であることが要求される。最も
効率的な圧縮システムは静止画像処理で行なわれている
ように、空間相関を利用するだけではなく、隣接するフ
レーム間の時間相関も利用する。空間相関と時間相関の
両方を考慮するシステムはハイブリッド符号化システム
とも呼ばれる。2. Description of the Related Art Digital transmission and storage of television and video signals has received increasing attention recently. The reason is that the quality is higher and the flexibility is greater as compared with the analog signal. Digital video images contain large amounts of image data and transmission bandwidth is limited, so that video signal encoding techniques are required to be very efficient. The most efficient compression systems use not only spatial correlation, as in still image processing, but also time correlation between adjacent frames. Systems that consider both spatial and temporal correlation are also referred to as hybrid coding systems.
【0003】空間ドメインにおける冗長性の除去は長い
間研究されており、各種の変換方法が研究されてきた。
DCT(離散コサイン変換)は効率および複雑度の観点
から最も良い変換法であることがわかっている。DCT
は変換されたデータのエネルギーを小さい領域の中に圧
縮することができ、それゆえ元のデータを表現するのに
少量のデータで済む。[0003] The elimination of redundancy in the spatial domain has been studied for a long time, and various transformation methods have been studied.
DCT (Discrete Cosine Transform) has proven to be the best transform in terms of efficiency and complexity. DCT
Can compress the energy of the transformed data into smaller regions, and therefore require less data to represent the original data.
【0004】時間的冗長性の除去は基本的に差分符号化
技術を用いて行なわれる。すなわち、予測はまず同じビ
デオシーケンスの先行フレームから導かれた情報に基づ
いて行なわれ、実フレームと実フレームの予測との差異
が送信される。[0004] Removal of temporal redundancy is basically performed using a differential encoding technique. That is, the prediction is first made based on information derived from the previous frame of the same video sequence, and the difference between the real frame and the prediction of the real frame is transmitted.
【0005】ビデオフレームにおける動き量は、フレー
ムの異なる部分ごとに非常に異なるため、ビデオフレー
ムはフレームをピクセルデータの多数のブロックに分割
することにより処理される。フレーム内の各ブロックに
ついて、現フレームのピクセルデータのブロックと先行
フレームのブロックとを比較することにより動きベクト
ルが導かれ、現フレームのブロックデータから先行フレ
ームの類似のブロックデータを差し引くことにより動き
補償が行なわれ、一つのフレームについてピクセルデー
タの各ブロック上の動き補償により差分符号化が実現さ
れる。[0005] Since the amount of motion in a video frame is very different for different parts of the frame, the video frame is processed by dividing the frame into a number of blocks of pixel data. For each block in the frame, a motion vector is derived by comparing the block of pixel data of the current frame with the block of the previous frame, and motion compensation is performed by subtracting similar block data of the previous frame from the block data of the current frame. Is performed, and differential encoding is realized by motion compensation on each block of pixel data for one frame.
【0006】動きベクトルを見出すプロセスは動き推定
と呼ばれ、効率的な動き推定は予測精度の高い効率的な
動き補償を与え、その結果効率の高い符号化システムが
得られることがよく知られている。The process of finding motion vectors is called motion estimation, and it is well known that efficient motion estimation provides efficient motion compensation with high prediction accuracy, resulting in an efficient coding system. I have.
【0007】また、動き推定の処理時間がより短くて済
むため、リアルタイムアプリケーションを低コストで実
現することが可能になる。[0007] Further, since the processing time of the motion estimation is shorter, real-time applications can be realized at low cost.
【0008】符号化効率が高くかつ低コストの良いシス
テムであることが良い製品の証明である。[0008] A good product is to be a good system with high coding efficiency and low cost.
【0009】[0009]
【発明が解決しようとする課題】現行の圧縮アルゴリズ
ムにおいて、さまざまなビデオシーケンスを符号化する
のに同じアルゴリズムが用いられる。あるシーケンスは
動きを含まず、あるものは低速な動きを含んでおり、あ
るものは非常に高速な動きを含んでいる。In current compression algorithms, the same algorithm is used to encode various video sequences. Some sequences contain no motion, some contain slow motion, and some contain very fast motion.
【0010】MPEG(動画エキスパートグループ)符
号化規格では、先行フレーム、または後続フレーム内で
ピクセルデータの類似ブロックを探すために探索ウイン
ドウをともなうマッチング方法が用いられる。探索ウイ
ンドウのサイズを探索範囲と呼ぶ。シーケンス内の画像
フレームの動き内容が静止、低速な動き、高速な動きで
あるかにかかわらず、探索範囲はフレーム全体、および
符号化プロセス全体に対して(+/−15ピクセルまた
は+/−30ピクセルのいずれかに)固定されている。In the MPEG (Moving Picture Expert Group) coding standard, a matching method with a search window is used to search for a similar block of pixel data in a preceding frame or a succeeding frame. The size of the search window is called a search range. Regardless of whether the motion content of the image frames in the sequence is static, slow motion, or fast motion, the search range is (+/− 15 pixels or +/− 30 pixels or +/− 30 pixels) for the entire frame and the entire encoding process. Fixed to one of the pixels).
【0011】探索範囲が大きいほど、探索を行なうため
に必要な計算量が増える。探索範囲が小さすぎると動き
ブロックが探索範囲外に取り残される恐れがある。The larger the search range, the greater the amount of calculation required to perform the search. If the search range is too small, the motion block may be left outside the search range.
【0012】探索範囲を固定すると、さまざまなレベル
の動きを含むシーケンスにおいていくつかの問題が生じ
る。例えば、フレーム内の動きが速すぎる(すなわち実
動きベクトル値が大きい)、固定された動き探索範囲が
動きブロックをカバーするのに十分ではない、動き補償
の効率が低い等である。図1は、+/−15の動き探索
範囲が十分ではない場合に生じる問題を示す。[0012] Locking the search range causes some problems in sequences containing various levels of motion. For example, the motion in the frame is too fast (ie, the actual motion vector value is large), the fixed motion search range is not enough to cover the motion block, the efficiency of motion compensation is low, etc. FIG. 1 illustrates the problem that arises when the +/− 15 motion search range is not sufficient.
【0013】非効率的である理由は、+/−15ピクセ
ルの動き探索範囲では先行フレーム(参照フレーム)の
ピクセルデータの真の合致ブロック(図1のA’)が発
見できない場合に、ピクセルデータの偽の合致ブロック
(図2のB)がAの真の合致ブロックの代わりとして採
用されるためである。その結果、予測誤差が非常に大き
くなってブロックを符号化するのに多くのビットが割り
当てられる。さらに、ビット数に制限がある場合には偽
の合致ブロックから再構成されたブロックはAの真のブ
ロックとは非常に異なるため、結果として重大な歪みが
生じる。The reason for the inefficiency is that if the true matching block (A 'in FIG. 1) of the pixel data of the preceding frame (reference frame) cannot be found in the motion search range of +/- 15 pixels, Is adopted as a substitute for the true match block of A. As a result, the prediction error becomes so large that more bits are allocated to encode the block. Furthermore, if the number of bits is limited, the block reconstructed from the false matching block is very different from the true block of A, resulting in significant distortion.
【0014】一方、フレーム内の動きが非常に遅いか、
またはほとんど静止画に近い場合、極めて小さい動き探
索範囲で十分である。+/−15ピクセルの探索ウイン
ドウを用いて動き推定と補償を行なうのは不要な計算時
間の浪費である。On the other hand, if the movement in the frame is very slow,
Alternatively, when the image is almost a still image, an extremely small motion search range is sufficient. Performing motion estimation and compensation using a +/- 15 pixel search window wastes unnecessary computation time.
【0015】図2にこの問題を示す。Aは現ブロック、
A0’は現フレームでAと同じ位置にある参照フレーム
内のブロック、そしてA’はAと合致したブロックであ
る。低速な動きシーケンスの場合、Aの合致ブロック
A’は現フレームのAと比べて参照フレーム内のほとん
ど同じ位置にある。すなわち、このようなシーケンスに
は非常に小さい探索範囲で十分であり、固定された大き
な探索範囲は多くの探索時間を浪費する。FIG. 2 illustrates this problem. A is the current block,
A 0 ′ is a block in the reference frame at the same position as A in the current frame, and A ′ is a block matching A. For a slow motion sequence, A's matching block A 'is at almost the same position in the reference frame as compared to A in the current frame. That is, a very small search range is sufficient for such a sequence, and a fixed large search range wastes a lot of search time.
【0016】上述の問題を考慮して、一つのシーケンス
内の異なる領域、およびビデオ符号化プロセス内の異な
るシーケンスに対して適応的動き探索範囲を与えること
は効果的である。本発明はこのような適応的動き探索範
囲をともなう動き推定および補償を用いたビデオ符号化
方法を提供することを目的とする。In view of the above problems, it is advantageous to provide an adaptive motion search range for different regions in one sequence and for different sequences in the video coding process. An object of the present invention is to provide a video encoding method using motion estimation and compensation with such an adaptive motion search range.
【0017】[0017]
【課題を解決するための手段】本発明に係るビデオ符号
化方法は最初に、フレーム内の全ての動きベクトルを調
べて、動きが遅いか速いかに従って、それぞれ小さい、
または中位の動き探索範囲(基準)を設定する。この基
準を探索ウインドウのサイズとして用いて動き推定を行
なう。SUMMARY OF THE INVENTION A video encoding method according to the present invention first examines all the motion vectors in a frame and, depending on whether the motion is slow or fast, respectively,
Alternatively, a middle motion search range (reference) is set. Motion estimation is performed using this criterion as the size of the search window.
【0018】本発明に係るビデオ符号化方法は次に一つ
の領域における動き推定の誤差(予測誤差)を調べて、
誤差を所定のしきい値と比較し、比較の結果に応じて前
記動き探索範囲(基準)を調整する。予測誤差がしきい
値より大きい場合は動き探索範囲は拡大され、さもなけ
れば縮小される。Next, the video encoding method according to the present invention examines a motion estimation error (prediction error) in one area,
The error is compared with a predetermined threshold value, and the motion search range (reference) is adjusted according to the result of the comparison. If the prediction error is larger than the threshold, the motion search range is expanded, otherwise it is reduced.
【0019】本発明に係るビデオ符号化方法はまた、特
性が異なる領域に対して異なるしきい値が設定されてい
る処理領域の特性を調べることにより、しきい値を微修
正する方法をも含む。The video encoding method according to the present invention also includes a method of fine-tuning the threshold by examining the characteristics of a processing region in which different thresholds are set for regions having different characteristics. .
【0020】また、上記目的を達成するために、本発明
の請求項1に係るビデオ符号化方法は、入力ビデオ信号
の現フレームをピクセルデータの多数のブロックに分割
するステップと、入力ビデオ信号の参照フレームをピク
セルデータの多数のブロックに分割するステップと、基
準動き探索範囲内で前記参照フレームにおいて現ブロッ
クと最適に合致するブロックを探索するステップと、前
記現フレーム内の動きの内容を検出するステップと、高
速な動きが存在する場合は前記基準動き探索範囲を適当
な値に拡大し、動きが無いか、または低速な動きが存在
する場合は前記基準動き探索範囲を適当な値に縮小する
ステップとを含むことを特徴とするものである。According to another aspect of the present invention, there is provided a video encoding method comprising: dividing a current frame of an input video signal into a plurality of blocks of pixel data; Dividing the reference frame into a number of blocks of pixel data; searching for a block in the reference frame that best matches the current block within a reference motion search range; and detecting the motion content in the current frame. Step: Enlarging the reference motion search range to an appropriate value when high-speed motion exists, and reducing the reference motion search range to an appropriate value when there is no motion or low-speed motion And a step.
【0021】本発明の請求項2に係るビデオ符号化方法
は、本発明の請求項1に係るビデオ符号化方法におい
て、動きの内容を検出するステップは、前記現ブロック
と前記合致したブロックの間の予測誤差を取得してしき
い値と比較し、高速な動きが存在するか否かを判定する
ステップと、シーケンス内に高速な動きが存在する場合
は前記基準動き探索範囲を適当な値に拡大するステップ
と、前記修正された探索範囲から動きベクトルを探索す
るステップとを含むことを特徴とするものである。The video encoding method according to claim 2 of the present invention is the video encoding method according to claim 1 of the present invention, wherein the step of detecting the content of the motion is performed between the current block and the matched block. Obtaining a prediction error of the above and comparing it with a threshold value to determine whether or not a high-speed motion exists; and, when a high-speed motion exists in the sequence, setting the reference motion search range to an appropriate value. It is characterized by including a step of enlarging and a step of searching for a motion vector from the corrected search range.
【0022】本発明の請求項3に係るビデオ符号化方法
は、本発明の請求項1または2のいずれか係るビデオ符
号化方法において、前記基準動き探索範囲は、最小予測
誤差に対応するフレームの全ての動きベクトルを得るス
テップと、前記動きベクトルの全てが所定値より小さい
か否かを調べるステップと、前記動きベクトルの全てが
前記所定値より小さい場合は前記動き探索範囲を縮小す
るステップとに基づいて調整されることを特徴とするも
のである。A video encoding method according to a third aspect of the present invention is the video encoding method according to any one of the first and second aspects of the present invention, wherein the reference motion search range is a frame of a frame corresponding to a minimum prediction error. Obtaining all the motion vectors, checking whether all of the motion vectors are smaller than a predetermined value, and reducing the motion search range when all of the motion vectors are smaller than the predetermined value. It is characterized in that it is adjusted on the basis of this.
【0023】本発明の請求項4に係るビデオ符号化方法
は、本発明の請求項1ないし3のいずれか1つに記載の
ビデオ符号化方法において、前記動き推定から得られた
動きベクトルを用いて、局所的なデコーダから生じたフ
レームから対応する合致ブロックを見出すステップと、
現フレーム内の現ブロックと、復号化されたフレームか
らの合致ブロックとの間の予測誤差を生成するステップ
と、送信のために前記予測誤差を符号化するステップと
を含むことを特徴とするものである。A video encoding method according to a fourth aspect of the present invention is the video encoding method according to any one of the first to third aspects of the present invention, wherein a motion vector obtained from the motion estimation is used. Finding a corresponding matching block from the frames resulting from the local decoder;
Generating a prediction error between a current block in a current frame and a matching block from a decoded frame; and encoding the prediction error for transmission. It is.
【0024】本発明の請求項5に係るビデオ符号化方法
は、本発明の請求項2に係るビデオ符号化方法におい
て、ピクセルデータの現ブロックの標準偏差を計算する
ステップと、ピクセルデータの現ブロックの平均標準偏
差を計算するステップと、現ブロックにおける標準偏差
と平均標準偏差から修正値を計算するステップと、前記
修正値を用いて所定のしきい値を修正するステップとを
含むことを特徴とするものである。A video encoding method according to a fifth aspect of the present invention is the video encoding method according to the second aspect of the present invention, wherein a step of calculating a standard deviation of a current block of pixel data, Calculating an average standard deviation of the current block, calculating a correction value from the standard deviation and the average standard deviation in the current block, and correcting a predetermined threshold value using the correction value. Is what you do.
【0025】本発明の請求項6に係るビデオ符号化方法
は、本発明の請求項1に係るビデオ符号化方法におい
て、適応的動き探索範囲の調整はシーケンス基準、フレ
ーム基準、マイクロブロック基準、および領域基準で行
なえることを特徴とするものである。According to a sixth aspect of the present invention, in the video encoding method according to the first aspect of the present invention, the adjustment of the adaptive motion search range is performed on a sequence basis, a frame basis, a micro block basis, and a region basis. It is characterized in that it can be performed on a standard basis.
【0026】本発明の請求項7に係るビデオ符号化方法
は、本発明の請求項1に係るビデオ符号化方法におい
て、適応的動き探索範囲を示す動き探索ウインドウは正
方形、円形、長方形、その他任意の形状であってよいこ
とを特徴とするものである。A video encoding method according to a seventh aspect of the present invention is the video encoding method according to the first aspect of the present invention, wherein the motion search window indicating the adaptive motion search range is a square, a circle, a rectangle, or any other arbitrary one. It may be characterized by the following shape.
【0027】上述の方法により、本発明は符号化プロセ
ス内の低速なまたは高速な動きシーケンスを検出して、
低速なまたは高速な動きのそれぞれに対する動き探索範
囲の初期基準として小さい、または中位の値を割り当て
る。この基準は次に動き探索範囲の基準値が十分である
か否かを確認するために予測誤差としきい値を比較する
ことにより、可能な限り短い処理時間で動き推定の最大
の効率すなわちビデオ符号化の最高の画質を得る。With the method described above, the present invention detects a slow or fast motion sequence in the encoding process,
A small or medium value is assigned as an initial reference for the motion search range for each of the slow or fast motions. This criterion is then compared with the prediction error and a threshold value to see if the criterion of the motion search range is sufficient, thereby maximizing the efficiency of motion estimation in the shortest possible processing time, i.e., video coding. To get the best image quality.
【0028】[0028]
【発明の実施の形態】本発明の実施の形態に係る符号化
方法は、いずれかの参照領域で動きベクトルの探索が必
要な異なるモードの動き推定および補償に適している。
これらはフレーム基準の動き推定および補償、フィール
ド基準の動き推定および補償、さらに適応的フレーム/
フィールド動き推定および補償を含む。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An encoding method according to an embodiment of the present invention is suitable for motion estimation and compensation in different modes that require searching for a motion vector in any reference region.
These include frame-based motion estimation and compensation, field-based motion estimation and compensation, and adaptive frame / motion estimation.
Includes field motion estimation and compensation.
【0029】本符号化方法の好適な実施の形態を図3か
ら図11に示す。A preferred embodiment of the present encoding method is shown in FIGS.
【0030】図3、4に動き探索範囲を適応的に変える
フローを示す。図3、4において、ステップS1のMS
Rは動き探索範囲を意味する。ステップS8のmin_
errorは固定された動き探索範囲内の全ての予測誤
差のうち最小誤差である。さらに各予測誤差は、現フレ
ームのブロックと参照フレーム内のブロックの間の、各
ピクセル対の絶対差の和である。FIGS. 3 and 4 show a flow for adaptively changing the motion search range. 3 and 4, the MS in step S1
R means a motion search range. Min_ of step S8
error is the minimum error among all the prediction errors within the fixed motion search range. Further, each prediction error is the sum of the absolute differences of each pixel pair between the block in the current frame and the block in the reference frame.
【0031】図4のステップS8内のしきい値は提示
値、ステップS9内のMSR_expは拡大された後の
動き探索範囲、ステップS9内のExpは動き探索範囲
の初期基準値に基づいて拡大している値である。ステッ
プS13内のT_pは期間であり、符号化が始まる前に
決定しておく必要がある。The threshold value in step S8 in FIG. 4 is a presentation value, the MSR_exp in step S9 is the motion search range after expansion, and the Exp in step S9 is expansion based on the initial reference value of the motion search range. Value. T_p in step S13 is a period, and needs to be determined before encoding starts.
【0032】以下に述べる二つの主要なプロセスがあ
る。There are two main processes described below.
【0033】a)第1のプロセスは、図3のステップS
1およびS2に示す全ての定義された時間(例えば、T
_P=1秒)内で図3のステップS1、S2、S3に示
すフレームの全ての動きベクトルを調べることにより最
小基準動き探索範囲を見出す。A) The first process is step S in FIG.
1 and S2 (for example, T
A minimum reference motion search range is found by checking all the motion vectors of the frames shown in steps S1, S2, and S3 in FIG. 3 within _P = 1 second).
【0034】詳細なプロセスについて、第1フレームか
ら始めて以下に述べる。The detailed process will be described below, starting from the first frame.
【0035】最初に、図3のステップS1およびS2に
おいて、ビデオシーケンスの第1フレームは空間相関を
除去するために符号化され、第2フレームのピクセルデ
ータの各ブロックは第1フレームから予測される。すな
わち中位の動き探索範囲(例えば+/−15ピクセル)
内でピクセルデータの合致ブロックを見出し、次にステ
ップS3で参照フレーム内の各現在ブロックに位置を示
す動きベクトルが得られ、より小さい値(例えば+/−
8ピクセル)と比較される。動きベクトルの全ての絶対
値が小さい方の値よりはるかに小さければ、動き探索範
囲は、後続する他のフレームのために図3のステップS
4に示すように、中位の値(+/−15ピクセル)から
この小さい値(+/−8ピクセル)に設定されるか、ま
たは図3のステップS5のように動き探索範囲は依然と
して中位の値(+/−15ピクセル)のままである。First, in steps S1 and S2 of FIG. 3, the first frame of the video sequence is encoded to remove spatial correlation, and each block of pixel data of the second frame is predicted from the first frame. . That is, a medium motion search range (eg, +/− 15 pixels)
In step S3, a motion vector indicating the position of each current block in the reference frame is obtained, and a smaller value (for example, +/-) is obtained.
8 pixels). If all the absolute values of the motion vectors are much smaller than the smaller value, the motion search range is changed for the following other frames in step S of FIG.
As shown in FIG. 4, the medium value (+/− 15 pixels) is set to this small value (+/− 8 pixels), or the motion search range is still medium as in step S5 of FIG. (+/− 15 pixels).
【0036】b)第2のプロセスは、動き探索範囲を適
応的に拡大することにより、第1プロセスから得られた
基準動き探索範囲に基づいて真の合致ブロックを探索す
る。詳細なプロセスは以下を含む。すなわち、ステップ
S6とS7において高速な動きについては中位動き探索
範囲(+/−15ピクセル)、または低速な動きについ
てはより小さい値(+/−8ピクセル)を用いて参照フ
レーム内で合致するブロックを探索する。B) The second process searches for a true matching block based on the reference motion search range obtained from the first process by adaptively expanding the motion search range. The detailed process includes: That is, in steps S6 and S7, a match is made in the reference frame using a medium motion search range (+/− 15 pixels) for fast motion or a smaller value (+/− 8 pixels) for slow motion. Search for blocks.
【0037】ステップS6およびS7の詳細フローを図
5、6に示す。FIGS. 5 and 6 show detailed flows of steps S6 and S7.
【0038】図5、6に示すように、ステップS14は
現フレームから1個のブロックを得て、ステップS15
は参照フレームから同じ位置にあるブロックを得る。ス
テップS16は2ブロック間の絶対誤差を計算し、フィ
ールド1およびフィールド2についてそれぞれの最小誤
差すなわちmin1、min2を得る。フレームに関す
る最小誤差、minはフィールド1およびフィールド2
に関する最小誤差の和である。As shown in FIGS. 5 and 6, in step S14, one block is obtained from the current frame.
Gets the block at the same position from the reference frame. In step S16, the absolute error between the two blocks is calculated, and the minimum error, that is, min1, min2, is obtained for field 1 and field 2. The minimum error for the frame, min is field 1 and field 2
It is the sum of the minimum errors for
【0039】ステップS17は動き探索範囲の中で参照
フレームから次のブロックを得て、ステップS18は、
フィールド1およびフィールド2についてそれぞれの絶
対誤差err1、err2を計算する。フレームの誤差
(err)はフィールド1とフィールド2に関する誤差
の和である。In step S17, the next block is obtained from the reference frame in the motion search range.
Calculate absolute errors err1 and err2 for field 1 and field 2, respectively. The frame error (err) is the sum of the errors for field 1 and field 2.
【0040】ステップS19において、err1、er
r2およびerrをそれぞれmin1、min2および
minと比較して、そのいずれか一つでも対応するmi
n1、min2またはminより小さければ対応するm
in1、min2またはminを置き換える。ステップ
S20に示すように、このステップは動き探索範囲に達
するまで実行される。動き探索範囲の終端に達しない場
合、ステップS17からS20までを続け、達した場合
はステップS14に戻り、上述と同じ手順で現フレーム
から合致するブロックを得るために現フレーム内の他の
ブロックを処理する。In step S19, err1, er
r2 and err are compared with min1, min2 and min, respectively, and any one of the corresponding mi
If it is smaller than n1, min2 or min, the corresponding m
Replace in1, min2 or min. As shown in step S20, this step is performed until the motion search range is reached. If the end of the motion search range has not been reached, steps S17 to S20 are continued. To process.
【0041】min1、min2、min、err1、
err2、およびerrの定義を図7で説明する。図7
において、各ブロックの斜線部分は、フィールド1を示
し、各ブロックの空白部分は、フィールド2を示す。図
6のmin1は、現フレームからのブロック(C)と、
現ブロックと同じ位置にある参照フレームからのブロッ
ク(D)の2ブロックの間のフィールド1の絶対誤差で
あり、図6のmin2は2ブロック間のフィールド2の
絶対誤差であり、図6のminは2ブロック間のフレー
ムの絶対誤差であり、minはmin1とmin2の和
である。Min1, min2, min, err1,
The definitions of err2 and err will be described with reference to FIG. FIG.
In the figure, the hatched portion of each block indicates the field 1, and the blank portion of each block indicates the field 2. Min1 in FIG. 6 is a block (C) from the current frame;
6 is the absolute error of field 1 between two blocks of block (D) from the reference frame located at the same position as the current block, min2 in FIG. 6 is the absolute error of field 2 between the two blocks, and min in FIG. Is the absolute error of the frame between the two blocks, and min is the sum of min1 and min2.
【0042】図6のerr1は固定された動き探索範囲
の中で、現ブロック(C)と参照フレームからの別のブ
ロック(D)の間のフィールド1の絶対誤差である。図
6のerr2は固定された動き探索範囲の中で、現ブロ
ック(C)と参照フレームからの別のブロック(D)の
間のフィールド2の絶対誤差である。図6のerrは固
定された動き探索範囲の中で、現ブロック(C)と参照
フレームからの別のブロック(D)の間のフレームの絶
対誤差である。Err1 in FIG. 6 is the absolute error of field 1 between the current block (C) and another block (D) from the reference frame within the fixed motion search range. Err2 in FIG. 6 is the absolute error of field 2 between the current block (C) and another block (D) from the reference frame within the fixed motion search range. Err in FIG. 6 is the absolute error of the frame between the current block (C) and another block (D) from the reference frame in the fixed motion search range.
【0043】図4のステップS8に示すように、最小予
測誤差(min_error)が所定のしきい値(Th
reshold)より小さいか否かを調べ、そうでない
場合、図4のステップS9に示すように動き探索範囲を
拡大する必要があり、そうである場合、図4のステップ
S10に示すように修正されずにおかれる。As shown in step S8 of FIG. 4, the minimum prediction error (min_error) is set to a predetermined threshold value (Th).
(reshold), and if not, it is necessary to expand the motion search range as shown in step S9 in FIG. 4, and if so, it is not corrected as shown in step S10 in FIG. Put in.
【0044】ステップS8、S9、およびS10の詳細
フローを図8に示す。FIG. 8 shows a detailed flow of steps S8, S9 and S10.
【0045】図8に示すように、動き探索範囲の終端に
達した後で、現フレーム内のブロックにおいて、ステッ
プS21によりフィールド1、フィールド2およびフレ
ームのそれぞれについてmin1、min2およびmi
nが得られ、次にステップS22でmin1、min2
およびminはそれぞれthreshold1、thr
eshold2およびthresholdと比較され
る。min1がthreshold1より小さく、同時
にmin2がthreshold2より小さいか、また
はminがthresholdより小さければ、MSR
(動き探索範囲)は拡大されずに(ステップS24に示
すとおり)次のブロックへ進むか、またはMSRは(ス
テップS23に示すとおり)拡大される。As shown in FIG. 8, after reaching the end of the motion search range, in the block in the current frame, in step S21, min1, min2, and mi are set for each of field 1, field 2, and the frame.
n is obtained, and then min1, min2 in step S22.
And min are threshold1, thr, respectively.
Compared to eshold2 and threshold. If min1 is smaller than threshold1 and at the same time min2 is smaller than threshold2 or min is smaller than threshold, MSR
The (motion search range) is not expanded (as shown in step S24) and proceeds to the next block, or the MSR is expanded (as shown in step S23).
【0046】所定のしきい値とその修正を図9に示す。FIG. 9 shows the predetermined threshold value and its correction.
【0047】ここで、しきい値は現ブロックの相対偏差
によりわずかに修正される。あるブロックの偏差が大き
い、すなわち高度詳細領域である場合、特にその領域に
高速な動きが含まれる場合に、合致した誤差(予測誤
差)が大きいために高度詳細領域に対するしきい値は図
9に示すように、ここでの相対偏差により高めに修正さ
れねばならない。Here, the threshold is slightly corrected by the relative deviation of the current block. When the deviation of a certain block is large, that is, in the high-detail area, particularly when the area includes a high-speed motion, the matching error (prediction error) is large. As shown, the relative deviation here must be corrected higher.
【0048】devは現ブロックの標準偏差であり、d
ev_tはその時点での全てのブロックの合計偏差であ
り、dev_aはブロックの個数に関する平均偏差であ
り、dev_mはdevとdev_aから得られる修正
値である。Dev is the standard deviation of the current block, d
ev_t is the total deviation of all blocks at that time, dev_a is the average deviation with respect to the number of blocks, and dev_m is a correction value obtained from dev and dev_a.
【0049】[0049]
【数1】 (Equation 1)
【0050】[0050]
【数2】 (Equation 2)
【0051】[0051]
【数3】 ここで、num_mbはこの時点でのブロックの個数で
ある。(Equation 3) Here, num_mb is the number of blocks at this time.
【0052】thresholdはフレーム動き推定を
行なう際に動き探索範囲を調べるために用いられる。t
hreshold1とthreshold2はフィール
ド動き推定を行なう際に動き探索範囲を調べるために用
いられる。The threshold is used to check a motion search range when performing frame motion estimation. t
Threshold1 and Threshold2 are used to check a motion search range when performing field motion estimation.
【0053】図9に示すように、ステップS25は現ブ
ロックの偏差を計算し、その結果をdevとして示す。
現ブロックdev_aの平均偏差はステップS26、S
27から得られ、修正値dev_mはステップS28か
ら得られる。threshold1、threshol
d2およびthresholdはステップS29でde
v_mにより修正される。As shown in FIG. 9, in step S25, the deviation of the current block is calculated, and the result is indicated as dev.
The average deviation of the current block dev_a is calculated in steps S26 and S26.
27, and the correction value dev_m is obtained from step S28. threshold1, threshold
d2 and threshold are de at step S29.
Modified by v_m.
【0054】図4のステップS11で動き探索範囲が拡
大された場合、拡大された探索範囲内で合致したブロッ
クを探索し続ける。When the motion search range is expanded in step S11 of FIG. 4, the search for a matching block is continued within the expanded search range.
【0055】適応的動き探索範囲をともなう動き推定の
実施例を図10に示す。FIG. 10 shows an embodiment of motion estimation with an adaptive motion search range.
【0056】入力ビデオは1フレームづつシステムへ入
力され、次にフレームは(ステップS31で)ピクセル
データの多くのブロックに細分される。The input video is input to the system frame by frame, and the frame is then subdivided (at step S31) into many blocks of pixel data.
【0057】ステップS32において2番目のフレーム
が来ると、ここで選ばれた初期中位動き探索範囲+/−
15ピクセルを用いてフルピクセル動き推定が行われ
る。そのフレームに関して生じた全ての動きベクトルが
より小さい値、例えば+/−8ピクセルをはるかに下回
るか否かが調べられる。下回る場合、動き探索範囲はよ
り小さい値に再設定される。下回らない場合、動き探索
範囲は修正されない。ステップS33において、フルピ
クセル動き推定の結果得られた動きベクトルに基づいて
ハーフピクセル動き推定が行なわれる。さらに、動き補
償(S34)、DCT(S35)、量子化(S36)、
ランレングス符号化およびVLC(S37)がフレーム
に対して行なわれる。ステップS37の後、符号化され
たストリームが出力される。When the second frame arrives in step S32, the initial medium motion search range selected here +/-
Full pixel motion estimation is performed using 15 pixels. It is checked whether all the motion vectors generated for that frame are much less than a smaller value, for example +/− 8 pixels. If so, the motion search range is reset to a smaller value. If not, the motion search range is not modified. In step S33, half-pixel motion estimation is performed based on the motion vector obtained as a result of the full-pixel motion estimation. Further, motion compensation (S34), DCT (S35), quantization (S36),
Run-length encoding and VLC (S37) are performed on the frame. After step S37, the encoded stream is output.
【0058】図9の動き推定の詳細な実施例を図11に
示す。FIG. 11 shows a detailed embodiment of the motion estimation in FIG.
【0059】3番目のフレームが来ると、この基準動き
探索範囲を用いてフルピクセル動き推定が行なわれる
(図11にM1として示す)。フレーム全体の全てのブ
ロックの符号化の間に、基準動き探索範囲が十分である
か否かを調べる(図11のM2)。十分である場合、動
き推定は他のブロックへ進む。十分でない場合、基準動
き探索範囲は拡大され(図11のM3)、拡大された動
き探索範囲内で合致するブロックを探す(図11のM
4)。When the third frame comes, full pixel motion estimation is performed using this reference motion search range (shown as M1 in FIG. 11). During coding of all blocks in the entire frame, it is checked whether the reference motion search range is sufficient (M2 in FIG. 11). If so, the motion estimation proceeds to another block. If not enough, the reference motion search range is expanded (M3 in FIG. 11), and a matching block is searched for in the expanded motion search range (M3 in FIG. 11).
4).
【0060】フルピクセル動き探索範囲が終了した後
で、ハーフピクセル動き推定、動き補償、DCT、量子
化、ランレングス符号化およびVLCが通常通りに行な
われる。After the full pixel motion search range is complete, half pixel motion estimation, motion compensation, DCT, quantization, run length coding and VLC are performed as usual.
【0061】図10において、「逆量子化」(S4
2)、「逆DCT」(S41)、および「局所的に復号
化されたフレームメモリ」(S40)は動き補償のため
の局所的なデコーダを構成する。「レートコントロー
ル」(S43)は各フレームに対してビットを割り当て
る。「フレーム補間」(S39)はハーフピクセル動き
推定のためにある。「参照フレームメモリ」(S38)
は動き推定のための最後のフレームを記憶する。In FIG. 10, "inverse quantization" (S4
2), "Inverse DCT" (S41), and "Locally decoded frame memory" (S40) constitute a local decoder for motion compensation. "Rate control" (S43) allocates bits to each frame. "Frame interpolation" (S39) is for half-pixel motion estimation. "Reference frame memory" (S38)
Stores the last frame for motion estimation.
【0062】さらに、図4のステップS12において、
現フレームについて動き推定が完了したか否かを調べ
る。完了していれば、ステップS13に進み、完了して
いなければステップS6に戻る。図4のステップS13
において、次のフレームを得て、符号化時間>=T_p
か否かを調べる。符号化時間>=T_pであれば、図3
のステップS1に戻り、符号化時間<T_pであれば、
ステップS6に戻る。Further, in step S12 of FIG.
It is checked whether or not the motion estimation has been completed for the current frame. If completed, the process proceeds to step S13, and if not completed, the process returns to step S6. Step S13 in FIG.
In, the next frame is obtained, and the encoding time> = T_p
Check whether or not. If the encoding time> = T_p, FIG.
Returning to step S1, if the encoding time <T_p,
It returns to step S6.
【0063】本符号化方法は、符号化プロセス全体を通
じて動き探索範囲が固定されている従来技術の方法に比
べて二つの主要な改良点がある。非常に高速な動きの場
合、合致ブロックを得るには固定された動き探索範囲で
は十分でないため、動き探索範囲が適応的に拡大すれば
動き推定の性能が向上し、それゆえ符号化効率および画
質が向上する。この改良は「ビー玉」や「花火」等のM
PEGのテストシーケンスで見られる。The present encoding method has two major improvements over the prior art method where the motion search range is fixed throughout the encoding process. For very fast motions, a fixed motion search range is not enough to obtain a matching block, so adaptively expanding the motion search range improves the performance of motion estimation, and therefore the coding efficiency and image quality. Is improved. This improvement can be achieved with M, such as "marbles" and "fireworks".
Seen in the PEG test sequence.
【0064】非常に低速な動きまたは静止場面の場合、
本符号化方法は探索範囲を適応的により小さい範囲(例
えば+/−8ピクセル)に縮小することにより、動き推
定精度を落とすことなく動き推定の処理時間の大部分を
節約する。この改良はMPEGの”モービル&カレンダ
ー”テストシーケンスで見られる。For very slow motion or still scenes,
The encoding method adaptively reduces the search range to a smaller range (e.g., +/- 8 pixels), thereby saving most of the motion estimation processing time without compromising motion estimation accuracy. This improvement is found in the MPEG "Mobile &Calendar" test sequence.
【0065】高速な動きシーケンスの場合「ビー玉」と
「花火」(60フレーム)、低速な動きシーケンスの場
合「モービル&カレンダー」(60フレーム)について
テスト実験を行なった。以下の表に高速な動きの場合の
結果のみを示す。Test experiments were performed on "marbles" and "fireworks" (60 frames) for a high-speed motion sequence, and "Mobile &Calendar" (60 frames) for a low-speed motion sequence. The following table shows only the results for fast motion.
【0066】[0066]
【表1】動き推定の予測誤差 節約された処理時間%は、固定された動き探索範囲(+
/−30)の場合と比較して適応的に動き探索範囲(+
/−15または+/−30)を選択することにより動き
推定を行なった際に節約できた処理時間の百分率を意味
する。[Table 1] Prediction error of motion estimation The saved processing time% is a fixed motion search range (+
/ -30), the motion search range (+
/ -15 or +/- 30) means the percentage of processing time saved when motion estimation is performed.
【0067】上記表から、動き探索範囲が+/−15に
固定されている場合、予測誤差が「ビー玉」と「花火」
についてそれぞれ「1373」、「2093」と非常に
大きいことがわかる。動き探索範囲が+/−30に固定
された場合、予測誤差はそれぞれ「809」、「160
8」のように下がるものの、はるかに長い処理時間がか
かる。動き探索範囲が+/−15または+/−30に適
応的に修正される場合、予測誤差は+/−30に固定さ
れた動き探索範囲を用いた場合とほとんど変わらず、処
理時間はそれぞれ最大51%および48%節約される。From the above table, when the motion search range is fixed at +/− 15, the prediction errors are “marble” and “fireworks”.
It can be seen that “1373” and “2093” are extremely large, respectively. When the motion search range is fixed to +/− 30, the prediction errors are “809” and “160”, respectively.
8 ", but takes much longer processing time. When the motion search range is adaptively corrected to +/− 15 or +/− 30, the prediction error is almost the same as when using the motion search range fixed to +/− 30, and the processing time is the maximum. 51% and 48% savings.
【0068】適応的動き探索範囲調整は、より短い処理
時間でより優れた予測を行うことができる。The adaptive motion search range adjustment can perform better prediction in a shorter processing time.
【図1】 動き探索範囲を固定した場合に生じる、現ブ
ロックに真に合致するブロックを見出すには探索範囲が
小さすぎる問題を示す説明図である。FIG. 1 is an explanatory diagram showing a problem that occurs when a motion search range is fixed and a search range is too small to find a block that truly matches a current block.
【図2】 動き探索範囲を固定した場合に生じる、動き
探索範囲が非常に大きいために不要な処理時間を浪費す
る問題を示す説明図である。FIG. 2 is an explanatory diagram illustrating a problem that occurs when a motion search range is fixed and wastes unnecessary processing time due to a very large motion search range.
【図3】 本発明による方法について説明するための模
式図である。FIG. 3 is a schematic diagram for explaining a method according to the present invention.
【図4】 本発明による方法について説明するための模
式図である。FIG. 4 is a schematic diagram for explaining a method according to the present invention.
【図5】 合致ブロックの探し方を示す説明図である。FIG. 5 is an explanatory diagram showing how to find a matching block.
【図6】 合致ブロックの探し方を示す説明図である。FIG. 6 is an explanatory diagram showing how to find a matching block.
【図7】 2ブロック間のフィールド誤差計算を示す説
明図である。FIG. 7 is an explanatory diagram showing calculation of a field error between two blocks.
【図8】 動き探索範囲が十分であるか否かを調べる方
法を示す説明図である。FIG. 8 is an explanatory diagram showing a method of checking whether a motion search range is sufficient.
【図9】 しきい値を決定および修正する方法を示す説
明図である。FIG. 9 is an explanatory diagram showing a method of determining and correcting a threshold value.
【図10】 MPEG2に基づく適応的動き補償をとも
なうエンコーダシステムを示す説明図である。FIG. 10 is an explanatory diagram showing an encoder system with adaptive motion compensation based on MPEG2.
【図11】 図10のフルピクセル動き推定を説明する
ための詳細図である。FIG. 11 is a detailed diagram illustrating the full pixel motion estimation of FIG. 10;
A…現ブロック A’…真の合致ブロック A0’…参照フレーム内のブロック B…偽の合致ブロックA: current block A ': true matching block A 0 ': block in the reference frame B: false matching block
───────────────────────────────────────────────────── フロントページの続き (72)発明者 チャク ジュー・リー シンガポール534415シンガポール、タイ・ セン・アベニュー、ブロック1022、04− 3530番、タイ・セン・インダストリアル・ エステイト、パナソニック・シンガポール 研究所株式会社内 Fターム(参考) 5C059 KK19 MA05 MA23 MC11 MC38 ME01 ME05 NN03 NN15 NN24 NN28 PP04 TA63 TB04 TB08 TC03 TC11 TC13 TD03 TD04 TD12 ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Chak Joo Lee Singapore 534415 Singapore, Thai Sen Avenue, Block 1022, 04-3530, Thai Sen Industrial Estate, Panasonic Singapore Research Institute, Inc. F term (reference) 5C059 KK19 MA05 MA23 MC11 MC38 ME01 ME05 NN03 NN15 NN24 NN28 PP04 TA63 TB04 TB08 TC03 TC11 TC13 TD03 TD04 TD12
Claims (7)
データの多数のブロックに分割するステップと、 入力ビデオ信号の参照フレームをピクセルデータの多数
のブロックに分割するステップと、 基準動き探索範囲内で前記参照フレームにおいて現ブロ
ックと最適に合致するブロックを探索するステップと、 前記現フレーム内の動きの内容を検出するステップと、 高速な動きが存在する場合は前記基準動き探索範囲を適
当な値に拡大し、動きが無いか、または低速な動きが存
在する場合は前記基準動き探索範囲を適当な値に縮小す
るステップとを含むことを特徴とするビデオ符号化方
法。1. dividing a current frame of the input video signal into a number of blocks of pixel data; dividing a reference frame of the input video signal into a number of blocks of pixel data; Searching for a block that best matches the current block in the reference frame; detecting the motion content in the current frame; expanding the reference motion search range to an appropriate value if high-speed motion exists Reducing the reference motion search range to an appropriate value if there is no motion or low-speed motion.
を取得してしきい値と比較し、高速な動きが存在するか
否かを判定するステップと、 フレーム内に高速な動きが存在する場合は前記基準動き
探索範囲を適当な値に拡大するステップと、 前記修正された探索範囲から動きベクトルを探索するス
テップとを含むことを特徴とする請求項1記載のビデオ
符号化方法。2. The step of detecting a motion content includes obtaining a prediction error between the current block and the matched block, comparing the prediction error with a threshold value, and determining whether a high-speed motion exists. A step of enlarging the reference motion search range to an appropriate value when a high-speed motion exists in a frame; and a step of searching for a motion vector from the corrected search range. The video encoding method according to claim 1.
を得るステップと、 前記動きベクトルの全てが所定値より小さいか否かを調
べるステップと、 前記動きベクトルの全てが前記所定値より小さい場合は
前記動き探索範囲を縮小するステップとに基づいて調整
されることを特徴とする請求項1または2のいずれかに
記載のビデオ符号化方法。3. The reference motion search range includes: obtaining all motion vectors of a frame corresponding to a minimum prediction error; checking whether all of the motion vectors are smaller than a predetermined value; 3. The video encoding method according to claim 1, wherein the step of reducing the motion search range is performed when all of the values are smaller than the predetermined value.
を用いて、局所的なデコーダから生じたフレームから対
応する合致ブロックを見出すステップと、 現フレーム内の現ブロックと、復号化されたフレームか
らの合致ブロックとの間の予測誤差を生成するステップ
と、 送信のために前記予測誤差を符号化するステップとを含
むことを特徴とする請求項1ないし3のいずれか一つに
記載のビデオ符号化方法。4. Using a motion vector obtained from said motion estimation to find a corresponding matching block from a frame originating from a local decoder; and from the current block in the current frame and the decoded frame. A video code as claimed in any one of the preceding claims, comprising the steps of: generating a prediction error between the matching block of the video signal; and encoding the prediction error for transmission. Method.
を計算するステップと、 ピクセルデータの現ブロックの平均標準偏差を計算する
ステップと、 現ブロックにおける標準偏差と平均標準偏差から修正値
を計算するステップと、 前記修正値を用いて所定のしきい値を修正するステップ
とを含むことを特徴とする請求項2記載のビデオ符号化
方法。Calculating a standard deviation of the current block of pixel data; calculating an average standard deviation of the current block of pixel data; and calculating a correction value from the standard deviation and the average standard deviation of the current block. 3. The video encoding method according to claim 2, further comprising: modifying a predetermined threshold using the modification value.
基準、フレーム基準、マイクロブロック基準、および領
域基準で行なえることを特徴とする請求項1記載のビデ
オ符号化方法。6. The video encoding method according to claim 1, wherein the adjustment of the adaptive motion search range can be performed on a sequence basis, a frame basis, a microblock basis, and a region basis.
ンドウは正方形、円形、長方形、その他任意の形状であ
ってよいことを特徴とする請求項1記載のビデオ符号化
方法。7. The video encoding method according to claim 1, wherein the motion search window indicating the adaptive motion search range may be a square, a circle, a rectangle, or any other shape.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000319233A JP2002135784A (en) | 2000-10-19 | 2000-10-19 | Video coding method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000319233A JP2002135784A (en) | 2000-10-19 | 2000-10-19 | Video coding method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002135784A true JP2002135784A (en) | 2002-05-10 |
Family
ID=18797727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000319233A Pending JP2002135784A (en) | 2000-10-19 | 2000-10-19 | Video coding method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2002135784A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006517069A (en) * | 2003-01-16 | 2006-07-13 | ビクシズ システムズ インコーポレイティド | Motion vector prediction method and system |
-
2000
- 2000-10-19 JP JP2000319233A patent/JP2002135784A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006517069A (en) * | 2003-01-16 | 2006-07-13 | ビクシズ システムズ インコーポレイティド | Motion vector prediction method and system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8135070B2 (en) | Video coding method and apparatus for calculating motion vectors of the vertices of a patch of an image and transmitting information of horizontal and vertical components of the motion vectors | |
| JP3190529B2 (en) | Video data block conversion system | |
| US5801778A (en) | Video encoding with multi-stage projection motion estimation | |
| US6628711B1 (en) | Method and apparatus for compensating for jitter in a digital video image | |
| EP1389016A2 (en) | Motion estimation and block matching pattern using minimum measure of combined motion and error signal data | |
| JPH09179987A (en) | Motion vector detection method and motion vector detection device | |
| WO2000022833A1 (en) | Motion vector detection with local motion estimator | |
| WO1998042134A1 (en) | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system | |
| JP2000278694A (en) | Encoding device, image processing device, image processing system, encoding method, and storage medium | |
| US5699129A (en) | Method and apparatus for motion vector determination range expansion | |
| US20020094030A1 (en) | Apparatus and method of transcoding image data in digital TV | |
| US6996175B1 (en) | Motion vector estimation | |
| US20050232360A1 (en) | Motion estimation apparatus and method with optimal computational complexity | |
| JPH10215457A (en) | Moving image decoding method and moving image decoding device | |
| JP2002335529A (en) | Moving image encoding method and its device | |
| JP2002135784A (en) | Video coding method | |
| KR0154920B1 (en) | Motion estimation device of video encoding apparatus | |
| KR100602148B1 (en) | Method for motion picture encoding use of the a quarter of a pixel motion vector in mpeg system | |
| US20060056511A1 (en) | Flexible polygon motion estimating method and system | |
| US20050111553A1 (en) | Fast half-pel searching method on the basis of SAD values according to integer-pel search and random variable corresponding to each macro block | |
| KR0185841B1 (en) | A motion extimator for a video coder | |
| JPH07143492A (en) | Video coding method by automatic motion search range adjustment for motion estimation | |
| JPH10285603A (en) | Image coding method | |
| KR0180161B1 (en) | Motion vector processing device and method | |
| US20070153909A1 (en) | Apparatus for image encoding and method thereof |