[go: up one dir, main page]

JP3201079B2 - Motion compensated prediction method, coding method and apparatus for interlaced video signal - Google Patents

Motion compensated prediction method, coding method and apparatus for interlaced video signal

Info

Publication number
JP3201079B2
JP3201079B2 JP17468793A JP17468793A JP3201079B2 JP 3201079 B2 JP3201079 B2 JP 3201079B2 JP 17468793 A JP17468793 A JP 17468793A JP 17468793 A JP17468793 A JP 17468793A JP 3201079 B2 JP3201079 B2 JP 3201079B2
Authority
JP
Japan
Prior art keywords
parity
field
input field
signal
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP17468793A
Other languages
Japanese (ja)
Other versions
JPH0678298A (en
Inventor
康之 中島
Original Assignee
ケイディーディーアイ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケイディーディーアイ株式会社 filed Critical ケイディーディーアイ株式会社
Priority to JP17468793A priority Critical patent/JP3201079B2/en
Publication of JPH0678298A publication Critical patent/JPH0678298A/en
Application granted granted Critical
Publication of JP3201079B2 publication Critical patent/JP3201079B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターレース動
画像信号の動き補償予測方法、符号化方法及び装置に関
する。
[0001] 1. Field of the Invention [0002] The present invention relates to a motion compensation prediction method, an encoding method and an apparatus for an interlaced video signal.

【0002】[0002]

【従来の技術】従来、テレビ会議等の動画像通信やCD
−ROM等への動画像蓄積を目的とした動画像の高能率
符号化方式においては、フレーム又はフィールドの画面
で、各画面を例えば16画素×16ラインのブロックに
分割して、面内符号化、又は動き補償による参照画面と
現画面の差分を符号化する面間符号化を用いて高能率符
号化を行っている。
2. Description of the Related Art Conventionally, moving image communication such as a video conference and CD
In a high-efficiency video coding method for storing a video in a ROM or the like, each screen is divided into, for example, a block of 16 pixels × 16 lines on a frame or field screen, and intra-frame coding is performed. Alternatively, high-efficiency coding is performed using inter-plane coding for coding a difference between a reference screen and a current screen by motion compensation.

【0003】図1に、一般的な符号化装置の構成を示
す。ここで、71は減算器であり、入力画面X1と予測
画面X2の差分を求めて予測誤差画面X3を生ずる。7
2は離散コサイン変換(DCT)やベクトル量子化器等
の符号化器、73は量子化器、74は逆量子化器、75
は逆離散コサイン変換(IDCT)や逆ベクトル量子化
器等の復号器である。また、76は加算器で復号器75
によって復元された予測誤差画面X5と予測画面X2を
加算して局部復号画面X6を発生する。該局部復号画面
X6は参照画面として用いられる。なお、前記参照画面
として、前記局部復号画面X6に変えて、符号化されて
いない原画面、即ち前記入力画面X1の前後の画面を用
いることも可能である。
FIG. 1 shows a configuration of a general encoding apparatus. Here, reference numeral 71 denotes a subtracter, which obtains a difference between the input screen X1 and the prediction screen X2 to generate a prediction error screen X3. 7
2 is an encoder such as a discrete cosine transform (DCT) or a vector quantizer; 73 is a quantizer; 74 is an inverse quantizer;
Is a decoder such as an inverse discrete cosine transform (IDCT) or an inverse vector quantizer. 76 is an adder and a decoder 75
Then, the prediction error screen X5 and the prediction screen X2 restored by the above are added to generate a local decoding screen X6. The local decoding screen X6 is used as a reference screen. Note that, instead of the local decoding screen X6, an uncoded original screen, that is, a screen before and after the input screen X1 can be used as the reference screen.

【0004】フレームメモリ77には局部復号画面X6
及び入力画面X1が格納される。動き検出部78ではブ
ロック単位で動き検出を行う。フレームメモリ77から
該当の入力ブロックデータ10と動きをサーチする領域
の参照ブロックデータ11が動き検出部78に入力さ
れ、動き検出後、動きベクトルZVと選択フラグZMが
出力される。動き補償器79では、動き検出部78で得
られた動きベクトルZVと選択フラグZMを用いて、参
照ブロックデータ11から予測画面X2を作成し、出力
する。
A local decoding screen X6 is stored in the frame memory 77.
And an input screen X1. The motion detection unit 78 performs motion detection in block units. The corresponding input block data 10 and the reference block data 11 of the area to be searched for motion are input from the frame memory 77 to the motion detection unit 78. After the motion detection, the motion vector ZV and the selection flag ZM are output. The motion compensator 79 creates and outputs a prediction screen X2 from the reference block data 11 using the motion vector ZV and the selection flag ZM obtained by the motion detection unit 78.

【0005】量子化器73の出力は可変長符号化器80
で符号化され、多重化器81で動き検出部78で得られ
た動きベクトルZV、選択フラグZMと共に多重化さ
れ、符号化出力として出力される。
The output of the quantizer 73 is a variable length encoder 80
, And multiplexed by the multiplexer 81 together with the motion vector ZV and the selection flag ZM obtained by the motion detection unit 78, and output as an encoded output.

【0006】図2は、従来の動き検出部78の構成の一
例を示したものである。フレーム動き検出器84はフレ
ームブロックの動きを検出し、予測誤差信号ERと動き
ベクトルVRを出力する。一方、フィールド動き検出器
85はフィールドブロックの動きを検出し、予測誤差信
号EFと動きベクトルVFを出力する。これらの予測誤
差信号ERとEFは比較器87で比較される。比較器8
7は予測誤差信号ERとEFの小さい方を選択するため
の選択フラグZMを選択器86に出力する。選択器86
はこれに応答して動作し、前記予測誤差信号が小さい方
の動き検出器を選択し、該選択された動き検出器からの
動きベクトルZVを出力する。このように、従来はフレ
ーム動き検出器とフィールド動き検出器から予測誤差信
号を求め、予測誤差信号の小さい方の動き検出器の動き
ベクトルを用いて動き補償を行い、符号化効率の向上を
図っている。
FIG. 2 shows an example of the configuration of a conventional motion detecting section 78. As shown in FIG. The frame motion detector 84 detects the motion of the frame block and outputs a prediction error signal ER and a motion vector VR. On the other hand, the field motion detector 85 detects the motion of the field block and outputs a prediction error signal EF and a motion vector VF. These prediction error signals ER and EF are compared by a comparator 87. Comparator 8
7 outputs to the selector 86 a selection flag ZM for selecting the smaller of the prediction error signals ER and EF. Selector 86
Operates in response to this, selects the motion detector with the smaller prediction error signal, and outputs the motion vector ZV from the selected motion detector. As described above, conventionally, a prediction error signal is obtained from the frame motion detector and the field motion detector, and motion compensation is performed using the motion vector of the motion detector with the smaller prediction error signal to improve coding efficiency. ing.

【0007】[0007]

【発明が解決しようとする課題】上述した動き検出部7
8を用いた符号化装置では、フレーム画面とフィールド
画面とに対して動き検出を行い、各々の予測誤差の小さ
い方の動き検出器を選択して動き補償を行っている。こ
の従来の符号化装置には、次のような問題があった。 (1)画像が加速度的な動きをした場合には、参照する
画面が偶数ラインと奇数ラインとでは異なることにな
る。このため、フレーム動き検出器84が選択された時
には、動き補償時の予測誤差が大きくなり、符号化効率
が低下する。 (2)画面が等速度的な動きをした場合には、各フィー
ルドの動き量はほとんど同じになる。このため、フィー
ルド動き検出器85が選択された時には、フレーム画面
での動き補償に比べて、動きベクトル量に関する情報が
2倍に増加し、その結果、符号化効率が低下する。
SUMMARY OF THE INVENTION The above-described motion detection unit 7
In the coding apparatus using No. 8, motion detection is performed on a frame screen and a field screen, and a motion detector with a smaller prediction error is selected to perform motion compensation. This conventional encoding device has the following problems. (1) When the image moves at an accelerated speed, the screen to be referred to differs between the even-numbered line and the odd-numbered line. For this reason, when the frame motion detector 84 is selected, the prediction error at the time of motion compensation increases, and the coding efficiency decreases. (2) When the screen moves at a constant speed, the amount of movement in each field is almost the same. For this reason, when the field motion detector 85 is selected, the information on the motion vector amount increases twice as compared with the motion compensation on the frame screen, and as a result, the coding efficiency decreases.

【0008】よって本発明の目的は、上述した従来方式
の問題点を解決することにあり、符号化効率及び画質の
向上を図ることができるインターレース動画像信号の動
き補償予測方法、符号化方法及び装置を提供することに
ある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to solve the above-mentioned problems of the conventional system, and to provide a motion compensation prediction method, a coding method, and a method for interlaced video signals which can improve coding efficiency and image quality. It is to provide a device.

【0009】[0009]

【課題を解決するための手段】本発明によれば、連続的
に入力される画像信号に対する動画像信号の動き補償予
測方法であって、特定の参照フィールドを設定し、特定
の参照フィールドと入力フィールドとの間の第1の動き
ベクトルを用いて特定の参照フィールドから入力フィー
ルドを予測した第1の予測信号を求め、特定の参照フィ
ールドと入力フィールドとの間の時間的な距離と他の参
照フィールドと入力フィールドとの間の時間的な距離と
の比率に応じて第1の動きベクトルの大きさを換算する
ことにより、他の参照フィールドから入力フィールドを
予測した第2の予測信号を求め、第1及び第2の予測信
号を合成して入力フィールドの第3の予測信号を得るイ
ンターレース動画像信号の動き補償予測方法が提供され
る。
According to the present invention, there is provided a motion compensation prediction method for a moving image signal for a continuously input image signal, wherein a specific reference field is set, and a specific reference field and an input Determining a first prediction signal obtained by predicting an input field from a specific reference field using a first motion vector between the specific reference field and a temporal distance between the specific reference field and the input field; Calculating a second prediction signal that predicts the input field from another reference field by converting the magnitude of the first motion vector according to the ratio of the temporal distance between the field and the input field; A method of motion-compensated prediction of an interlaced moving image signal that combines a first prediction signal and a second prediction signal to obtain a third prediction signal of an input field is provided.

【0010】例えば偶数パリティである一方のパリティ
を持つ入力フィールドを、この一方のパリティ及び例え
ば奇数パリティである他方のパリティをそれぞれ有する
2つの参照フィールドを合成して予測する。この際、一
方のパリティを持つ参照フィールドから同じ一方のパリ
ティを持つ入力フィールドへの予測は第1の動きベクト
ルを用いて行い、他方のパリティを持つ参照フィールド
から一方のパリティを持つ入力フィールドへの予測は、
フィールド間距離で第1の動きベクトルの大きさを換算
した第2の動きベクトルを用いる。このため、符号化す
べき動きベクトルは第1のベクトルのみとなり、符号化
に必要な情報量を削減することができ、符号化効率を大
幅に向上させることができる。
For example, an input field having one parity which is an even parity is predicted by synthesizing two reference fields each having one parity and the other parity which is an odd parity, for example. At this time, prediction from a reference field having one parity to an input field having the same one parity is performed using the first motion vector, and prediction from a reference field having the other parity to an input field having one parity is performed. The prediction is
A second motion vector obtained by converting the size of the first motion vector by the distance between fields is used. For this reason, the motion vector to be coded is only the first vector, the amount of information necessary for coding can be reduced, and coding efficiency can be greatly improved.

【0011】さらに本発明によれば、一方のパリティを
持つ参照フィールドから一方のパリティを持つ入力フィ
ールドを予測する第1の動きベクトルを用いて一方のパ
リティを持つ参照フィールドから一方のパリティを持つ
入力フィールドを予測した第1の予測信号を求め、一方
のパリティを持つ参照フィールドと一方のパリティを持
つ入力フィールドとの間の時間的な距離と他方のパリテ
ィを持つ参照フィールドと一方のパリティを持つ入力フ
ィールドとの間の時間的な距離との比率に応じて第1の
動きベクトルの大きさを換算することにより、他方のパ
リティを持つ参照フィールドから一方のパリティを持つ
入力フィールドを予測した第2の予測信号を求め、第1
及び第2の予測信号を合成して一方のパリティを持つ入
力フィールドの第3の予測信号を求め、一方のパリティ
を持つ参照フィールドと一方のパリティを持つ入力フィ
ールドとの間の時間的な距離と一方のパリティを持つ参
照フィールドと他方のパリティを持つ入力フィールドと
間の時間的な距離との比率に応じて第1の動きベクトル
の大きさを換算することにより、一方のパリティを持つ
参照フィールドから他方のパリティを持つ入力フィール
ドを予測した第4の予測信号を求め、第1の動きベクト
ルを用いて他方のパリティを持つ参照フィールドから他
方のパリティを持つ入力フィールドを予測した第5の予
測信号を求め、第4及び第5の予測信号を合成して他方
のパリティを持つ入力フィールドの第6の予測信号を求
めるインターレース動画像信号の動き補償予測方法が提
供される。
Further, according to the present invention, an input having one parity is converted from a reference field having one parity by using a first motion vector for predicting an input field having one parity from a reference field having one parity. A first prediction signal obtained by predicting a field is obtained, and a temporal distance between a reference field having one parity and an input field having one parity and an input having a reference field having the other parity and one parity are obtained. By converting the size of the first motion vector in accordance with the ratio of the first motion vector to the temporal distance between the first field and the second field, the second field predicting the input field having one parity from the reference field having the other parity Find the prediction signal, the first
And the second prediction signal are combined to obtain a third prediction signal of the input field having one parity, and the temporal distance between the reference field having one parity and the input field having one parity is calculated. By converting the magnitude of the first motion vector according to the ratio of the temporal distance between the reference field having one parity and the input field having the other parity, A fourth prediction signal which predicts the input field having the other parity is obtained, and a fifth prediction signal which predicts the input field having the other parity from the reference field having the other parity is obtained by using the first motion vector. And interpolating the fourth and fifth prediction signals to obtain a sixth prediction signal of the input field having the other parity. Motion compensated prediction method of moving image signal is provided.

【0012】一方のパリティを持つ入力フィールドは第
3の予測信号を用いて予測し、他方のパリティを持つ入
力フィールドは第6の予測信号を用いて予測することが
好ましい。
Preferably, an input field having one parity is predicted using a third prediction signal, and an input field having the other parity is predicted using a sixth prediction signal.

【0013】符号化する場合には、インターレース動画
像信号の動き補償予測方法によって求めた入力フィール
ドの予測信号と入力フィールドとの差分である予測誤差
画面を符号化することが好ましい。
In the case of encoding, it is preferable to encode a prediction error screen which is a difference between a prediction signal of an input field obtained by a motion compensation prediction method of an interlaced video signal and an input field.

【0014】本発明によれば、さらに、一方のパリティ
を持つ参照フィールドから一方のパリティを持つ入力フ
ィールドを予測する第1の動きベクトルを用いて一方の
パリティを持つ参照フィールドから一方のパリティを持
つ入力フィールドを予測した第1の予測信号を求め、一
方のパリティを持つ参照フィールドと一方のパリティを
持つ入力フィールドとの間の時間的な距離と他方のパリ
ティを持つ参照フィールドと一方のパリティを持つ入力
フィールドとの間の時間的な距離との比率に応じて第1
の動きベクトルの大きさを換算することにより、他方の
パリティを持つ参照フィールドから一方のパリティを持
つ入力フィールドを予測した第2の予測信号を求め、第
1及び第2の予測信号を合成して一方のパリティを持つ
入力フィールドの第3の予測信号を求め、一方のパリテ
ィを持つ参照フィールドと一方のパリティを持つ入力フ
ィールドとの間の時間的な距離と一方のパリティを持つ
参照フィールドと他方のパリティを持つ入力フィールド
と間の時間的な距離との比率に応じて第1の動きベクト
ルの大きさを換算することにより、一方のパリティを持
つ参照フィールドから他方のパリティを持つ入力フィー
ルドを予測した第4の予測信号を求め、第1の動きベク
トルを用いて他方のパリティを持つ参照フィールドから
他方のパリティを持つ入力フィールドを予測した第5の
予測信号を求め、第4及び第5の予測信号を合成して他
方のパリティを持つ入力フィールドの第6の予測信号を
求める動き補償予測手段と、入力フレームについて第1
の動きベクトルの符号化を行う符号化手段とを備えたイ
ンターレース動画像信号の符号化装置が提供される。
According to the present invention, furthermore, one parity is provided from a reference field having one parity by using a first motion vector for predicting an input field having one parity from a reference field having one parity. A first prediction signal obtained by predicting an input field is obtained, and a temporal distance between a reference field having one parity and an input field having one parity and a reference field having one parity and one parity are provided. First depending on the ratio to the temporal distance to the input field
By calculating the magnitude of the motion vector, a second prediction signal that predicts an input field having one parity from a reference field having the other parity is obtained, and the first and second prediction signals are combined. A third prediction signal of the input field having one parity is obtained, and the temporal distance between the reference field having one parity and the input field having one parity is determined by the reference field having one parity and the other. The input field having one parity is predicted from the reference field having one parity by converting the size of the first motion vector according to the ratio of the temporal distance to the input field having parity. A fourth prediction signal is obtained, and the other parity is obtained from the reference field having the other parity by using the first motion vector. Motion-compensated prediction means for obtaining a fifth predicted signal predicting one input field, combining the fourth and fifth predicted signals to obtain a sixth predicted signal of the input field having the other parity, First
And an encoding means for encoding the motion vector of the interlaced video signal.

【0015】動き補償予測手段が、一方のパリティを持
つ入力フィールドは第3の予測信号を用いて予測し、他
方のパリティを持つ入力フィールドは第6の予測信号を
用いて予測するように構成されていることが好ましい。
The motion compensation prediction means is configured to predict an input field having one parity by using a third prediction signal and to predict an input field having the other parity by using a sixth prediction signal. Is preferred.

【0016】[0016]

【発明の実施の形態】以下に、図3のブロック図を参照
して、本発明の第1実施形態を詳細に説明する。この図
3の動き検出器は、図1の符号化装置の動き検出部78
として用いられるものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment of the present invention will be described in detail with reference to the block diagram of FIG. The motion detector shown in FIG. 3 is a motion detector 78 of the encoder shown in FIG.
It is used as

【0017】図3は本発明の第1実施形態の構成を示
し、10は入力ブロックデータ、11は参照ブロックデ
ータであり、これらは共にインターレース画面となって
いる。該ブロックデータ10及び11について、同一パ
リティフィールド動き検出器12で動き検出が行われ、
動きベクトルV1及びブロックの予測誤差E1が出力さ
れる。また、近傍フィールド動き検出器13でも動き検
出が行われ、動きベクトルV2及び予測誤差E2が出力
される。さらに、フィールド間補間動き検出器14でも
動き検出が行われ、動きベクトルV3及び予測誤差E3
が出力される。
FIG. 3 shows the configuration of the first embodiment of the present invention, in which 10 is input block data, 11 is reference block data, and these are both interlaced screens. The block data 10 and 11 are subjected to motion detection by the same parity field motion detector 12,
The motion vector V1 and the prediction error E1 of the block are output. In addition, motion detection is also performed by the near field motion detector 13, and a motion vector V2 and a prediction error E2 are output. Further, the motion detection is also performed by the inter-field interpolation motion detector 14, and the motion vector V3 and the prediction error E3 are calculated.
Is output.

【0018】同一パリティフィールド動き検出器12、
近傍フィールド動き検出器13及びフィールド間補間動
き検出器14から出力された予測誤差E1、E2及びE
3は比較器15で比較される。比較器15は、予測誤差
E1、E2及びE3のうちの一番小さいものを選択し、
いずれの予測誤差を選択したかを表す信号である選択フ
ラグZMを出力する。選択器16は、選択フラグZMに
従って動きベクトルの選択を行い、一番小さい予測誤差
を出力した動き検出器からの動きベクトルを動きベクト
ルZVとして出力する。
The same parity field motion detector 12,
The prediction errors E1, E2, and E output from the near-field motion detector 13 and the inter-field interpolation motion detector 14.
3 is compared by the comparator 15. The comparator 15 selects the smallest one of the prediction errors E1, E2 and E3,
A selection flag ZM, which is a signal indicating which prediction error has been selected, is output. The selector 16 selects a motion vector according to the selection flag ZM, and outputs a motion vector from the motion detector that outputs the smallest prediction error as a motion vector ZV.

【0019】選択器16で選択フラグZMに基づいて動
きベクトルZVが選択された後、図1に示した動き補償
器79は、該動きベクトルに対応する参照ブロックを予
測信号として用いて動き補償を行う。この時、輝度信号
については動きベクトルはそのままの値が用いられる。
一方、色信号については、後述の説明から明らかになる
ように、ブロックサイズが水平方向で輝度の半分である
ため、水平方向の動きベクトルは半分にして用いられ、
これら輝度信号と色度信号とから予測信号が作成され
る。
After the selector 16 selects the motion vector ZV based on the selection flag ZM, the motion compensator 79 shown in FIG. 1 performs motion compensation using the reference block corresponding to the motion vector as a prediction signal. Do. At this time, the motion vector is used as it is for the luminance signal.
On the other hand, as for the color signal, as will be apparent from the description below, since the block size is half of the luminance in the horizontal direction, the motion vector in the horizontal direction is halved and used.
A prediction signal is created from the luminance signal and the chromaticity signal.

【0020】なお、図1に示した多重化器81から出力
された符号化出力を受信して復号化する、図示されてい
ない復号器側の処理概要を補足すると、この復号器は、
符号化器から送られてきた動き検出の種類及び動きベク
トル量により該当の参照ブロックを探し、動き補償を行
い、予測信号を作成する。
Incidentally, a supplementary outline of the processing on the decoder side (not shown) for receiving and decoding the encoded output output from the multiplexer 81 shown in FIG. 1 is as follows.
Based on the type of motion detection and the amount of motion vector sent from the encoder, a corresponding reference block is searched for, motion compensation is performed, and a prediction signal is created.

【0021】以下に、本実施形態の主要部の構成の具体
例を詳細に説明する。
Hereinafter, a specific example of the configuration of the main part of the present embodiment will be described in detail.

【0022】まず、図4を参照して、入力画面のブロッ
クデータの構成を詳細に説明する。入力ブロックの大き
さについては、輝度信号は16画素×16ライン、2つ
の色差信号についてはそれぞれが8画素×16ラインと
し、これらをまとめてマクロブロックと呼ぶ。符号化の
一連の処理はこのマクロブロック毎に行われる。
First, the configuration of block data of the input screen will be described in detail with reference to FIG. Regarding the size of the input block, the luminance signal is 16 pixels × 16 lines, and the two color difference signals are each 8 pixels × 16 lines, and these are collectively called a macroblock. A series of encoding processes is performed for each macroblock.

【0023】図4に示されているように、前記ブロック
は、奇数ラインに存在する奇数フィールドのデータ
(○)と、偶数ラインに存在する偶数フィールドのデー
タ(□)とから構成されている。フレームブロックは、
奇数ラインと偶数ラインとが交互に現れるデータから構
成され、フィールドブロックは、奇数ラインのデータの
みを集めたデータ、又は偶数ラインのデータのみを集め
たデータから構成される。
As shown in FIG. 4, the block is composed of data of an odd field present on an odd line (偶) and data of an even field present on an even line (□). The frame block is
The field block is composed of data in which odd lines and even lines alternately appear, and the field block is composed of data in which only odd line data is collected or data in which only even line data is collected.

【0024】動き検出に用いる参照ブロックについて
は、輝度信号のみを用いる。ブロックの大きさは検索す
る範囲に応じて変化する。例えば、検索範囲が主及び副
走査方向に±7画素の場合は、30画素×30ラインと
なる。なお、動き補償後に得られる予測誤差データのサ
イズは、輝度信号及び色差信号共に、図4の入力ブロッ
クと同様の構成となる。
For a reference block used for motion detection, only a luminance signal is used. The size of the block changes according to the search range. For example, when the search range is ± 7 pixels in the main and sub-scanning directions, the size is 30 pixels × 30 lines. The size of the prediction error data obtained after the motion compensation has the same configuration as the input block in FIG. 4 for both the luminance signal and the color difference signal.

【0025】図5(A)は、入力画面のブロックデータ
と参照画面のブロックデータを、垂直方向と時間軸方向
とから示したものである。奇数フィールドf1のデータ
(○)は奇数ラインに存在し、また、偶数フィールドf
2のデータ(□)は偶数ラインに存在する。
FIG. 5A shows the block data of the input screen and the block data of the reference screen in the vertical direction and the time axis direction. The data (○) of the odd field f1 exists on the odd line and the even field f1
The data (□) of 2 exists on the even-numbered line.

【0026】次に、同一パリティフィールド動き検出器
12の一具体例を、図6を参照して説明する。同一パリ
ティフィールドは、奇数フィールド同士又は偶数フィー
ルド同士であることを意味する。入力されたブロックデ
ータ10及び参照ブロックデータ11は、それぞれ入力
ブロックメモリ20及び参照ブロックメモリ21に一旦
記憶される。アドレス発生回路26からのアドレスに従
って入力ブロックメモリ20から動き検出を行う領域の
各フィールドデータと参照ブロックメモリ21からサー
チ用の領域の各フィールドデータとを取り出し、第1及
び第2フィールド予測誤差演算回路23及び24で誤差
の計算を行う。
Next, a specific example of the same parity field motion detector 12 will be described with reference to FIG. The same parity field means that it is between odd fields or between even fields. The input block data 10 and reference block data 11 are temporarily stored in the input block memory 20 and the reference block memory 21, respectively. The first and second field prediction error calculation circuits extract the respective field data of the area for performing motion detection from the input block memory 20 and the respective field data of the search area from the reference block memory 21 according to the address from the address generation circuit 26. At 23 and 24, an error is calculated.

【0027】この場合、16画素×16ラインの入力ブ
ロック信号に対して、図7(A)のように、入力画面の
奇数フィールドf1及び偶数フィールドf2に同一ベク
トルMV1及びMV2をそれぞれ用いて、奇数フィール
ドの入力データは奇数フィールドの参照データとの間
で、また、偶数フィールドの入力データは偶数フィール
ドの参照データとの間でのそれぞれ予測誤差信号が求め
られる。この予測誤差信号は、差分絶対値の累積和又は
差分二乗値の累積和等により求めることができる。第1
及び第2フィールド予測誤差演算回路23及び24で
は、上述のようにして、同一パリティフィールド間でか
つ同一ベクトルを用いて予測誤差信号が求められる。
In this case, with respect to an input block signal of 16 pixels × 16 lines, as shown in FIG. 7A, the odd fields f1 and the even fields f2 of the input screen use the same vectors MV1 and MV2, respectively. A prediction error signal is obtained between input data of a field and reference data of an odd field, and a prediction error signal between input data of an even field and reference data of an even field. This prediction error signal can be obtained from the cumulative sum of the absolute difference values or the cumulative sum of the squared difference values. First
In the second and third field prediction error calculation circuits 23 and 24, a prediction error signal is obtained between the same parity fields and using the same vector as described above.

【0028】最適ベクトル判定回路25は、第1及び第
2フィールド予測誤差演算回路23及び24で得られた
2つの予測誤差信号の合計を求め、合計予測誤差として
格納する。最適ベクトル判定回路25は、アドレス発生
回路26により全てのサーチ点をサーチした後、各サー
チ点での合計予測誤差を比較して、誤差値が最小になる
位置を求め、動きベクトルV1と予測誤差E1とを出力
する。
The optimum vector determination circuit 25 calculates the sum of the two prediction error signals obtained by the first and second field prediction error calculation circuits 23 and 24, and stores it as a total prediction error. After searching all the search points by the address generation circuit 26, the optimal vector determination circuit 25 compares the total prediction error at each search point to find a position where the error value is minimum, and calculates the motion vector V1 and the prediction error. E1 is output.

【0029】本実施形態では、さらに、小数点精度の補
間画素ブロックに対して動き検出を行い、動き検出精度
を向上させることが可能である。図5(B)のように元
の画素信号A及びB、又はC及びDに対して、例えば1
/2画素精度として同一フィールド内の上下ライン間に
p又はqのような補間信号を作成して補間画素ブロック
とすることができる。この場合、上下ライン間の補間信
号としては、奇数ラインは奇数ライン間で、偶数ライン
は偶数ライン間で作成する方法で、p=(A+B)/
2、q=(C+D)/2、…となる。これらの計算で、
精度向上のために四捨五入することが可能である。ま
た、上下ライン間の補間を更に1/4画素精度として動
き検出精度の向上を図ることも可能である。この場合、
図5(B)のようにs、t、u、v点についてs=(3
×A+B)/4のようにして補間画素を追加する。な
お、水平方向の画素間の補間信号については1/2画素
精度までとし、補間画素は左右の画素の平均により作成
する。
In the present embodiment, it is possible to further perform motion detection on an interpolation pixel block with decimal point accuracy, thereby improving the accuracy of motion detection. As shown in FIG. 5B, the original pixel signals A and B or C and D are
Interpolation signals such as p or q can be created between upper and lower lines in the same field with a / 2 pixel precision to make an interpolation pixel block. In this case, as an interpolation signal between the upper and lower lines, a method of forming odd lines between odd lines and forming even lines between even lines is given by p = (A + B) /
2, q = (C + D) / 2,... In these calculations,
It is possible to round to improve accuracy. It is also possible to improve the motion detection accuracy by further interpolating between the upper and lower lines by 1/4 pixel accuracy. in this case,
As shown in FIG. 5B, s = (3) for s, t, u, and v points.
× A + B) / 4 to add an interpolation pixel. Note that the interpolation signal between pixels in the horizontal direction is limited to 1/2 pixel accuracy, and the interpolation pixel is created by averaging the left and right pixels.

【0030】図6の場合、フィールド内補間回路22に
て各フィールド内の隣接ライン間及び隣接画素間におい
て補間画素を作成して、小数点精度の補間画素ブロック
とする。図7(B)は、隣接ライン間で補間画素p及び
qを作成し、同一ベクトルMV1及びMV2を用いて予
測誤差信号を求めて動き予測する様子を示している。
In the case of FIG. 6, an interpolated pixel is created between adjacent lines and between adjacent pixels in each field by the intra-field interpolation circuit 22 to obtain an interpolation pixel block with decimal point precision. FIG. 7B shows a state in which interpolation pixels p and q are created between adjacent lines, and motion estimation is performed by obtaining a prediction error signal using the same vectors MV1 and MV2.

【0031】次に、近傍フィールド動き検出器13の内
部の構成を、図8のブロック図を参照して説明する。入
力されたブロック信号10及び参照ブロック信号11
は、それぞれ入力ブロックメモリ20及び参照ブロック
メモリ21に一旦記憶される。アドレス発生回路26か
らのアドレスに従って、入力ブロックメモリ20から動
き検出を行う領域の各フィールドデータと、参照ブロッ
クメモリ21から入力フレームに時間的に近い位置にあ
るフィールド内のサーチ対象領域のデータとを取り出
し、第1及び第2フィールド予測誤差演算回路23及び
24で誤差の計算を行う。
Next, the internal configuration of the near field motion detector 13 will be described with reference to the block diagram of FIG. Input block signal 10 and reference block signal 11
Are temporarily stored in the input block memory 20 and the reference block memory 21, respectively. In accordance with the address from the address generation circuit 26, each field data of the area for which motion is to be detected from the input block memory 20 and data of a search target area in a field located nearer to the input frame from the reference block memory 21 are compared. The first and second field prediction error calculation circuits 23 and 24 calculate the error.

【0032】この場合、16画素×16ラインの入力ブ
ロック信号に対して、図9(A)のように、入力画面の
奇数フィールドf1及び偶数フィールドf2のいずれの
入力データに対しても、平行のベクトルMV1及びMV
2を用いて、近傍フィールドの参照データ(図9(A)
ではフィールドf2)との間で予測誤差信号を求める。
そして、最適ベクトル判定回路25では、第1及び第2
フィールド予測誤差演算回路で得られた2つの予測誤差
の合計を求めて、合計予測誤差として格納する。各サー
チ点での合計予測誤差を比較して誤差値が最小となる位
置を求め、動きベクトルV2と予測誤差E2を出力す
る。予測誤差信号としては、差分絶対値の累積和又は差
分二乗値の累積和等が利用できる。
In this case, with respect to an input block signal of 16 pixels × 16 lines, as shown in FIG. 9A, a parallel signal is applied to any of the odd field f1 and the even field f2 of the input screen. Vectors MV1 and MV
2, the reference data of the neighboring field (FIG. 9A)
Then, a prediction error signal is obtained between the prediction error signal and the field f2).
Then, in the optimal vector determination circuit 25, the first and second
The sum of the two prediction errors obtained by the field prediction error calculation circuit is obtained and stored as the total prediction error. By comparing the total prediction error at each search point, a position where the error value is minimum is obtained, and the motion vector V2 and the prediction error E2 are output. As the prediction error signal, a cumulative sum of absolute difference values or a cumulative sum of squared difference values can be used.

【0033】なお、各フィールドに対する動きベクトル
は、どちらか一方のベクトルを基本として、他方のベク
トルは時間的な距離比で換算した値を用いる。例えば、
図9(A)では、MV1を基本ベクトルとし、MV2と
しては、該基本ベクトルMV1を時間的な距離比kで換
算したベクトルを用いる。即ち、MV2=k×MV1と
する。
The motion vector for each field is based on one of the vectors, and the other vector uses a value converted by a temporal distance ratio. For example,
In FIG. 9A, MV1 is a basic vector, and MV2 is a vector obtained by converting the basic vector MV1 by a temporal distance ratio k. That is, MV2 = k × MV1.

【0034】図9(A)では、距離比が1対2であるた
め、k=2となる。また、距離比は参照画面に応じて一
意的に確定するため、符号化する動きベクトルは、一方
のベクトルのみとする。
In FIG. 9A, since the distance ratio is 1: 2, k = 2. In addition, since the distance ratio is uniquely determined according to the reference screen, only one of the motion vectors is encoded.

【0035】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フィールド内補間回路2
2にて近傍フィールド内の隣接ライン間及び隣接画素間
において補間画素を作成して、補間画素ブロックとす
る。図9(B)は、隣接ライン間で補間画素v及びqを
作成して、動き予測する様子を示している。
In order to improve the accuracy of motion detection,
Motion detection can be performed on an interpolation pixel block with decimal point precision. In this case, the intra-field interpolation circuit 2
In step 2, an interpolated pixel is created between adjacent lines and between adjacent pixels in a neighboring field, and is used as an interpolated pixel block. FIG. 9B illustrates a state in which interpolation pixels v and q are created between adjacent lines to perform motion prediction.

【0036】次に、本発明に関連するフィールド間補間
動き検出器14の内部の構成を、図10を参照して説明
する。入力されたブロック信号10及び参照ブロック信
号11は、それぞれ入力ブロックメモリ20及び参照ブ
ロックメモリ21に一旦記憶される。アドレス発生回路
26からのアドレスに従って、入力ブロックメモリ20
から動き検出を行う領域の各フィールドデータと、参照
ブロックメモリ21からサーチ用の領域の各フィールド
データとを取り出し、参照フィールドデータはフィール
ド合成回路27にてフィールド間でデータの合成が行わ
れた後、予測データとして、第1及び第2フィールド予
測誤差演算回路23及び24で予測誤差の計算を行う。
Next, the internal configuration of the inter-field interpolation motion detector 14 related to the present invention will be described with reference to FIG. The input block signal 10 and reference block signal 11 are temporarily stored in the input block memory 20 and the reference block memory 21, respectively. According to the address from the address generation circuit 26, the input block memory 20
From the reference block memory 21 and the field data of the search area from the reference block memory 21. The reference field data is obtained after the data synthesis between the fields is performed by the field synthesis circuit 27. As the prediction data, the first and second field prediction error calculation circuits 23 and 24 calculate the prediction error.

【0037】この場合、ブロック信号は16画素×16
ラインの入力ブロック信号に対して、図11(A)のよ
うに、参照画面中の奇数フィールド及び偶数フィールド
の両方のデータを合成した参照画素w及びxと入力画面
の奇数フィールド及び偶数フィールドとの間で、平行の
ベクトルを用いて予測誤差信号を求める。そして、最適
ベクトル判定回路25では、第1及び第2フィールド予
測誤差演算回路で得られた2つの予測誤差の合計を求め
て、合計予測誤差として格納する。各サーチ点での合計
予測誤差を比較して誤差値が最小となる位置を求め、動
きベクトルV3と予測誤差E3を出力する。参照画面の
偶数フィールドと奇数フィールドデータとの合成には、
単純平均や、時間的な距離に応じて重み付けをしたデー
タの平均を利用することができる。この場合、動きベク
トルは同一パリティ、また、予測誤差信号としては差分
絶対値の累積和又は差分二乗値の累積和等が利用でき
る。
In this case, the block signal is 16 pixels × 16
As shown in FIG. 11A, for the input block signal of the line, as shown in FIG. 11A, the reference pixels w and x obtained by synthesizing the data of both the odd field and the even field in the reference screen and the odd field and the even field of the input screen are displayed. Between them, a prediction error signal is obtained using parallel vectors. Then, the optimum vector determination circuit 25 calculates the sum of the two prediction errors obtained by the first and second field prediction error calculation circuits and stores the sum as the total prediction error. By comparing the total prediction error at each search point, a position where the error value is minimum is obtained, and a motion vector V3 and a prediction error E3 are output. To combine the even field and the odd field data of the reference screen,
A simple average or an average of data weighted according to a temporal distance can be used. In this case, the motion vector can use the same parity, and the prediction error signal can be a cumulative sum of absolute difference values or a cumulative sum of difference square values.

【0038】なお、各フィールドに対する動きベクトル
は、どちらか一方のベクトルを基本として、他方のベク
トルは時間的な距離比で換算した値を用いる。例えば、
図11(A)で、基本のベクトルを入力画面のf1と参
照画面のf1間とし、これをMV1(第1の動きベクト
ル)とする。入力画面のf1に必要な参照データは、M
V1による参照画面のf1でのデータ(第1の予測信
号)と、MV1を参照画面のf2に写影した位置にある
f2のデータ(時間的な距離に応じて第1の動きベクト
ルを換算して得た第2の予測信号)とを合成したもの
(第3の予測信号)を用いる。
The motion vector for each field is based on one of the vectors, and the other vector uses a value converted by a temporal distance ratio. For example,
In FIG. 11 (A), a basic vector is set between f1 on the input screen and f1 on the reference screen, and this is set as MV1 (first motion vector). Reference data required for f1 on the input screen is M
Conversion of the first motion vector according to the data at f1 of the reference screen by V1 (first prediction signal) and the data of f2 at the position where MV1 is projected onto f2 of the reference screen (temporal distance) (Third predicted signal) obtained by synthesizing the second predicted signal obtained by the above-described method.

【0039】また、入力画面のf2及び参照画面のf1
間のベクトルをMV2とすると、MV2に対しては、M
V1(第1の動きベクトル)を時間的な距離比kで換算
した値を用いる。即ち、MV2=k×MV1とする。図
11(A)では、距離比が2対3であるため、k=3/
2となる。入力画面のf2に必要な参照データは、MV
2による参照画面のf1でのデータ(時間的な距離に応
じて第1の動きベクトルを換算して得た第4の予測信
号)とMV2を参照画面のf2に写影した位置にあるf
2のデータ(第1の動きベクトルを用いて得た第5の予
測信号)とを合成したもの(第6の予測信号)を用い
る。
Further, f2 of the input screen and f1 of the reference screen
If the vector between them is MV2, for MV2, M
A value obtained by converting V1 (first motion vector) by a temporal distance ratio k is used. That is, MV2 = k × MV1. In FIG. 11A, since the distance ratio is 2 to 3, k = 3 /
It becomes 2. The reference data required for f2 on the input screen is MV
2 (fourth prediction signal obtained by converting the first motion vector according to the temporal distance) and MV2 at the position where f2 of the reference screen is mapped to f2 of the reference screen.
(Sixth prediction signal) obtained by synthesizing the second data (the fifth prediction signal obtained using the first motion vector).

【0040】また、参照画面に応じて距離比が一意的に
確定するため、符号化する動きベクトルは一方のベクト
ルのみとする。なお、動き検出精度を向上させるため
に、小数点精度の補間画素ブロックに対して動き検出を
行うことが可能である。この場合、フィールド内補間回
路22にて各フィールド内の隣接ライン間及び隣接画素
間において補間画素を作成して、補間画素ブロックとす
る。図11(B)は、隣接ライン間及び隣接画素間で補
間画素y及びzを作成して、動き予測する様子を示して
いる。
Further, since the distance ratio is uniquely determined according to the reference screen, only one of the motion vectors is encoded. In order to improve the accuracy of motion detection, motion detection can be performed on an interpolation pixel block with decimal point accuracy. In this case, an interpolated pixel is created by an intra-field interpolation circuit 22 between adjacent lines and between adjacent pixels in each field to form an interpolated pixel block. FIG. 11B shows a state in which interpolation pixels y and z are created between adjacent lines and between adjacent pixels, and motion estimation is performed.

【0041】本発明の実施にあたっては種々の変形形態
が可能である。例えばブロックのサイズは、16画素×
16ラインに限らずに32画素×32ライン等種々のサ
イズが適用可能である。また色信号ブロックについて
は、例えば8画素×8ラインの場合には、動き検出で得
られた水平方向動きベクトル及び垂直方向ベクトルの両
方を半分にして予測信号を作成するようにしてもよい。
In implementing the present invention, various modifications are possible. For example, the size of a block is 16 pixels ×
Various sizes such as 32 pixels × 32 lines are applicable without being limited to 16 lines. For a color signal block, for example, in the case of 8 pixels × 8 lines, a prediction signal may be created by halving both the horizontal motion vector and the vertical vector obtained by motion detection.

【0042】次に、本発明の第2実施形態について説明
する。この実施形態は、図12のように、同一パリティ
フィールド動き検出器12、近傍フィールド動き検出器
13及びフィールド間補間動き検出器14を、フレーム
動き検出器17やフィールド動き検出器18と組み合わ
せたものである。本実施形態においては、前記各検出器
12、13、14、17及び18で検出された予測誤差
値E1、E2、E3、ER及びEFを比較器15に入力
する。比較器15は、これらの予測誤差値の中から一番
小さいものを選び、選択プラグZMを出力する。選択器
16は、選択フラグZMに基づいて最も小さい予測誤差
値をもつ動き検出器の動きベクトルV1、V2、V3、
VR又はVFを選択し、ZVとして出力する。
Next, a second embodiment of the present invention will be described. In this embodiment, as shown in FIG. 12, the same parity field motion detector 12, near field motion detector 13 and inter-field interpolation motion detector 14 are combined with a frame motion detector 17 and a field motion detector 18. It is. In this embodiment, the prediction error values E1, E2, E3, ER and EF detected by the detectors 12, 13, 14, 17 and 18 are input to the comparator 15. The comparator 15 selects the smallest prediction error value from these prediction error values and outputs a selection plug ZM. The selector 16 selects the motion vectors V1, V2, V3,... Of the motion detector having the smallest prediction error value based on the selection flag ZM.
VR or VF is selected and output as ZV.

【0043】ここで、フレーム動き検出器17の内部の
構成を、図13を参照して説明する。ここでは、入力ブ
ロックデータ10及び参照ブロックデータ11は、それ
ぞれ入力ブロックメモリ20と参照ブロックメモリ21
に一旦記憶される。アドレス発生回路26からのアドレ
スに従って、入力ブロックメモリ20から動き検出を行
う領域のフレームデータと参照ブロックメモリ21から
サーチ用の領域のフレームデータを取り出し、フレーム
予測誤差演算回路29で誤差の計算を行う。
Here, the internal configuration of the frame motion detector 17 will be described with reference to FIG. Here, the input block data 10 and the reference block data 11 are stored in the input block memory 20 and the reference block memory 21 respectively.
Is stored once. In accordance with the address from the address generation circuit 26, the frame data of the area for which motion is to be detected from the input block memory 20 and the frame data of the search area from the reference block memory 21 are extracted, and the error is calculated by the frame prediction error calculation circuit 29. .

【0044】この場合、図14(A)のように、2つの
フィールド(○と●が奇数フィールドデータ、□と■が
偶数フィールドデータ)が交互に並んで構成されるフレ
ーム画面Fにおいて、入力画面のフレームと参照画面の
フレームとの間での予測誤差信号を求める。最適ベクト
ル判定回路25は、参照画面をアドレス発生回路26か
らのアドレスによりサーチして求められた各サーチ点で
の予測誤差信号を比較して、この誤差が最小となる位置
を求め、動きベクトルVRと予測誤差ERを出力する。
In this case, as shown in FIG. 14A, in a frame screen F in which two fields (○ and ● are odd field data and □ and Δ are even field data) are alternately arranged, an input screen And a prediction error signal between the frame of the reference screen and the frame of the reference screen. The optimum vector determination circuit 25 compares the prediction error signal at each search point obtained by searching the reference screen with the address from the address generation circuit 26, obtains a position where this error is minimized, and obtains the motion vector VR. And the prediction error ER.

【0045】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フレーム内補間回路28
にて、同一フレーム内の隣接ライン間及び隣接画素間に
おいて、補間画素を作成して小数点精度の補間画素ブロ
ックとする。図14(B)は、隣接ライン間で補間画素
を作成して動き予測する様子を示している。
In order to improve the accuracy of motion detection,
Motion detection can be performed on an interpolation pixel block with decimal point precision. In this case, the intra-frame interpolation circuit 28
Then, an interpolated pixel is created between adjacent lines and between adjacent pixels in the same frame to be an interpolation pixel block with decimal point precision. FIG. 14B shows a state in which an interpolation pixel is created between adjacent lines and motion estimation is performed.

【0046】次に、フィールド動き検出器17の内部の
構成を、図15を参照して説明する。ここでは、入力ブ
ロックデータ10及び参照ブロックデータ11は、それ
ぞれ入力ブロックメモリ20及び参照ブロックメモリ2
1に一旦記憶される。アドレス発生回路26からのアド
レスに従って、入力ブロックメモリ20から動き検出を
行う領域のフィールドデータと参照ブロックメモリ21
からサーチ用の領域のフィールドデータとを取り出し、
第1フィールド予測誤差演算回路23及び第2フィール
ド予測誤差演算回路24にて各フィールドの予測誤差の
計算を行う。
Next, the internal configuration of the field motion detector 17 will be described with reference to FIG. Here, the input block data 10 and the reference block data 11 are stored in the input block memory 20 and the reference block memory 2 respectively.
1 is stored once. In accordance with the address from the address generation circuit 26, the field data of the area where the motion is to be detected from the input block
From the field data for the search area,
The first field prediction error calculation circuit 23 and the second field prediction error calculation circuit 24 calculate the prediction error of each field.

【0047】この場合、図16(A)のように、入力画
面の奇数フィールドf1及び偶数フィールドf2にそれ
ぞれ異なるベクトル(MV1、MV2)を用いて、奇数
フィールドの入力データは奇数フィールド又は偶数フィ
ールドの参照データとの間で、また偶数フィールドの入
力データは偶数フィールド又は奇数フィールドの参照デ
ータとの間で予測誤差信号を求める。最適ベクトル判定
回路25は、第1及び第2フィールド予測誤差演算回路
で得られた2つの予測誤差の合計を求めて、合計予測値
として格納する。各サーチ点での合計予測誤差を比較し
て、誤差値が最小となる位置を求め、入力フィールドに
対する動きベクトルVFと予測誤差EFを出力する。
In this case, as shown in FIG. 16A, different vectors (MV1 and MV2) are used for the odd field f1 and the even field f2 of the input screen, and the input data of the odd field or the even field is used. A prediction error signal is obtained between the reference data and the input data of the even field and the reference data of the even field or the odd field. The optimum vector determination circuit 25 calculates the sum of the two prediction errors obtained by the first and second field prediction error calculation circuits and stores the sum as a total predicted value. By comparing the total prediction error at each search point, a position where the error value is minimized is obtained, and a motion vector VF and a prediction error EF for the input field are output.

【0048】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フィールド内補間回路2
2にて、各フィールド内の隣接ライン間及び隣接画素間
において、補間画素を作成して小数点精度の補間画素ブ
ロックとする。図16(B)は、隣接ライン間で補間画
素を作成して動き予測する様子を示している。
In order to improve the accuracy of motion detection,
Motion detection can be performed on an interpolation pixel block with decimal point precision. In this case, the intra-field interpolation circuit 2
In step 2, an interpolated pixel is created between adjacent lines and between adjacent pixels in each field to form an interpolated pixel block with decimal point precision. FIG. 16B shows a state in which an interpolation pixel is created between adjacent lines and motion estimation is performed.

【0049】本実施形態によれば、フレーム動き検出器
17とフィールド動き検出器18とが加えられているの
で、第1実施形態に比べて、さらに予測精度を向上させ
ることが可能である。ただしこの場合、動き検出方式の
選択フラグZMの増加と演算時間の増加が見込まれる。
According to the present embodiment, since the frame motion detector 17 and the field motion detector 18 are added, it is possible to further improve the prediction accuracy as compared with the first embodiment. However, in this case, an increase in the selection flag ZM of the motion detection method and an increase in the calculation time are expected.

【0050】次に、本発明の第3実施形態について説明
する。この実施形態は、前記同一パリティフィールド動
き検出器12、近傍フィールド動き検出器13及びフィ
ールド間補間動き検出器14に、図17及び図18に示
されているような、逆パリティフィールド動き検出や遠
方フィールド動き検出を組み合わせたものである。
Next, a third embodiment of the present invention will be described. In this embodiment, the same parity field motion detector 12, the near field motion detector 13 and the inter-field interpolation motion detector 14 are provided with the inverse parity field motion detection and the distant field motion detection as shown in FIGS. It combines field motion detection.

【0051】この場合、図17における逆パリティフィ
ールド動き検出は、図7の同一パリティフィールド動き
検出とは逆に、入力画面の奇数フィールド及び偶数フィ
ールドに同一ベクトルを用いて、それぞれ奇数フィール
ドの入力データは偶数フィールドの参照データとの間
で、また偶数フィールドの入力データは奇数フィールド
の参照データとの間での動き検出を行うものである。
In this case, the inverse parity field motion detection in FIG. 17 uses the same vector for the odd field and the even field of the input screen, as opposed to the same parity field motion detection in FIG. Performs motion detection between reference data of an even field and input data of an even field.

【0052】さらに、図18における遠方フィールド動
き検出は、図9の近傍フィールド動き検出とは逆に、入
力画面の奇数フィールド及び偶数フィールドに同一ベク
トルを用いて、奇数フィールド及び偶数フィールドいず
れの入力データに対しても時間的に遠方のフィールドの
参照データ(図18ではフィールドf1)との間で動き
検出を行うものである。
Further, the far field motion detection in FIG. 18 is different from the near field motion detection in FIG. 9 in that the same vector is used for the odd field and the even field of the input screen, and the input data of either the odd field or the even field is used. , Motion detection is performed with reference data (field f1 in FIG. 18) of a temporally distant field.

【0053】また、本発明においては、参照画面と入力
画面の時間的な距離又は位置は、任意である。例えば6
フレーム離れた参照画面を参照したり、時間的に後に位
置する参照画面を参照することが可能である。後者の場
合、時間的に逆方向の動き補償を行うことになる。
In the present invention, the temporal distance or position between the reference screen and the input screen is arbitrary. For example, 6
It is possible to refer to a reference screen separated by a frame or to a reference screen located later in time. In the latter case, motion compensation in the reverse direction is performed temporally.

【0054】また、参照画面の数についても自由であ
る。例えば、入力画面に対して時間的に前後に位置する
複数の参照画面のそれぞれに本発明を用いて最適予測画
面を得る。そして、それぞれの最適予測画面に対して時
間フィルタを施して合成された新たな画面を、予測画面
とすることも可能である。
Also, the number of reference screens is free. For example, the present invention is used to obtain an optimal prediction screen for each of a plurality of reference screens located before and after the input screen. Then, a new screen synthesized by applying a time filter to each optimal prediction screen can be used as the prediction screen.

【0055】[0055]

【発明の効果】以上に説明したように本発明によれば、
特定の参照フィールドを設定し、特定の参照フィールド
と入力フィールドとの間の第1の動きベクトルを用いて
特定の参照フィールドから入力フィールドを予測した第
1の予測信号を求め、特定の参照フィールドと入力フィ
ールドとの間の時間的な距離と他の参照フィールドと入
力フィールドとの間の時間的な距離との比率に応じて第
1の動きベクトルの大きさを換算することにより、他の
参照フィールドから入力フィールドを予測した第2の予
測信号を求め、第1及び第2の予測信号を合成して入力
フィールドの第3の予測信号を得ている。より具体的に
は、一方のパリティを持つ入力フィールドを、この一方
のパリティ及び他方のパリティをそれぞれ有する2つの
参照フィールドを合成して予測する際、一方のパリティ
を持つ参照フィールドから同じ一方のパリティを持つ入
力フィールドへの予測は第1の動きベクトルを用いて行
い、他方のパリティを持つ参照フィールドから一方のパ
リティを持つ入力フィールドへの予測は、フィールド間
距離で第1の動きベクトルの大きさを換算した第2の動
きベクトルを用いて行っている。このため、符号化すべ
き動きベクトルは第1のベクトルのみとなり、符号化に
必要な情報量を削減することができ、符号化効率を大幅
に向上させることができる。このように、符号化が必要
なベクトルがブロック当り1つのベクトル(第1の動き
ベクトル)だけであるため、従来フィールド信号のみの
動き補償で問題となっていたベクトル量の負担について
も半分に軽減することができ、画質の向上及び伝送情報
量の削減を実現することが可能である。効果の一例とし
て、ISOテスト動画像(Flower Garde
n、Bicycle)をCCIR601画像フォーマッ
トにおいて、4Mbit/sのビットレートで画質(S
/N比)はフレーム動き補償とフィールド動き補償を適
応的に用いた方式に比較して0.5〜1.0dB向上、
動きベクトル情報伝送量は30〜60%削減できた。
According to the present invention as described above,
A specific reference field is set, a first motion vector between the specific reference field and the input field is used to determine a first prediction signal that predicts the input field from the specific reference field, and the specific reference field and By converting the magnitude of the first motion vector according to the ratio of the temporal distance between the input field and the temporal distance between the other reference field and the input field, the other reference field , A second prediction signal obtained by predicting the input field is obtained, and the first and second prediction signals are combined to obtain a third prediction signal of the input field. More specifically, when an input field having one parity is predicted by combining two reference fields each having one parity and the other parity, the same one parity is used from the reference field having one parity. Is predicted using the first motion vector, and the prediction from the reference field having the other parity to the input field having one parity is performed based on the distance between the fields by the magnitude of the first motion vector. Is performed using the second motion vector obtained by converting For this reason, the motion vector to be coded is only the first vector, the amount of information necessary for coding can be reduced, and coding efficiency can be greatly improved. As described above, since only one vector (first motion vector) needs to be coded per block, the load of the vector amount, which has conventionally been a problem in motion compensation of only the field signal, is reduced to half. It is possible to improve the image quality and reduce the amount of transmitted information. As an example of the effect, an ISO test video (Flower Garde
n, Bicycle) in the CCIR601 image format at a bit rate of 4 Mbit / s.
/ N ratio) is improved by 0.5 to 1.0 dB as compared with a system adaptively using frame motion compensation and field motion compensation.
The amount of motion vector information transmission was reduced by 30 to 60%.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来のインターレース動画像の動き補償予測装
置のブロック図である。
FIG. 1 is a block diagram of a conventional motion compensation prediction apparatus for interlaced moving images.

【図2】従来の動き検出部のブロック図である。FIG. 2 is a block diagram of a conventional motion detection unit.

【図3】本発明の第1実施形態の動き検出部のブロック
図である。
FIG. 3 is a block diagram of a motion detection unit according to the first embodiment of the present invention.

【図4】入力画面のブロックデータの構成の一例を示す
説明図である。
FIG. 4 is an explanatory diagram showing an example of a configuration of block data of an input screen.

【図5】入力画面のブロックデータと参照画面のブロッ
クデータの一部を、垂直方向と時間軸方向から示した画
面データの構成図である。
FIG. 5 is a configuration diagram of screen data showing a part of block data of an input screen and block data of a reference screen in a vertical direction and a time axis direction.

【図6】同一パリティ動き検出器の一具体例を示すブロ
ック図である。
FIG. 6 is a block diagram showing a specific example of the same parity motion detector.

【図7】同一パリティ動き検出器の動作原理の説明図で
ある。
FIG. 7 is an explanatory diagram of the operation principle of the same parity motion detector.

【図8】近傍フィールド動き検出器の一具体例を示すブ
ロック図である。
FIG. 8 is a block diagram showing a specific example of a near field motion detector.

【図9】近傍フィールド動き検出器の動作原理の説明図
である。
FIG. 9 is an explanatory diagram of the operation principle of the near field motion detector.

【図10】フィールド間補間動き検出器の一具体例を示
すブロック図である。
FIG. 10 is a block diagram showing a specific example of an inter-field interpolation motion detector.

【図11】フィールド間補間動き検出器の動作原理の説
明図である。
FIG. 11 is an explanatory diagram of the operation principle of the inter-field interpolation motion detector.

【図12】本発明の第2実施形態の動き検出部のブロッ
ク図である。
FIG. 12 is a block diagram of a motion detection unit according to the second embodiment of the present invention.

【図13】フレーム動き検出器の一具体例を示すブロッ
ク図である。
FIG. 13 is a block diagram illustrating a specific example of a frame motion detector.

【図14】フレーム動き検出器の動作原理の説明図であ
る。
FIG. 14 is an explanatory diagram of the operation principle of the frame motion detector.

【図15】フィールド動き検出器の一具体例を示すブロ
ック図である。
FIG. 15 is a block diagram showing a specific example of a field motion detector.

【図16】フィールド動き検出器の動作原理の説明図で
ある。
FIG. 16 is an explanatory diagram of the operation principle of the field motion detector.

【図17】本発明の第3実施形態に使用される逆パリテ
ィフィールド動き検出器の動作原理の説明図である。
FIG. 17 is an explanatory diagram of the operation principle of the inverse parity field motion detector used in the third embodiment of the present invention.

【図18】遠方フィールド動き検出器の動作原理の説明
図である。
FIG. 18 is an explanatory diagram of the operation principle of the far field motion detector.

【符号の説明】[Explanation of symbols]

10 入力画面 11 参照画面 12 同一パリティフィールド動き検出器 13 近傍フィールド動き検出器 14 フィールド間補間動き検出器 15 比較器 16 選択器 71 減算器 72 符号化器 73 量子化器 74 逆量子化器 75 復号器 76 加算器 77 フレームメモリ 78 動き検出部 79 動き補償器 80 可変長符号化器 81 多重化器 84 フレーム動き検出器 85 フィールド動き検出器 86 選択器 87 比較器 10 Input Screen 11 Reference Screen 12 Same Parity Field Motion Detector 13 Near Field Motion Detector 14 Inter-Field Interpolation Motion Detector 15 Comparator 16 Selector 71 Subtractor 72 Encoder 73 Quantizer 74 Dequantizer 75 Decoding Unit 76 adder 77 frame memory 78 motion detector 79 motion compensator 80 variable length encoder 81 multiplexer 84 frame motion detector 85 field motion detector 86 selector 87 comparator

フロントページの続き (56)参考文献 特開 平5−41861(JP,A) 特開 平5−37915(JP,A) 特開 平3−226193(JP,A) 1991年テレビジョン学会年次大会講演 予稿集、p.313−314 1991年電子情報通信学会春季全国大会 講演論文集分冊7、p.64 1990年画像符号化シンポジウム(PC SJ90)第5回シンポジウム資料、p. 175−177 電子情報通信学会技術研究報告(IE 88−97)、第88巻、第411号、p.47− 54 (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 H04N 11/04 Continuation of the front page (56) References JP-A-5-41861 (JP, A) JP-A-5-37915 (JP, A) JP-A-3-226193 (JP, A) 1991 Annual Meeting of the Institute of Television Engineers of Japan Proceedings of lectures, p. 313-314 1991 IEICE Spring National Convention Lecture Paper Volume 7, p. 64 1990 Image Coding Symposium (PC SJ90) 5th Symposium, pp. 175-177 IEICE Technical Report (IE 88-97), Vol. 88, No. 411, p. 47−54 (58) Field surveyed (Int.Cl. 7 , DB name) H04N 7/ 24-7/68 H04N 11/04

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 連続的に入力される画像信号に対する動
画像信号の動き補償予測方法であって、特定の参照フィ
ールドを設定し、該特定の参照フィールドと入力フィー
ルドとの間の第1の動きベクトルを用いて前記特定の参
照フィールドから前記入力フィールドを予測した第1の
予測信号を求め、前記特定の参照フィールドと前記入力
フィールドとの間の時間的な距離と他の参照フィールド
と前記入力フィールドとの間の時間的な距離との比率に
応じて前記第1の動きベクトルの大きさを換算すること
により、前記他の参照フィールドから前記入力フィール
ドを予測した第2の予測信号を求め、前記第1及び第2
の予測信号を合成して前記入力フィールドの第3の予測
信号を得ることを特徴とするインターレース動画像信号
の動き補償予測方法。
1. A motion compensation prediction method for a moving image signal for a continuously input image signal, wherein a specific reference field is set, and a first motion between the specific reference field and the input field is set. A first prediction signal is obtained by predicting the input field from the specific reference field using a vector, and a temporal distance between the specific reference field and the input field, another reference field, and the input field are determined. By converting the magnitude of the first motion vector according to the ratio to the temporal distance between the second reference signal and the second reference signal, a second prediction signal that predicts the input field from the other reference field is obtained. First and second
A motion compensation prediction method for an interlaced moving image signal, wherein a third prediction signal of the input field is obtained by combining the prediction signals of
【請求項2】 請求項1に記載のインターレース動画像
信号の動き補償予測方法によって求めた入力フィールド
の予測信号と該入力フィールドとの差分である予測誤差
画面を符号化することを特徴とするインターレース動画
像信号の符号化方法。
2. An interlace encoding method for encoding a prediction error screen, which is a difference between a prediction signal of an input field obtained by the motion compensation prediction method for an interlace video signal according to claim 1 and the input field. An encoding method of a moving image signal.
【請求項3】 一方のパリティを持つ参照フィールドか
ら該一方のパリティを持つ入力フィールドを予測する第
1の動きベクトルを用いて前記一方のパリティを持つ参
照フィールドから前記一方のパリティを持つ入力フィー
ルドを予測した第1の予測信号を求め、前記一方のパリ
ティを持つ参照フィールドと前記一方のパリティを持つ
入力フィールドとの間の時間的な距離と他方のパリティ
を持つ参照フィールドと前記一方のパリティを持つ入力
フィールドとの間の時間的な距離との比率に応じて前記
第1の動きベクトルの大きさを換算することにより、前
記他方のパリティを持つ参照フィールドから前記一方の
パリティを持つ入力フィールドを予測した第2の予測信
号を求め、前記第1及び第2の予測信号を合成して前記
一方のパリティを持つ入力フィールドの第3の予測信号
を求め、前記一方のパリティを持つ参照フィールドと前
記一方のパリティを持つ入力フィールドとの間の時間的
な距離と前記一方のパリティを持つ参照フィールドと前
記他方のパリティを持つ入力フィールドと間の時間的な
距離との比率に応じて前記第1の動きベクトルの大きさ
を換算することにより、前記一方のパリティを持つ参照
フィールドから前記他方のパリティを持つ入力フィール
ドを予測した第4の予測信号を求め、前記第1の動きベ
クトルを用いて前記他方のパリティを持つ参照フィール
ドから該他方のパリティを持つ入力フィールドを予測し
た第5の予測信号を求め、前記第4及び第5の予測信号
を合成して前記他方のパリティを持つ入力フィールドの
第6の予測信号を求めることを特徴とするインターレー
ス動画像信号の動き補償予測方法。
3. A method for predicting an input field having one parity from a reference field having one parity by using the first motion vector to convert the input field having one parity from the reference field having one parity. A first predicted signal is obtained, and a temporal distance between the reference field having the one parity and the input field having the one parity, and a reference field having the other parity and the one parity are provided. The input field having one parity is predicted from the reference field having the other parity by converting the magnitude of the first motion vector according to a ratio of the temporal distance to the input field. A second predicted signal obtained is obtained, and the first and second predicted signals are combined to hold the one parity. A third prediction signal of one input field is obtained, and a temporal distance between the reference field having the one parity and the input field having the one parity, the reference field having the one parity, and the other By converting the magnitude of the first motion vector according to the ratio of the temporal distance to the input field having parity, the input field having the other parity is converted from the reference field having the one parity. And a fifth prediction signal that predicts the input field having the other parity from the reference field having the other parity by using the first motion vector is calculated. Combining a fourth prediction signal and a fifth prediction signal to obtain a sixth prediction signal of the input field having the other parity. Motion compensated prediction method that interlaced moving image signals.
【請求項4】 前記一方のパリティを持つ入力フィール
ドは前記第3の予測信号を用いて予測し、前記他方のパ
リティを持つ入力フィールドは前記第6の予測信号を用
いて予測することを特徴とする請求項3に記載の方法。
4. The input field having one parity is predicted using the third prediction signal, and the input field having the other parity is predicted using the sixth prediction signal. 4. The method of claim 3, wherein the method comprises:
【請求項5】 請求項3又は4に記載のインターレース
動画像信号の動き補償予測方法によって求めた入力フィ
ールドの予測信号と該入力フィールドとの差分である予
測誤差画面を符号化することを特徴とするインターレー
ス動画像信号の符号化方法。
5. A prediction error screen, which is a difference between a prediction signal of an input field obtained by the motion compensation prediction method of an interlaced video signal according to claim 3 and the input field, is encoded. Encoding method of an interlaced moving image signal.
【請求項6】 一方のパリティを持つ参照フィールドか
ら該一方のパリティを持つ入力フィールドを予測する第
1の動きベクトルを用いて前記一方のパリティを持つ参
照フィールドから前記一方のパリティを持つ入力フィー
ルドを予測した第1の予測信号を求め、前記一方のパリ
ティを持つ参照フィールドと前記一方のパリティを持つ
入力フィールドとの間の時間的な距離と他方のパリティ
を持つ参照フィールドと前記一方のパリティを持つ入力
フィールドとの間の時間的な距離との比率に応じて前記
第1の動きベクトルの大きさを換算することにより、前
記他方のパリティを持つ参照フィールドから前記一方の
パリティを持つ入力フィールドを予測した第2の予測信
号を求め、前記第1及び第2の予測信号を合成して前記
一方のパリティを持つ入力フィールドの第3の予測信号
を求め、前記一方のパリティを持つ参照フィールドと前
記一方のパリティを持つ入力フィールドとの間の時間的
な距離と前記一方のパリティを持つ参照フィールドと前
記他方のパリティを持つ入力フィールドと間の時間的な
距離との比率に応じて前記第1の動きベクトルの大きさ
を換算することにより、前記一方のパリティを持つ参照
フィールドから前記他方のパリティを持つ入力フィール
ドを予測した第4の予測信号を求め、前記第1の動きベ
クトルを用いて前記他方のパリティを持つ参照フィール
ドから該他方のパリティを持つ入力フィールドを予測し
た第5の予測信号を求め、前記第4及び第5の予測信号
を合成して前記他方のパリティを持つ入力フィールドの
第6の予測信号を求める動き補償予測手段と、入力フレ
ームについて前記第1の動きベクトルの符号化を行う符
号化手段とを備えたことを特徴とするインターレース動
画像信号の符号化装置。
6. A method for predicting an input field having one parity from a reference field having one parity by using a first motion vector to convert an input field having one parity from the reference field having one parity. A first predicted signal is obtained, and a temporal distance between the reference field having the one parity and the input field having the one parity, and a reference field having the other parity and the one parity are provided. The input field having one parity is predicted from the reference field having the other parity by converting the magnitude of the first motion vector according to a ratio of the temporal distance to the input field. A second predicted signal obtained is obtained, and the first and second predicted signals are combined to hold the one parity. A third prediction signal of one input field is obtained, and a temporal distance between the reference field having the one parity and the input field having the one parity, the reference field having the one parity, and the other By converting the magnitude of the first motion vector according to the ratio of the temporal distance to the input field having parity, the input field having the other parity is converted from the reference field having the one parity. And a fifth prediction signal that predicts the input field having the other parity from the reference field having the other parity by using the first motion vector is calculated. Motion compensated prediction for combining the fourth and fifth predicted signals to obtain a sixth predicted signal of the input field having the other parity Stage and coding apparatus interlaced moving picture signal, characterized in that a coding unit for encoding the first motion vector for the input frame.
【請求項7】 前記動き補償予測手段が、前記一方のパ
リティを持つ入力フィールドは前記第3の予測信号を用
いて予測し、前記他方のパリティを持つ入力フィールド
は前記第6の予測信号を用いて予測するように構成され
ていることを特徴とする請求項6に記載の装置。
7. The motion compensation prediction means predicts an input field having the one parity using the third prediction signal, and uses the sixth prediction signal for the input field having the other parity. 7. The apparatus according to claim 6, wherein the apparatus is configured to make predictions.
JP17468793A 1992-07-03 1993-06-23 Motion compensated prediction method, coding method and apparatus for interlaced video signal Expired - Lifetime JP3201079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17468793A JP3201079B2 (en) 1992-07-03 1993-06-23 Motion compensated prediction method, coding method and apparatus for interlaced video signal

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19902092 1992-07-03
JP4-199020 1992-07-03
JP17468793A JP3201079B2 (en) 1992-07-03 1993-06-23 Motion compensated prediction method, coding method and apparatus for interlaced video signal

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP12277698A Division JP3201343B2 (en) 1992-07-03 1998-04-17 Motion compensation prediction device for interlaced video
JP12277798A Division JP3201344B2 (en) 1992-07-03 1998-04-17 Motion compensated prediction method and coding apparatus for interlaced video signal

Publications (2)

Publication Number Publication Date
JPH0678298A JPH0678298A (en) 1994-03-18
JP3201079B2 true JP3201079B2 (en) 2001-08-20

Family

ID=26496208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17468793A Expired - Lifetime JP3201079B2 (en) 1992-07-03 1993-06-23 Motion compensated prediction method, coding method and apparatus for interlaced video signal

Country Status (1)

Country Link
JP (1) JP3201079B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW283289B (en) * 1994-04-11 1996-08-11 Gen Instrument Corp
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
CN100428803C (en) * 2002-11-25 2008-10-22 松下电器产业株式会社 Moving picture decoding method and decoding device
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
JP4235209B2 (en) * 2006-02-10 2009-03-11 Nttエレクトロニクス株式会社 Motion vector detection apparatus and motion vector detection method
JP6175780B2 (en) 2013-01-28 2017-08-09 セイコーエプソン株式会社 Ultrasonic device, ultrasonic probe, electronic device and ultrasonic imaging apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
1990年画像符号化シンポジウム(PCSJ90)第5回シンポジウム資料、p.175−177
1991年テレビジョン学会年次大会講演予稿集、p.313−314
1991年電子情報通信学会春季全国大会講演論文集分冊7、p.64
電子情報通信学会技術研究報告(IE88−97)、第88巻、第411号、p.47−54

Also Published As

Publication number Publication date
JPH0678298A (en) 1994-03-18

Similar Documents

Publication Publication Date Title
JP4514081B2 (en) Motion vector extrapolation for transcoding a video sequence
Liu et al. New fast algorithms for the estimation of block motion vectors
US5689305A (en) System for deinterlacing digitally compressed video and method
JPH02285816A (en) Adaptive inter-frame prediction encoding system
JP2001054075A (en) Image signal motion compensation scan conversion circuit
JPH11112973A (en) Video signal conversion device and video signal conversion method
JP4083266B2 (en) Motion vector generation method and apparatus
JP3201079B2 (en) Motion compensated prediction method, coding method and apparatus for interlaced video signal
JP4119092B2 (en) Method and apparatus for converting the number of frames of an image signal
JPH0851599A (en) Image information converter
JP3201343B2 (en) Motion compensation prediction device for interlaced video
JP3201344B2 (en) Motion compensated prediction method and coding apparatus for interlaced video signal
JP2925046B2 (en) Motion compensation prediction method for moving images
JP3784086B2 (en) Video signal encoding / decoding device and encoding / decoding method
JP2001086508A (en) Method and device for moving image decoding
JP2002010267A (en) Motion vector conversion apparatus and its method
JP3867697B2 (en) Image signal generation apparatus and generation method
JP3800638B2 (en) Image information conversion apparatus and method
JPS59128881A (en) Encoder of inter-field and interframe with dynamic compensation
JP3186406B2 (en) Image synthesis coding method and image synthesis apparatus
JPH1013836A (en) Motion vector detection device
JP3596137B2 (en) Image signal encoding method and apparatus, and image signal decoding method and apparatus
JP3907623B2 (en) Video signal encoding / decoding device and encoding / decoding method
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JPH10150665A (en) Predicted image creation method, image encoding method, and image encoding device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010522

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term