[go: up one dir, main page]

JP2000023195A - Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium - Google Patents

Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium

Info

Publication number
JP2000023195A
JP2000023195A JP18127198A JP18127198A JP2000023195A JP 2000023195 A JP2000023195 A JP 2000023195A JP 18127198 A JP18127198 A JP 18127198A JP 18127198 A JP18127198 A JP 18127198A JP 2000023195 A JP2000023195 A JP 2000023195A
Authority
JP
Japan
Prior art keywords
image
coefficient
encoding
accuracy
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18127198A
Other languages
Japanese (ja)
Inventor
Takefumi Nagumo
武文 名雲
Yoichi Yagasaki
陽一 矢ヶ崎
Teruhiko Suzuki
輝彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18127198A priority Critical patent/JP2000023195A/en
Publication of JP2000023195A publication Critical patent/JP2000023195A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 MPEG4においては1画素あたりの画素値
が輝度、色差とも4ビットから12ビットの情報をもつ
画像をその入出力画像として規定しているので、DCT
係数の符号化をMPEG2と同様の方法で行った場合、
その演算精度が足りずに不都合が生じる場合がある。 【解決手段】 量子化ステップ発生器308は、入力画
像に対する所望の画質及び1画素当たりの画素値を示す
画素精度に応じて、直交変換データの直流成分係数(D
C係数)の符号化精度を決定する。DC係数量子化器3
07は、量子化ステップ発生器308で決定された符号
化精度に応じて上記直交変換データのDC係数を量子化
する。
(57) [Problem] In MPEG4, a pixel value per pixel defines an image having information of 4 to 12 bits in both luminance and chrominance as an input / output image.
When the coefficients are encoded in the same manner as MPEG2,
There is a case where inconvenience occurs due to insufficient calculation accuracy. SOLUTION: A quantization step generator 308 controls a DC component coefficient (D) of orthogonal transform data according to a desired image quality of an input image and a pixel precision indicating a pixel value per pixel.
C encoding) is determined. DC coefficient quantizer 3
07 quantizes the DC coefficient of the orthogonal transform data according to the encoding accuracy determined by the quantization step generator 308.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば動画像を符
号化して得られる符号化ビットストリームを出力する画
像符号化方法及び装置、並びにその符号化ビットストリ
ームを復号する画像復号方法及び装置、並びに上記符号
化ビットストリームを提供する提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding method and apparatus for outputting an encoded bit stream obtained by encoding a moving image, for example, and an image decoding method and apparatus for decoding the encoded bit stream. The present invention relates to a providing medium for providing the coded bit stream.

【0002】[0002]

【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。
2. Description of the Related Art For example, in a system for transmitting moving image data to a remote place, such as a video conference system or a video telephone system, image data is converted into a line correlation or a frame in order to use a transmission path efficiently. The compression encoding is performed using the inter-correlation.

【0003】動画像の高能率符号化方式として代表的な
ものとしてMPEG(Moving Picture Experts Group)
(蓄積用動画像符号化)方式がある。これはISO−I
EC/JTC1/SC2/WG11において議論され、
標準案として提案されたものであり、動き補償予測符号
化とDCT(Discrete Cosine Transform)符号化を組
み合わせたハイブリッド方式を採用している。
A moving picture experts group (MPEG) is a typical moving picture coding scheme.
(Moving picture coding for storage). This is ISO-I
Discussed in EC / JTC1 / SC2 / WG11,
It has been proposed as a standard proposal, and employs a hybrid method combining motion compensation prediction coding and DCT (Discrete Cosine Transform) coding.

【0004】MPEGでは、様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。プロファイルは機能の分類を
規定し、レベルは量の違いを規定している。最も基本と
なるのが、メインプロファイルメインレベル(MP@M
L(Main Profile at Main Level))である。
[0004] In MPEG, several profiles and levels are defined in order to support various applications and functions. Profiles define the classification of functions, and levels define the differences in quantity. The most basic is the main profile main level (MP @ M
L (Main Profile at Main Level).

【0005】図70は、MPEG方式におけるMP@M
Lのエンコーダの一例の構成を示している。
FIG. 70 is a diagram showing MP @ M in the MPEG system.
5 shows an exemplary configuration of an L encoder.

【0006】符号化すべき入力画像(画像データ)は、
フレームメモリ31に入力され、一時記憶される。そし
て、動きベクトル検出器32は、フレームメモリ31に
記憶された画像データを、例えば、16画素×16画素
などで構成されるマクロブロック単位で読み出し、その
動きベクトルを検出する。
[0006] The input image (image data) to be encoded is
The data is input to the frame memory 31 and is temporarily stored. Then, the motion vector detector 32 reads out the image data stored in the frame memory 31 in units of macroblocks composed of, for example, 16 pixels × 16 pixels, and detects the motion vector.

【0007】動きベクトル検出器32においては、各フ
レームの画像データを、Iピクチャ(フレーム内符号
化)、Pピクチャ(前方予測符号化)、またはBピクチ
ャ(両方向予測符号化)のうちのいずれかとして処理す
る。なお、シーケンシャルに入力される各フレームの画
像を、I,P,Bピクチャのいずれのピクチャとして処
理するかは、例えばI,B,P,B,P,・・・B,P
として処理されるように予め定められている。
In the motion vector detector 32, the image data of each frame is converted into one of an I picture (intra-frame coding), a P picture (forward prediction coding), and a B picture (bidirectional prediction coding). Process as It should be noted that whether the image of each frame that is sequentially input is to be processed as an I, P, or B picture is determined by, for example, I, B, P, B, P,.
Is predetermined.

【0008】即ち、動きベクトル検出器32は、フレー
ムメモリ31に記憶された画像データの中の、予め定め
られた所定の参照フレームを参照し、その参照フレーム
と、現在符号化の対象となっているフレームの16画素
×16ラインのマクロブロックとをパターンマッチング
(ブロックマッチング)することにより、そのマクロブ
ロックの動きベクトルを検出する。
That is, the motion vector detector 32 refers to a predetermined reference frame in the image data stored in the frame memory 31, and the reference frame and the current encoding target are By performing pattern matching (block matching) with a 16-pixel × 16-line macro block of a frame, a motion vector of the macro block is detected.

【0009】ここで、MPEGにおいては、画像の予測
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化のいずれか
で符号化され、Bピクチャはイントラ符号化、前方予測
符号化、後方予測符号化、または両方法予測符号化のい
ずれかで符号化される。
[0009] Here, in MPEG, the image prediction modes include four modes: intra coding (intra-frame coding), forward prediction coding, backward prediction coding, and bidirectional prediction coding.
There are types, I-pictures are intra-coded, P-pictures are coded by either intra-coding or forward-prediction coding, and B-pictures are intra-coded, forward-prediction-coded, backward-prediction-coded, or both. Encoded by any of the method predictive encodings.

【0010】即ち、動きベクトル検出器32は、Iピク
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。
That is, the motion vector detector 32 sets the intra coding mode as the prediction mode for the I picture. In this case, the motion vector detector 32
The motion vector is not detected, and the prediction mode (intra prediction mode) is output to the VLC (variable length coding) unit 36 and the motion compensator 42.

【0011】また、動きベクトル検出器32は、Pピク
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較する。その比較の結果、マクロブロック
の分散の方が予測誤差より小さい場合、動きベクトル検
出器32は、予測モードとしてイントラ符号化モードを
設定し、VLC器36および動き補償器42に出力す
る。また、動きベクトル検出器32は、前方予測を行う
ことにより生じる予測誤差の方が小さければ、予測モー
ドとして前方予測符号化モードを設定し、検出した動き
ベクトルとともに、VLC器36および動き補償器42
に出力する。
The motion vector detector 32 performs forward prediction on a P picture and detects the motion vector. Further, the motion vector detector 32 compares a prediction error caused by performing forward prediction with, for example, a variance of a macroblock to be coded (a macroblock of a P picture). As a result of the comparison, when the variance of the macroblock is smaller than the prediction error, the motion vector detector 32 sets the intra coding mode as the prediction mode, and outputs it to the VLC unit 36 and the motion compensator 42. If the prediction error caused by performing the forward prediction is smaller, the motion vector detector 32 sets the forward prediction encoding mode as the prediction mode, and sets the VLC unit 36 and the motion compensator 42 together with the detected motion vector.
Output to

【0012】さらに、動きベクトル検出器32は、Bピ
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。
Further, the motion vector detector 32 performs forward prediction, backward prediction, and bidirectional prediction on the B picture, and detects respective motion vectors. Then, the motion vector detector 32 performs forward prediction, backward prediction,
And a minimum prediction error of the bidirectional prediction (hereinafter, appropriately referred to as a minimum prediction error), and the minimum prediction error and the variance of the encoding target macroblock (the macroblock of the B picture), for example. Compare with As a result of the comparison, if the variance of the macroblock is smaller than the minimum prediction error, the motion vector detector 32 sets the intra coding mode as the prediction mode, and sets the VLC unit 3
6 and the motion compensator 42.

【0013】また、動きベクトル検出器32は、最小予
測誤差の方が小さければ、予測モードとして、その最小
予測誤差が得られた予測モードを設定し、対応する動き
ベクトルとともに、VLC器36および動き補償器42
に出力する。動き補償器42は、動きベクトル検出器3
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、かつ既
に局所復号された画像データを読み出し、この読み出さ
れた画像データを、予測画像データとして、演算器33
および40に供給する。
If the minimum prediction error is smaller, the motion vector detector 32 sets the prediction mode in which the minimum prediction error is obtained as the prediction mode, and sets the VLC unit 36 and the motion vector together with the corresponding motion vector. Compensator 42
Output to The motion compensator 42 includes the motion vector detector 3
When both the prediction mode and the motion vector are received from 2,
According to the prediction mode and the motion vector, the encoded and already locally decoded image data stored in the frame memory 41 is read, and the read image data is used as the prediction image data by the calculator 33.
And 40.

【0014】演算器33は、動きベクトル検出器32が
フレームメモリ31から読み出した画像データと同一の
マクロブロックをフレームメモリ31から読み出し、そ
のマクロブロックと、動き補償器42からの予測画像と
の差分を演算する。この差分値は、DCT器34に供給
される。
The arithmetic unit 33 reads from the frame memory 31 the same macroblock as the image data read from the frame memory 31 by the motion vector detector 32, and calculates the difference between the macroblock and the predicted image from the motion compensator 42. Is calculated. This difference value is supplied to the DCT unit 34.

【0015】一方、動き補償器42は、動きベクトル検
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(演算器40
も同様)は、特に処理を行わず、フレームメモリ31か
ら読み出したマクロブロックを、そのままDCT器34
に出力する。
On the other hand, when only the prediction mode is received from the motion vector detector 32, that is, when the prediction mode is the intra-coding mode, the motion compensator 42 does not output a predicted image. In this case, the operator 33 (the operator 40
Does not perform any particular processing, and converts the macroblock read from the frame memory 31 into the DCT unit 34 without any processing.
Output to

【0016】ここで、2次元DCTの性質について、図
71を用いて説明する。例えば8ライン×8画素からな
る2次元ブロックに2次元DCTを施した場合、図71
に示すように、8×8のDCT係数F(x,y)が発生する。
これらの係数のうち、0行0列目の係数F(0,0)は2次元
ブロック内の平均輝度値を表す直流成分に相当すること
が知られている。
Here, the properties of the two-dimensional DCT will be described with reference to FIG. For example, when two-dimensional DCT is applied to a two-dimensional block consisting of 8 lines × 8 pixels, FIG.
As shown in FIG. 7, an 8 × 8 DCT coefficient F (x, y) is generated.
Among these coefficients, it is known that the coefficient F (0,0) in the 0th row and the 0th column corresponds to a DC component representing an average luminance value in a two-dimensional block.

【0017】また、F(1,0),F(2,0),・・・,F(6,0),
F(7,0)の如く、右方向に並ぶ係数は2次元ブロック内の
垂直方向の高周波数成分を表すことが知られている。こ
のことは、次に続く行F(1,1),F(2,1),・・・,F(6,
1),F(7,1)についても同様である。一方、F(0,1),F(0,
2),・・・,F(0,6),F(0,7)の如く、下方向に並ぶ係数
は2次元ブロック内の水平方向の高周波数成分を表すこ
とが知られている。このことは、次に続く列についても
同様である。
F (1,0), F (2,0),..., F (6,0),
It is known that coefficients arranged in the right direction, such as F (7,0), represent high frequency components in the vertical direction in a two-dimensional block. This means that the following rows F (1,1), F (2,1), ..., F (6,
The same applies to 1) and F (7,1). On the other hand, F (0,1), F (0,
It is known that coefficients arranged in a downward direction, such as 2),..., F (0,6) and F (0,7), represent high-frequency components in the horizontal direction in a two-dimensional block. This is the same for the following columns.

【0018】DCT符号化は、画像信号の持つ画像内2
次元相関性を利用して、ある特定の周波数成分に信号電
力を集中させ、この集中分布した係数のみを符号化する
ことで情報量の圧縮を可能とする。例えば、絵柄が平坦
で、画像信号の自己相関性が高いブロック(ブロック内
の各画素レベルがほとんど等しい)では、低周波数成分
(F(0,0),F(1,0),F(0,1),F(1,1))近傍のDCT係数
は大きな値を示し、他の係数はほとんど0となる。よっ
てハフマン符号等による、連続する同一係数を省略して
符号化する手法を使用することにより、情報量の圧縮が
可能となる。
The DCT coding is performed in the image 2 of the image signal.
Utilizing the dimensional correlation, signal power is concentrated on a specific frequency component, and only the concentratedly distributed coefficients are encoded, so that the amount of information can be compressed. For example, in a block having a flat picture and a high autocorrelation of an image signal (each pixel level in the block is almost equal), low frequency components (F (0,0), F (1,0), F (0 , 1), DCT coefficients near F (1, 1)) show large values, and the other coefficients are almost zero. Therefore, the amount of information can be compressed by using a technique of omitting continuous identical coefficients by Huffman coding or the like.

【0019】DCT器34では、演算器33の出力デー
タに対して、8ライン×8画素からなる上記DCT処理
を施し、その結果得られるDCT係数を、量子化器35
に供給する。
The DCT unit 34 performs the above-mentioned DCT processing consisting of 8 lines × 8 pixels on the output data of the arithmetic unit 33, and converts the resulting DCT coefficient into a quantizer 35.
To supply.

【0020】量子化器35では、DCT係数の内、直流
成分の係数を所定の値(MPEG2では8,9,10,11の値
のいずれかが符号化を行う画像の画質およびそのマクロ
ブロックの符号化方法に応じて選択される)の量子化ス
テツプで線形量子化し、端数を4捨5入する。同様にA
C係数に対して量子化器35は、バッファ37のデータ
蓄積量(バッファ37に記憶されているデータの量)
(バッファフィードバック)に対応して交流成分の量子
化ステップを設定し、その量子化ステップで、DCT器
34からのDCT係数を量子化する。量子化されたDC
T係数は走査変換器(スキャンコンバータ)43におく
られる。
In the quantizer 35, of the DCT coefficients, the coefficient of the DC component is converted into a predetermined value (in MPEG2, any one of 8, 9, 10, and 11 is used to encode the image quality of the image to be encoded and the macroblock of the image). Linear quantization in the quantization step (selected according to the encoding method), and the fraction is rounded off. Similarly A
For the C coefficient, the quantizer 35 stores the amount of data stored in the buffer 37 (the amount of data stored in the buffer 37).
A quantization step of the AC component is set in accordance with (buffer feedback), and the DCT coefficient from the DCT unit is quantized in the quantization step. Quantized DC
The T coefficient is sent to a scan converter (scan converter) 43.

【0021】量子化されたDCT係数はスキャンコンバ
ータ43にて低周波数から高周波数の係数の順にジグザ
グスキャンされ、1次元の信号としてDC係数差分化器
44に送られる。
The quantized DCT coefficients are zigzag scanned by the scan converter 43 in the order of low to high frequency coefficients, and sent to the DC coefficient differentiator 44 as a one-dimensional signal.

【0022】DC係数差分化器44において、DCT係
数の直流成分係数は、隣あった各々のブロック間で差分
化される。差分化は、輝度(Y)ブロックと2つの色差
(Cb,Cr)ブロックとでは、異なる方式で行われ
る。
In the DC coefficient differentiator 44, the DC component coefficients of the DCT coefficients are differentiated between adjacent blocks. Differentiation is performed in a different manner between the luminance (Y) block and the two color difference (Cb, Cr) blocks.

【0023】DCT係数の直流成分を差分化する方法を
図72を用いて説明する。即ち、図72の(a)は輝度
ブロックの差分化方式を示し、各ブロックの直流成分係
数は、同図に示すように、ジグザグの順序で上下左右の
隣接ブロックの直流成分係数間で差分化され、それぞれ
のブロックに再格納される。色差ブロックでは、図72
の(b)に示すように、左右に隣あった各々のブロック
の直流成分係数間で差分化され、それぞれのブロックに
再格納される。
A method of differentiating the DC component of the DCT coefficient will be described with reference to FIG. That is, FIG. 72 (a) shows a method of differentiating a luminance block, and the DC component coefficients of each block are differentiated between the DC component coefficients of the upper, lower, left and right adjacent blocks in a zigzag order as shown in FIG. And stored again in each block. In the color difference block, FIG.
As shown in (b), the difference is made between the DC component coefficients of each of the blocks adjacent on the left and right, and is stored again in each block.

【0024】これらの差分化を行うDC係数差分化器4
4とこれに対応する後述する逆差分化器の具体的構成を
図73の(a)、(b)にそれぞれ示す。ただし、最初
のブロック(画像間符号化処理されたブロックの後の最
初の画像内符号化処理されたブロック、もしくはスライ
スの最初のブロック)は、差分化することができない
(隣接ブロックが揃っていない)ため、初期値として所
定の値(MPEG2では量子化器35において8で量子
化した場合は128、9の場合256、10の場合51
2、11の場合1024)が与えられ、この初期値との差
分がとられる。
A DC coefficient differentiator 4 for performing these differences
73 and (a) and (b) of FIG. 73 show the specific configurations of the inverse differentiator corresponding thereto, respectively. However, the first block (the first intra-coded block after the inter-coded block or the first block of the slice) cannot be differentiated (neighboring blocks are not aligned) Therefore, a predetermined value is used as the initial value (128 in the case of MPEG2 when quantized by the quantizer 35, 256 in the case of 9 and 51 in the case of 10).
In the case of 2, 11, 1024) is given, and the difference from this initial value is obtained.

【0025】この量子化されたDCT係数(以下、適
宜、量子化係数という)は、設定された量子化ステップ
とともに、VLC器36に供給される。
The quantized DCT coefficients (hereinafter, appropriately referred to as quantization coefficients) are supplied to the VLC unit 36 together with the set quantization steps.

【0026】VLC器36では、量子化器35より供給
される量子化係数が、例えばハフマン符号などの可変長
符号に変換され、バッファ37に出力される。さらに、
VLC器36は、量子化器35からの量子化ステップ、
動きベクトル検出器32からの予測モード(イントラ符
号化(画像内予測符号化)、前方予測符号化、後方予測
符号化、または両方向予測符号化のうちのいずれが設定
されたかを示すモード)および動きベクトルも可変長符
号化し、その結果得られる符号化データを、バッフ37
に出力する。
The VLC unit 36 converts the quantized coefficient supplied from the quantizer 35 into a variable length code such as a Huffman code and outputs the converted code to a buffer 37. further,
The VLC unit 36 performs a quantization step from the quantizer 35,
The prediction mode (mode indicating which of intra coding (intra-picture predictive coding), forward predictive coding, backward predictive coding, and bidirectional predictive coding has been set) and motion from the motion vector detector 32 The vector is also variable-length coded, and the resulting coded data is
Output to

【0027】ここで、特にVLC器36におけるDCT
係数の直流成分係数の符号化方法及び復号化方法につい
て表1、表2、表3を参照して説明する。
Here, the DCT in the VLC unit 36 is particularly used.
An encoding method and a decoding method of the DC component coefficient of the coefficient will be described with reference to Tables 1, 2, and 3.

【0028】[0028]

【表1】 [Table 1]

【0029】[0029]

【表2】 [Table 2]

【0030】[0030]

【表3】 [Table 3]

【0031】まず、差分化された直流成分係数(DIFFERN
TIAL DC)から、表1を参照してサイズdct dc size
(=0,1,・・・,のいずれか)を求め、それを表2
または表3により符号化する。即ち、例えば直流成分係
数(DIFFERNTIAL DC)が+5であった場合、表1よりサ
イズは3とされる。そして、このサイズとしての3は、
表2または表3の右コラムが3の行の左コラムに記述さ
れた符号101または110に符号化される。
First, a DC component coefficient (DIFFERN
From TIAL DC), refer to Table 1 for the size dct dc size
(= 0, 1,...) And calculate it in Table 2.
Alternatively, encoding is performed according to Table 3. That is, for example, when the DC component coefficient (DIFFERNTIAL DC) is +5, the size is set to 3 according to Table 1. And 3 as this size,
The right column of Table 2 or Table 3 is coded to the code 101 or 110 described in the left column of the third row.

【0032】次に、再び表1を参照して、差分化された
直流成分係数(DIFFERNTIAL DC)表す固定長符号(Co
de)(サイズに等しいビット幅の係数値を表す固定長符
号)を求め、これら2つの符号の組み合わせで、差分化
された直流成分係数値を伝送する。
Next, referring again to Table 1, a fixed-length code (Co) representing a differential DC component coefficient (DIFFERNTIAL DC) is referred to.
de) (fixed-length code representing a coefficient value having a bit width equal to the size) is obtained, and a differential DC component coefficient value is transmitted by a combination of these two codes.

【0033】サイズを表す可変長符号は輝度(Y)ブロ
ックと色差(Cb,Cr)ブロックでは異なり、輝度ブ
ロックの時は表2を、色差ブロックの時は表3を参照し
て符号化が行われる。差分化された直流成分係数(DIFF
ERNTIAL DC)の値を表すサイズに等しいビット幅の固
定長符号(Code)は、表1に示すように係数値と1対1
で対応している。
The variable length code representing the size is different between the luminance (Y) block and the chrominance (Cb, Cr) block, and the encoding is performed by referring to Table 2 for the luminance block and to Table 3 for the chrominance block. Will be DC component coefficient (DIFF
The fixed length code (Code) having a bit width equal to the size representing the value of the ERNTIAL DC) is one-to-one with the coefficient value as shown in Table 1.
Is supported.

【0034】例えば、上述と同様に差分値が+5なる値
であり、それが輝度ブロックのものである時、サイズ
は、表1より3となり、その符号は表2より101とな
る。また、+5なる値を表す固定長符号は表1より、1
01となる。よって、差分値+5に対して、出力される
符号は、これらを組み合わせた101101という6ビ
ットの符号となる。
For example, as described above, the difference value is +5, and when the difference value is that of a luminance block, the size is 3 in Table 1 and the sign is 101 in Table 2. The fixed-length code representing the value +5 is 1 from Table 1.
01. Therefore, the code output for the difference value +5 is a 6-bit code 101101 obtained by combining these.

【0035】図70のバッファ37は、VLC器36か
らの符号化データを一時蓄積することにより、そのデー
タ量を平滑化し、符号化ビットストリームとして、例え
ば、伝送路に出力し、または記録媒体に記録する。
The buffer 37 in FIG. 70 temporarily stores the encoded data from the VLC unit 36 to smooth the data amount, and outputs the encoded data as an encoded bit stream, for example, to a transmission path, or to a recording medium. Record.

【0036】また、バッファ37は、そのデータ蓄積量
を量子化器35に出力しており、量子化器35は、この
バッファ37からのデータ蓄積量にしたがって量子化ス
テップを設定する。即ち、量子化器35は、バッファ3
7がオーバーフローしそうなとき、量子化ステップを大
きくし、これにより、量子化係数のデータ量を低下させ
る。また、量子化器35は、バッファ37がアンダーフ
ローしそうなとき、量子化ステップを小さくし、これに
より、量子化係数のデータ量を増大させる。このように
して、バッファ37のオーバフローとアンダフローを防
止するようになっている。
The buffer 37 outputs the data storage amount to the quantizer 35, and the quantizer 35 sets a quantization step according to the data storage amount from the buffer 37. That is, the quantizer 35 outputs the buffer 3
When 7 is about to overflow, the quantization step is increased, thereby reducing the data amount of the quantization coefficient. When the buffer 37 is about to underflow, the quantizer 35 reduces the quantization step, thereby increasing the data amount of the quantization coefficient. Thus, the overflow and the underflow of the buffer 37 are prevented.

【0037】量子化器35が出力する量子化係数と量子
化ステップは、VLC器36だけでなく、逆スキャンコ
ンバータ45にも供給されるようになされている。
The quantization coefficient and the quantization step output from the quantizer 35 are supplied not only to the VLC unit 36 but also to the inverse scan converter 45.

【0038】逆スキャンコンバータ45は、量子化され
たDCT係数を、その低周波数成分から高周波数成分へ
逆ジグザグスキャンし、8×8のマトリックスへ再構成
し、逆量子化回路38に出力する。
The inverse scan converter 45 performs an inverse zigzag scan of the quantized DCT coefficient from its low-frequency component to a high-frequency component, reconstructs it into an 8 × 8 matrix, and outputs it to the inverse quantization circuit 38.

【0039】逆量子化器38では、量子化器35からの
量子化係数を、同じく量子化器35からの量子化ステッ
プにしたがって逆量子化し、これによりDCT係数に変
換する。このDCT係数は、IDCT器(逆DCT器)
39に供給される。IDCT器39では、DCT係数を
逆DCT処理し、その処理の結果得られるデータを、演
算器40に供給する。。
The inverse quantizer 38 inversely quantizes the quantized coefficient from the quantizer 35 in accordance with the quantization step from the quantizer 35, thereby converting the quantized coefficient into a DCT coefficient. This DCT coefficient is calculated by an IDCT unit (an inverse DCT unit).
39. The IDCT unit 39 performs an inverse DCT process on the DCT coefficient, and supplies data obtained as a result of the process to the arithmetic unit 40. .

【0040】演算器40には、IDCT器39の出力デ
ータの他、上述したように、動き補償器42から、演算
器33に供給されている予測画像と同一のデータが供給
されている。演算器40は、IDCT器39の出力デー
タ(予測残差(差分データ))と、動き補償器42から
の予測画像データとを加算することで、元の画像データ
を局所復号し、この局所復号された画像データ(局所復
号画像データ)が出力される(但し、予測モードがイン
トラ符号化である場合には、IDCT器39の出力デー
タは、演算器40をスルーして、そのまま、局所復号画
像データとして、フレームメモリ41に供給される)。
なお、この復号画像データは、受信側において得られる
復号画像データと同一のものである。
The arithmetic unit 40 is supplied with the same data as the predicted image supplied to the arithmetic unit 33 from the motion compensator 42, as described above, in addition to the output data of the IDCT unit 39. The arithmetic unit 40 locally decodes the original image data by adding the output data (prediction residual (difference data)) of the IDCT unit 39 and the predicted image data from the motion compensator 42, and locally decodes the original image data. The output image data (local decoded image data) is output (however, when the prediction mode is the intra coding, the output data of the IDCT unit 39 passes through the arithmetic unit 40 and is directly output to the locally decoded image data. The data is supplied to the frame memory 41 as data).
The decoded image data is the same as the decoded image data obtained on the receiving side.

【0041】演算器40において得られた復号画像デー
タ(局所復号画像データ)は、フレームメモリ41に供
給されて記憶され、その後、インター符号化(前方予測
符号化、後方予測符号化、量方向予測符号化)される画
像に対する参照画像データ(参照フレーム)として用い
られる。
The decoded image data (local decoded image data) obtained by the arithmetic unit 40 is supplied to and stored in the frame memory 41, and then inter-coded (forward predictive coding, backward predictive coding, quantity direction predictive coding). It is used as reference image data (reference frame) for the image to be encoded.

【0042】次に、図74は、図70のエンコーダから
出力される符号化データを復号する、MPEGにおける
MP@MLのデコーダの一例の構成を示している。
FIG. 74 shows an example of the configuration of an MPEG @ ML decoder for decoding encoded data output from the encoder shown in FIG.

【0043】伝送路を介して伝送されてきた符号化ビッ
トストリーム(符号化データ)が図示せぬ受信装置で受
信され、または記録媒体に記録された符号化ビットスト
リーム(符号化データ)が図示せぬ再生装置で再生さ
れ、バッファ101に供給されて記憶される。
A coded bit stream (coded data) transmitted via a transmission path is received by a receiver (not shown), or a coded bit stream (coded data) recorded on a recording medium is shown in FIG. The data is reproduced by the reproduction device, supplied to the buffer 101, and stored.

【0044】IVLC器(逆可変長復号器)102は、
バッファ101に記憶された符号化データを読み出し、
可変長復号することにより、その符号化データを、マク
ロブロック単位で、動きベクトル、予測モード、量子化
ステップ、および量子化係数に分離する。これらのデー
タのうち、動きベクトルおよび予測モードは動き補償器
107に供給され、量子化ステップおよびマクロブロッ
クの量子化係数はDC係数逆差分器108に供給され
る。
The IVLC unit (inverse variable length decoder) 102
Read the encoded data stored in the buffer 101,
By performing variable-length decoding, the encoded data is separated into a motion vector, a prediction mode, a quantization step, and a quantization coefficient for each macroblock. Among these data, the motion vector and the prediction mode are supplied to the motion compensator 107, and the quantization step and the quantization coefficient of the macroblock are supplied to the DC coefficient inverse difference unit.

【0045】DC係数逆差分器108においては、上記
図73の(b)において説明した操作が行われ、その出
力はDCT係数の交流成分とともに、逆スキャンコンバ
ータ109に出力される。
In the DC coefficient inverse differentiator 108, the operation described with reference to FIG. 73B is performed, and the output is output to the inverse scan converter 109 together with the AC component of the DCT coefficient.

【0046】逆スキャンコンバータ109は、図70の
逆スキャンコンバータ45と同様の動作をしその出力は
逆量子化器103に送られる。
The inverse scan converter 109 operates in the same manner as the inverse scan converter 45 shown in FIG. 70, and its output is sent to the inverse quantizer 103.

【0047】逆量子化器103は、逆スキャンコンバー
タ109より供給されたマクロブロックの量子化係数
を、同じくIVLC器102より供給された量子化ステ
ップにしたがって逆量子化し、その結果得られるDCT
係数を、IDCT器104に出力する。IDCT器10
4は、逆量子化器103からのマクロブロックのDCT
係数を逆DCTし、演算器105に供給する。
The inverse quantizer 103 inversely quantizes the macroblock quantization coefficient supplied from the inverse scan converter 109 in accordance with the quantization step also supplied from the IVLC unit 102, and obtains the resulting DCT.
The coefficients are output to the IDCT unit 104. IDCT device 10
4 is the DCT of the macroblock from the inverse quantizer 103
The coefficients are subjected to inverse DCT and supplied to the arithmetic unit 105.

【0048】演算器105には、IDCT器104の出
力データの他、動き補償器107の出力データも供給さ
れている。即ち、動き補償器107は、フレームメモリ
106に記憶されている、既に復号された画像データ
を、図70の動き補償器42における場合と同様に、I
VLC器102からの動きベクトルおよび予測モードに
したがって読み出し、予測画像データとして、演算器1
05に供給する。演算器105は、IDCT器104の
出力データ(予測残差(差分値))と、動き補償器10
7からの予測画像データとを加算することで、元の画像
データを復号する。この復号画像データは、フレームメ
モリ106に供給されて記憶される。なお、IDCT器
104の出力データが、イントラ符号化されたものであ
る場合には、その出力データは、演算器105をスルー
して、復号画像データとして、そのままフレームメモリ
106に供給されて記憶される。
The arithmetic unit 105 is supplied with the output data of the motion compensator 107 in addition to the output data of the IDCT unit 104. That is, the motion compensator 107 converts the already decoded image data stored in the frame memory 106 into I
It is read out according to the motion mode and the prediction mode from the VLC unit 102, and the arithmetic unit 1
05. The arithmetic unit 105 outputs the output data (prediction residual (difference value)) of the IDCT unit 104 and the motion compensator 10
7, the original image data is decoded. The decoded image data is supplied to and stored in the frame memory 106. If the output data of the IDCT unit 104 is intra-coded, the output data passes through the arithmetic unit 105 and is supplied to the frame memory 106 as decoded image data and stored as it is. You.

【0049】フレームメモリ106に記憶された復号画
像データは、その後に復号される画像データの参照画像
データとして用いられる。さらに、復号画像データは、
出力再生画像として、例えば、図示せぬディスプレイな
どに供給されて表示される。
The decoded image data stored in the frame memory 106 is used as reference image data of image data to be decoded thereafter. Further, the decoded image data is
As an output reproduction image, for example, it is supplied to a display (not shown) or the like and displayed.

【0050】なお、MPEG1および2では、Bピクチ
ャは、参照画像データとして用いられないため、エンコ
ーダまたはデコーダのそれぞれにおいて、図70のフレ
ームメモリ41または図74のフレームメモリ106に
は記憶されない。
In MPEG1 and MPEG-2, B pictures are not used as reference image data, and are not stored in the frame memory 41 in FIG. 70 or the frame memory 106 in FIG. 74 in each of the encoder and the decoder.

【0051】上記図70に示したエンコーダ及び図74
に示したデコーダは、MPEG1/2の規格に準拠した
ものであるが、現在、画像を構成する物体などのオブジ
ェクトのシーケンスであるVO(Video Object)単位で
符号化を行う方式に対しては、ISO−IEC/JTC
1/SC29/WG11において、MPEG(MovingPi
cture Experts Group)4として標準化作業が進められ
ている。
The encoder shown in FIG. 70 and FIG.
Is based on the MPEG1 / 2 standard. Currently, however, the decoder performs encoding in units of VO (Video Object), which is a sequence of objects such as objects constituting an image. ISO-IEC / JTC
In 1 / SC29 / WG11, MPEG (MovingPi
standardization work is being carried out as the “Cture Experts Group” 4.

【0052】[0052]

【発明が解決しようとする課題】ところで、上記MPE
G4においては1画素あたりの画素値が輝度、色差とも
4ビットから12ビットの情報をもつ画像をその入出力
画像として規定しているので、DCT係数の符号化をM
PEG2と同様の方法で行った場合、その演算精度が足
りずに不都合が生じる場合がある。
By the way, the above MPE
In G4, an image whose pixel value per pixel has information of 4 bits to 12 bits in both luminance and chrominance is defined as the input / output image.
When the method is performed in the same manner as in the case of PEG2, the calculation accuracy may be insufficient, which may cause inconvenience.

【0053】即ち、1次元DCT処理の場合、DCT処
理後の値が、DCT処理前の値のほぼ2√2倍になるこ
とが知られており、従ってMPEG2での画像内符号化
処理の場合、入力画像の画素値の範囲は8ビット(0乃
至255)であるので、2次元DCT変換係数の直流係
数の範囲は、そのほぼ8(=2√2×2√2)倍、つま
り11ビット(0乃至2047)に及ぶ。
That is, in the case of the one-dimensional DCT processing, it is known that the value after the DCT processing is approximately 2√2 times the value before the DCT processing. Since the range of the pixel value of the input image is 8 bits (0 to 255), the range of the DC coefficient of the two-dimensional DCT transform coefficient is approximately 8 (= 2√2 × 2√2) times, that is, 11 bits. (0 to 2047).

【0054】MPEG2においては、この11ビット精
度の値を、表4に示すように、出力する画像の画質に応
じて8、4、2、1の値で量子化を行い、その精度を
8、9、10、11の中より選択することが可能であ
る。
In MPEG2, this 11-bit precision value is quantized with values of 8, 4, 2, 1 according to the image quality of the output image as shown in Table 4, and the precision is set to 8, It is possible to select from 9, 10, and 11.

【0055】[0055]

【表4】 [Table 4]

【0056】MPEG4においては、現在DCTの計算
精度を希望する画質に応じて変化する方法が規定されて
いない。すなわちDCT係数のDC成分の量子化スケー
ルの最小値は8と規定されているため、直流成分のビッ
ト精度の上限は入力画像の画素のビット数を上限とす
る。例えば10ビットの場合、そのDC成分のビット精
度は10ビットで固定される。
MPEG4 does not currently define a method for changing the DCT calculation accuracy in accordance with the desired image quality. That is, since the minimum value of the quantization scale of the DC component of the DCT coefficient is defined as 8, the upper limit of the bit accuracy of the DC component is set to the number of bits of the pixels of the input image. For example, in the case of 10 bits, the bit precision of the DC component is fixed at 10 bits.

【0057】また、DCTのAC成分を符号化する際に
もAC成分の値は、入力画像の1画素辺りのビット数に
関わらず[-2048:2047]とされている。そのため、1画素
辺りのビット数の大きい場合には、この規定を利用した
場合不都合が生じる場合がある。
Also, when encoding the AC component of the DCT, the value of the AC component is set to [-2048: 2047] regardless of the number of bits per pixel of the input image. Therefore, when the number of bits per pixel is large, inconvenience may occur when this rule is used.

【0058】このように、DCTの直流係数の符号化精
度が入力画像の画質のみにより決定される、また符号化
可能なAC成分の符号化範囲が1画素辺りのビット数に
よらず固定であることは、MPEG4を使用してより高
画質の動画を伝送する場合には、当初に望んでいたよ
り、画質を下げざるを得なくなってしまうことになり、
問題となる。
As described above, the encoding accuracy of the DC coefficient of the DCT is determined only by the image quality of the input image, and the encoding range of the AC component that can be encoded is fixed regardless of the number of bits per pixel. This means that when transmitting a higher-quality moving image using MPEG4, the image quality must be reduced from what was originally desired,
It becomes a problem.

【0059】しかしMPEG2で使用される直流係数値
の計算方法およびDCT係数の符号化方法に関しては入
力する画像の画素値が8ビットに関してのみ規定されて
おり、それ以外のビット数に関しては特に規定されてい
ない。そのためMPEG2のDCT係数の符号化方法と
同様の方法を用いた場合、MPEG4の画像符号化にお
いては不都合が生じる可能性がある。
However, regarding the method of calculating the DC coefficient value and the method of encoding the DCT coefficient used in MPEG2, the pixel value of the input image is specified only for 8 bits, and the other bit numbers are particularly specified. Not. Therefore, when a method similar to the encoding method of the DCT coefficient of MPEG2 is used, inconvenience may occur in the image encoding of MPEG4.

【0060】即ちMPEG4においてMPEG2と同様
のDCT直流成分の符号化方法を適用した場合、その符
号化精度の最大値は11ビットとなり、入力画像の画像
12ビットの画素値で符号化した場合、その精度が足り
ず画質が当初望んでいたより劣化することが考えられ
る。
That is, when the encoding method of the DCT DC component similar to MPEG2 is applied in MPEG4, the maximum value of the encoding precision is 11 bits. It is conceivable that the accuracy is insufficient and the image quality deteriorates more than originally desired.

【0061】本発明は、このような実情に鑑みてなされ
たものであり、DCTの直流係数の符号化精度の変更
を、要求される画質および入力された画像の画素の精度
に応じて適応的に行い、またAC成分の符号化もその入
力画像の画素の精度により適用処理を行うことにより高
画質、高能率符号化を実現する画像符号化装置及び方法
の提供を目的とする。また、上記画像符号化による符号
化ビットストリームを復号する復号装置及び方法の提供
を目的とする。さらに、上記画像符号化による符号化ビ
ットストリームを提供するための符号化データ提供媒体
の提供を目的とする。
The present invention has been made in view of such circumstances, and changes in coding accuracy of DC coefficients of DCT are adaptively performed according to required image quality and pixel accuracy of an input image. It is another object of the present invention to provide an image encoding apparatus and method for realizing high-quality and high-efficiency encoding by applying an AC component encoding process according to the pixel accuracy of an input image. It is another object of the present invention to provide a decoding device and method for decoding an encoded bit stream by the above-described image encoding. It is still another object of the present invention to provide an encoded data providing medium for providing an encoded bit stream by the image encoding.

【0062】[0062]

【課題を解決するための手段】符号化装置側では、要求
される画質及び入力画像の1画素のビット数に応じて、
必要とされるDCTなどの直交変換の直流成分係数の精
度(ビット数)をVOP、またはGOV、またはビデオオブ
ジェクトレイヤ単位で伝送し、その情報及び1画素あた
りのビット数に従って、符号化器は適応的に直流成分係
数の符号化方法を変更し、さらに直流成分係数用の可変
長符号テーブルの拡張を行い、可変長符号を出力するこ
とを、また交流成分の符号化方法に関してもその入力画
像の1画素辺りの画素精度によりDC、AC成分の符号
化手段を適用的に変化させることを特徴とする。
On the encoding device side, according to the required image quality and the number of bits of one pixel of the input image,
The required precision (number of bits) of the DC component coefficient of the orthogonal transform such as DCT is transmitted in units of VOP, GOV, or video object layer, and the encoder adapts according to the information and the number of bits per pixel. To change the coding method of the DC component coefficient, further expand the variable length code table for the DC component coefficient, and output the variable length code.Also, regarding the coding method of the AC component, It is characterized in that the encoding means for the DC and AC components is adaptively changed according to the pixel accuracy around one pixel.

【0063】また復号化装置側では、伝送されてくるD
CTなどの直交変換の直流成分係数の精度(ビット数)
をビデオオブジェクトレイヤ、またはGOV、またはビ
デオオブジェクトプレーン単位で受けとり、その情報及
びビデオオブジェクトレイヤにて伝送される1画素あた
りのビット量に応じて、復号化器は、適応的に直流成分
係数の復号化方法を変更し、さらに直流成分係数用の可
変長符号テーブルの拡張をおこない、伝送されてくるD
CTなどの直交変換の直流成分係数を復号することをま
た交流成分の符号化方法に関してもその入力画像の1画
素辺りの画素精度により復号化の精度を適用的に変更す
ることをまた入力画像の画素精度に対して、DC、AC
成分の符号化手段を適用的に変化させることを特徴とす
る。
On the decoding device side, the transmitted D
Accuracy of DC component coefficient of orthogonal transform such as CT (number of bits)
In the video object layer or GOV or video object plane, and the decoder adaptively decodes the DC component coefficient according to the information and the bit amount per pixel transmitted in the video object layer. Of the variable length code table for DC component coefficients, and
Decoding DC component coefficients of orthogonal transform such as CT, and also regarding the encoding method of AC component, adaptively changing the decoding accuracy based on the pixel accuracy of one pixel of the input image, and DC, AC for pixel accuracy
The encoding means of the component is adaptively changed.

【0064】具体的には、画像を符号化し、その結果得
られる符号化ビットストリームを出力する画像符号化装
置において、上記画像に対する所望の画質及び1画素当
たりの画素値を示す画素精度に応じて、直交変換データ
の直流成分係数の符号化精度を決定する符号化精度決定
手段と、上記符号化精度決定手段で決定された符号化精
度に応じて上記直交変換データの直流成分係数を量子化
する直流成分係数量子化手段とを備えることを特徴とす
る。
More specifically, in an image encoding apparatus that encodes an image and outputs a resulting encoded bit stream, the image encoding apparatus performs a function according to a desired image quality for the image and a pixel precision indicating a pixel value per pixel. Encoding accuracy determining means for determining the encoding accuracy of the DC component coefficients of the orthogonal transform data, and quantizing the DC component coefficients of the orthogonal transform data according to the encoding accuracy determined by the encoding accuracy determining means And DC component coefficient quantization means.

【0065】また、画像を符号化して符号化ビットスト
リームを出力するための画像符号化方法において、上記
画像に対する所望の画質及び1画素当たりの画素値を示
す画素精度に応じて、直交変換データの直流成分係数の
符号化精度を決定し、上記決定された符号化精度に応じ
て上記直交変換データの直流成分係数を量子化すること
を特徴とする。
Also, in an image encoding method for encoding an image and outputting an encoded bit stream, the orthogonal transform data is converted according to a desired image quality for the image and a pixel precision indicating a pixel value per pixel. The encoding accuracy of the DC component coefficient is determined, and the DC component coefficient of the orthogonal transform data is quantized according to the determined encoding accuracy.

【0066】また、画像を符号化し、その結果得られる
符号化ビットストリームを出力する画像符号化装置にお
いて、上記画像の1画素当たりの画素値を示す画素精度
に応じて、直交変換データの主要部分と残差部分を分け
てそれぞれ符号化する符号化手段を備えることを特徴と
する。
Further, in an image coding apparatus for coding an image and outputting a coded bit stream obtained as a result, a main part of the orthogonal transform data is determined in accordance with a pixel precision indicating a pixel value per pixel of the image. And a coding unit for coding each of the residual and the residual part separately.

【0067】また、画像を符号化し、その結果得られる
符号化ビットストリームを出力するための画像符号化方
法において、上記画像の1画素当たりの画素値を示す画
素精度に応じて、直交変換データの主要部分と残差部分
を分けてそれぞれ符号化することを特徴とする。
Also, in an image encoding method for encoding an image and outputting an encoded bit stream obtained as a result, the orthogonal transform data is converted in accordance with the pixel precision indicating the pixel value per pixel of the image. It is characterized in that the main part and the residual part are separately encoded.

【0068】また、画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号する画像復号装置において、上記直交変
換による直交変換データの直流成分係数を逆量子化する
逆量子化手段と、上記直流成分係数の精度を表す信号及
び上記画像の画素精度に応じて、適応的に上記逆量子化
手段の逆量子化処理に用いられる復号精度を決定する復
号精度決定手段とを備えることを特徴とする。
Further, in an image decoding apparatus for decoding an image signal which has been subjected to intra- and inter-image encoding processing and pixel data subjected to orthogonal transformation and quantization processing, a DC component of the orthogonal transformation data obtained by the orthogonal transformation is provided. Inverse quantization means for inversely quantizing the coefficients, and a decoding accuracy used in the inverse quantization processing of the inverse quantization means adaptively in accordance with a signal representing the precision of the DC component coefficient and the pixel precision of the image. And a decoding accuracy determining means for determining.

【0069】また、画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号するための画像復号方法において、上記
直交変換による直交変換データの直流成分係数を逆量子
化するときの復号精度を、上記直流成分係数の精度を表
す信号及び上記画像の画素精度に応じて、適応的に決定
することを特徴とする。
Further, in an image decoding method for decoding an image signal subjected to intra-image and inter-image encoding processing and pixel data subjected to orthogonal transformation and quantization processing, the orthogonal transformation data of the orthogonal transformation is used. The decoding accuracy when the DC component coefficient is inversely quantized is adaptively determined according to the signal representing the accuracy of the DC component coefficient and the pixel accuracy of the image.

【0070】また、画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号する画像復号装置において、画像の1画
素辺りの画素値を表すのに使用する画素精度により、量
子化された直交変換データの主要部分と残差部分を分け
てそれぞれ復号する復号手段を備えることを特徴とす
る。
In an image decoding apparatus for decoding an image signal which has been subjected to intra-image and inter-image encoding processing, pixel data subjected to orthogonal transformation, and quantization processing, the pixel value represents one pixel value of an image. And decoding means for separately decoding the main part and the residual part of the quantized orthogonally transformed data depending on the pixel precision used for the decoding.

【0071】また、画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号するための画像復号方法において、画像
の1画素辺りの画素値を表すのに使用する画素精度によ
り、量子化された直交変換データの主要部分と残差部分
を分けてそれぞれ復号することを特徴とする。
Further, in an image decoding method for decoding an image signal which has been subjected to intra-image and inter-image encoding processing and pixel data subjected to orthogonal transformation and quantization processing, a pixel value per one pixel of an image is obtained. The main part and the residual part of the quantized orthogonal transform data are separately decoded according to the pixel precision used to represent.

【0072】また、符号化データ提供媒体により、画像
に対する所望の画質及び1画素当たりの画素値を示す画
素精度に応じて、直交変換データの直流成分係数の符号
化精度を決定し、上記決定された符号化精度に応じて上
記直交変換データの直流成分係数を量子化して得られた
符号化ビットストリームを提供する。
Further, the encoding accuracy of the DC component coefficient of the orthogonal transform data is determined by the encoded data providing medium according to the desired image quality of the image and the pixel accuracy indicating the pixel value per pixel. Provided is an encoded bit stream obtained by quantizing the DC component coefficients of the orthogonal transform data according to the encoding accuracy.

【0073】また、画像の1画素当たりの画素値を示す
画素精度に応じて、直交変換データの主要部分と残差部
分を分けてそれぞれ符号化することによって得られた符
号化ビットストリームを提供する。
Further, an encoded bit stream obtained by separately encoding the main part and the residual part of the orthogonally transformed data according to the pixel precision indicating the pixel value per pixel of the image is provided. .

【0074】そして、本発明の符号化装置および方法に
よれば、要求される画質及び、1画素辺りのビット量に
応じて、必要とされるDCT等の直交変換の直流成分係
数の精度(ビット数)に従い、適応的に符号化方法を変
更し、さらに可変長符号のテーブルの拡張を行い、可変
長符号を出力するので、無駄の無い符号化が可能とな
る。
According to the encoding apparatus and method of the present invention, the required accuracy (bits) of the DC component coefficients of the orthogonal transform such as DCT according to the required image quality and the amount of bits per pixel. ), The encoding method is adaptively changed, the variable length code table is extended, and the variable length code is output, so that efficient encoding is possible.

【0075】また、本発明の復号装置及び方法によれ
ば、伝送されてくるDCT等の直交変換の直流成分係数
の精度及び出力画像の1画素辺りのビット量に応じて、
適応的に復号化方法を変更し、さらに可変長符号のテー
ブルの拡張を行い、復号するので、無駄の無い復号化が
可能となる。よって、従来のMPEG2では、直流成分
係数の精度が出力画像1画素8ビットにしか対応してい
なかったところ、1画素あたりのビット数が任意の画像
に対し適用することが可能となる。
Further, according to the decoding apparatus and method of the present invention, according to the accuracy of the DC component coefficient of orthogonal transform such as DCT transmitted and the bit amount per pixel of the output image,
Since the decoding method is adaptively changed, and the table of the variable length code is extended and decoded, the decoding can be performed without waste. Therefore, in the conventional MPEG2, the accuracy of the DC component coefficient corresponds to only 8 bits per pixel of the output image, but the number of bits per pixel can be applied to an arbitrary image.

【0076】また、画素精度が8ビット以上のDCTの
交流成分の符号化方法にも対応し、例えば8ビット以上
の画素精度を持つ入力画像を符号化する際に無駄のない
符号化方法を選択することが可能である。
Further, it corresponds to a coding method of an AC component of DCT having a pixel precision of 8 bits or more. For example, when coding an input image having a pixel precision of 8 bits or more, a coding method which is not wasted is selected. It is possible to

【0077】[0077]

【発明の実施の形態】以下、本発明のいくつかの実施の
形態について説明する。まず、第1の実施の形態は、M
PEG4で用いられているDCTの符号化及び復号化方
法を基本に、その符号化精度を適応的に変更するもので
ある。尚、本発明はMPEG4だけでなく、他の動画像
信号伝送方式にも適用できることは勿論である。即ち、
以下の各実施の形態においては、入力される動画像信号
の色差フォーマットが4:2:0フォーマットのもので
ある場合について説明するが、その精度が、4:2:0
フォーマット以外の場合についても、本発明の適用は可
能である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments of the present invention will be described below. First, in the first embodiment, M
The encoding precision is adaptively changed based on the DCT encoding and decoding methods used in PEG4. The present invention can be applied not only to MPEG4 but also to other moving picture signal transmission systems. That is,
In each of the following embodiments, a case will be described where the color difference format of the input moving image signal is a 4: 2: 0 format, but the accuracy is 4: 2: 0.
The present invention can be applied to cases other than the format.

【0078】まず、本発明の第1の実施の形態を説明す
る前に、本発明を理解する上で必要な用語としてのVisu
al Object、video Object、Video Object Layer(VO
L)、Group of Video Object Plane (GOV)、Vide
o Object Plane (VOP)、Group of block (GO
B)、マクロブロック(MB)、ブロックを、図1を用
いて簡単に説明する。
First, before describing the first embodiment of the present invention, Visu as a term necessary for understanding the present invention is described.
al Object, video Object, Video Object Layer (VO
L), Group of Video Object Plane (GOV), Vide
o Object Plane (VOP), Group of block (GO
B), macroblocks (MB), and blocks will be briefly described with reference to FIG.

【0079】ブロック(block)は、輝度または色差毎
の隣あった例えば8ライン×8画素から構成される。例
えば、DCTはこの単位で実行される。4:2:0フォ
ーマットにおけるMB内のブロックの配置を図2に示
す。
A block is composed of, for example, 8 lines × 8 pixels adjacent to each other for each luminance or color difference. For example, DCT is performed in this unit. FIG. 2 shows the arrangement of blocks in the MB in the 4: 2: 0 format.

【0080】MB(マクロブロック)は、例えば画像の
フォーマットが、いわゆる4:2:0コンポーネントデ
ィジタル信号である場合、上下左右に隣あった4つの輝
度ブロックY0,Y1,Y2,Y3と、画像上では同じ位置に
あたるCb,Crそれぞれの色差ブロックの全部で6つの
ブロックで構成される。伝送の順はY0,Y1,Y2,Y3,C
b,Crである。予測データに何を用いるか、予測誤差を
送らなくても良いか否かなどは、この単位で判断され
る。
For example, when the image format is a so-called 4: 2: 0 component digital signal, an MB (macroblock) is composed of four luminance blocks Y0, Y1, Y2, and Y3 that are vertically and horizontally adjacent to each other. In this example, each of the color difference blocks of Cb and Cr at the same position is composed of a total of six blocks. The order of transmission is Y0, Y1, Y2, Y3, C
b, Cr. What to use for the prediction data, whether or not it is not necessary to send the prediction error, and the like are determined in this unit.

【0081】VOPは、1つまたは複数Nのマクロブロ
ックMBから構成される1枚の画像である。そして、符
号化される方式にしたがって、Iピクチャ(画像内符号
化画像)、Pピクチャ(前方予測符号化画像)、および
Bピクチャ(両方向予測符号化画像)のうちのいずれか
に分類される。
A VOP is a single image composed of one or a plurality of N macroblocks MB. Then, according to the encoding method, the image is classified into one of an I picture (intra-coded image), a P picture (forward predicted coded image), and a B picture (bidirectional predicted coded image).

【0082】IVOPは、動き補償を行うことなく、画
像そのものが符号化(イントラ符号化)される。PVO
Pは、基本的には、自身より時間的に前に位置する画像
(IまたはPVOP)に基づいて、前方予測符号化され
る。Bピクチャは、基本的には、自身より時間的に前
と、後ろに位置する2つの画像(IまたはPVOP)に
基づいて両方向予測符号化される。
In the IVOP, the image itself is encoded (intra-encoded) without performing motion compensation. PVO
P is basically forward predictive coded based on an image (I or PVOP) located earlier in time than itself. A B picture is basically bidirectionally coded based on two pictures (I or PVOP) located before and after the B picture.

【0083】GOVは、少なくとも1枚のIVOPと、
0または少なくとも1枚の非IVOP(PVOP、BV
OP)とから構成される。ただし階層符号化を行った場
合の上位レイヤに関してはこの限りではない。尚、GO
Vの使用、不使用は符号化時に自由にきめられる。
The GOV includes at least one IVOP,
0 or at least one non-IVOP (PVOP, BV
OP). However, this does not apply to the upper layer when hierarchical coding is performed. In addition, GO
The use or non-use of V is determined freely during encoding.

【0084】VOL(Video Object Layer)は、少なく
とも1枚以上のVOPもしくはGOVから成り立つ。V
OL内には同一の表示時間を持つのVOPは含まれずV
OPをその表示時間順に表示することにより、1連の画
像となる。
A VOL (Video Object Layer) is composed of at least one VOP or GOV. V
The OL does not include VOPs having the same display time,
By displaying OPs in the order of their display time, a series of images is obtained.

【0085】Video Objectは、1つ以上のVOLから構
成され、VOLの組合わせにより同一オブジェクトを複
数の解像度、フレームレート等で符号化、復号化するこ
とが可能である。
A Video Object is composed of one or more VOLs, and the same object can be encoded and decoded at a plurality of resolutions, frame rates, and the like by combining VOLs.

【0086】Visual Objectは、一つのVideo Objectま
たは他の一つのobjectにより(例えば、face object, m
esh object, still texture object等より)構成され
る。
A Visual Object is created by one Video Object or another Object (for example, face object, m
esh object, still texture object, etc.).

【0087】Visual Object Sequence は一つもしくは
複数のVisual Objectより構成される。
The Visual Object Sequence is composed of one or a plurality of Visual Objects.

【0088】次に本発明の第1の実施の形態における画
像符号化方法及び装置の適用例となるエンコーダについ
て図3を参照しながら説明する。
Next, an encoder serving as an application example of the image encoding method and apparatus according to the first embodiment of the present invention will be described with reference to FIG.

【0089】符号化すべき画像データ(入力画像信号)
は、VO(Video Object)構成部1に入力され、VO構
成部1では、そこに入力される画像を構成するオブジェ
クトごとに、そのシーケンスであるVOが構成され、V
OP構成部21乃至2Nに出力される。即ち、VO構成部
1においてN個のVO#1乃至VO#Nが構成された場
合、そのN個のVO#1乃至VO#Nは、VOP構成部
1乃至2Nにそれぞれ出力される。
Image data to be encoded (input image signal)
Is input to a VO (Video Object) composing unit 1. In the VO composing unit 1, a VO, which is a sequence thereof, is constructed for each object constituting an image input thereto.
OP component is output 2 1 to 2 N. That is, when N pieces of VO # 1 to VO # N are configured in the VO constructing unit 1, the N pieces of VO # 1 to VO # N are output to the VOP configuring unit 2 1 to 2 N.

【0090】具体的には、例えば、符号化すべき画像デ
ータが、独立した背景F1のシーケンスと前景F2のシ
ーケンスとから構成される場合、VO構成部1は、例え
ば、前景F2のシーケンスを、VO#1として、VOP
構成部21に出力するとともに、背景F1のシーケンス
を、VO#2として、VOP構成部22に出力する。
Specifically, for example, when the image data to be encoded is composed of a sequence of independent background F1 and a sequence of foreground F2, the VO constructing unit 1 converts the sequence of foreground F2 to VO As # 1, VOP
And outputs to the configuration unit 2 1, the sequence of the background F1, as VO # 2, and outputs the VOP constructing unit 2 2.

【0091】なお、VO構成部1は、符号化すべき画像
データが、例えば、背景F1と前景F2とを、既に合成
したものである場合、所定のアルゴリズムにしたがっ
て、画像を領域分割することにより、背景F1と前景F
2とを取り出し、それぞれのシーケンスとしてのVO
を、対応するVOP構成部2n(但し、n=1,2,・
・・,N)に出力する。
When the image data to be encoded is, for example, the background F1 and the foreground F2 already synthesized, the VO constructing unit 1 divides the image into regions according to a predetermined algorithm. Background F1 and foreground F
2 and VO as each sequence
To the corresponding VOP constituent unit 2 n (where n = 1, 2,.
.., N).

【0092】VOP構成部2nは、VO構成部1の出力
から、VOP(Video Object Plane)を構成する。即
ち、例えば、各フレームから物体を抽出し、その物体を
囲む、例えば、最小の長方形(以下、適宜、最小長方形
という)をVOPとする。なお、このとき、VOP構成
部2nは、その横および縦の画素数が、例えば、16の
倍数となるようにVOPを構成する。VO構成部2
nは、VOPを構成すると、そのVOPを、VOP符号
化部3nに出力する。
The VOP constructing unit 2 n constructs a VOP (Video Object Plane) from the output of the VO constructing unit 1. That is, for example, an object is extracted from each frame, and, for example, a minimum rectangle (hereinafter, appropriately referred to as a minimum rectangle) surrounding the object is set as a VOP. At this time, the VOP configuring unit 2 n configures the VOP such that the number of horizontal and vertical pixels is a multiple of, for example, 16. VO component 2
When n constructs a VOP, it outputs the VOP to the VOP encoding unit 3n.

【0093】さらに、VOP構成部2n、VOPの大き
さ(例えば、横および縦の長さ)を表すサイズデータ
(VOP size)と、フレームにおける、そのVOPの位置
(例えば、フレームの最も左上を原点とするときの座
標)を表すオフセットデータ(VOP offset)とを検出
し、これらのデータも、VOP符号化部3nに供給す
る。
Further, the VOP constructing unit 2 n , size data (VOP size) indicating the size of the VOP (for example, the horizontal and vertical lengths) and the position of the VOP in the frame (for example, detecting the offset data (VOP offset) indicating the coordinates) at which the origin, even these data, and supplies the VOP encoding unit 3 n.

【0094】VOP符号化部3nは、VOP構成部2n
出力を、例えば、MPEGや、H.263などの規格に
準拠した方式で外部から入力した制御信号に従い符号化
し、その結果得られるビットストリームを、多重化部4
に出力する。多重化部4は、VOP符号化部31乃至3n
からのビットストリームを多重化し、その結果得られる
多重化データ(bitstream)を、例えば、地上波や、衛
星回線、CATV網その他の伝送路5を介して伝送し、
または、例えば、磁気ディスク、光磁気ディスク、光デ
ィスク、磁気テープその他の記録媒体6に記録する。
The VOP encoder 3 n outputs the output of the VOP constructor 2 n to, for example, MPEG or H.264. In accordance with a control signal input from the outside in a system conforming to a standard such as H.263, a bit stream obtained as a result is
Output to The multiplexing unit 4 includes VOP coding units 3 1 to 3 n
, And the resulting multiplexed data (bitstream) is transmitted via, for example, a terrestrial wave, a satellite line, a CATV network, or another transmission path 5,
Alternatively, for example, the information is recorded on a recording medium 6 such as a magnetic disk, a magneto-optical disk, an optical disk, a magnetic tape, or the like.

【0095】ここで、VOは、ある合成画像のシーケン
スが存在する場合の、その合成画像を構成する各オブジ
ェクト(物体)のシーケンスであり、VOPは、ある時
刻におけるVOを意味する。即ち、例えば、いま、画像
F1およびF2を合成して構成される合成画像F3があ
る場合、画像F1またはF2が時系列に並んだものが、
それぞれVOであり、ある時刻における画像F1または
F2が、それぞれVOPである。従って、VOは、異な
る時刻の、同一オブジェクトのVOPの集合ということ
ができる。
Here, VO is a sequence of each object (object) constituting the composite image when a sequence of the composite image exists, and VOP means VO at a certain time. That is, for example, if there is a composite image F3 composed by combining the images F1 and F2, an image in which the images F1 or F2 are arranged in time series is
Each is a VO, and the image F1 or F2 at a certain time is a VOP. Therefore, a VO can be regarded as a set of VOPs of the same object at different times.

【0096】なお、例えば、画像F1を背景とするとと
もに、画像F2を前景とすると、合成画像F3は、画像
F2を抜くためのキー信号を用いて、画像F1およびF
2を合成することによって得られるが、この場合におけ
る画像F2のVOPには、その画像F2を構成する画像
データ(輝度信号および色差信号)の他、適宜、そのキ
ー信号も含まれるものとする。
For example, when the image F1 is set as the background and the image F2 is set as the foreground, the composite image F3 is formed by using the key signals for extracting the image F2 and the images F1 and F2.
2, the VOP of the image F2 in this case includes not only the image data (luminance signal and color difference signal) constituting the image F2 but also its key signal as appropriate.

【0097】画像フレーム(画枠)のシーケンスは、そ
の大きさおよび位置のいずれも変化しないが、VOは、
大きさや位置が変化する場合がある。即ち、同一のVO
を構成するVOPであっても、時刻によって、その大き
さや位置が異なる場合がある。
The sequence of image frames (image frames) does not change in both size and position, but VO
The size and position may change. That is, the same VO
May be different in size and position depending on the time.

【0098】具体的な説明を図4を用いて行う。図4は
背景である画像F1と、前景である画像F2とからなる
合成画像を示している。
A specific description will be given with reference to FIG. FIG. 4 shows a composite image including an image F1 as a background and an image F2 as a foreground.

【0099】画像F1は、例えば、ある自然の風景を撮
影したものであり、その画像全体のシーケンスが1つの
VO(VO#0とする)とされている。また、画像F2
は、例えば、人が歩いている様子を撮影したものであ
り、その人を囲む最小の長方形のシーケンスが1つのV
O(VO#1とする)とされている。
The image F1 is, for example, a photograph of a certain natural scene, and the sequence of the entire image is one VO (VO # 0). Also, the image F2
Is an image of a person walking, for example, and the smallest rectangular sequence surrounding the person is one V
O (referred to as VO # 1).

【0100】この場合、VO#0は風景の画像であるか
ら、基本的に、通常の画像のフレームと同様に、その位
置および大きさの両方とも変化しない。これに対して、
VO#1は人の画像であるから、人物が左右に移動した
り、また、図面において手前側または奥側に移動するこ
とにより、その大きさや位置が変化する。従って、図4
は、同一時刻におけるVO#0およびVO#1を表して
いるが、VOの位置や大きさは、時間の経過にともなっ
て変化することがある。
In this case, since VO # 0 is a landscape image, basically, both its position and size do not change, similarly to a normal image frame. On the contrary,
Since VO # 1 is an image of a person, the size and position of the VO # 1 change when the person moves left and right or moves forward or backward in the drawing. Therefore, FIG.
Represents VO # 0 and VO # 1 at the same time, but the position and size of VO may change over time.

【0101】そこで、図3のVOP符号化部3nは、そ
の出力するビットストリームに、VOPを符号化したデ
ータの他、所定の絶対座標系におけるVOPの位置(座
標)および大きさに関する情報も含めるようになされて
いる。なお、図4においては、VO#0を構成する、あ
る時刻のVOP(画像F1)の位置を示すベクトルをO
ST0と、その時刻と同一時刻における、VO#1のV
OP(画像F2)の位置を表すベクトルをOST1と、
それぞれ表してある。
Therefore, the VOP encoding unit 3 n in FIG. 3 outputs, in the output bit stream, information on the position (coordinate) and size of the VOP in a predetermined absolute coordinate system in addition to the data obtained by encoding the VOP. Has been made to include. In FIG. 4, the vector indicating the position of the VOP (image F1) at a certain time, which constitutes VO # 0, is represented by O.
ST0 and V of VO # 1 at the same time
OST1 is a vector representing the position of OP (image F2);
Each is represented.

【0102】次に、図3のVOP符号化部3nの詳細な
構成について図5を参照しながら説明する。なお、図5
中、図70における場合と対応する部分については、同
一の符号を付してある。即ち、VOP符号化部3nは、
基本的には、図70のエンコーダと同様に構成されてい
る。また図5に詳細な構成を示すVOP符号化部3n
制御信号Nを入力することにより符号化方法を制御する
ことが可能である。その符号化手段を制御する方法とし
て、例えばDCTの直流成分の符号化精度をあらわす”
intra_dc_precision"、入力画像の1画素あたりの画素
精度を表す"number_of_bits",DCTの直流成分の符号
化手段を制御する"fixed_intradc_q"がある。
[0102] Next, referring to FIG. 5 for detailed configuration of the VOP encoding unit 3 n of FIG. FIG.
70, parts corresponding to those in FIG. 70 are denoted by the same reference numerals. That is, the VOP encoding unit 3 n
Basically, the configuration is the same as that of the encoder shown in FIG. The VOP encoding unit 3 n whose detailed configuration is shown in FIG. 5 can control the encoding method by inputting the control signal N. As a method of controlling the encoding means, for example, it represents the encoding accuracy of the DC component of the DCT. "
There are "intra_dc_precision", "number_of_bits" representing the pixel precision per pixel of the input image, and "fixed_intradc_q" which controls the DCT DC component encoding means.

【0103】入力された"intra_dc_precision"、"numbe
r_of_bits","fixed_intra_q"コードは、量子化回路13
5、逆量子化回路138,DC係数差分化器144、お
よびVLC器136へ供給される。以下に、それぞれの
詳細について説明する。
"Intra_dc_precision", "numbe"
The r_of_bits "and" fixed_intra_q "codes are
5, is supplied to the inverse quantization circuit 138, the DC coefficient differentiator 144, and the VLC unit 136. The details of each will be described below.

【0104】入力画像の画像データは、図70における
場合と同様に、フレームメモリ31に供給されて記憶さ
れ、動きベクトル検出器32において、マクロブロック
単位で動きベクトルの検出が行われる。
The image data of the input image is supplied to and stored in the frame memory 31 as in the case of FIG. 70, and the motion vector detector 32 detects a motion vector in macroblock units.

【0105】即ち、上述したように、VOPは、時刻
(フレーム)によって、大きさや位置が変化するため、
その動きベクトルの検出にあたっては、その検出のため
の基準となる座標系を設定し、その座標系における動き
を検出する必要がある。そこで、ここでは、動きベクト
ル検出器32は、上述の絶対座標系を基準となる座標系
とし、その絶対座標系に、サイズデータFSZ_Bおよ
びオフセットデータFPOS_Bにしたがって、符号化
対象のVOPおよび参照画像とするVOPを配置して、
動きベクトルを検出するようになされている。
That is, as described above, since the size and position of the VOP change depending on the time (frame),
In detecting the motion vector, it is necessary to set a coordinate system serving as a reference for the detection and to detect a motion in the coordinate system. Therefore, here, the motion vector detector 32 uses the above-described absolute coordinate system as a reference coordinate system, and uses the absolute coordinate system as a reference in accordance with the size data FSZ_B and the offset data FPOS_B. Place a VOP to
A motion vector is detected.

【0106】なお、検出された動きベクトル(MV)
は、予測モードとともに、VLC器136および動き補
償器42に供給される。
The detected motion vector (MV)
Is supplied to the VLC unit 136 and the motion compensator 42 together with the prediction mode.

【0107】また、動き補償を行う場合においても、や
はり、上述したように、基準となる座標系における動き
を検出する必要があるため、動き補償器42には、サイ
ズデータFSZ_BおよびオフセットデータFPOS_
Bが供給されるようになされている。
Also, when performing motion compensation, it is necessary to detect motion in the reference coordinate system, as described above. Therefore, the size data FSZ_B and the offset data FPOS_
B is supplied.

【0108】動きベクトルの検出されたVOPは、図7
0における場合と同様に量子化係数とされてVLC器1
36に供給される。VLC器136には、やはり図70
における場合と同様に、量子化係数、量子化ステップ、
動きベクトル、および予測モードが供給される他、画像
階層化部からのサイズデータFSZ_Bおよびオフセッ
トデータFPOS_Bも供給されており、そこでは、こ
れらのデータすべてが可変長符号化される。
The VOP in which the motion vector is detected is shown in FIG.
0, the VLC unit 1
36. FIG. 70 also shows the VLC device 136.
As in the case of, the quantization coefficient, the quantization step,
In addition to the motion vector and the prediction mode, size data FSZ_B and offset data FPOS_B from the image layering unit are also supplied, where all of these data are variable-length coded.

【0109】動きベクトルの検出されたVOPは、上述
したように符号化される他、やはり図70における場合
と同様に局所復号され、フレームメモリ41に記憶され
る。
The VOP in which the motion vector is detected is coded as described above, and also locally decoded as in FIG. 70, and stored in the frame memory 41.

【0110】演算器33は、図70と同様に動きベクト
ル検出器32がフレームメモリ31から読み出した画像
データと同一のマクロブロックをフレームメモリ31か
ら読み出し、そのマクロブロックと、動き補償器42か
らの予測画像との差分を演算する。この差分値は、DC
T器34に供給される。
The arithmetic unit 33 reads the same macroblock as the image data read from the frame memory 31 by the motion vector detector 32 from the frame memory 31 in the same manner as in FIG. The difference from the prediction image is calculated. This difference value is DC
It is supplied to the T unit 34.

【0111】一方、動き補償器42は、図70と同様、
予測モードがイントラ符号化モードである場合には、予
測画像を出力しない。この場合、演算器33(演算器4
0も同様)は、特に処理を行わず、フレームメモリ31
から読み出したマクロブロックを、そのままDCT器3
4に出力する。
On the other hand, the motion compensator 42, as in FIG.
When the prediction mode is the intra-coding mode, no predicted image is output. In this case, the operator 33 (the operator 4
0 is the same), the frame memory 31
The macro block read out from the
4 is output.

【0112】DCT器34では、演算器33の出力デー
タに対して、8ライン×8画素からなるDCT処理を施
し、その結果得られるDCT係数を、量子化器135に
供給する。
The DCT unit 34 performs a DCT process consisting of 8 lines × 8 pixels on the output data of the arithmetic unit 33, and supplies a DCT coefficient obtained as a result to the quantizer 135.

【0113】この時、出力されるDCT係数のビット精
度はnビット精度の入力の場合、n+3ビットで表せら
れる。
At this time, the bit precision of the output DCT coefficient is represented by n + 3 bits in the case of an input with n-bit precision.

【0114】量子化器135において、入力されたDC
T係数は図70の量子化器35と同様に量子化され、ス
キャンコンバータ43に送られる。
At the quantizer 135, the input DC
The T coefficient is quantized in the same manner as the quantizer 35 in FIG. 70 and sent to the scan converter 43.

【0115】ただし、DCT係数の直流成分に関しては
以下に示す方法により量子化される。ここでは要求され
る画質及び、入力画像の画素精度に応じてにDCT係数
のうちの直流係数(DC係数)の符号化精度(ビット
数)を、VOP単位、GOV単位、VOL単位で切り換
えることについて詳述する。
However, the DC component of the DCT coefficient is quantized by the following method. Here, switching the coding precision (the number of bits) of the DC coefficient (DC coefficient) among the DCT coefficients in units of VOP, GOV, and VOL according to the required image quality and the pixel precision of the input image. It will be described in detail.

【0116】DC係数の符号化精度の指定は、外部より
制御信号として入力される"intra_dc_precision"コー
ド、及び1画素辺りの画素精度”number_of_bits”に基
づいて行われるようになされており、このDC係数の符
号化精度(ビット数)を、VOP単位、GOV単位、V
OL単位で切り換える場合、VOPヘッダ,GOVヘッ
ダ、VOLヘッダに、それぞれ記述されて伝送され
る。"intra_dc_precision"は、例えば、2ビットのコー
ドであり、4種類の符号化精度(ビット精度)を表すこ
とができるようになされている。また画素精度”number
_of_bits"は、例えば4ビットのフラグであり、その値
は画素精度を表す。また”number_of_bits"は、VOL
にて伝送される。以下、"intra_dc_precision"、例えば
「00」,「01」,「10」または「11」であり"n
umber_of_bits"により示される1画素あたりのビット長
がnビットの場合、DC係数のビット精度を、それぞれ
n,n+1,n+2またはn+3ビットとして符号化を
行うものとして説明する。
The coding precision of the DC coefficient is specified based on the "intra_dc_precision" code input as a control signal from the outside and the pixel precision "number_of_bits" per pixel. The encoding precision (number of bits) of VOP, GOV, V
When switching is performed in OL units, the data is described and transmitted in a VOP header, a GOV header, and a VOL header. “intra_dc_precision” is, for example, a 2-bit code, and can represent four types of encoding precision (bit precision). Also, pixel accuracy "number"
“_of_bits” is, for example, a 4-bit flag, and its value indicates pixel precision. “number_of_bits” is VOL
Transmitted by Hereinafter, "intra_dc_precision", for example, "00", "01", "10" or "11" and "n
In the case where the bit length per pixel indicated by “umber_of_bits” is n bits, it is assumed that encoding is performed with the bit precision of the DC coefficient as n, n + 1, n + 2 or n + 3 bits, respectively.

【0117】即ち、”number_of_bits”が8の場合、D
C係数のビット精度は8、9、10、11ビットとintr
a_dc_precisionの値により変化し、同様に12ビットの
場合、12、13、14、15となる。このDC係数の
ビット精度の変化とnumber_of_bits、DC係数の量子化
数の関係を表5に示す。
That is, if “number_of_bits” is 8, D
Bit precision of C coefficient is 8, 9, 10, 11 bits and intr
It changes according to the value of a_dc_precision. Similarly, in the case of 12 bits, the values are 12, 13, 14, and 15. Table 5 shows the relationship between the change in the bit precision of the DC coefficient, number_of_bits, and the quantization number of the DC coefficient.

【0118】[0118]

【表5】 [Table 5]

【0119】図5の中の量子化回路135は、例えば図
6に示すように構成され、そこには、DCT器34より
出力されたDCT係数、予測モード、量子化ステップ、
および"intra_dc_precision"、"fixed_intradc_q"が供
給されている。
The quantization circuit 135 in FIG. 5 is configured, for example, as shown in FIG. 6, in which the DCT coefficient output from the DCT unit 34, the prediction mode, the quantization step,
And "intra_dc_precision" and "fixed_intradc_q" are supplied.

【0120】予測モードは、イントラフラグ発生器31
1に入力される。イントラフラグ発生器311は、予測
モードが「イントラ符号化(画像内予測)モード」であ
る場合のみ、イントラフラグを立てる(通常0となって
いるイントラフラグを1とする)。
In the prediction mode, the intra-flag generator 31
1 is input. The intra flag generator 311 sets the intra flag only when the prediction mode is the “intra coding (intra-picture prediction) mode” (the intra flag that is normally 0 is set to 1).

【0121】一方、8×8のブロックのDCT係数、即
ち64個のDCT係数は、スイッチ300に供給され
る。スイッチ300は、イントラフラグが0の場合、端
子A側を選択し、またイントラフラグが1の場合、端子
B側を選択するようになされている。
On the other hand, the DCT coefficients of the 8 × 8 block, that is, 64 DCT coefficients are supplied to the switch 300. The switch 300 selects the terminal A when the intra flag is 0, and selects the terminal B when the intra flag is 1.

【0122】従って、動き補償モードが「イントラ符号
化(画像内予測)モード」でない場合においては、DC
T係数は、スイッチ300により端子Aを介し、量子化
器304に供給される。量子化器304には、量子化ス
テップが入力されており、そこで、その量子化ステップ
にしたがって、DCT係数が量子化される。量子化され
たDCT係数は、量子化係数としてブロック化回路に出
力される。
Therefore, when the motion compensation mode is not the “intra coding (intra-picture prediction) mode”, the DC
The T coefficient is supplied to the quantizer 304 via the terminal A by the switch 300. A quantization step is input to the quantizer 304, where the DCT coefficients are quantized according to the quantization step. The quantized DCT coefficients are output to the blocking circuit as quantized coefficients.

【0123】量子化係数は、ブロック化回路309で8
×8のブロックにブロック化され、ブロック量子化係数
として図5のスキャンコンバータ43に出力される。な
お、MPEGの場合、量子化器304では、量子化の
際、小数点以下は、通常切り捨てられる。
The quantization coefficient is converted into 8
The image data is divided into blocks of x8 and output to the scan converter 43 in FIG. 5 as block quantization coefficients. In the case of MPEG, the quantizer 304 usually discards fractions after the decimal point during quantization.

【0124】一方、動き補償モードが「イントラ符号化
(画像内予測)モード」である場合において、DCT係
数は、スイッチ300により端子Bを介し、DC/AC
係数分離器306に供給される。DC/AC係数分離器
306においては、DCT係数が、AC係数とDC係数
とに分離され、AC係数は量子化器305に、DC係数
はDC係数量子化器307に、それぞれ出力される。
On the other hand, when the motion compensation mode is the “intra coding (intra-picture prediction) mode”, the DCT coefficient
The coefficient is supplied to a coefficient separator 306. The DC / AC coefficient separator 306 separates the DCT coefficient into an AC coefficient and a DC coefficient, and outputs the AC coefficient to the quantizer 305 and the DC coefficient to the DC coefficient quantizer 307, respectively.

【0125】量子化器305では、量子化器304にお
ける場合と同様にして、量子化ステップにしたがって、
AC係数が量子化され、AC量子化係数としてブロック
化回路309に出力される。
In the quantizer 305, as in the case of the quantizer 304, according to the quantization step,
The AC coefficients are quantized and output to the blocking circuit 309 as AC quantized coefficients.

【0126】DC係数は、DC係数量子化回路307に
おいて、量子化ステップ発生器308によって発生され
た量子化ステップにしたがって線形量子化(但し、小数
点以下は、四捨五入)され、DC量子化係数としてブロ
ック化回路309に出力される。
The DC coefficient is linearly quantized (however, the fractional part is rounded off) in the DC coefficient quantizing circuit 307 in accordance with the quantization step generated by the quantization step generator 308, and the block is converted as a DC quantized coefficient. Output to the conversion circuit 309.

【0127】ここで、量子化ステップ発生器308は、
指示されたDC係数の符号化精度(ビット精度)"intra
_dc_precision"及び、量子化ステップの決定方法を表す
フラグ"fixed_intradc_q"に対応して、量子化ステップ
を発生する。
Here, the quantization step generator 308
Indicated DC coefficient encoding accuracy (bit accuracy) "intra
_dc_precision "and a flag" fixed_intradc_q "representing a quantization step determination method, a quantization step is generated.

【0128】この量子化ステップ発生器308の動作を
図7のフローチャートを用いて説明する。量子化ステッ
プ発生器308は"intra_dc_precision","fixed_intrad
c_q"をその入力とする。
The operation of the quantization step generator 308 will be described with reference to the flowchart of FIG. The quantization step generator 308 is "intra_dc_precision", "fixed_intrad
c_q "as its input.

【0129】図7のS1において、その量子化ステップ
の決定方法を表すフラグ"fixed_intradc_q"が"0"の場
合、量子化ステップの決定方法はS2に移動する。S2
において、DC係数の量子化ステップの値は入力された
量子化スケールの値より次の表6にしたがって決定され
る。
In S1 of FIG. 7, when the flag "fixed_intradc_q" indicating the method of determining the quantization step is "0", the method of determining the quantization step moves to S2. S2
, The value of the quantization step of the DC coefficient is determined according to the following Table 6 from the value of the input quantization scale.

【0130】[0130]

【表6】 [Table 6]

【0131】すなわち、量子化を行っているブロックが
輝度のブロックであり、また入力された量子化スケール
が1から4の場合、DC量子化ステップは8となり、同
様に量子化スケールが5から8の場合2×量子化スケー
ルの値に、9から24の場合量子化スケール+8、25
以上の場合量子化スケール×2−16となる。色サブロ
ックの場合も同様に量子化スケール及び上記表6により
DC量子化ステップの値が決定される。
That is, if the block that is performing quantization is a luminance block and the input quantization scale is 1 to 4, the DC quantization step is 8, and similarly, the quantization scale is 5 to 8 In the case of, the value of 2 × quantization scale is used, and in the case of 9 to 24, the quantization scale is +8, 25
In the above case, the quantization scale is 2-16. Similarly, in the case of the color sub-block, the value of the DC quantization step is determined from the quantization scale and Table 6 above.

【0132】図7のS1で、"fixed_intradc_q"の値が
“1”である場合、S3に移動する。S3では"intra_d
c_precision"の値に応じてその動作がS4及び、S5に
移動する。"intra_dc_precision"が”00”の場合、S
4に移動し、DC量子化ステップとして8を出力する。
S3で"intra_dc_precision"が”00”以外の場合、S
5に移動する。
If the value of "fixed_intradc_q" is "1" in S1 of FIG. 7, the process moves to S3. In S3, "intra_d
The operation moves to S4 and S5 according to the value of "c_precision". When "intra_dc_precision" is "00", S is performed.
It moves to 4 and outputs 8 as a DC quantization step.
If "intra_dc_precision" is other than "00" in S3, S
Go to 5.

【0133】S5では"intra_dc_precision"の値に応じ
てその動作がS6及び、S7に移動する。"intra_dc_pr
ecision"が”01”の場合、S6に移動し、DC量子化
ステップとして4を出力する。S5で"intra_dc_precis
ion"が”01”以外の場合、S7に移動する。
At S5, the operation moves to S6 and S7 according to the value of "intra_dc_precision". "intra_dc_pr
If "ecision" is "01", the flow shifts to S6, and outputs 4 as a DC quantization step.In S5, "intra_dc_precis"
If “ion” is other than “01”, the process moves to S7.

【0134】S7では"intra_dc_precision"の値に応じ
てその動作がS8及び、S9に移動する。"intra_dc_pr
ecision"が”10”の場合、S8に移動し、DC量子化
ステップとして2を出力する。S7で"intra_dc_precis
ion"が”10”以外、すなわち”11”の場合、S9に
移動し、DC量子化ステップの値として1を出力する。
In S7, the operation moves to S8 and S9 according to the value of "intra_dc_precision". "intra_dc_pr
If "ecision" is "10", the flow shifts to S8, where 2 is output as the DC quantization step. In S7, "intra_dc_precis"
If “ion” is other than “10”, that is, “11”, the flow shifts to S9, where 1 is output as the value of the DC quantization step.

【0135】従って、動き補償モードが「イントラ符号
化(画像内予測)モード」である場合、図6中のDC係
数量子化器307において、DC係数は、指示されたビ
ット精度に量子化されることになる。
Therefore, when the motion compensation mode is the “intra coding (intra-picture prediction) mode”, the DC coefficient is quantized to the designated bit precision by the DC coefficient quantizer 307 in FIG. Will be.

【0136】図6の量子化器305で量子化されたAC
係数と、DC係数量子化器307で量子化されたDC係
数は、ブロック化回路309において8×8のブロック
にブロック化され、ブロック量子化係数として、図5の
スキャンコンバータ43に出力される。
The AC quantized by the quantizer 305 in FIG.
The coefficients and the DC coefficients quantized by the DC coefficient quantizer 307 are divided into 8 × 8 blocks by a blocking circuit 309 and output to the scan converter 43 in FIG. 5 as block quantized coefficients.

【0137】以上のようにして、量子化回路135で
は、要求される画質に及び入力画像のビット精度に応じ
た量子化処理が行われる。
As described above, the quantization circuit 135 performs the quantization processing according to the required image quality and the bit precision of the input image.

【0138】図5に戻って、量子化回路135より出力
された、量子化DCT係数が供給されるスキャンコンバ
ータ43は図70に示すものと同様の動作をする。スキ
ャンコンバーター43からの出力はDCT係数差分化器
144と、逆スキャンコンバータ45に送られる。
Returning to FIG. 5, the scan converter 43 supplied with the quantized DCT coefficient output from the quantization circuit 135 operates in the same manner as that shown in FIG. The output from the scan converter 43 is sent to the DCT coefficient differencer 144 and the inverse scan converter 45.

【0139】DC係数差分化器144は、例えば図8の
ように構成され、量子化されたDCT係数及び、量子化
スケール、1画素の画素精度"number_of_bits","intra_
dc_precision"をその入力として持ち、DC係数の差分
を行う。
The DC coefficient differentiator 144 is constructed, for example, as shown in FIG. 8, and includes a quantized DCT coefficient, a quantization scale, and pixel accuracy of one pixel “number_of_bits” and “intra_”.
dc_precision "as its input and performs the DC coefficient difference.

【0140】予測モードはイントラフラグ発生器404
に入力される。イントラフラグ発生器404は、図6の
イントラフラグ発生器311と同様の動作をし、予測モ
ードが「イントラ符号化(画像内予測)モード」である
場合のみ、イントラフラグを立てる(通常0となってい
るイントラフラグを1とする)。
The prediction mode is determined by the intra flag generator 404.
Is input to The intra-flag generator 404 performs the same operation as the intra-flag generator 311 in FIG. 6, and raises the intra-flag only when the prediction mode is the “intra-coding (intra-picture prediction) mode” (normally 0). Is set to 1).

【0141】一方、図5のスキャンコンバータ43より
供給された量子化されたDCT係数、即ち64個のDC
T係数は、スイッチ403に供給される。スイッチ40
3は、イントラフラグが0の場合、端子A側を選択し、
またイントラフラグが1の場合、端子B側を選択するよ
うになされている。
On the other hand, the quantized DCT coefficients supplied from the scan converter 43 of FIG.
The T coefficient is supplied to the switch 403. Switch 40
3 selects the terminal A side when the intra flag is 0,
When the intra flag is 1, the terminal B is selected.

【0142】従って、動き補償モードが「イントラ符号
化(画像内予測)モード」でない場合においては、DC
T係数は、スイッチ403の端子Aを介し、このDC係
数差分化器144より出力され、図5のVLC器136
へと供給される。
Therefore, when the motion compensation mode is not the “intra coding (intra-picture prediction) mode”, the DC
The T coefficient is output from the DC coefficient differentiator 144 via the terminal A of the switch 403, and is output from the VLC unit 136 in FIG.
Supplied to.

【0143】一方、動き補償モードが「イントラ符号
化」の場合においては、DCT係数は、DC/AC係数
分離器402へ供給される。DC/AC係数分離器40
2は図6のDC/AC係数分離器306と同様の動作を
し、分離したAC成分をDC/AC係数結合器401
へ、DC成分を演算器410及び、DC係数逆量子化器
406へ供給する。
On the other hand, when the motion compensation mode is “intra coding”, the DCT coefficients are supplied to DC / AC coefficient separator 402. DC / AC coefficient separator 40
2 operates in the same manner as the DC / AC coefficient separator 306 in FIG.
The DC component is supplied to the arithmetic unit 410 and the DC coefficient inverse quantizer 406.

【0144】また入力された量子化ステップ、intra_dc
_precision,fixed_intradc_qは、量子化ステップ発生器
409に供給され、量子化ステップ発生器409は、図
6の量子化ステップ発生器308と同様の動作をし、そ
のDC係数の量子化ステップをDC係数逆量子化器40
6及びDC係数量子化器405に供給する。
The input quantization step, intra_dc
_precision, fixed_intradc_q is supplied to a quantization step generator 409, which operates in the same manner as the quantization step generator 308 in FIG. Quantizer 40
6 and the DC coefficient quantizer 405.

【0145】DC係数逆量子化器406は上記図5の逆
量子化器138の内部を示す図9の中のDC係数逆量子
化器315と同様の動作をし、入力され量子化されたD
C係数をDC係数の量子化ステップにより逆量子化しそ
の値をDC係数予測モード蓄積バッファ408に供給す
る。なお、上記図5の逆量子化器138については図9
を用いて後述する。
The DC coefficient inverse quantizer 406 performs the same operation as the DC coefficient inverse quantizer 315 in FIG. 9 showing the inside of the inverse quantizer 138 in FIG.
The C coefficient is dequantized by a DC coefficient quantization step, and the value is supplied to a DC coefficient prediction mode accumulation buffer 408. Note that the inverse quantizer 138 in FIG.
Will be described later.

【0146】図8に戻り、DC係数、予測モード蓄積バ
ッファ408は、イントラフラグ発生404からの出力
及び、DC係数逆量子化器の出力406を入力し、その
ブロックの位置、イントラフラグの状態、逆量子化され
たDC係数を蓄積する。
Returning to FIG. 8, the DC coefficient / prediction mode accumulation buffer 408 receives the output from the intra flag generator 404 and the output 406 of the DC coefficient dequantizer and receives the position of the block, the state of the intra flag, Accumulate the inversely quantized DC coefficient.

【0147】DC予測値選択器407ではDC係数、予
測モード蓄積バッファ408に保存された情報を用いて
DC係数の予測値を出力し、その値をDC係数量子化器
405に供給する。
The DC predicted value selector 407 outputs the predicted value of the DC coefficient using the DC coefficient and the information stored in the prediction mode accumulation buffer 408, and supplies the value to the DC coefficient quantizer 405.

【0148】ここでDC予測値選択器407の動作を説
明するために図10を用いる。図10は、DC係数の差
分化を行うブロックXと差分を行う上でDC値を参照す
るブロックの位置関係を示す。ここで、ブロックXの左
側のブロックをA、上に位置するブロックをC、その左
上に位置するブロックをBとする。
Here, FIG. 10 is used to explain the operation of the DC prediction value selector 407. FIG. 10 shows a positional relationship between a block X for performing DC coefficient differentiation and a block for referring to a DC value in performing a difference. Here, the block on the left side of the block X is A, the block on the upper side is C, and the block on the upper left side is B.

【0149】ここで、ブロックAのDC成分をFA[0]
[0],ブロックBのDC成分をFB[0][0],ブロックCのD
C成分をFC[0][0]とする。これらの値は逆量子化された
DC成分の値であり、量子化されたA、B、Cブロック
のDC成分に、"intra_dc_precision",量子化スケール
を用いて図7のフローチャートにより求められたDC量
子化ステップの値を積算して求められたものである。た
だし、これらのブロックが、VOPの外側に位置してい
たり、intraブロック以外のブロックであった場合、上
記表6より2の(number_of_bits +2)乗の値が使用され
る。
Here, the DC component of block A is represented by F A [0]
[0], the DC component of block B is F B [0] [0], and the DC component of block C is
Let the C component be F C [0] [0]. These values are the values of the DC components that have been inversely quantized, and the DC components of the quantized DC components of the A, B, and C blocks are obtained using the “intra_dc_precision” and the quantization scale according to the flowchart in FIG. It is obtained by integrating the values of the quantization steps. However, when these blocks are located outside the VOP or are blocks other than the intra block, the value of the power of 2 (number_of_bits + 2) from Table 6 above is used.

【0150】ここで、ブロックXのDCの差分値を求め
るのに使用するブロックは次の式(1)により決定され
る。
Here, the block used to calculate the DC difference value of the block X is determined by the following equation (1).

【0151】 if(|FA[0][0]-FB[0][0]|<|FB[0][0]-FC[0][0]|) predict from block C else predict from block A ・・・(1) すなわち、FA[0][0]とFB[0][0]の差の絶対値とFB[0][0]
とFC[0][0]の差の絶対値を比較し、FA[0][0]とFB[0][0]
の差の絶対値がFB[0][0]とFC[0][0]のよりも小さい場合
には、ブロックAをその予測ブロックとしFA[0][0]をそ
の予測に用い、FB[0][0]とFC[0][0]の差の絶対値がF
A[0][0]とFB[0][0]の差の絶対値よりも小さい場合には
ブロックCをその予測ブロックとしFC[0][0]をその予測
値とする。
If (| F A [0] [0] -F B [0] [0] | <| F B [0] [0] -F C [0] [0] |) predict from block C else predict from block A ... (1) That is, the absolute value of the difference between F A [0] [0] and F B [0] [0] and F B [0] [0]
And the absolute value of the difference between F C [0] [0] and F A [0] [0] and F B [0] [0]
If the absolute value of the difference between F B [0] [0] and F C [0] [0] is smaller, block A is used as the prediction block and F A [0] [0] is used as the prediction. The absolute value of the difference between F B [0] [0] and F C [0] [0] is F
A [0] [0] and F B [0] and the prediction value F C [0] [0] and the block C and the prediction block is smaller than the absolute value of the difference between [0].

【0152】この様にして求められたDC係数の予測値
は図8のDC係数量子化器405に供給される。
The predicted value of the DC coefficient thus obtained is supplied to the DC coefficient quantizer 405 in FIG.

【0153】DC係数量子化器405では、図6のDC
係数量子化器307と同様の動作をし、供給されたDC
係数量子化ステップにより入力されたDC係数の予測値
を量子化し、差分器410に出力する。差分器410で
はDC係数分離器402より供給された量子化されたD
C係数とDC係数量子化器405より供給される量子化
後の予測値の差分をとり、その値をDC/AC係数結合
器401に入力する。
In the DC coefficient quantizer 405, the DC coefficient quantizer 405 shown in FIG.
The same operation as the coefficient quantizer 307 is performed, and the supplied DC
The prediction value of the DC coefficient input in the coefficient quantization step is quantized and output to the differentiator 410. In the differentiator 410, the quantized D supplied from the DC coefficient separator 402
The difference between the C coefficient and the predicted value after quantization supplied from the DC coefficient quantizer 405 is obtained, and the difference is input to the DC / AC coefficient combiner 401.

【0154】以上のようにして、図8に示したDC係数
差分化器144では、要求される画質に応じて、VOP
単位、GOV単位、VOL単位で切り換えられるDC係
数の符号化精度(ビット数)に対応して、DC係数の差
分化処理が行われる。
As described above, the DC coefficient differentiator 144 shown in FIG.
The DC coefficient difference processing is performed according to the encoding accuracy (the number of bits) of the DC coefficient which is switched in units, GOV units, and VOL units.

【0155】そして、DC/AC係数結合器401で
は、入力されたDC係数の差分値及び、AC係数を結合
し64個のDCT係数として出力する。この値は図5に
おけるVLC器136に出力される。
The DC / AC coefficient combiner 401 combines the input DC coefficient difference value and the AC coefficient, and outputs the result as 64 DCT coefficients. This value is output to the VLC unit 136 in FIG.

【0156】図5のVLC結合器136には、FSZ_B,FP
OS_B,VOP_SIZE,VOP_offset,動きベクトル、予測モー
ド、量子化スケール、量子化されたDCT係数等が供給
され、それぞれをVLC符号化しバッファ37に出力す
る。
The VLC coupler 136 in FIG.
OS_B, VOP_SIZE, VOP_offset, motion vector, prediction mode, quantization scale, quantized DCT coefficients, and the like are supplied, and each is VLC-coded and output to the buffer 37.

【0157】ここで、特に量子化されたDCT係数の符
号化方法について詳しく説明する。量子化し、差分を計
算したDC係数の符号化は以下のように行う。ここで、
DC係数の差分値を計算するにあたって表7、表8、表
9、表10を用いる。
Here, a method of encoding the quantized DCT coefficients will be described in detail. The coding of the DC coefficient obtained by quantizing and calculating the difference is performed as follows. here,
Tables 7, 8, 9, and 10 are used in calculating the difference value of the DC coefficient.

【0158】[0158]

【表7】 [Table 7]

【0159】[0159]

【表8】 [Table 8]

【0160】[0160]

【表9】 [Table 9]

【0161】[0161]

【表10】 [Table 10]

【0162】まず、差分化された直流成分係数(DIFFERN
TIAL DC)から、表9又は表10を参照してSIZE(=0,
1,・・・,15のいずれか)を求め、それを表7また
は表8により符号化する。即ち、例えば直流成分係数(D
IFFERNTIAL DC)が+5であった場合、表10よりサイ
ズは3とされる。そして、このサイズとしての3は、表
7または表8の右コラムが3の行の左コラムに記述され
た符号010または001に符号化される。
First, the DC component coefficient (DIFFERN
TIAL DC), referring to Table 9 or Table 10, SIZE (= 0,
,..., 15), and encodes them according to Table 7 or Table 8. That is, for example, the DC component coefficient (D
If IFFERNTIAL DC) is +5, the size is set to 3 from Table 10. Then, 3 as this size is encoded to the code 010 or 001 described in the left column of the row of the third row in the right column of Table 7 or Table 8.

【0163】次に、再び表10を参照して、差分化され
た直流成分係数(DIFFERNTIAL DC)表す固定長符号(Co
de)(サイズに等しいビット幅の係数値を表す固定長符
号)を求め、これら2つの符号の組み合わせで、差分化
された直流成分係数値を伝送する。
Next, referring again to Table 10, a fixed-length code (Co) representing a differential DC component coefficient (DIFFERNTIAL DC) will be described.
de) (fixed-length code representing a coefficient value having a bit width equal to the size) is obtained, and a differential DC component coefficient value is transmitted by a combination of these two codes.

【0164】サイズを表す可変長符号は輝度(Y)ブロ
ックと色差(Cb,Cr)ブロックでは異なり、輝度ブ
ロックの時は表7を、色差ブロックの時は表8を参照し
て符号化が行われる。差分化された直流成分係数(DIFF
ERNTIAL DC)の値を表すサイズに等しいビット幅の固定
長符号(Code)は、上記表6に示すように係数値と1対
1で対応している。
The variable length code representing the size is different between the luminance (Y) block and the chrominance (Cb, Cr) block, and the encoding is performed by referring to Table 7 for the luminance block and Table 8 for the chrominance block. Will be DC component coefficient (DIFF
The fixed length code (Code) having a bit width equal to the size representing the value of (ERNTIAL DC) has a one-to-one correspondence with the coefficient value as shown in Table 6 above.

【0165】例えば、上述と同様に差分値が+5なる値
であり、それが輝度ブロックのものである時、サイズ
は、表10より3となり、その符号は表7より010と
なる。また、+5なる値を表す固定長符号は表10よ
り、101となる。よって、差分値+5に対して、出力
される符号は、これらを組み合わせた6ビットの符号0
10101となる。
For example, in the same manner as described above, the difference value is +5, and when the difference value is that of a luminance block, the size is 3 in Table 10 and the sign is 010 in Table 7. Also, the fixed-length code representing the value of +5 is 101 from Table 10. Thus, for the difference value +5, the output code is a 6-bit code 0
10101.

【0166】AC係数の符号化に関しては、以下の手順
を用いる。即ち図5のVLC器136に供給されるデー
タは、スキャンコンバータ43にて1次元に配列された
DCT係数であり、さらにDC係数差分化器144にて
DC係数の差分化が行われたものである。したがって、
VLC器136内においては連続するゼロ係数の個数
(RUN)と非ゼロ係数値(Level)により表される。
The following procedure is used for encoding the AC coefficients. That is, the data supplied to the VLC unit 136 in FIG. 5 is the DCT coefficients arranged one-dimensionally by the scan converter 43, and the DC coefficients are further differentiated by the DC coefficient differentiator 144. is there. Therefore,
In the VLC unit 136, it is represented by the number of continuous zero coefficients (RUN) and the non-zero coefficient value (Level).

【0167】すなわち、VLC器136に供給されたD
CT係数が、例えば 12(DC係数) 0 0 0 6 0 0 0 0 0 -2 0 0 3 0 0 0
...... で表される場合、先頭の12はDC係数であるため、前
述したDC係数の符号化方法により符号化されるが、D
C係数の後では0係数が3個続くのでRUNは3、その後の
非ゼロ係数が6のためLevelは6と表される。同様に次
のRUNは5、Levelは-2となり、最後の係数はRUN2 Leve
l3で表される。このように63個のAC係数は単数もし
くは複数個のRUNとLevelのペアにより表されることとな
る。
That is, D supplied to the VLC unit 136
CT coefficient is, for example, 12 (DC coefficient) 0 0 0 6 0 0 0 0 0 -2 0 0 3 0 0 0
In the case of the following expression, since the first 12 are DC coefficients, they are coded by the above-described DC coefficient coding method.
After the C coefficient, there are three 0 coefficients, so RUN is 3, and the non-zero coefficient is 6, so the Level is 6. Similarly, the next RUN is 5, Level is -2, and the last coefficient is RUN2 Leve
It is represented by l3. Thus, the 63 AC coefficients are represented by one or more pairs of RUN and Level.

【0168】さらにこのRUNとLevelの組合わせに加え、
最後が非零のAC係数かどうかを示す値LASTがある。こ
のLASTは、Levelにより示される非零係数がそのブロッ
ク内の(スキャン順で)最後の非零係数であった場合、
1となりそれ以外の場合0となる。
Furthermore, in addition to the combination of RUN and Level,
There is a value LAST indicating whether the last is a non-zero AC coefficient. This LAST is if the non-zero coefficient indicated by Level is the last non-zero coefficient in the block (in scan order),
It becomes 1 in other cases, and becomes 0 otherwise.

【0169】例えば、上述したAC係数で3の後のAC
係数の値がすべて0であった場合、このAC係数は、 RUN 3 Level 6 Last 0 RUN 5 Level -2 Last 0 RUN 2 Level 3 Last 1 となり、この手法により63個のAC係数がすべて表現
できることとなる。
For example, the AC coefficient after the 3
If the coefficient values are all 0, the AC coefficient becomes RUN 3 Level 6 Last 0 RUN 5 Level -2 Last 0 RUN 2 Level 3 Last 1, and this method can express all 63 AC coefficients. Become.

【0170】このように(RUN,Level,Last)に変換された
AC係数は次に示す2パターンのいづれかの手法により
符号化される。
The AC coefficient converted into (RUN, Level, Last) in this manner is encoded by one of the following two patterns.

【0171】一つは以下の表11〜表22に示すVLC
テーブルより符号化を行う方法である。
One is VLC shown in Tables 11 to 22 below.
This is a method of encoding from a table.

【0172】[0172]

【表11】 [Table 11]

【0173】[0173]

【表12】 [Table 12]

【0174】[0174]

【表13】 [Table 13]

【0175】[0175]

【表14】 [Table 14]

【0176】[0176]

【表15】 [Table 15]

【0177】[0177]

【表16】 [Table 16]

【0178】[0178]

【表17】 [Table 17]

【0179】[0179]

【表18】 [Table 18]

【0180】[0180]

【表19】 [Table 19]

【0181】[0181]

【表20】 [Table 20]

【0182】[0182]

【表21】 [Table 21]

【0183】[0183]

【表22】 [Table 22]

【0184】あらかじめ発生頻度の高い組合わせに関し
ては上記表11〜表22にその符号が定められているの
でこのテーブルを参照し、コードを出力する。表11〜
表16はイントラマクロブロックにおけるVLCテーブ
ルであり、表17〜表22はイントラマクロブロック以
外のVLCテーブルである。ちなみに表11〜表16
と、表17〜表22のテーブルのVLC Codeの欄で表
現されているsは、Levelの符号を表し、Levelが正の数
の場合0、負の数の場合1である。
The codes of the combinations having a high frequency of occurrence are determined in advance in Tables 11 to 22, and the codes are output by referring to this table. Table 11
Table 16 is a VLC table in the intra macroblock, and Tables 17 to 22 are VLC tables other than the intra macroblock. Table 11 to Table 16
And s expressed in the column of VLC Code in the tables of Tables 17 to 22 represent the sign of Level, and is 0 when Level is a positive number and 1 when Level is a negative number.

【0185】表11〜表16、表17〜表22に示され
ていないVLCテーブルに関しては、エスケープコード
を用いる。エスケープコードは表16、表22の最後の
行にかかれているコードであり、このフラグが検出され
た場合、RUN,Level,Lastは、次の手段により求められ
る。すなわち、エスケープコードに続くビットによりそ
の符号化/復号化方法を判別し、0のビットが入力した
場合、1、11が入力した場合の3種類の符号化方法が
ある。
Escape codes are used for VLC tables not shown in Tables 11 to 16 and 17 to 22. The escape code is a code written in the last line of Table 16 and Table 22, and when this flag is detected, RUN, Level, Last is obtained by the following means. That is, the encoding / decoding method is determined based on the bit following the escape code, and there are three types of encoding methods when 0 bit is input and 1 and 11 are input.

【0186】まずエスケープコードに続き0の値を示す
ビットが符号化/復号された場合、表11〜表16、表
17〜表22に示すVLCテーブルを用いてRUN,Level
が符号化/復号化される。ただし、この符号により表せ
られるLevelは、実際の値とは異なり、次に示す手順に
よりLevelの絶対値が修正される。この修正は、式
(2)で示す通りに行われ、ここでLMAXは、イントラブ
ロックの場合には表23及び表24、非イントラブロッ
クの場合表25及び表26に従いVLCの符号/復号に
より求められたRUN,Lastを用いて求められる。
First, when a bit indicating a value of 0 is encoded / decoded following the escape code, RUN, Level is determined by using the VLC tables shown in Tables 11 to 16 and 17 to 22.
Are encoded / decoded. However, the Level represented by this code is different from the actual value, and the absolute value of the Level is corrected by the following procedure. This modification is performed as shown in equation (2), where LMAX is obtained by VLC encoding / decoding according to Tables 23 and 24 for intra blocks and Tables 25 and 26 for non-intra blocks. RUN, Last

【0187】 LEVELS=sign(LEVEL+)-abs(LEVEL+)+LMAX] ・・・(2)LEVEL S = sign (LEVEL + )-abs (LEVEL + ) + LMAX] (2)

【0188】[0188]

【表23】 [Table 23]

【0189】[0189]

【表24】 [Table 24]

【0190】[0190]

【表25】 [Table 25]

【0191】[0191]

【表26】 [Table 26]

【0192】次にエスケープコードに従い”10”が得
られた場合、前述した方法と同じく、表11〜表16、
表17〜表22に示すVLCテーブルを用いてRun,Leve
lが符号化/復号化される。ただし、この符号に表せるR
UNは、実際の値とは異なり、次に示す手順によりLevel
の絶対値が修正される。この修正は、式(3)で示す通
りに行われ、ここでLMAXは、イントラブロックの場合に
は表27及び表28、非イントラブロックの場合には表
29及び30に従いVLCの符号/復号により求められ
たRUN,Lastを用いて求められる。
Next, when "10" is obtained according to the escape code, the same as in the method described above, Tables 11 to 16,
Run, Level using VLC tables shown in Tables 17 to 22
l is encoded / decoded. Where R
UN is different from the actual value.
The absolute value of is corrected. This modification is performed as shown in equation (3), where LMAX is calculated by VLC encoding / decoding according to Tables 27 and 28 for intra blocks and Tables 29 and 30 for non-intra blocks. It is obtained by using the obtained RUN and Last.

【0193】 RUNS=RUN++(RMAX+1) ・・・(3)RUN S = RUN + + (RMAX + 1) (3)

【0194】[0194]

【表27】 [Table 27]

【0195】[0195]

【表28】 [Table 28]

【0196】[0196]

【表29】 [Table 29]

【0197】[0197]

【表30】 [Table 30]

【0198】エスケープコードに続いて、”11”が得
られた場合、Run,Last,Levelは、すべて固定ビットで符
号化/復号化される。即ち、RUNは6ビット、Levelは15
ビット、LASTは1ビットで符号化/復号化される。
When "11" is obtained following the escape code, Run, Last, and Level are all encoded / decoded with fixed bits. That is, RUN is 6 bits, Level is 15
The bit LAST is encoded / decoded with one bit.

【0199】ここで図5に戻り、スキャンコンバータ4
3の出力は、DC係数差分化器144だけでなく、スキ
ャンコンバータ43と相補的な関係にある逆スキャンコ
ンバータ45にも入力される。そして、逆スキャンコン
バータ45において、低周波数から高周波数の係数の順
に逆ジグザグスキャンされ、信号に変換される。その信
号は、量子化器135と相補的な関係にある逆量子化器
138にて、量子化ステップ(逆量子化ステップ)に基
づいて逆量子化され、DCT係数が出力される。
Here, returning to FIG.
The output of 3 is input not only to the DC coefficient differentiator 144 but also to the inverse scan converter 45 which is complementary to the scan converter 43. Then, in the inverse scan converter 45, inverse zigzag scanning is performed in the order of low-frequency to high-frequency coefficients, and converted into a signal. The signal is inversely quantized by an inverse quantizer 138 complementary to the quantizer 135 based on a quantization step (inverse quantization step), and a DCT coefficient is output.

【0200】ここで、図9を用いて逆量子化器138を
説明する。逆量子化器138は、図9に示すように構成
され、そこには、量子化されたDCT係数、動き補償モ
ード、量子化ステップ(逆量子化ステップ)、および"i
ntra_dc_precision"コード、"fixed_intradc_q"が供給
されている。
Here, the inverse quantizer 138 will be described with reference to FIG. The inverse quantizer 138 is configured as shown in FIG. 9 and includes a quantized DCT coefficient, a motion compensation mode, a quantization step (inverse quantization step), and “i”.
"ntra_dc_precision" code and "fixed_intradc_q" are supplied.

【0201】動き補償モードは、イントラフラグ発生器
311に入力される。イントラフラグ発生器311は、
図6のイントラフラグ発生器311と同様の動作をし、
動き補償モードが「イントラ符号化(画像内予測)モー
ド」である場合のみ、イントラフラグを立てる(通常0
となっているイントラフラグを1とする)。
The motion compensation mode is input to the intra flag generator 311. The intra flag generator 311
The same operation as the intra flag generator 311 in FIG.
Only when the motion compensation mode is the “intra coding (intra-picture prediction) mode”, an intra flag is set (usually 0
Is set to 1).

【0202】一方、8×8のブロックの量子化されたD
CT係数、即ち64個の量子化されたDCT係数は、ス
イッチ300に供給される。スイッチ300は、イント
ラフラグが0の場合、端子A側を選択し、またイントラ
フラグが1の場合、端子B側を選択するようになされて
いる従って、動き補償モードが「イントラ符号化(画像
内予測)モード」でない場合においては、量子化された
DCT係数は、スイッチ300により端子Aを介し、逆
量子化器313に供給される。逆量子化器313には、
量子化ステップ(逆量子化ステップ)が入力されてお
り、そこで、その逆量子化ステップにしたがって、量子
化されたDCT係数が逆量子化され、DCT係数として
ブロック化器309に出力される。
On the other hand, the quantized D of an 8 × 8 block
The CT coefficients, ie, the 64 quantized DCT coefficients, are provided to switch 300. The switch 300 selects the terminal A when the intra flag is 0, and selects the terminal B when the intra flag is 1. Therefore, the motion compensation mode is “intra coding (intra-picture) Otherwise, the quantized DCT coefficient is supplied to the inverse quantizer 313 via the terminal A by the switch 300. The inverse quantizer 313 includes:
A quantization step (inverse quantization step) is input, and according to the inverse quantization step, the quantized DCT coefficients are inversely quantized and output to the blocker 309 as DCT coefficients.

【0203】DCT係数は、ブロック化器309で8×
8のブロックにブロック化され、ブロックDCT係数と
して図5の逆DCT回路39に出力される。
The DCT coefficient is calculated by the blocker 309 into 8 ×
8 and are output to the inverse DCT circuit 39 in FIG. 5 as block DCT coefficients.

【0204】一方、動き補償モードが「イントラ符号化
(画像内予測)モード」である場合においては、量子化
されたDCT係数は、スイッチ300により端子Bを介
し、DC/AC係数分離器312に供給される。DC/
AC係数分離器312においては、量子化されたDCT
係数が、AC係数とDC係数とに分離され、AC係数は
逆量子化器314に、DC係数はDC係数逆量子化器3
15に、それぞれ出力される。
On the other hand, when the motion compensation mode is the “intra coding (intra-picture prediction) mode”, the quantized DCT coefficient is supplied to the DC / AC coefficient separator 312 by the switch 300 via the terminal B. Supplied. DC /
In the AC coefficient separator 312, the quantized DCT
The coefficients are separated into an AC coefficient and a DC coefficient, and the AC coefficient is supplied to the inverse quantizer 314 and the DC coefficient is supplied to the DC coefficient inverse quantizer 3.
15 respectively.

【0205】逆量子化器314では、逆量子化器315
における場合と同様にして、逆量子化ステップにしたが
って、量子化されたAC係数が逆量子化され、AC係数
がブロック化器309に出力される。
In the inverse quantizer 314, the inverse quantizer 315
As in the case of, the quantized AC coefficient is inversely quantized according to the inverse quantization step, and the AC coefficient is output to the blocker 309.

【0206】量子化されたDC係数は、DC係数逆量子
化器315において、量子化ステップ発生器308によ
って発生された量子化ステップにしたがって線形逆量子
化され、DC係数としてブロック化器309に出力され
る。
The quantized DC coefficient is linearly inversely quantized in the DC coefficient inverse quantizer 315 according to the quantization step generated by the quantization step generator 308, and is output as a DC coefficient to the block generator 309. Is done.

【0207】ここで、量子化ステップ発生器308は、
図6に示した量子化ステップ発生器308と同様に、"i
ntra_dc_precision"コードに対応して、量子化ステップ
を発生する。
Here, the quantization step generator 308
As with the quantization step generator 308 shown in FIG.
Generate a quantization step corresponding to the "ntra_dc_precision" code.

【0208】従って、動き補償モードが「イントラ符号
化(画像内予測)モード」である場合、DC係数逆量子
化器315において、量子化されたDC係数は、指示さ
れたビット精度に基づいて、逆量子化されることにな
る。
Therefore, when the motion compensation mode is the “intra coding (intra-picture prediction) mode”, the DC coefficient quantized by the DC coefficient inverse quantizer 315 is based on the designated bit precision. It will be inversely quantized.

【0209】逆量子化器314からのAC係数と、DC
係数逆量子化器315からのDC係数は、ブロック化器
309において8×8のブロックにブロック化され、ブ
ロックDCT係数として、図5の逆DCT回路39に出
力される。
The AC coefficient from the inverse quantizer 314 and the DC
The DC coefficient from the coefficient inverse quantizer 315 is divided into 8 × 8 blocks by the block generator 309, and output to the inverse DCT circuit 39 in FIG. 5 as block DCT coefficients.

【0210】出力されたDCT係数は、DCT器34と
相補的な関係にある逆DCT回路39により逆DCT処
理が施され、差分信号とされて出力される。
The output DCT coefficient is subjected to inverse DCT processing by an inverse DCT circuit 39 having a complementary relationship with the DCT unit 34, and is output as a difference signal.

【0211】図5の加算器40では、逆DCT回路39
からの差分信号に、動き補償モードに基づいて動き補償
器42から出力される予測画像が、1画素単位で加算さ
れ、元の画像データと同様の画像データに復号される。
この局所復号された復号画像データは、前方/後方/両
方向予測に用いる画像として、フレームメモリ41から
出力される、後述する画像指示信号が指定するフレーム
メモリ群41のアドレスに書き込まれる。
In the adder 40 shown in FIG.
The predicted image output from the motion compensator 42 based on the motion compensation mode is added to the difference signal from the pixel-by-pixel unit, and decoded into image data similar to the original image data.
The locally decoded image data is written as an image to be used for forward / backward / bidirectional prediction at an address of a frame memory group 41 specified by an image instruction signal to be described later, which is output from the frame memory 41.

【0212】そして、フレームメモリ群41に記憶され
た画像は、後方予測に用いる画像、または前方予測に用
いる画像として、動き補償器42より出力される。
The image stored in the frame memory group 41 is output from the motion compensator 42 as an image used for backward prediction or an image used for forward prediction.

【0213】一方、動き補償器42は、フレームメモリ
群41に記憶された、動き補償参照画像指示信号により
指定される画像(局所復号された画像)に対して、動き
ベクトル検出器32からの動き補償モードおよび動きベ
クトルをもとに動き補償を施し、予測画像を生成して減
算器33および加算器40に出力する。すなわち、動き
補償器42は、前方/後方/両方向予測モードのときの
み、フレームメモリ群41の読み出しアドレスを、フレ
ームメモリ群41が減算器33にいま出力しているブロ
ックの位置に対応する位置から動きベクトルに対応する
分だけずらして、前方予測または後方予測に用いる画像
のデータを読み出し、予測画像データとして出力する。
[0213] On the other hand, the motion compensator 42 applies the motion from the motion vector detector 32 to the image (locally decoded image) specified by the motion compensation reference image instruction signal stored in the frame memory group 41. The motion compensation is performed based on the compensation mode and the motion vector, a predicted image is generated, and the predicted image is output to the subtractor 33 and the adder 40. That is, only in the forward / backward / bidirectional prediction mode, the motion compensator 42 sets the read address of the frame memory group 41 from the position corresponding to the position of the block that the frame memory group 41 is currently outputting to the subtractor 33. The image data to be used for forward prediction or backward prediction is read out, shifted by an amount corresponding to the motion vector, and output as predicted image data.

【0214】なお、両方向予測モードのときは、前方予
測と後方予測に用いる画像の両方が読み出され、例えば
その平均値が、予測画像データとして出力される。予測
画像データは、減算器33に供給され、上述したように
差分データが生成される。
In the bidirectional prediction mode, both images used for forward prediction and backward prediction are read, and, for example, the average value is output as predicted image data. The prediction image data is supplied to the subtractor 33, and difference data is generated as described above.

【0215】さらに、予測画像データは、加算器40に
も供給される。前方/後方/両方向予測の場合、加算器
40には、予測画像データの他、予測画像によって差分
化された差分データが逆DCT回路39から送られてく
るので、加算器40は、この差分データを、動き補償器
42からの予測画像に対して足し込むことで、局所復号
を行う。この局所復号画像は、復号化装置で復号される
画像と全く同一の画像であり、上述したように、次の処
理画像に対して、前方/後方/両方向予測を行うときに
用いる画像としてフレームメモリ群41に記憶される。
Further, the prediction image data is also supplied to the adder 40. In the case of forward / backward / bidirectional prediction, the adder 40 receives, from the inverse DCT circuit 39, the difference data obtained by differentiating the prediction image, in addition to the prediction image data. Is added to the predicted image from the motion compensator 42 to perform local decoding. This locally decoded image is exactly the same image as the image decoded by the decoding device. As described above, the frame memory is used as an image used when performing forward / backward / bidirectional prediction on the next processed image. Stored in group 41.

【0216】また、画像内予測モードの場合、加算器4
0には、画像データそのものが逆DCT器39の出力と
して送られてくるので、加算器40は、この画像データ
をそのままフレームメモリ群41に出力して記憶させ
る。
In the case of the intra prediction mode, the adder 4
Since the image data itself is sent to 0 as the output of the inverse DCT unit 39, the adder 40 outputs this image data as it is to the frame memory group 41 and stores it.

【0217】なお、MPEG4においては、MPEG1
およびMPEG2と異なり、Bピクチャ(B−VOP)
も参照画像として用いられるため、Bピクチャも、局所
復号され、フレームメモリ41に記憶されるようになさ
れている。但し、現時点においては、Bピクチャが参照
画像として用いられるのは階層符号化を行った場合の上
位レイヤについてだけである。
In MPEG4, MPEG1
And MPEG2, B picture (B-VOP)
Is also used as a reference image, so that the B picture is also locally decoded and stored in the frame memory 41. However, at present, the B picture is used as a reference image only in an upper layer when hierarchical coding is performed.

【0218】一方、図5のVLC器136は、図70で
説明したように、I,P,Bピクチャ(I−VOP,P
−VOP,B−VOP)のマクロブロックについて、ス
キップマクロブロックとするかどうかを決定し、その決
定結果を示すフラグCOD,MODBを設定する。この
フラグCOD,MODBは、やはり可変長符号化されて
伝送される。
On the other hand, as described with reference to FIG. 70, the VLC unit 136 shown in FIG. 5 outputs I, P, and B pictures (I-VOP, P
-VOP, B-VOP) is determined as to whether or not to be a skipped macroblock, and flags COD and MODB indicating the determination result are set. The flags COD and MODB are also transmitted after being variable-length coded.

【0219】次に、本発明の第1の実施の形態における
画像復号方法及び装置の適用例となるデコーダについて
図11を参照しながら説明する。このデコーダは、図3
に示したエンコーダから出力されるビットストリームを
復号する。
Next, a decoder which is an application example of the image decoding method and apparatus according to the first embodiment of the present invention will be described with reference to FIG. This decoder is shown in FIG.
The bit stream output from the encoder shown in (1) is decoded.

【0220】このデコーダには、図3のエンコーダから
伝送路5または記録媒体6を介して提供されるビットス
トリームが供給される。即ち、図3のエンコーダから出
力され、伝送路5を介して伝送されてくるビットストリ
ームは、図示せぬ受信装置で受信され、あるいは、記録
媒体6に記録されたビットストリームは、図示せぬ再生
装置で再生され、逆多重化部71に供給される。
The decoder is supplied with a bit stream provided from the encoder shown in FIG. 3 via the transmission line 5 or the recording medium 6. That is, the bit stream output from the encoder of FIG. 3 and transmitted via the transmission path 5 is received by a receiving device (not shown), or the bit stream recorded on the recording medium 6 is reproduced by a reproducing device (not shown). The data is reproduced by the device and supplied to the demultiplexer 71.

【0221】逆多重化部71では、そこに入力されたビ
ットストリーム(後述するVS(Video Stream))が受
信される。さらに、逆多重化部71では、入力されたビ
ットストリームが、VOごとのビットストリームVO#
1,VO#2,・・・に分離され、それぞれ、対応する
VOP復号部72nに供給される。VOP復号部72n
は、逆多重化部71からのビットストリームから、VO
を構成するVOP(画像データ)、サイズデータ(VOP
size)、およびオフセットデータ(VOP offset)を復号
し、画像再構成部73に供給する。
The demultiplexer 71 receives the bit stream (VS (Video Stream) described later) input thereto. Further, the demultiplexer 71 converts the input bit stream into a bit stream VO # for each VO.
, VO # 2,... And supplied to the corresponding VOP decoding unit 72 n . The VOP decoding unit 72 n converts the bit stream from the demultiplexing unit 71 into a VO
(Image data) and size data (VOP
size) and offset data (VOP offset), and supplies the decoded data to the image reconstruction unit 73.

【0222】画像再構成部73では、VOP復号部72
1乃至72Nそれぞれからの出力に基づいて、元の画像が
再構成される。この再構成された画像は、例えば、モニ
タ74に供給されて表示される。
[0222] In the image reconstruction unit 73, the VOP decoding unit 72
The original image is reconstructed based on the output from each of 1 to 72 N. The reconstructed image is supplied to the monitor 74 and displayed, for example.

【0223】VOP復号部72nの具体的構成例を図1
2に示す。なお、図中、図74のデコーダにおける場合
と対応する部分については、同一の符号を付してある。
即ち、VOP復号部72nは、基本的に、図74のデコ
ーダと同様に構成されている。
FIG. 1 shows a specific configuration example of the VOP decoding section 72 n .
It is shown in FIG. Note that, in the figure, parts corresponding to those in the decoder in FIG. 74 are denoted by the same reference numerals.
That is, the VOP decoding unit 72 n is basically configured similarly to the decoder in FIG.

【0224】逆多重化部71からの下位レイヤのビット
ストリームは、バッファ101に供給され、そこで受信
されて一時記憶される。IVLC器102は、その後段
のブロックの処理状態に対応して、バッファ101から
ビットストリームを適宜読み出し、そのビットストリー
ムを可変長復号することで、量子化係数、動きベクト
ル、予測モード、量子化ステップ、サイズデータFSZ
_B、オフセットデータFPOS_B、およびフラグC
ODなどを分離する。量子化係数および量子化ステップ
は、逆量子化器103に供給され、動きベクトルおよび
予測モードは、動き補償器107、逆量子化器103、
DC係数逆差分器に供給される。また、サイズデータF
SZ_BおよびオフセットデータFPOS_Bは、動き
補償器107、図11の画像再構成部73に供給され
る。また”intra_dc_precision","number_of_bits","fi
xed_intradc_q"は逆量子化器103、DCT係数逆差分
化器109、IDCT器104に供給される。
The lower layer bit stream from the demultiplexer 71 is supplied to the buffer 101, where it is received and temporarily stored. The IVLC unit 102 appropriately reads out a bit stream from the buffer 101 according to the processing state of the subsequent block, and performs variable-length decoding on the bit stream to obtain a quantization coefficient, a motion vector, a prediction mode, a quantization step, , Size data FSZ
_B, offset data FPOS_B, and flag C
Separate OD etc. The quantization coefficient and the quantization step are supplied to the inverse quantizer 103, and the motion vector and the prediction mode are determined by the motion compensator 107, the inverse quantizer 103,
It is supplied to a DC coefficient inverse differencer. Also, size data F
The SZ_B and the offset data FPOS_B are supplied to the motion compensator 107 and the image reconstruction unit 73 in FIG. "Intra_dc_precision", "number_of_bits", "fi
“xed_intradc_q” is supplied to the inverse quantizer 103, the DCT coefficient inverse difference unit 109, and the IDCT unit 104.

【0225】逆量子化器103、IDCT器104、演
算器105、フレームメモリ106、逆スキャンコンバ
ータ108、または動き補償器107では、VOP符号
化部2n内の図5に示した逆量子化器138、IDCT
器39、演算器40、フレームメモリ41、逆スキャン
コンバータ45、または動き補償器42における場合と
それぞれ同様の処理が行われる。
[0225] The inverse quantizer 103, IDCT unit 104, arithmetic unit 105, frame memory 106, the inverse scan converter 108 or the motion compensator 107, the inverse quantizer shown in FIG. 5 of the VOP encoding unit 2 n 138, IDCT
The same processing as in the case of the unit 39, the arithmetic unit 40, the frame memory 41, the inverse scan converter 45, or the motion compensator 42 is performed.

【0226】逆量子化器103では、IVLC器102
より供給された量子化係数、量子化されたDCT係数を
元に逆量子化を行う。逆量子化器103の動作は図5の
逆量子化器38と同様の動作をし、その出力は逆スキャ
ンコンバータ108に送られる。
In the inverse quantizer 103, the IVLC unit 102
Inverse quantization is performed based on the supplied quantization coefficient and the quantized DCT coefficient. The operation of the inverse quantizer 103 is the same as the operation of the inverse quantizer 38 in FIG. 5, and the output is sent to the inverse scan converter 108.

【0227】逆スキャンコンバータ108においては、
図5の逆スキャンコンバータ45と同様の動作がなさ
れ、1次元に配列されたDCT係数が、逆ジグザグスキ
ャンされ8×8のDCT係数として並び替えられる。また
逆スキャンコンバータ108の出力はDC係数逆差分器
109に送られる。
In the inverse scan converter 108,
The same operation as that of the inverse scan converter 45 of FIG. 5 is performed, and the DCT coefficients arranged one-dimensionally are inversely zigzag scanned and rearranged as 8 × 8 DCT coefficients. The output of the inverse scan converter 108 is sent to the DC coefficient inverse difference unit 109.

【0228】DC係数逆差分化器109では、図5のD
C係数逆差分化器144と同様の動作がなされ、差分化
されたDC係数がここで復号される。DC係数逆差分化
器109の結果はIDCT器104へ供給される。
In the DC coefficient inverse differentiator 109, D in FIG.
The same operation as that of the C coefficient inverse differentiator 144 is performed, and the differentiated DC coefficient is decoded here. The result of the DC coefficient inverse differentiator 109 is supplied to the IDCT unit 104.

【0229】ここで、DC係数逆差分化器109の具体
例について図13を用いて説明する。なお、図中、図8
のDC係数量子化器と対応するものについては同じ番号
を割り振ってある。
Here, a specific example of the DC coefficient inverse differentiator 109 will be described with reference to FIG. In FIG. 8, FIG.
The same numbers are assigned to those corresponding to the DC coefficient quantizers of No.

【0230】即ち、DC/AC係数結合器401、DC
/AC係数分離器402、スイッチ403、イントラフ
ラグ発生器404、量子化器405、逆量子化器40
6、DC予測値選択器407、DC係数予測モード蓄積
バッファ408、量子化ステップ発生器409に関して
は図8に示すものとそれぞれ同様の処理が行われる。ま
たDC/AC係数結合器401は、DC/AC係数分離
器402より得られたDC値とDC予測値選択器407
より得られたDCの予測値を量子化した値との加算器4
1を介した和と、DC/AC係数分離器402より得ら
れたAC値とを結合して出力する。
That is, the DC / AC coefficient combiner 401, DC
/ AC coefficient separator 402, switch 403, intra-flag generator 404, quantizer 405, inverse quantizer 40
6, the DC prediction value selector 407, the DC coefficient prediction mode accumulation buffer 408, and the quantization step generator 409 perform the same processing as that shown in FIG. The DC / AC coefficient combiner 401 further includes a DC value obtained from the DC / AC coefficient separator 402 and a DC predicted value selector 407.
Adder 4 with the quantized value of the DC prediction value obtained from
1 and the AC value obtained from the DC / AC coefficient separator 402 are combined and output.

【0231】このようにして、DC係数逆差分器109
において、以前に入力されたDCT係数よりDC係数の
予測値を選択、入力されたDCT係数のDC成分の和を
とることで、DC係数を復号しその値をIDCT器10
4に出力する。
As described above, the DC coefficient inverse difference unit 109
In the above, a DC coefficient is predicted by selecting a predicted value of the DC coefficient from the previously input DCT coefficient, and the sum of the DC components of the input DCT coefficient is decoded, and the DC coefficient is decoded and the value is converted to an IDCT unit
4 is output.

【0232】IDCT器104は、図5のIDCT器39
と同様の動作が行われる。ここで、IDCT器104
は、DC係数逆差分器109より供給されたDCT係数
に対しIDCT処理を施し、演算器105に出力する。
The IDCT device 104 is the IDCT device 39 shown in FIG.
The same operation as described above is performed. Here, the IDCT device 104
Performs an IDCT process on the DCT coefficient supplied from the DC coefficient inverse difference unit 109, and outputs the result to the arithmetic unit 105.

【0233】演算器105は、図5の演算器40と同様
の動作をし、動き補償器107から供給された予測画像
とIDCT器104から供給された復号画像を足し合わ
せ、その結果をフレームメモリ106に供給し、また図
11の画像再構成部73へ供給する。またイントラ符号
化(フレーム内符号化)を行う場合には動き補償器10
7からの出力を特に足しあわせず、IDCT器104か
ら供給された画像をそのまま出力する。
Arithmetic unit 105 performs the same operation as arithmetic unit 40 in FIG. 5, adds the predicted image supplied from motion compensator 107 and the decoded image supplied from IDCT unit 104, and stores the result in a frame memory. And then to the image reconstruction unit 73 of FIG. When performing intra coding (intra-frame coding), the motion compensator 10
7, the image supplied from the IDCT device 104 is output as it is.

【0234】フレームメモリ106は、図5のフレーム
メモリ41と同様の動作をし、演算器105より供給さ
れた復号画像を蓄積し、後段の動き補償器107へ動き
補償を行う場合の予測画像として供給する。
The frame memory 106 operates in the same manner as the frame memory 41 shown in FIG. 5, accumulates the decoded image supplied from the arithmetic unit 105, and uses it as a predicted image when the motion compensator 107 at the subsequent stage performs motion compensation. Supply.

【0235】動き補償器107においては、図5の動き
補償器42と同様の動作をし、IVLC器102より供
給された動きベクトル、予測モード、FSZ_B,FPOS_B,VOP
_SIZE,VOP_Offsetを元にフレームメモリ内から予測符号
化に用いる画像を選択し、演算器105に出力する。
The motion compensator 107 operates in the same manner as the motion compensator 42 shown in FIG. 5, and outputs the motion vector, prediction mode, FSZ_B, FPOS_B, VOP supplied from the IVLC unit 102.
Based on _SIZE, VOP_Offset, an image to be used for predictive encoding is selected from within the frame memory and output to the arithmetic unit 105.

【0236】このようにして、図11のVOP復号部7
nにおいてVOPが復号され、画像再構成部73に供
給される。
As described above, the VOP decoding unit 7 shown in FIG.
At 2 n , the VOP is decoded and supplied to the image reconstruction unit 73.

【0237】次に、図3に示したエンコーダが出力する
符号化ビットストリームのシンタックスについて、例え
ば、MPEG4規格のVisual Comitee Draft(以下、適
宜、CDと記述する)を例に説明する。この第1の実施の
形態ではintraマクロブロックのDC係数の符号化精度
を表すフラグはVOP層に配置し説明を行っているが、
このフラグはVOL,VO,GOV,MB,bloc
k,GOB等他のレイヤにて表すことも可能である。
Next, the syntax of the encoded bit stream output from the encoder shown in FIG. 3 will be described by taking, for example, Visual Comitee Draft (hereinafter, appropriately referred to as CD) of the MPEG4 standard as an example. In the first embodiment, the flag indicating the encoding accuracy of the DC coefficient of the intra macro block is arranged and described in the VOP layer.
This flag is VOL, VO, GOV, MB, bloc
It can also be represented by other layers such as k and GOB.

【0238】MPEG4においてvisual objectについ
ては、2次元の動画像データだけではなく、2次元静止
画画像、Face Object等を符号化/復号化することが可
能である。そのため、MPEG4のvisual Objectにつ
いては、まず、図14に示すVisual Object Sequenceを
伝送する。Visual Object Sequence内では、複数のVisu
al Objectを伝送することができ,複数のVisual Object
によりVisual Object Sequenceを構成することが可能で
ある。
With respect to visual objects in MPEG4, not only two-dimensional moving image data but also two-dimensional still image images, face objects, and the like can be encoded / decoded. Therefore, as for the visual object of MPEG4, first, the Visual Object Sequence shown in FIG. 14 is transmitted. Within the Visual Object Sequence, multiple Visu
al Object can be transmitted.
Can configure a Visual Object Sequence.

【0239】次に、Visual Objectのシンタックスを図
15及び図16に示す。Visual Objectでは、このシン
タックス以降に続くobjectのタイプ(現在のところ動画
像であるVideo Object,静止画であるStill Texture Obj
ect,2次元のメッシュを示すMesh Object,顔形状を示す
Face Objectの4つが定義されている)等を示すことが
可能でありVisual Objectに続いて、Video Object,Stil
l texture object,MeshObject,Face Objectのいづれか
のシンタックスが続く。
Next, the syntax of the Visual Object is shown in FIG. 15 and FIG. In Visual Object, the type of object following this syntax (Video Object which is a moving image at present, Still Texture Obj which is a still image)
ect, Mesh Object showing 2D mesh, showing face shape
Face Object is defined), Video Object, Stil following Visual Object.
l The syntax of texture object, MeshObject, or Face Object follows.

【0240】また図17に示すuser_dataは、Visual Ob
ect Sequence,Visual Object,VideoObject,GOV layer等
で使用し、符号化時に復号時等に使用するデータを復号
側で定義して伝送することが可能である。
[0240] Also, user_data shown in FIG.
ect Sequence, Visual Object, VideoObject, GOV layer, etc., and it is possible to define and transmit data used at the time of decoding at the time of encoding on the decoding side.

【0241】ここでVideo Object(以下、VO)のシン
タックスを図18に示す。VOは、1以上のVOL(Vi
deo Object Layer Class)から構成される。ただし、画
像を階層化しないときは1のVOLで構成され、画像を
階層化する場合には、その階層数だけのVOLで構成さ
れる。
FIG. 18 shows the syntax of Video Object (hereinafter referred to as VO). A VO is composed of at least one VOL (Vi
deo Object Layer Class). However, when the image is not hierarchized, it is composed of one VOL. When the image is hierarchized, it is composed of VOLs of the number of layers.

【0242】続いて、VOL(video Object Layer)のシ
ンタックスを図19、図20、図21及び図22に示
す。VOLは、上述したようなスケーラビリティのため
のクラスであり、video_object_layer_idで示される番
号によって識別される。即ち、例えば、下位レイヤのV
OLについてのvideo_object_layer_idは0とされ、ま
た、例えば、上位レイヤのVOLについてのvideo_obje
ct_layer_idは1とされる。なお、上述したように、ス
ケーラブルのレイヤの数は2に限られることなく、1や
3以上を含む任意の数とすることができる。
Next, the syntax of the VOL (video Object Layer) is shown in FIGS. 19, 20, 21 and 22. The VOL is a class for scalability as described above, and is identified by a number indicated by video_object_layer_id. That is, for example, the lower layer V
The video_object_layer_id for the OL is set to 0, and, for example, the video_obje for the VOL of the upper layer
ct_layer_id is set to 1. As described above, the number of scalable layers is not limited to two, but may be any number including one or three or more.

【0243】またVOLは大きく2つのシンタックスか
ら構成されており、図19中のvideo_object_layer_sta
rt_codeからなる部分と、図21中のshort_video_start
_markerより始る部分の2つにより構成されている。
[0243] The VOL is roughly composed of two syntaxes, and the video_object_layer_sta in FIG.
The part consisting of rt_code and short_video_start in FIG.
It consists of two parts starting with _marker.

【0244】ここで、図19中のvideo_object_start_c
odeに続く部分から構成されるシンタックスについて説
明する。各VOPで復号画像の1画素辺りのビット精度
を表すフラグは、bits_per_pixelの4ビットのフラグで
示される。このbits_per_pixelは、各VOL毎に定めら
れる入力画像の画素精度が8ビットであるかどうかを示
す図20中の1ビットのフラグnot_8bitが1の場合にの
み読み込まれる。bits_per_pixelの示す値は、復号化を
行う画素精度を示し、その値は4から12の値をとるこ
とが許されている。なお、not_8_bitsが”0”の場合、
復号化を行う画像の画素精度は8ビットとして処理され
る。
Here, video_object_start_c in FIG.
The syntax consisting of the part following ode will be described. The flag indicating the bit precision of one pixel of the decoded image in each VOP is indicated by a 4-bit flag of bits_per_pixel. This bits_per_pixel is read only when the 1-bit flag not_8bit in FIG. 20 indicating whether the pixel precision of the input image determined for each VOL is 8 bits is 1. The value indicated by bits_per_pixel indicates the pixel accuracy at which decoding is performed, and the value is allowed to take a value from 4 to 12. When not_8_bits is “0”,
The pixel precision of the image to be decoded is processed as 8 bits.

【0245】また、VOLのビットストリームの先頭に
video_object_layer_start_codeではなく、short_video
_start_markerが読み込まれた場合、図21の下部のels
e行以下のシンタックスがVOLのビットストリームの
復号に際し使用される。
Also, at the beginning of the VOL bit stream
short_video, not video_object_layer_start_code
When _start_marker is read, els at the bottom of FIG. 21
The syntax below the e-th row is used when decoding the VOL bit stream.

【0246】VOLは単数もしくは複数のVOP、vide
o_plane_with_short_headerもしくはGOVで構成され
る。
VOL is a single or a plurality of VOPs, vide
o_plane_with_short_header or GOV.

【0247】ここでGOV層に関して説明する。GOV
層は、符号化ビットストリーム上で条件を満たす位置に
任意に挿入することができるように、VOL層とVOP
層との間に規定されている。これにより、あるVOL#
0が、VOP#0,VOP#1,・・・,VOP#n,
VOP#(n+1),・・・,VOP#mといったVO
Pのシーケンスで構成される場合において、GOV層
は、その先頭のVOP#0の直前だけでなく、VOP#
(n+1)の直前にも挿入することができる。従って、
エンコーダにおいて、GOV層は、例えば、符号化スト
リームの中の、ランダムアクセスさせたい位置に挿入す
ることができ、従って、GOV層を挿入することで、あ
るVOLを構成するVOPの一連のシーケンスは、GO
V層によって、複数のグループ(以下、適宜、GOVと
いう)に分けられて符号化されることになる。ただし、
GOVを示すGOVヘッダの直後にはビットストリーム
順でIVOPが来ることが規定されている。GOV(Gr
oup_of_Video Object Plane)層のシンタックスは、例
えば、図23に示すように定義される。
Now, the GOV layer will be described. GOV
The VOL layer and the VOP layer can be arbitrarily inserted into the coded bitstream at positions satisfying the conditions.
Specified between layers. As a result, a certain VOL #
0 is VOP # 0, VOP # 1,..., VOP # n,
VO such as VOP # (n + 1),..., VOP # m
In the case where the GOV layer is composed of a sequence of P, the GOV layer includes not only the immediately preceding VOP # 0 but also the VOP #
It can be inserted immediately before (n + 1). Therefore,
In the encoder, the GOV layer can be inserted, for example, at a position in the coded stream at which random access is desired. Therefore, by inserting the GOV layer, a series of VOPs constituting a certain VOL becomes: GO
Depending on the V layer, it is divided into a plurality of groups (hereinafter, appropriately referred to as GOV) and encoded. However,
It is stipulated that an IVOP comes in bit stream order immediately after a GOV header indicating a GOV. GOV (Gr
oup_of_Video Object Plane) layer syntax is defined, for example, as shown in FIG.

【0248】図24、図25、図26、図27、図2
8、図29、図30、図31及び図32にVideo Object
Planeのシンタックスを示す。図25において、fixed_
intradc_qは、IntraマクロブロックにおけるDCTのD
C係数の量子化方法を表すフラグである。fixed_intrad
c_qの値が”0”である場合、前述した方法により表6
にしたがってIntraブロックのDC係数の量子化ステッ
プが決定される。
FIGS. 24, 25, 26, 27 and 2
8, FIG. 29, FIG. 30, FIG. 31, and FIG.
Shows the syntax of Plane. In FIG. 25, fixed_
intradc_q is D of DCT in Intra macro block.
This is a flag indicating a quantization method of the C coefficient. fixed_intrad
When the value of c_q is “0”, the values of Table 6
, The quantization step of the DC coefficient of the Intra block is determined.

【0249】この時DC係数の量子化ステップは表6に
示す方法により決定されるため、VOP内でもその量子
化スケールの値の変化に応じDC係数の量子化スケール
は非線型に変化する。またfixed_intradc_qの値が”
1”の場合、イントラマクロブロックのDC係数の量子
化精度を表す2ビットのフラグ"intra_dc_precision"が
読み込まれる。fixed_intradc_qの値が1の場合はVO
P内においてDCT係数のDC値の量子化ステップの設
定値は固定となる。また量子化スケールの値は、前述し
た方法により定められ、intra_dc_precisionが”00”
の場合8、”01”の場合4、”10”の場合2、”1
1”の場合1となる。またこの時のDC値の量子化後の
ビット精度は表5に示した値となる。
At this time, since the quantization step of the DC coefficient is determined by the method shown in Table 6, the quantization scale of the DC coefficient changes non-linearly in the VOP according to the change of the value of the quantization scale. The value of fixed_intradc_q is "
In the case of "1", a 2-bit flag "intra_dc_precision" indicating the quantization precision of the DC coefficient of the intra macroblock is read in. If the value of fixed_intradc_q is 1, VO is read.
The set value of the quantization step of the DC value of the DCT coefficient in P is fixed. The value of the quantization scale is determined by the method described above, and the intra_dc_precision is “00”.
8 for “1”, 4 for “01”, 2 for “10”, “1”
In the case of 1 ", it becomes 1. The bit precision after quantization of the DC value at this time is a value shown in Table 5.

【0250】本実施の形態では、fixed_intradc_q及びi
ntra_dc_precisionは、VOPにて説明したがこれらの
フラグ、及び、DC値の量子化スケールの決定法は、V
OPだけではなく、VO、VOL、GOV、MB、GO
B、ブロック等 他のレイヤで行うことも可能であり、
VOPで設定することに限定するわけではない。
In this embodiment, fixed_intradc_q and i
The ntra_dc_precision has been described in the VOP, but the method of determining these flags and the quantization scale of the DC value is V
Not only OP, VO, VOL, GOV, MB, GO
B, block, etc. It is also possible to perform in other layers,
The setting is not limited to the VOP.

【0251】また、video_object_planeでは、画像のテ
クスチャ情報、形状符号化情報を符号化するために、mo
tion_shape_textureを読み込みこの中で、マクロブロッ
クの等の符号化を行う。
[0251] In video_object_plane, to encode texture information and shape encoding information of an image,
The tion_shape_texture is read, and in this, encoding such as macroblocks is performed.

【0252】図30に示す、video_packet_headerは、
VOLにおいて、error_resilient_disableが”0”を
示す時にのみ使用可能であり、符号化側でその使用を自
由に使用することができVOPより読み込むことが可能
である。
The video_packet_header shown in FIG.
In the VOL, it can be used only when error_resilient_disable indicates “0”, and its use can be freely used on the encoding side and can be read from the VOP.

【0253】ここで、図21に戻り、VOLがshort_vi
deo_start_markerより始る場合において使用されるvide
o_plane_with_short_headerについて説明する。video_p
lane_with_short_headerは、前述した通りVOLがshor
t_video_start_markerにより開始する場合にのみ使用さ
れる。このシンタックスの構成例を図31に示す。
Here, returning to FIG. 21, the VOL is short_vi
vide used when starting with deo_start_marker
o_plane_with_short_header will be described. video_p
lane_with_short_header is VOL short as described above
Used only when starting with t_video_start_marker. FIG. 31 shows a configuration example of this syntax.

【0254】short_video_start_markerは、図31に示
すフラグ群及び複数のgob_layerにより構成される。
Short_video_start_marker is composed of a flag group and a plurality of gob_layers shown in FIG.

【0255】gob_layerは、複数のマクロブロックをひ
とまとまりのグループとして符号化したもので、gob_la
yer内のマクロブロックの個数は符号化を行っている画
像の画枠により一意に定められる。またgob_layerは、
図32に示すシンタックスにより定められる。
The gob_layer is obtained by coding a plurality of macroblocks as a group, and
The number of macroblocks in yer is uniquely determined by the picture frame of the image being encoded. Gob_layer also
It is determined by the syntax shown in FIG.

【0256】図24〜図27に戻り、video_object_pla
neでは、画像のテクスチャ情報、形状符号化情報を符号
化するために、motion_shape_textureが読み込まれ、こ
の中でマクロブロック等の符号化が行われる。
Referring back to FIGS. 24 to 27, video_object_pla
In ne, motion_shape_texture is read in order to encode texture information and shape encoding information of an image, and macroblocks and the like are encoded therein.

【0257】図33にmotion_shape_textureに示す。mo
tion_shape_textureは、大きく2つの部分から構成さ
れ、data_pattitioning_motion_shape_textureと、comb
ined_motion_shape_textureに分けられる。data_partit
ioning_motion_shape_textureは、VOLの図20で示
した1ビットのフラグdata_partitionedが1の場合であ
り、texture情報が伝送される場合に使われる。
FIG. 33 shows motion_shape_texture. mo
tion_shape_texture is composed of two main parts, data_pattitioning_motion_shape_texture and comb
Divided into ined_motion_shape_texture. data_partit
The ioning_motion_shape_texture is used when the 1-bit flag data_partitioned shown in FIG. 20 of the VOL is 1, and the texture information is transmitted.

【0258】combined_motion_shape_textureは、data_
partitioningが0の場合もしくは、形状情報のみを伝送
する場合に用いられ、図34にそのシンタックスを示
す。このようにcombined_motion_shape_textureは一つ
もしくは複数のマクロブロックにより構成されている。
[0258] combined_motion_shape_texture is data_
This is used when partitioning is 0 or when only shape information is transmitted, and FIG. 34 shows the syntax. Thus, combined_motion_shape_texture is composed of one or a plurality of macroblocks.

【0259】図35、図36及び図37にマクロブロッ
クのシンタックスの例を示す。macro blockのシンタッ
クスは大きく3つの部分から構成されており、I、PV
OPにおけるマクロブロックのシンタックスを示す部分
と、BVOPのマクロブロックのシンタックスを示す部
分、またGrayScale shapeにおけるマクロブロックを示
す部分の3個所から構成される。
FIGS. 35, 36 and 37 show examples of the syntax of a macroblock. The macro block syntax consists of three major parts, I and PV.
It is composed of three parts: a part indicating the syntax of the macroblock in the OP, a part indicating the syntax of the macroblock in the BVOP, and a part indicating the macroblock in the GrayScale shape.

【0260】I、PVOPにおけるマクロブロックのシ
ンタックスを示す部分、及びBVOPのMBのシンタッ
クスを示す部分は、shapeのブロックを符号化する部分m
b_binary_shape_coding、MBの符号化状態を示すフラ
グ群,及び動きベクトルの符号化部motion_vector、各ブ
ロックの符号化部blockからなる。またマクロブロック
のGrayScaleの情報を表す部分は、MB内のGray-Scale
状態を表すフラグ群 及びGray-Scaleを構成するブロッ
クの符号化部alpha_blockから構成される。
I, a part indicating the syntax of a macroblock in PVOP and a part indicating the syntax of a MB in BVOP are a part m for encoding a block of shape.
b_binary_shape_coding, a group of flags indicating the MB encoding state, a motion vector encoding unit motion_vector, and each block encoding unit block. In addition, the portion indicating the GrayScale information of the macroblock is the Gray-Scale in the MB.
It is composed of a flag group indicating a state and an encoding unit alpha_block of a block configuring the Gray-Scale.

【0261】mb_binary_shape_codingは例えば図38に
示すシンタックスにより構成される。また、motion_vec
torは例えば図39に示すシンタックスにより構成され
る。
The mb_binary_shape_coding is composed of, for example, the syntax shown in FIG. Also, motion_vec
tor is composed of, for example, the syntax shown in FIG.

【0262】blockは、例えば図40に示すシンタック
スにより構成される。blockにおいては、DC係数の差
分値、及びその値が前述した方法により符号化される。
またSubsequentDCTcoefficientsは、その他のAC係
数を示し、これも同様に前述した方法により符号化され
る。
The block has, for example, the syntax shown in FIG. In the block, the difference value of the DC coefficient and its value are encoded by the method described above.
Subsequent DCT coefficients indicates other AC coefficients, which are also encoded by the above-described method.

【0263】図24〜図32に戻って、data_partition
ingのフラブが1であり かつtexture情報が伝送される
場合には、図41に示すdata_partitioning_motion_sha
pe_textureが符号化される。data_partitioning_motion
_shape_textureは大きく2つの部分から構成されてお
り、図42,図43に示すdata_partitioning_I_VOP及
び図44、図45及び図46に示すdata_partitioning_
P_VOPから構成される。
Returning to FIGS. 24 to 32, data_partition
When the flag of ing is 1 and the texture information is transmitted, data_partitioning_motion_sha shown in FIG.
pe_texture is encoded. data_partitioning_motion
The _shape_texture is roughly composed of two parts, data_partitioning_I_VOP shown in FIGS. 42 and 43 and data_partitioning_I_VOP shown in FIGS. 44, 45 and 46.
It is composed of P_VOP.

【0264】data_partitioning_I_VOP、data_partitio
ning_P_VOPともVOPの性質を示すフラグ群及び各ブロ
ックのDCT係数を符号化する。DCT係数の符号化方
法は、前述したDCT係数の符号化方法と同様の方法で
行う。
Data_partitioning_I_VOP, data_partitio
Both the ning_P_VOP encodes a flag group indicating the nature of the VOP and the DCT coefficient of each block. The DCT coefficient encoding method is the same as the DCT coefficient encoding method described above.

【0265】次に、本発明の第2の実施の形態について
説明する。この第2の実施の形態における、"intra_dc_
precision"のフラブの定義を上記第1の実施の形態とは
変更する。すなわち、"intra_dc_precision"は2ビット
のフラグであり、その値が”00”の場合、DCT係数
のDC係数は8で除算され、入力画像の1画素のビット
精度をnビットとした場合その量子化後のDC係数のビ
ット精度がnビットと規定されるものとする。同様に”
01”の場合DC係数は4で除算されその量子化後のビ
ット精度はn+1ビットであり、”10”の場合2で除
算されn+2ビットで表されるものとする。さらに"int
ra_dc_precision"が”11”の場合、第1の実施の形態
とは異なり その符号化器/復号化器においてDC係数
の符号化方法を表すフラグ"fixed_intradc_q"が1であ
ると判断され、そのDC係数は前述した表6に従い決定
された値により除算される。また第2の実施の形態にお
いては、イントラブロックのDC係数の符号化方法を表
すフラグ"fixed_intradc_q"は符号化されず、"intra_dc
_precision"の値により、そのDC係数の量子化、逆量
子化方法が定められるものとする。
Next, a second embodiment of the present invention will be described. In the second embodiment, “intra_dc_
The definition of the flag of "precision" is changed from that of the first embodiment. That is, "intra_dc_precision" is a 2-bit flag, and when its value is "00", the DC coefficient of the DCT coefficient is divided by 8. When the bit precision of one pixel of the input image is n bits, the bit precision of the quantized DC coefficient is defined as n bits.
In the case of "01", the DC coefficient is divided by 4 and the bit precision after quantization is n + 1 bits, and in the case of "10", the DC coefficient is divided by 2 and represented by n + 2 bits.
When “ra_dc_precision” is “11”, unlike the first embodiment, the encoder / decoder determines that the flag “fixed_intradc_q” indicating the coding method of the DC coefficient is 1, and the DC coefficient Is divided by the value determined according to Table 6. In the second embodiment, the flag “fixed_intradc_q” indicating the coding method of the DC coefficient of the intra block is not coded, and “intra_dc
_precision "determines the method of quantization and inverse quantization of the DC coefficient.

【0266】この第2の実施の形態における画像信号符
号化方法及び装置の具体例は、第1の実施の形態の具体
例同様、図3で示されるエンコーダであり、同様の動作
を示すものとする。ただし、intra_dc_precisionの値
が”11”の場合においては、表6に示される方法によ
りDC係数の量子化ステップが決められるものとする。
また図6及び図9において示されるDC量子化ステップ
発生器308は、図47に示すフローチャートにより動
作し、その動作に従いDC係数の量子化ステップを出力
する。
A specific example of the image signal encoding method and apparatus according to the second embodiment is the encoder shown in FIG. 3, similar to the specific example of the first embodiment, and has the same operation. I do. However, when the value of intra_dc_precision is “11”, the quantization step of the DC coefficient is determined by the method shown in Table 6.
The DC quantization step generator 308 shown in FIGS. 6 and 9 operates according to the flowchart shown in FIG. 47, and outputs a DC coefficient quantization step according to the operation.

【0267】図47のS11において、"intra_dc_prec
ision"の値が”11”の場合、DC係数の量子化ステッ
プの値は入力された量子化スケールの値より上記表6に
したがって決定される。すなわち、量子化を行っている
ブロックが輝度のブロックであり、また入力された量子
化スケールが1から4の場合、DC量子化ステップは8
となり、同様に量子化スケールが5から8の場合2×量
子化スケールの値に、9から24の場合量子化スケール
+8、25以上の場合量子化スケール×2-16となる。
色差ブロックの場合も同様に量子化スケール及び表6に
よりDC量子化ステップの値が決定される。
In S11 of FIG. 47, “intra_dc_prec
When the value of "ision" is "11", the value of the quantization step of the DC coefficient is determined from the value of the input quantization scale in accordance with Table 6 above, that is, the block in which quantization is performed has the luminance If the block is a block and the input quantization scale is 1 to 4, the DC quantization step is 8
Similarly, when the quantization scale is 5 to 8, the value becomes 2 × quantization scale, when it is 9 to 24, the quantization scale + 8, and when it is 25 or more, the quantization scale × 2−16.
Similarly, in the case of the color difference block, the value of the DC quantization step is determined based on the quantization scale and Table 6.

【0268】S11で、”intra_dc_precision"の値
が”11”以外である場合、S13に移動する。S13
では"intra_dc_precision"の値に応じてその動作がS1
4及び、S15に移動する。"intra_dc_precision"が”
00”の場合、S14に移動し、DC量子化ステップと
して8を出力する。S13で"intra_dc_precision"が”
00”以外の場合、S15に移動する。
If the value of “intra_dc_precision” is other than “11” in S11, the process moves to S13. S13
Then, according to the value of "intra_dc_precision", the operation is S1
4 and move to S15. "intra_dc_precision" is ”
In the case of "00", the process moves to S14 and outputs 8 as the DC quantization step. In S13, "intra_dc_precision" is changed to "
If it is not "00", the process moves to S15.

【0269】S15では"intra_dc_precision"の値に応
じてその動作がS16及び、S17に移動する。"intra
_dc_precision"が”01”の場合、S16に移動し、D
C量子化ステップとして4を出力する。S15に戻っ
て"intra_dc_precision"が”10”場合、S17に移動
する。またS17ではDC量子化ステップとして2を出
力する。
At S15, the operation moves to S16 and S17 according to the value of "intra_dc_precision". "intra
If "_dc_precision" is "01", the process moves to S16 and D
4 is output as a C quantization step. Returning to S15, if "intra_dc_precision" is "10", the process moves to S17. In S17, 2 is output as a DC quantization step.

【0270】この第2の実施の形態における符号化器に
おいて、イントラDC係数の量子化方法を表すフラグfi
xed_intradc_qは、利用しなくとも良いものとする。
In the encoder according to the second embodiment, the flag fi indicating the quantization method of the intra DC coefficient is used.
xed_intradc_q does not need to be used.

【0271】この第2の実施の形態における符号化器は
第1の実施の形態同様、図5で示されるものとし、同様
の動作を示すものとする。ただし、図11に示されるV
OP復号器におけるVLC復号化器において、intra_dc
_precisionの値が”11”の場合においては、表6に示
される方法によりDC係数の量子化ステップが決められ
るものとする。また図8及び図13において示されるD
C量子化ステップ発生器409は、図47に示されるフ
ローチャートにより動作し、その動作に従いDC係数の
量子化ステップを出力する。
The encoder in the second embodiment is the same as that in the first embodiment shown in FIG. 5 and operates in the same manner. However, V shown in FIG.
In the VLC decoder in the OP decoder, intra_dc
When the value of _precision is “11”, the quantization step of the DC coefficient is determined by the method shown in Table 6. D and D shown in FIGS.
The C quantization step generator 409 operates according to the flowchart shown in FIG. 47, and outputs a DC coefficient quantization step according to the operation.

【0272】また第2の実施の形態における復号化器に
おいて、イントラDC係数の量子化方法を表すフラグfi
xed_intradc_qは、利用しなくとも良いものとする。
In the decoder according to the second embodiment, a flag fi indicating a method of quantizing intra DC coefficients is used.
xed_intradc_q does not need to be used.

【0273】またこの第2の実施の形態におけるシンタ
ックスはVideoObjectPlaneのシンタックスを除いて第1
の実施の形態と同じである。Video ObjectPlaneにおけ
るシンタックスを図48、図49、図50及び図51に
示す。第1の実施の形態と同様の、Video Object Plane
以外のシンタックスは同様の効果を持つものとする。
The syntax in the second embodiment is the first except for the syntax of VideoObjectPlane.
This is the same as the embodiment. The syntax in the Video ObjectPlane is shown in FIG. 48, FIG. 49, FIG. 50 and FIG. Video Object Plane similar to the first embodiment
Other syntaxes have the same effect.

【0274】図48、図49、図50及び図51に示し
たVideo Object Planeのシンタックスの中で、図48中
の"intra_dc_precision"は、DC係数の量子化精度を表
すフラグであり、DC係数の量子化スケールの値は、前
述した方法により定められ、intra_dc_precisionが”0
0”の場合8、”01”の場合4、”10”の場合2、
となる。また”11”の場合には、表6に示す方法によ
り決定されるため、VOP内でもその量子化スケールの
値の変化に応じDC係数の量子化スケールは非線型に変
化する。
In the Video Object Plane syntax shown in FIGS. 48, 49, 50 and 51, “intra_dc_precision” in FIG. 48 is a flag indicating the quantization accuracy of the DC coefficient, Is determined by the method described above, and intra_dc_precision is “0”.
8 for “0”, 4 for “01”, 2, for “10”,
Becomes In the case of “11”, since the value is determined by the method shown in Table 6, the quantization scale of the DC coefficient changes nonlinearly in the VOP according to the change of the value of the quantization scale.

【0275】この第2の実施の形態では、intra_dc_pre
cisionは、VOPにて説明したがこれらのフラグ、及
び、DC値の量子化スケールの決定法は、VOPだけで
はなく、VO、VOL、GOV、MB、GOB、ブロッ
ク等 他のレイヤで行うことも可能であり、VOPで設
定することに限定するわけではない。
In the second embodiment, intra_dc_pre
Although the cision has been described with reference to the VOP, these flags and the method of determining the quantization scale of the DC value can be performed not only for the VOP but also for other layers such as VO, VOL, GOV, MB, GOB, and blocks. It is possible, and the setting is not limited to the VOP.

【0276】また、video_object_planeでは、画像のテ
クスチャ情報、形状符号化情報を符号化するために、mo
tion_shape_textureを読み込みこの中で、マクロブロッ
クの等の符号化を行う。
[0276] In video_object_plane, in order to encode texture information and shape encoding information of an image, mo
The tion_shape_texture is read, and in this, encoding such as macroblocks is performed.

【0277】次に本発明の第3の実施の形態を説明す
る。この第3の実施の形態においては、第1の実施の形
態と同様の処理を行うが、出力されるVOL以下のシン
タックスが以下に示す出力手段のみ異なる。ここで、図
52を用いて第3の実施の形態における、ビットストリ
ームの出力方法を説明する。
Next, a third embodiment of the present invention will be described. In the third embodiment, the same processing as that of the first embodiment is performed, but the syntax below the output VOL is different only in the following output means. Here, a method of outputting a bit stream in the third embodiment will be described with reference to FIG.

【0278】なお、第3の実施の形態においてはスライ
スレイヤを採用する。スライスレイヤはMPEG2の中
で定義されているものと同様の定義を採用する。
In the third embodiment, a slice layer is adopted. The slice layer adopts the same definition as that defined in MPEG2.

【0279】スライスは、画像の走査順に連なる1つま
たは複数のMBで構成される。スライスの頭では、画像
内における動きベクトル、DCT係数のDC成分の差分
がリセットされ、最初のMBは画像内での位置を示すデ
ータを持っており、エラーが起こった場合でも復帰でき
るように考えられている。そのためスライスの長さ、始
まる位置は任意に、例えば伝送路のエラー状態によって
変えられるようになされている。また、スライスは画像
の一番右側のマクロブロックにおいては、必ず終了しな
ければならず複数のマクロブロック行を跨ぐことはでき
ない。すなわち、画像のすべての一番左側のマクロブロ
ックは、必ずスライスの開始ブロックとなり、また一番
右側のブロックは必ず、終了マクロブロックとなる。そ
れ以外の地点でのスライスの開始、終了は符号化時に自
由に定められるものとする。
[0279] A slice is composed of one or a plurality of MBs connected in the scanning order of an image. At the beginning of the slice, the difference between the motion vector and the DC component of the DCT coefficient in the image is reset, and the first MB has data indicating the position in the image, so that it can be restored even if an error occurs. Have been. Therefore, the length and the starting position of the slice can be arbitrarily changed depending on, for example, an error state of the transmission line. Also, the slice must end at the rightmost macroblock of the image and cannot cross a plurality of macroblock rows. That is, all the leftmost macroblocks of an image are always the start block of a slice, and the rightmost block is always an end macroblock. The start and end of the slice at other points are freely determined at the time of encoding.

【0280】1フレーム内のスライスの構成例を図53
に示す。
An example of the structure of a slice in one frame is shown in FIG.
Shown in

【0281】またこの第3の実施の形態においては、D
C係数の予測は常に左側に位置するマクロブロックより
行われるものとする。即ち、第1の実施の形態において
は、DC係数の予測値は、上記図10に示すように符号
化を行うマクロブロックの上に位置するブロックまたは
左に位置するブロックより予測が行われていたが、第3
の実施の形態では、常に左側に位置するマクロブロック
より予測を行うものと限定する。またスライスの先頭の
マクロブロック、即ち左側のマクロブロックが別のスラ
イスに属するブロックである場合、DCの予測値は第1
の実施の形態と同様の方法によりリセットされる。また
MVについても同様にリセットされる。
In the third embodiment, D
The prediction of the C coefficient is always performed from the macroblock located on the left side. That is, in the first embodiment, the prediction value of the DC coefficient is predicted from the block located above or to the left of the macroblock to be coded as shown in FIG. But the third
In the embodiment, it is limited that the prediction is always performed from the macroblock located on the left side. If the first macroblock of the slice, that is, the left macroblock belongs to another slice, the DC prediction value is the first macroblock.
Is reset by the same method as that of the embodiment. The MV is similarly reset.

【0282】またスライスのヘッダの中にはスライスの
先頭のマクロブロックの位置を示すVertical MB Positi
on,Horizontal MB Position(図53参照)、quantizer
スケールの情報が含まれその後単数もしくは複数のマク
ロブロックのビットストリームが続く。
[0282] In the header of the slice, a Vertical MB Positi indicating the position of the head macroblock of the slice is provided.
on, Horizontal MB Position (see Figure 53), quantizer
Scale information is included, followed by a bit stream of one or more macroblocks.

【0283】Vertical MB Position,Horizontal MB Pos
ionは、前述した通りスライスの先頭の垂直方向、水平
方向のMBの位置を与えるものである。Vertical MB Posi
tion,Horizontal MB Positionは、マクロブロック単位
で表され、その値は画面左上からの該当マクロブロック
の位置をマクロブロック単位(16画素)精度で示すも
のである。またquantizer_scale_codeは、スライスの先
頭ブロックにおいての量子化パラメータを求める際に
その予測値として使用される。
[0283] Vertical MB Position, Horizontal MB Pos
ion gives the position of the MB in the vertical and horizontal directions at the beginning of the slice as described above. Vertical MB Posi
The “tion” and “Horizontal MB Position” are expressed in macroblock units, and their values indicate the position of the corresponding macroblock from the upper left of the screen with macroblock unit (16 pixel) accuracy. Also, quantizer_scale_code is used when calculating the quantization parameter in the first block of the slice.
Used as its predicted value.

【0284】それでは、第3の実施の形態に置ける符号
化器においてのビットストリームの出力方法について図
52を用いて説明する。
Now, a method of outputting a bit stream in the encoder according to the third embodiment will be described with reference to FIG.

【0285】図52のS30において、符号化器はvisu
l Object sequenceのシンタックスにしたがったビット
ストリームを出力する。Visual Object Sequenceのシン
タックスは、第1の実施の形態の図14に示したものと
同様である。
In S30 of FIG. 52, the encoder performs visu
l Output a bit stream according to the syntax of the Object sequence. The syntax of the Visual Object Sequence is the same as that shown in FIG. 14 of the first embodiment.

【0286】次にS31に進み、符号化器はvisul Obje
ctのシンタックスにしたがったビットストリームを出力
する。Visual Objectのシンタックスは、第1の実施の
形態の図15及び図16に示したものと同様である。
[0286] Next, proceeding to S31, the encoder performs visul Obje
Output a bitstream according to the syntax of ct. The syntax of the Visual Object is the same as that shown in FIGS. 15 and 16 of the first embodiment.

【0287】次にS32に進み、符号化器はVideo Obje
ctのシンタックスにしたがったビットストリームを出力
する。Video Objectのシンタックスは、第1の実施の形
態の図18に示したものと同様である。
[0287] Next, proceeding to S32, the encoder performs the Video Obje
Output a bitstream according to the syntax of ct. The syntax of the Video Object is the same as that shown in FIG. 18 of the first embodiment.

【0288】次にS33に進む。ここでは、図54、図
55、図56、図57、図58及び図59に示すVideo
Object Layerのシンタックスを参照する。すなわち、イ
ントラブロックにおける量子化方法を示すフラグ"fixed
_intradc_q"により、"fixed_intradc_q"の値が0即ち、
前述した第1の実施の形態において、intraブロックに
おいてDC係数の量子化ステップを表6にしたがって表
される方法により決定する場合、S34に移り、上記Vi
deo Object Layerのシンタックスの図54中のVideo_Ob
ject_layer_start_codeから始るビットストリームが出
力される。その後、S35に進み図56中のVideo Obje
ct Plane以下のビットストリームの出力が行われる。
Then, the flow advances to S33. Here, the video shown in FIGS. 54, 55, 56, 57, 58, and 59 is used.
Refer to Object Layer syntax. That is, the flag “fixed” indicating the quantization method in the intra block
_intradc_q ", the value of" fixed_intradc_q "is 0,
In the above-described first embodiment, when the quantization step of the DC coefficient in the intra block is determined by the method shown in Table 6, the process proceeds to S34 and the above Vi is performed.
Video_Ob in deo Object Layer syntax in Figure 54
A bit stream starting from ject_layer_start_code is output. Then, the process proceeds to S35, where Video Obje in FIG.
The output of the bit stream of ct Plane or less is performed.

【0289】S33に戻り、イントラブロックにおける
量子化方法を示すフラグ"fixed_intradc_q"により、"fi
xed_intradc_q"の値が1、即ち前述した第1の実施の形
態において、intraブロックにおいてDC係数の量子化
ステップがintra_dc_precisionの値により決定する場
合、S36に移り、図57中のVideo_Object_layer_hig
hquality_start_codeから始るビットストリームが出力
される。その後、S37に進み図59中のVideo Object
Plane_highquality_header以下の出力が行われる。
Returning to S33, “fi_fi” is set by the flag “fixed_intradc_q” indicating the quantization method in the intra block.
If the value of “xed_intradc_q” is 1, that is, in the first embodiment described above, when the quantization step of the DC coefficient in the intra block is determined by the value of intra_dc_precision, the process proceeds to S36, and the Video_Object_layer_hig in FIG.
A bit stream starting from hquality_start_code is output. Then, the process proceeds to S37, where Video Object in FIG.
Output below Plane_highquality_header is performed.

【0290】このようにして、"fixed_intradc_q"の値
に応じて適用的に符号化を行うシンタックスが変更され
る。この第3の実施の形態においては簡単のために"fix
ed_intradc_q"を用いて、シンタックスの変更方法の説
明を行ったが、これ以外の手段を用いてDC係数量子化
方法、もしくは符号化を行うシンタックスの形態を選択
しても良い。
As described above, the syntax for adaptively performing encoding is changed according to the value of “fixed_intradc_q”. In the third embodiment, "fix
Although the method of changing the syntax has been described using “ed_intradc_q”, the DC coefficient quantization method or the form of the syntax for performing encoding may be selected using other means.

【0291】ここで、この第3の実施の形態における、
ビットストリームのシンタックスをもう一度示してお
く。
Here, in the third embodiment,
Here is the syntax of the bitstream again.

【0292】Visual Object Sequenceのシンタックスは
第1の実施の形態のものと同様であり、図14において
示される。Visual Object のシンタックスは第1の実施
の形態のものと同様であり、図15及び図16において
示される。Video Objectのシンタックスは第1の実施の
形態のものと同様であり、図18において示される。
The syntax of the Visual Object Sequence is the same as that of the first embodiment, and is shown in FIG. The syntax of the Visual Object is the same as that of the first embodiment, and is shown in FIGS. The syntax of the Video Object is the same as that of the first embodiment, and is shown in FIG.

【0293】Video Object Layerのシンタックスは、図
54、図55、図56、図57、図58及び図59にお
いて示される。Video Object Layerのシンタックスは大
きく2つの部分に大別され、一つは、”fixed_intradc_
q"により、表6を用いてDC係数の量子化ステップ方法
を決定した場合、さらには、"fixed_intradc_q"におい
て"intra_dc_precision"を用いてその量子化ステップを
決定する場合である。
The syntax of the Video Object Layer is shown in FIGS. 54, 55, 56, 57, 58 and 59. The syntax of the Video Object Layer is roughly divided into two parts. One is "fixed_intradc_
This is a case where the quantization step method of the DC coefficient is determined by using “Table 6” by “q”, and further, the quantization step is determined by using “intra_dc_precision” in “fixed_intradc_q”.

【0294】まとめると、"fixed_intradc_q"が0であ
る場合、図54に示されるvideo_object_layer_start_c
ode及び、図57に示されるshort_video_start_marker
からなる部分がシンタックスにしたがって符号化され
る。
In summary, when “fixed_intradc_q” is 0, video_object_layer_start_c shown in FIG.
ode and short_video_start_marker shown in FIG.
Are encoded according to the syntax.

【0295】また"fixed_intradc_q"が1の場合 、図5
7において示されるvideo_object_layer_highquality_s
tart_codeに続くシンタックスにしたがって符号化され
る。
When “fixed_intradc_q” is 1, FIG.
Video_object_layer_highquality_s shown in 7
Encoded according to the syntax following tart_code.

【0296】video_object_layer_highquality_start_c
odeに続くシンタックスにしたがってビットストリーム
が符号化された場合、続いて図60、図61及び図62
に示すvideo_object_plane_highquality_headerに続く
シンタックスが符号化される。video_object_plane_hig
hquality_headerは、図63、図64及び図65に示すV
ideo Object Planeに対応する部分であり同様の動作を
示す。ただし、VideoObject Planeの中で示されている
いくつかのフラグ群は符号化されず、その値は図66に
示す通りに定められた値をとるものとして符号化が行わ
れる。
Video_object_layer_highquality_start_c
When the bit stream is coded according to the syntax following ode, then, FIG. 60, FIG. 61 and FIG.
Is encoded following the video_object_plane_highquality_header shown in FIG. video_object_plane_hig
hquality_header is V as shown in FIGS. 63, 64 and 65.
It is a part corresponding to the ideo Object Plane and shows the same operation. However, some flag groups shown in the VideoObject Plane are not coded, and the values are coded assuming values determined as shown in FIG.

【0297】この第3の実施の形態にしたがって作成さ
れたビットストリームの復号化手順を図67を用いて説
明する。この図67は、第3の実施の形態における符号
化器においてのビットストリームの出力方法を示す図で
ある。
A procedure for decoding a bit stream created according to the third embodiment will be described with reference to FIG. FIG. 67 is a diagram illustrating a bit stream output method in the encoder according to the third embodiment.

【0298】まず、S40において、符号化器はvisul
Object sequenceのシンタックスにしたがったビットス
トリームを出力する。Visual Object Sequenceのシンタ
ッスは、第1の実施の形態の図14に示したものと同様
である。
First, in S40, the encoder performs visul
Outputs a bit stream according to the syntax of the Object sequence. The syntax of the Visual Object Sequence is the same as that shown in FIG. 14 of the first embodiment.

【0299】次にS41に進み、符号化器はvisul Obje
ctのシンタックスにしたがったビットストリームを出力
する。Visual Object のシンタックスは、第1の実施の
形態の図15及び図16に示したものと同様である。
[0299] Next, proceeding to S41, the encoder performs visul Obje
Output a bitstream according to the syntax of ct. The syntax of the Visual Object is the same as that shown in FIGS. 15 and 16 of the first embodiment.

【0300】次にS42に進み、符号化器はVideo Obje
ctのシンタックスにしたがったビットストリームを出力
する。Video Objectのシンタックスは、第1の実施の形
態の図18に示したものと同様である。
[0300] Next, proceeding to S42, the encoder performs the Video Obje
Output a bitstream according to the syntax of ct. The syntax of the Video Object is the same as that shown in FIG. 18 of the first embodiment.

【0301】次にS43において、続くビットストリー
ムの先頭部分を読み込み、次に続くビットストリームの
種類を判別する。即ち次に続くビットストリームが、Vi
deoObject_layer_start_codeであった場合、またはshor
t_video_start_markterの場合、S44に進み、第1の
実施の形態の場合と同様に復号される。(ただし、"fix
ed_intradc_q"は存在せず、またその値は0であると判
断される)S43に戻り、イントラブロックにおける量
子化方法を示すフラグ"fixed_intradc_q"により、"fixe
d_intradc_q"の値が1、即ち前述した第1の実施の形態
において、intraブロックにおいてDC係数の量子化ス
テップがintra_dc_precisionの値により決定する場合、
S46に移り、Video_Object_layer_start_codeから始
るビットストリームが出力される。その後、S47に進
みVideo Object Planeの出力が行われる。
Next, in S43, the head of the following bit stream is read, and the type of the following bit stream is determined. That is, the next bit stream is Vi
If it is deoObject_layer_start_code or short
In the case of t_video_start_markter, the process proceeds to S44, where decoding is performed as in the case of the first embodiment. (However, "fix
(it is determined that ed_intradc_q "does not exist and its value is 0.) Returning to S43, the flag" fixed_intradc_q "indicating the quantization method in the intra block indicates" fixed_intradc_q ".
When the value of “d_intradc_q” is 1, that is, in the first embodiment described above, when the quantization step of the DC coefficient in the intra block is determined by the value of intra_dc_precision,
Proceeding to S46, a bit stream starting from Video_Object_layer_start_code is output. Thereafter, the process proceeds to S47, where the output of the Video Object Plane is performed.

【0302】このようにして、"fixed_intradc_q"の値
に応じて適用的に符号化を行うシンタックスが変更され
る。この第3の実施の形態においては簡単のために"fix
ed_intradc_q"を用いて、シンタスの変更方法の説明を
行ったが、これ以外の手段を用いてDC係数量子化方
法、もしくは符号化を行うシンタックスの形態を選択し
ても良い。
[0302] In this manner, the syntax for adaptively performing encoding is changed according to the value of "fixed_intradc_q". In the third embodiment, "fix
Although the method of changing the synth has been described using “ed_intradc_q”, a DC coefficient quantization method or a form of syntax for performing encoding may be selected using other means.

【0303】次に本発明の第4の実施の形態について説
明する。ここでは、第1、第2、第3の実施の形態と同
様の符号化方法/復号方法及び、符号化器/復号化器を
有するが、それらに対しそのDCT係数のAC係数の符
号化方法のみが異なる。即ち、第1、第2、第3の実施
の形態においては、そのDCT係数は量子化された後RU
N,LEVEL,LASTの3パラメータを複数組、組み合わせこれ
らをVLC等を用いて符号化を行っていたが、対応する
VLCテーブルは一部の組合わせにしか対応しておら
ず、テーブルに存在しない組合わせに関しては、前述し
た通りエスケープコードを用いて符号化を行いる。だが
1画素辺りのビット精度が大きい場合、これらのVLC
符号化、及びエスケープ符号化では、十分な効率が出せ
ない可能性があるため、この第4の実施の形態では、入
力画像の画素の精度に合わせて、符号化/復号化方法を
変更する方法を説明する。
Next, a fourth embodiment of the present invention will be described. Here, the same encoding method / decoding method and encoder / decoder as those in the first, second, and third embodiments are provided, but the encoding method of the AC coefficient of the DCT coefficient is provided for them. Only differ. That is, in the first, second, and third embodiments, the DCT coefficient is
A plurality of sets of three parameters of N, LEVEL, and LAST are combined and encoded using VLC or the like. However, the corresponding VLC table corresponds to only some combinations and does not exist in the table. As for the combination, encoding is performed using the escape code as described above. However, if the bit precision per pixel is large, these VLC
In the encoding and the escape encoding, there is a possibility that sufficient efficiency may not be obtained. Therefore, in the fourth embodiment, a method of changing the encoding / decoding method according to the accuracy of the pixel of the input image. Will be described.

【0304】前述した方法通り、量子化されたAC係数
は(RUN,LEVEL,Last)より符号化が行われる。ここで、こ
の第4の実施の形態では、求めれた(RUN,Level,Last)を
次の手順による処理を施す。即ち、符号化/復号化を行
っている画像の画素精度が8ビット以外であり、かつ8
ビット以上のビット精度の場合(not_8bit == 1 && bits
_per_pixel > 8 の場合)Levelの値を決められた数によ
り除算する。すなわち符号化/復号化を行っている画像
の画素の精度がnビットの場合、(n-8)+1の数で除算を
行う。つまり9ビットの際には2、10ビットの場合
4、11ビットの場合8、12ビットの場合16で除算
する。
As described above, the quantized AC coefficient is encoded from (RUN, LEVEL, Last). Here, in the fourth embodiment, the obtained (RUN, Level, Last) is processed according to the following procedure. That is, the pixel precision of the image being encoded / decoded is other than 8 bits, and
Bit precision (not_8bit == 1 && bits
If _per_pixel> 8) Divide the value of Level by the determined number. That is, when the pixel precision of an image being encoded / decoded is n bits, division is performed by the number (n−8) +1. In other words, for 9 bits, division is performed by 2, 10 bits, 4 for 11 bits, and 16 for 12 bits.

【0305】Levelには、この除算された値が新たに割
り当てられ、Levelを(n-8)+1で除算したときに発生し剰
余は、DCT_residに割り当てられる。
The divided value is newly assigned to the Level, and the remainder generated when the Level is divided by (n−8) +1 is assigned to the DCT_resid.

【0306】このような処理を終了後、新たに求められ
た(RUN,Level,Last)の組はそれぞれ上述した符号化方法
により符号化されそのビットを出力する。その後、前述
した処理により求められた剰余が(n−8)ビットの固
定長で符号化される。
After such processing is completed, each of the newly obtained (RUN, Level, Last) sets is coded by the above-described coding method, and the corresponding bit is output. Thereafter, the remainder obtained by the above-described processing is encoded with a fixed length of (n-8) bits.

【0307】また、本方式による(RUN,Level,Last)の復
号化方法について説明する。すなわちAC係数の符号化
に際しては、前述した符号化方法によりVLCテーブル
を用いてまたはエスケープコードを使用して(RUN,Leve
l,Last)を復号する。その後復号化を行っている画像が
8ビット以上の場合にはLevelについては、以下の処理
が行われる。即ち復号化を行っている画像をnビットと
した場合、求められたLevelには、(n-8)+1倍される。す
なわち、9ビットの場合2、10ビットの場合4倍、1
1ビットで8倍、12ビットの場合16倍される。その
後、DCT_residが(n-8)ビットの固定ビットとして読
み込まれ、(n-8)+1倍されたLevelに加算される。この値
は、ビットストリームにより読み込まれたLevelと置き
換えられ、逆量子化後、逆DCT処理をかけられる。
[0307] A (RUN, Level, Last) decoding method according to this method will be described. That is, at the time of encoding the AC coefficient, the encoding method described above uses the VLC table or the escape code (RUN, Level).
l, Last). After that, when the image to be decoded has 8 bits or more, the following processing is performed for Level. That is, when the image to be decoded has n bits, the obtained Level is multiplied by (n-8) +1. That is, 2 for 9 bits, 4 times for 10 bits, 1
One bit is multiplied by 8 and 12 bits is multiplied by 16. Thereafter, the DCT_resid is read as fixed bits of (n-8) bits and added to the (n-8) +1 times Level. This value is replaced with the level read by the bit stream, and after inverse quantization, inverse DCT processing is performed.

【0308】また、この処理はDCTのAC係数につい
てのみ述べたが、DCTのDC係数をAC係数と同様の
方法により符号化する場合にも適用できる。
Although this processing has been described only for the DC coefficient of the DCT, the processing can be applied to the case where the DC coefficient of the DCT is encoded by the same method as the AC coefficient.

【0309】この符号化方法を適用したblock層のシン
タックスの構成例を図68に示す。図68において、Fi
rst DCT coefficientは、DCTのDC係数の差分値のL
evelを表し、DC係数をAC係数と同様の方法により符
号化した場合に発生し、画素精度が8ビット以上の場
合、符号化されたLevelの値は、続いて送られるDCT_
residの値を用いて再構成される。
FIG. 68 shows a configuration example of the syntax of the block layer to which this encoding method is applied. In FIG. 68, Fi
rst DCT coefficient is the difference L of the DCT DC coefficient.
evel, which occurs when the DC coefficient is coded in the same manner as the AC coefficient. If the pixel precision is 8 bits or more, the coded Level value is DCT_
Reconstructed using the value of resid.

【0310】DCT_residは前述した通り、画素精度が
8ビット以上の場合についてLevelを再構成するのに使
用され、その値は入力画像の画素精度をnビットとした
場合(n-8)ビットの固定長で符号化される。Subsequent
DCT coefficientsは、DCTのAC係数を上述した方法
により符号化したものであり、画素精度がnビット(8ビ
ット以上)の場合、さらに(n-8)ビットの符号を読み込
み上述した方法によりDCT係数のLevelの復号を行
う。
As described above, DCT_resid is used to reconstruct Level when the pixel precision is 8 bits or more, and its value is a fixed value of (n-8) bits when the pixel precision of the input image is n bits. Encoded in length. Subsequent
The DCT coefficients are obtained by encoding the AC coefficients of the DCT by the method described above. When the pixel precision is n bits (8 bits or more), the code of (n-8) bits is further read and the DCT coefficients are read by the method described above. Decrypt the Level of

【0311】また、この処理はDCTのAC係数につい
てのみ述べたが、DCTのDC係数をAC係数と同様の
方法により符号化する場合も適用できる。
Although this processing has been described only for the AC coefficient of the DCT, the present invention can be applied to the case where the DC coefficient of the DCT is encoded by the same method as the AC coefficient.

【0312】DCT_residは前述した通り、画素精度が
8ビット以上の場合についてLevelを再構成するのに使
用され、その値は入力画像の画素精度をnビットとした
場合(n-8)ビットの固定長で符号化される。
As described above, DCT_resid is used to reconstruct the Level when the pixel precision is 8 bits or more, and its value is a fixed value of (n-8) bits when the pixel precision of the input image is n bits. Encoded in length.

【0313】Subsequent DCT coefficientsは、DCT
のAC係数を上述した方法により符号化したものであ
り、画素精度がnビット(8ビット以上)の場合、さらに
(n-8)ビットの符号を読み込み上述した方法によりDC
T係数のLevelの復号を行う。
The Subsequent DCT coefficients are DCT
Are encoded by the above-described method, and when the pixel precision is n bits (8 bits or more),
Read the (n-8) -bit code and use the DC
The level of the T coefficient is decoded.

【0314】また、この第4の実施の形態をDCTのD
C係数にも反映させた場合、シンタックスは図69に示
す通りになる。すなわちDC係数の差分値DCT_DC_diffr
ential及び、DCT係数のサイズをあらわすDCT_DC_siz
e_luminance、DCT_DC_size_chrominanceは、画素精度が
nビット(ただしn>8とする)の場合に関しても8bit符
号化時と同じ方式で符号化し、さらにLevelを補正
するために(n-8)ビットの情報を付加するものとす
る。
Also, the fourth embodiment uses the DCT D
When the C coefficient is also reflected, the syntax is as shown in FIG. That is, the difference value of the DC coefficient DCT_DC_diffr
DCT_DC_siz representing the size of ential and DCT coefficients
e_luminance and DCT_DC_size_chrominance are encoded in the same manner as in 8-bit encoding even when the pixel precision is n bits (where n> 8), and (n-8) bits of information are added to correct Level It shall be.

【0315】なお、本発明に係る符号化方法に基づいて
生成された符号化データを記録媒体や、インターネット
を通じて提供することにより、例えば4〜12ビットに
階調が異なる画像データをユーザの所望に応じて提供す
ることができる。
[0315] By providing encoded data generated based on the encoding method according to the present invention through a recording medium or the Internet, image data having a gradation different from, for example, 4 to 12 bits can be provided to the user's desire. Can be provided accordingly.

【0316】また、上記画像符号化方法に基づいた処理
プログラムを記録媒体に記録することにより、例えば4
〜12ビットに階調が異なる画像データを、例えばパー
ソナルコンピュータにより簡単に生成できるようにな
る。
Further, by recording a processing program based on the image encoding method on a recording medium, for example,
Image data having gradations of up to 12 bits can be easily generated by, for example, a personal computer.

【0317】[0317]

【発明の効果】本発明により、符号化装置側では、要求
される画質に応じて、必要とされるDCTなどの直交変
換の直流成分係数の精度(ビット数)を切替え、それに
より直流成分係数の符号化方法を変更し、さらに直流成
分係数用の可変長符号テーブルを拡張することができる
ため、無駄のない符号化が可能となる。
According to the present invention, the encoding device switches the required accuracy (number of bits) of the DC component coefficient of the orthogonal transform such as DCT in accordance with the required image quality. Can be changed, and the variable-length code table for DC component coefficients can be further extended, so that efficient coding can be performed.

【0318】また、復号化装置側では、伝送されてくる
DCTなどの直交変換の直流成分係数の精度を示す信号
に応じて、直流成分係数の復号化方法を変更し、さらに
直流成分係数用の可変長符号テーブルの拡張を行い、係
数の復号が可能となる。
On the decoding device side, the decoding method of the DC component coefficient is changed in accordance with the signal indicating the accuracy of the DC component coefficient of the orthogonal transform such as DCT to be transmitted, and the decoding method for the DC component coefficient is further changed. The variable length code table is extended, and the decoding of the coefficient becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を理解する上で必要な用語としてのVisu
al Object、video Object、Video Object Layer(VO
L) 、Group of Video Object Plane (GOV)、Vid
eo Object Plane (VOP)、Group of block (GO
B)、マクロブロック(MB)、ブロックを説明するた
めの図である。
FIG. 1 Visu as a necessary term for understanding the present invention
al Object, video Object, Video Object Layer (VO
L), Group of Video Object Plane (GOV), Vid
eo Object Plane (VOP), Group of block (GO
FIG. 3B is a diagram for explaining macroblocks (MB) and blocks.

【図2】4:2:0フォーマットにおけるMB内のブロ
ックの配置を示す図である。
FIG. 2 is a diagram showing an arrangement of blocks in an MB in a 4: 2: 0 format.

【図3】本発明の第1の実施の形態における画像符号化
方法及び装置の適用例となるエンコーダの構成を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a configuration of an encoder that is an application example of the image encoding method and the image encoding device according to the first embodiment of the present invention.

【図4】背景である画像F1と、前景である画像F2と
からなる合成画像を示す図である。
FIG. 4 is a diagram showing a composite image including an image F1 as a background and an image F2 as a foreground.

【図5】上記図3に示したエンコーダの内部のVOP符
号化部の詳細な構成を示すブロック図である。
FIG. 5 is a block diagram showing a detailed configuration of a VOP encoding unit inside the encoder shown in FIG. 3;

【図6】上記図5に示したVOP符号化部の内部の量子
化回路の詳細な構成を示すブロック図である。
FIG. 6 is a block diagram showing a detailed configuration of a quantization circuit inside the VOP encoding unit shown in FIG. 5;

【図7】上記図6に示した量子化回路の内部の量子化ス
テップ発生器の動作を説明するためのフローチャートで
ある。
FIG. 7 is a flowchart for explaining an operation of a quantization step generator inside the quantization circuit shown in FIG. 6;

【図8】上記図5に示したVOP符号化部の内部のDC
T係数差分化器の詳細な構成を示すブロック図である。
8 is a diagram showing a DC inside a VOP encoding unit shown in FIG.
FIG. 3 is a block diagram illustrating a detailed configuration of a T coefficient differentiator.

【図9】上記図5に示したVOP符号化部の内部の逆量
子化器の詳細な構成を示すブロック図である。
FIG. 9 is a block diagram showing a detailed configuration of an inverse quantizer inside the VOP encoding unit shown in FIG. 5;

【図10】上記図8に詳細な構成を示したDCT係数差
分化器の内部のDC予測値選択器の動作を説明するため
の、DC係数の差分化を行うブロックXと差分を行う上
でDC値を参照するブロックの位置関係を示す図であ
る。
FIG. 10 is a block diagram for explaining the operation of a DC predicted value selector inside a DCT coefficient differentiator having a detailed configuration shown in FIG. FIG. 4 is a diagram illustrating a positional relationship between blocks that refer to DC values.

【図11】本発明の第1の実施の形態における画像復号
方法及び装置の適用例となるデコーダの構成を示すブロ
ック図である。
FIG. 11 is a block diagram illustrating a configuration of a decoder that is an application example of the image decoding method and apparatus according to the first embodiment of the present invention.

【図12】上記図11に示したデコーダの内部のVOP
復号部の具体的構成例を示すブロック図である。
FIG. 12 shows a VOP inside the decoder shown in FIG. 11;
It is a block diagram which shows the specific structural example of a decoding part.

【図13】上記図12に示したVOP復号部の内部のD
C係数逆差分化器の詳細な構成を示すブロック図であ
る。
FIG. 13 shows D in the VOP decoder shown in FIG. 12;
It is a block diagram which shows the detailed structure of a C coefficient inverse differencer.

【図14】上記図3に示したエンコーダが出力するビッ
トストリームのシンタックスの内、MPEG4規格のVi
sual Comitee Draftで規定されている、Visual Object
Sequenceのシンタックスを示す図である。
FIG. 14 is a diagram illustrating the syntax of the bit stream output from the encoder shown in FIG.
Visual Object defined by sual Comitee Draft
It is a figure showing the syntax of Sequence.

【図15】Visual Objectのシンタックスを分割して示
す第1の分割図である。
FIG. 15 is a first division diagram showing the syntax of the Visual Object in a divided manner.

【図16】Visual Objectのシンタックスを分割して示
す第2の分割図である。
FIG. 16 is a second division diagram illustrating the syntax of the Visual Object in a divided manner.

【図17】user_dataのシンタックスを示す図である。FIG. 17 is a diagram illustrating the syntax of user_data.

【図18】Video Object(VO)のシンタックスを示す
図である。
FIG. 18 is a diagram illustrating the syntax of Video Object (VO).

【図19】video Object Layer(VOL)のシンタック
スを分割して示す第1の分割図である。
FIG. 19 is a first division diagram showing the syntax of a video object layer (VOL) by dividing it.

【図20】video Object Layer(VOL)のシンタック
スを分割して示す第2の分割図である。
FIG. 20 is a second division diagram illustrating the syntax of a video object layer (VOL) by dividing the syntax.

【図21】video Object Layer(VOL)のシンタック
スを分割して示す第3の分割図である。
FIG. 21 is a third division diagram illustrating the syntax of a video object layer (VOL), which is divided.

【図22】video Object Layer(VOL)のシンタック
スを分割して示す第4の分割図である。
FIG. 22 is a fourth division diagram illustrating the syntax of a video object layer (VOL) divided.

【図23】Group_of_Video Object Plane(GOV)の
シンタックスを示す図である。
FIG. 23 is a diagram illustrating the syntax of a Group_of_Video Object Plane (GOV).

【図24】Video Object Plane(VOP)のシンタック
スを分割して示す第1の分割図である。
FIG. 24 is a first division diagram illustrating the syntax of a Video Object Plane (VOP) divided;

【図25】Video Object Plane(VOP)のシンタック
スを分割して示す第2の分割図である。
FIG. 25 is a second division diagram illustrating the syntax of a Video Object Plane (VOP), which is divided;

【図26】Video Object Plane(VOP)のシンタック
スを分割して示す第3の分割図である。
FIG. 26 is a third division diagram illustrating the syntax of a Video Object Plane (VOP) divided;

【図27】Video Object Plane(VOP)のシンタック
スを分割して示す第4の分割図である。
FIG. 27 is a fourth divided diagram illustrating the syntax of the Video Object Plane (VOP) divided.

【図28】Video Object Plane(VOP)のシンタック
スを分割して示す第5の分割図である。
FIG. 28 is a fifth division diagram illustrating the syntax of a Video Object Plane (VOP), which is divided;

【図29】Video Object Plane(VOP)のシンタック
スを分割して示す第6の分割図である。
FIG. 29 is a sixth division diagram illustrating the syntax of a Video Object Plane (VOP), which is divided;

【図30】Video Object Plane(VOP)のシンタック
スを分割して示す第7の分割図である。
FIG. 30 is a seventh division diagram illustrating a syntax of a Video Object Plane (VOP) divided;

【図31】Video Object Plane(VOP)のシンタック
スを分割して示す第8の分割図である。
FIG. 31 is an eighth division diagram illustrating the syntax of a Video Object Plane (VOP) divided;

【図32】Video Object Plane(VOP)のシンタック
スを分割して示す第9の分割図である。
FIG. 32 is a ninth division diagram illustrating the syntax of the Video Object Plane (VOP) divided;

【図33】motion_shape_textureのシンタックスを示す
図である。
Fig. 33 is a diagram illustrating the syntax of motion_shape_texture.

【図34】combined_motion_shape_textureのシンタッ
クスを示す図である。
Fig. 34 is a diagram illustrating the syntax of combined_motion_shape_texture.

【図35】マクロブロック(macro block)のシンタッ
クスを分割して示す第1の分割図である。
FIG. 35 is a first division diagram showing the syntax of a macro block divided.

【図36】マクロブロック(macro block)のシンタッ
クスを分割して示す第2の分割図である。
FIG. 36 is a second division diagram illustrating the syntax of a macro block divided.

【図37】マクロブロック(macro block)のシンタッ
クスを分割して示す第3の分割図である。
FIG. 37 is a third divided diagram illustrating the syntax of a macro block.

【図38】mb_binary_shape_codingのシンタックスを示
す図である。
Fig. 38 is a diagram illustrating the syntax of mb_binary_shape_coding.

【図39】motion_vectorのシンタックスを示す図であ
る。
Fig. 39 is a diagram illustrating the syntax of motion_vector.

【図40】blockのシンタックスを示す図である。FIG. 40 is a diagram illustrating the syntax of a block.

【図41】data_partitioning_motion_shape_textureの
シンタックスを示す図である。
Fig. 41 is a diagram illustrating the syntax of data_partitioning_motion_shape_texture.

【図42】data_partitioning_I_VOPのシンタックスを
分割して示す第1の分割図である。
FIG. 42 is a first division diagram illustrating the syntax of data_partitioning_I_VOP in a divided manner.

【図43】data_partitioning_I_VOPのシンタックスを
分割して示す第2の分割図である。
[Fig. 43] Fig. 43 is a second divided diagram illustrating the data_partitioning_I_VOP syntax in a divided manner.

【図44】data_partitioning_P_VOPのシンタックスを
分割して示す第1の分割図である。
FIG. 44 is a first division diagram illustrating data_partitioning_P_VOP syntax divided.

【図45】data_partitioning_P_VOPのシンタックスを
分割して示す第2の分割図である。
[Fig. 45] Fig. 45 is a second division diagram illustrating the syntax of data_partitioning_P_VOP by dividing the syntax.

【図46】data_partitioning_P_VOPのシンタックスを
分割して示す第3の分割図である。
[Fig. 46] Fig. 46 is a third divided diagram illustrating the data_partitioning_P_VOP syntax in a divided manner.

【図47】第2の実施の形態における画像信号符号化方
法及び装置の具体例となるエンコーダが内蔵するDC量
子化ステップ発生器の動作を説明するためのフローチャ
ートである。
FIG. 47 is a flowchart for explaining the operation of a DC quantization step generator incorporated in an encoder as a specific example of the image signal encoding method and apparatus according to the second embodiment;

【図48】第2の実施の形態で用いるVideo Object Pla
ne(VOP)のシンタックスを分割して示す第1の分割
図である。
FIG. 48 shows a Video Object Pla used in the second embodiment.
It is the 1st division view which divides and shows the syntax of ne (VOP).

【図49】第2の実施の形態で用いるVideo Object Pla
ne(VOP)のシンタックスを分割して示す第2の分割
図である。
FIG. 49 shows a Video Object Pla used in the second embodiment.
It is the 2nd division figure which divides and shows the syntax of ne (VOP).

【図50】第2の実施の形態で用いるVideo Object Pla
ne(VOP)のシンタックスを分割して示す第3の分割
図である。
FIG. 50 is a diagram illustrating Video Object Pla used in the second embodiment.
It is the 3rd division view which divides and shows the syntax of ne (VOP).

【図51】第2の実施の形態で用いるVideo Object Pla
ne(VOP)のシンタックスを分割して示す第4の分割
図である。
FIG. 51 shows a Video Object Pla used in the second embodiment.
It is the 4th division view which divides and shows the syntax of ne (VOP).

【図52】第3の実施の形態におけるビットストリーム
の出力方法を説明するためのフローチャートである。
FIG. 52 is a flowchart for describing a bit stream output method according to the third embodiment.

【図53】1フレーム内のスライスの構成例を示す図で
ある。
FIG. 53 is a diagram illustrating a configuration example of a slice in one frame.

【図54】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第1の分割図である。
FIG. 54 is a video object layer used in the third embodiment.
It is the 1st division view which divides and shows the syntax of er.

【図55】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第2の分割図である。
FIG. 55 is a video object layer used in the third embodiment.
It is the 2nd division figure which divides and shows the syntax of er.

【図56】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第3の分割図である。
FIG. 56 is a video object layer used in the third embodiment.
It is the 3rd division view which divides and shows the syntax of er.

【図57】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第4の分割図である。
FIG. 57 is a video object layer used in the third embodiment.
It is the 4th division view which divides and shows the syntax of er.

【図58】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第5の分割図である。
FIG. 58 is a video object layer used in the third embodiment.
It is the 5th division figure which divides and shows the syntax of er.

【図59】第3の実施の形態で用いるVideo Object Lay
erのシンタックスを分割して示す第6の分割図である。
FIG. 59 is a video object layer used in the third embodiment.
It is the 6th division view which divides and shows the syntax of er.

【図60】video_object_plane_highquality_headerの
シンタックスを分割して示す第1の分割図である。
[Fig. 60] Fig. 60 is a first division diagram illustrating the syntax of video_object_plane_highquality_header divided.

【図61】video_object_plane_highquality_headerの
シンタックスを分割して示す第2の分割図である。
[Fig. 61] Fig. 61 is a second division diagram illustrating the syntax of video_object_plane_highquality_header, which is divided.

【図62】video_object_plane_highquality_headerの
シンタックスを分割して示す第3の分割図である。
FIG. 62 is a third division diagram illustrating the syntax of video_object_plane_highquality_header, which is divided.

【図63】Video Object Planeのシンタックスを分割し
て示す第1の分割図である。
[Fig. 63] Fig. 63 is a first division diagram illustrating the syntax of the Video Object Plane, which is divided.

【図64】Video Object Planeのシンタックスを分割し
て示す第2の分割図である。
[Fig. 64] Fig. 64 is a second divided diagram illustrating the syntax of the Video Object Plane by dividing the syntax.

【図65】Video Object Planeのシンタックスを分割し
て示す第3の分割図である。
[Fig. 65] Fig. 65 is a third divided view illustrating the syntax of Video Object Plane.

【図66】Video Object Planeの中で示されているいく
つかのフラグの値を示す図である。
FIG. 66 is a diagram showing values of some flags shown in the Video Object Plane.

【図67】第3の実施の形態におけるビットストリーム
の復号の手順を説明するためのフローチャートである。
FIG. 67 is a flowchart for describing a bit stream decoding procedure in the third embodiment.

【図68】第4の実施の形態において用いるblock層の
シンタックスを示す図である。
FIG. 68 is a diagram illustrating the syntax of a block layer used in the fourth embodiment.

【図69】第4の実施の形態をDCTのDC係数にも反
映させた場合のblock層のシンタックスを示す図であ
る。
FIG. 69 is a diagram illustrating the syntax of a block layer when the fourth embodiment is also applied to the DC coefficient of the DCT.

【図70】MPEG方式におけるMP@MLのエンコー
ダの一例の構成を示すブロック図である。
FIG. 70 is a block diagram illustrating a configuration example of an encoder of MP @ ML in the MPEG system.

【図71】2次元DCTの性質について説明するための
図である。
FIG. 71 is a diagram for describing properties of two-dimensional DCT.

【図72】DCT係数の直流成分を差分化する方法を説
明するための図である。
FIG. 72 is a diagram for describing a method of converting a DC component of a DCT coefficient into a difference.

【図73】DC係数差分化器とこれに対応する逆差分化
器の具体的構成を示すブロック図である。
FIG. 73 is a block diagram showing a specific configuration of a DC coefficient differencer and a corresponding inverse differencer.

【図74】上記図70に示したエンコーダから出力され
る符号化データを復号する、MPEGにおけるMP@M
Lのデコーダの一例の構成を示すブロック図である。
FIG. 74 is a diagram showing MP @ M in MPEG for decoding the encoded data output from the encoder shown in FIG. 70;
FIG. 3 is a block diagram illustrating a configuration example of an L decoder.

【符号の説明】[Explanation of symbols]

3n VOP符号化部、135 量子化器、 307
DC係数量子化器、308 量子化ステップ発生器
3n VOP encoder, 135 quantizer, 307
DC coefficient quantizer, 308 quantization step generator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 輝彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C057 AA06 CA01 CE10 EA02 EA07 ED07 ED09 EG08 EL01 EM04 EM09 EM13 EM16 GJ01 5C059 MA00 MA05 MA23 MA31 MB01 MB11 MB12 MB21 MC11 MC32 MC34 MC38 ME01 ME02 ME13 ME15 NN01 NN28 PP05 PP06 PP07 PP16 SS01 SS07 SS11 TA36 TA46 TB17 TB18 TC02 TC10 TD05 UA02 UA05 UA33 UA39 5J064 AA01 BA09 BA16 BB03 BB11 BC01 BC02 BC16 BD03  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Teruhiko Suzuki 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5C057 AA06 CA01 CE10 EA02 EA07 ED07 ED09 EG08 EL01 EM04 EM09 EM13 EM16 GJ01 5C059 MA00 MA05 MA23 MA31 MB01 MB11 MB12 MB21 MC11 MC32 MC34 MC38 ME01 ME02 ME13 ME15 NN01 NN28 PP05 PP06 PP07 PP16 SS01 SS07 SS11 TA36 TA46 TB17 TB18 TC02 TC10 TD05 UA02 UA05 UA33 UA39 5J016 AA03 BA09 BA09 BC09

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 画像を符号化し、その結果得られる符号
化ビットストリームを出力する画像符号化装置におい
て、 上記画像に対する所望の画質及び1画素当たりの画素値
を示す画素精度に応じて、直交変換データの直流成分係
数の符号化精度を決定する符号化精度決定手段と、 上記符号化精度決定手段で決定された符号化精度に応じ
て上記直交変換データの直流成分係数を量子化する量子
化手段とを備えることを特徴とする画像符号化装置。
1. An image coding apparatus for coding an image and outputting a resulting coded bit stream, comprising: an orthogonal transformation unit that performs a quadrature transformation according to a desired image quality of the image and a pixel precision indicating a pixel value per pixel Encoding accuracy determining means for determining the encoding accuracy of the DC component coefficient of the data; and quantizing means for quantizing the DC component coefficient of the orthogonal transform data according to the encoding accuracy determined by the encoding accuracy determining means. An image encoding device comprising:
【請求項2】 上記符号化精度決定手段は、ビデオオブ
ジェクトレイヤ単位で上記直流成分係数の符号化精度を
決定することを特徴とする請求項1記載の画像符号化装
置。
2. The image encoding apparatus according to claim 1, wherein said encoding accuracy determination means determines the encoding accuracy of said DC component coefficient in video object layer units.
【請求項3】 上記符号化精度決定手段は、上記画像が
Nビット精度であるとき、上記直流成分係数の符号化精
度を、NからN+3ビットに決定することを特徴とする
請求項1記載の画像符号化装置。
3. The encoding accuracy determining means according to claim 1, wherein said encoding accuracy of said DC component coefficient is determined from N to N + 3 bits when said image has N-bit accuracy. Image coding device.
【請求項4】 上記符号化精度決定手段は、上記画像が
Nビット精度であるとき、上記直流成分係数の符号化精
度を、NからN+2ビットに決定することを特徴とする
請求項1記載の画像符号化装置。
4. The coding accuracy determination means according to claim 1, wherein said coding accuracy determination means determines the coding accuracy of said DC component coefficient from N to N + 2 bits when said image has N-bit accuracy. Image coding device.
【請求項5】 上記直流成分係数は、輝度信号及び色差
信号毎に値を有することを特徴とする請求項1記載の画
像符号化装置。
5. The image encoding apparatus according to claim 1, wherein the DC component coefficient has a value for each of a luminance signal and a color difference signal.
【請求項6】 画像を符号化して符号化ビットストリー
ムを出力するための画像符号化方法において、 上記画像に対する所望の画質及び1画素当たりの画素値
を示す画素精度に応じて、直交変換データの直流成分係
数の符号化精度を決定し、 上記決定された符号化精度に応じて上記直交変換データ
の直流成分係数を量子化することを特徴とする画像符号
化方法。
6. An image coding method for coding an image and outputting a coded bit stream, comprising the steps of: performing orthogonal transform data conversion on the image in accordance with a desired image quality and a pixel accuracy indicating a pixel value per pixel; An image coding method comprising: determining the coding accuracy of a DC component coefficient; and quantizing the DC component coefficient of the orthogonal transform data according to the determined coding accuracy.
【請求項7】 画像を符号化し、その結果得られる符号
化ビットストリームを出力する画像符号化装置におい
て、 上記画像の1画素当たりの画素値を示す画素精度に応じ
て、直交変換データの主要部分と残差部分を分けてそれ
ぞれ符号化する符号化手段を備えることを特徴とする画
像符号化装置。
7. An image coding apparatus for coding an image and outputting a resulting coded bit stream, comprising: a main part of orthogonal transform data according to a pixel precision indicating a pixel value per pixel of the image; An image encoding apparatus, comprising: an encoding unit that separately encodes a residual part and a residual part.
【請求項8】 画像を符号化し、その結果得られる符号
化ビットストリームを出力するための画像符号化方法に
おいて、 上記画像の1画素当たりの画素値を示す画素精度に応じ
て、直交変換データの主要部分と残差部分を分けてそれ
ぞれ符号化することを特徴とする画像符号化方法。
8. An image coding method for coding an image and outputting a coded bit stream obtained as a result, comprising the steps of: performing orthogonal transform data conversion in accordance with pixel precision indicating a pixel value per pixel of the image; An image encoding method, wherein a main part and a residual part are separately encoded.
【請求項9】 画像内及び画像間符号化処理が施され、
かつ画素データが直交変換され、量子化処理された画像
信号を復号する画像復号装置において、 上記直交変換による直交変換データの直流成分係数を逆
量子化する逆量子化手段と、 上記直流成分係数の精度を表す信号及び上記画像の画素
精度に応じて、適応的に上記逆量子化手段の逆量子化処
理に用いられる復号精度を決定する復号精度決定手段と
を備えることを特徴とする画像復号装置。
9. An intra-image and inter-image encoding process is performed,
And an image decoding device that orthogonally transforms the pixel data and decodes the image signal that has been subjected to the quantization process. An image decoding apparatus comprising: a decoding accuracy determining unit that adaptively determines a decoding accuracy used for the inverse quantization process of the inverse quantization unit according to a signal representing the accuracy and a pixel accuracy of the image. .
【請求項10】 上記復号精度決定手段は、ビデオオブ
ジェクトレイヤ単位で上記直流成分係数の復号精度を決
定することを特徴とする請求項9記載の画像復号装置。
10. The image decoding apparatus according to claim 9, wherein said decoding accuracy determining means determines the decoding accuracy of said DC component coefficient for each video object layer.
【請求項11】 上記復号精度決定手段は、上記画像が
Nビット精度であるとき、上記直流成分係数の復号精度
を、NからN+3ビットに決定することを特徴とする請
求項9記載の画像復号装置。
11. The image decoding apparatus according to claim 9, wherein said decoding accuracy determining means determines the decoding accuracy of said DC component coefficient from N to N + 3 bits when said image has N-bit accuracy. apparatus.
【請求項12】 上記復号精度決定手段は、上記画像が
Nビット精度であるとき、上記直流成分係数の復号精度
を、NからN+2ビットに決定することを特徴とする請
求項9記載の画像復号装置。
12. The image decoding apparatus according to claim 9, wherein said decoding precision determining means determines the decoding precision of said DC component coefficient from N to N + 2 bits when said image has N-bit precision. apparatus.
【請求項13】 上記直流成分係数は、輝度信号及び色
差信号毎に値を有することを特徴とする請求項9記載の
画像復号装置。
13. The image decoding apparatus according to claim 9, wherein said DC component coefficient has a value for each of a luminance signal and a color difference signal.
【請求項14】 画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号するための画像復号方法において、 上記直交変換による直交変換データの直流成分係数を逆
量子化するときの復号精度を、上記直流成分係数の精度
を表す信号及び上記画像の画素精度に応じて、適応的に
決定することを特徴とする画像復号方法。
14. An image decoding method for decoding an image signal which is subjected to intra- and inter-image encoding processing and pixel data subjected to orthogonal transformation and quantization processing, wherein: An image decoding method, wherein the decoding accuracy when the DC component coefficient is inversely quantized is adaptively determined according to the signal representing the accuracy of the DC component coefficient and the pixel accuracy of the image.
【請求項15】 画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号する画像復号装置において、 画像の1画素辺りの画素値を表すのに使用する画素精度
により、量子化された直交変換データの主要部分と残差
部分を分けてそれぞれ復号する復号手段を備えることを
特徴とする画像復号装置。
15. An image decoding apparatus for decoding an image signal subjected to intra-image and inter-image encoding processing, pixel data subjected to orthogonal transformation and quantization processing, and represents a pixel value per one pixel of the image. An image decoding apparatus comprising: decoding means for separately decoding a main part and a residual part of quantized orthogonally transformed data according to pixel precision used for the decoding.
【請求項16】 画像内及び画像間符号化処理が施さ
れ、かつ画素データが直交変換され、量子化処理された
画像信号を復号するための画像復号方法において、 画像の1画素辺りの画素値を表すのに使用する画素精度
により、量子化された直交変換データの主要部分と残差
部分を分けてそれぞれ復号することを特徴とする画像復
号方法。
16. An image decoding method for decoding an image signal which has been subjected to intra-image and inter-image encoding processing and pixel data subjected to orthogonal transformation and quantization processing, wherein a pixel value per one pixel of the image is obtained. An image decoding method characterized in that a main part and a residual part of quantized orthogonally-transformed data are separately decoded according to pixel precision used to represent the image decoding method.
【請求項17】 画像に対する所望の画質及び1画素当
たりの画素値を示す画素精度に応じて、直交変換データ
の直流成分係数の符号化精度を決定し、上記決定された
符号化精度に応じて上記直交変換データの直流成分係数
を量子化して得られた符号化ビットストリームを提供す
ることを特徴とする符号化データ提供媒体。
17. An encoding accuracy of a DC component coefficient of orthogonal transformation data is determined according to a desired image quality of an image and a pixel accuracy indicating a pixel value per pixel, and the encoding accuracy is determined according to the determined encoding accuracy. An encoded data providing medium for providing an encoded bit stream obtained by quantizing a DC component coefficient of the orthogonal transform data.
【請求項18】 画像の1画素当たりの画素値を示す画
素精度に応じて、直交変換データの主要部分と残差部分
を分けてそれぞれ符号化することによって得られた符号
化ビットストリームを提供することを特徴とする符号化
データ提供媒体。
18. An encoded bit stream obtained by separately encoding a main part and a residual part of orthogonal transform data according to pixel precision indicating a pixel value per pixel of an image. An encoded data providing medium characterized by the above-mentioned.
JP18127198A 1998-06-26 1998-06-26 Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium Pending JP2000023195A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18127198A JP2000023195A (en) 1998-06-26 1998-06-26 Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18127198A JP2000023195A (en) 1998-06-26 1998-06-26 Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium

Publications (1)

Publication Number Publication Date
JP2000023195A true JP2000023195A (en) 2000-01-21

Family

ID=16097787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18127198A Pending JP2000023195A (en) 1998-06-26 1998-06-26 Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium

Country Status (1)

Country Link
JP (1) JP2000023195A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292450A (en) * 2000-04-05 2001-10-19 Sony Corp Encoding device and method, and decoding device and method
JP2004320724A (en) * 2003-04-01 2004-11-11 Canon Inc Variable length decoding device and method, computer program and computer readable storage medium
JP2008507206A (en) * 2004-07-13 2008-03-06 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Uneven rounding for image compression
JP2009177850A (en) * 2009-05-11 2009-08-06 Sony Corp Decoding device and method
JP2010104027A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding device and method
JP2010104026A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding device and method
JP2010104028A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding apparatus and method
JP2010233274A (en) * 2010-07-22 2010-10-14 Sony Corp Decoding device and method
JP2010233273A (en) * 2010-07-22 2010-10-14 Sony Corp Decoding device and method
KR101110517B1 (en) 2006-03-30 2012-02-08 가부시끼가이샤 도시바 Image coding apparatus and method, and image decoding apparatus and method
JP2012055022A (en) * 2011-12-14 2012-03-15 Sony Corp Encoding device and method
JP2012080571A (en) * 2011-12-14 2012-04-19 Sony Corp Encoding device and method
US8675976B2 (en) 2003-07-18 2014-03-18 Sony Corporation Image encoding apparatus and method for handling intra-image predictive encoding with various color spaces and color signal resolutions

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292450A (en) * 2000-04-05 2001-10-19 Sony Corp Encoding device and method, and decoding device and method
JP2004320724A (en) * 2003-04-01 2004-11-11 Canon Inc Variable length decoding device and method, computer program and computer readable storage medium
US9843817B2 (en) 2003-07-18 2017-12-12 Sony Corporation Image decoding apparatus and method for handling intra-image predictive decoding with various color spaces and color signal resolutions
US9344719B2 (en) 2003-07-18 2016-05-17 Sony Corporation Image decoding apparatus and method for handling intra-image predictive decoding with various color spaces and color signal resolutions
US8873870B2 (en) 2003-07-18 2014-10-28 Sony Corporation Image encoding apparatus and method for handling intra-image predictive encoding with various color spaces and color signal resolutions
US8873873B2 (en) 2003-07-18 2014-10-28 Sony Corporation Image decoding apparatus and method for handling intra-image predictive decoding with various color spaces and color signal resolutions
US8682090B2 (en) 2003-07-18 2014-03-25 Sony Corporation Image decoding apparatus and method for handling intra-image predictive decoding with various color spaces and color signal resolutions
US8675976B2 (en) 2003-07-18 2014-03-18 Sony Corporation Image encoding apparatus and method for handling intra-image predictive encoding with various color spaces and color signal resolutions
JP2008507206A (en) * 2004-07-13 2008-03-06 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Uneven rounding for image compression
US8606028B2 (en) 2006-03-30 2013-12-10 Kabushiki Kaisha Toshiba Pixel bit depth conversion in image encoding and decoding
KR101110517B1 (en) 2006-03-30 2012-02-08 가부시끼가이샤 도시바 Image coding apparatus and method, and image decoding apparatus and method
JP2009177850A (en) * 2009-05-11 2009-08-06 Sony Corp Decoding device and method
JP2010104027A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding device and method
JP2010104028A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding apparatus and method
JP2010104026A (en) * 2009-12-28 2010-05-06 Sony Corp Decoding device and method
JP2010233273A (en) * 2010-07-22 2010-10-14 Sony Corp Decoding device and method
JP2010233274A (en) * 2010-07-22 2010-10-14 Sony Corp Decoding device and method
JP2012080571A (en) * 2011-12-14 2012-04-19 Sony Corp Encoding device and method
JP2012055022A (en) * 2011-12-14 2012-03-15 Sony Corp Encoding device and method

Similar Documents

Publication Publication Date Title
US6608935B2 (en) Picture encoding method and apparatus, picture decoding method and apparatus and furnishing medium
KR100417932B1 (en) Image encoder, image encoding method, image decoder, image decoding method, and distribution media
US6173013B1 (en) Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
KR100563608B1 (en) Method for converting and transcoding video size from MPEG-2 to MPEG-4 and apparatus thereof
US5974184A (en) Intra-macroblock DC and AC coefficient prediction for interlaced digital video
AU731906B2 (en) Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media
JP3413721B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
US6956899B2 (en) Precise bit control apparatus with look-ahead for MPEG encoding
KR19980080012A (en) Motion estimation and compensation of video object plane for interlaced digital video
JP3440830B2 (en) Image encoding apparatus and method, and recording medium
JPH0998429A (en) Digital video signal encoding device and decoding device
JP2001197501A (en) Motion vector searcher, motion vector search method, and video encoding device
KR100238622B1 (en) A motion video compression system with novel adaptive quantisation
WO2015034061A1 (en) Video encoding device, video transcoding device, video encoding method, video transcoding method and video stream transmission system
JP4560694B2 (en) Encoding apparatus and method thereof
JP2000023195A (en) Image encoding apparatus and method, image decoding apparatus and method, and encoded data providing medium
JPH06225279A (en) Encoding method, decoding method, encoding device, and decoding device
GB2328821A (en) Encoding a binary shape signal
KR100568649B1 (en) Moving-picture decording apparatus and moving-picture decording method
JP2007266749A (en) Encoding method
KR100566290B1 (en) Image Scanning Method Using Scan Table and Discrete Cosine Converter
JP3263901B2 (en) Image signal encoding method and apparatus, image signal decoding method and apparatus
JP4697561B2 (en) Decoding device and method
JP2007202183A (en) Coding device for coding block pattern and coding method for coding block pattern
JP4924744B2 (en) Decoding device and method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031209