[go: up one dir, main page]

JP2003006984A - Signal processing apparatus and method - Google Patents

Signal processing apparatus and method

Info

Publication number
JP2003006984A
JP2003006984A JP2001193385A JP2001193385A JP2003006984A JP 2003006984 A JP2003006984 A JP 2003006984A JP 2001193385 A JP2001193385 A JP 2001193385A JP 2001193385 A JP2001193385 A JP 2001193385A JP 2003006984 A JP2003006984 A JP 2003006984A
Authority
JP
Japan
Prior art keywords
data
stream
scale
code
quantization scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001193385A
Other languages
Japanese (ja)
Inventor
Susumu Todo
晋 藤堂
Yoshinori Suzuki
義則 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001193385A priority Critical patent/JP2003006984A/en
Publication of JP2003006984A publication Critical patent/JP2003006984A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

(57)【要約】 【課題】 QST=0のストリームがQST=1の機器
に入力されても、再生画像の明度、彩度および色相など
が原画像から大きく外れないようにする。 【解決手段】 QSTチェッカ530Aで、入力ストリ
ーム中のQSTがチェックされ、値が「0」であればQ
ST、QSC書き換え部530BによりQSTが「1」
に書き換えられると共に、QSCが書き換えられる。Q
SCの書き換えは、QST=0の量子化スケールに対し
てQST=1の量子化スケールが近似されるように、所
定の規則に従ってQSCが変換されて行われる。QST
=0で入力されたストリームがQST=1とされ、QS
T=1の量子化スケールがQST=0のときに近似され
るようにQSCが変換されて書き換えられる。QST=
1に固定的な機器にQST=0のストリームが入力され
たときの、原画像に対する再生画像の明度、彩度、色相
の大幅なずれが抑えられる。
(57) [Problem] To prevent lightness, saturation, hue, and the like of a reproduced image from greatly deviating from an original image even when a stream of QST = 0 is input to a device of QST = 1. SOLUTION: A QST checker 530A checks a QST in an input stream.
ST, QSC rewriting section 530B sets QST to “1”
And the QSC is rewritten. Q
The SC is rewritten by converting the QSC according to a predetermined rule so that the quantization scale of QST = 1 is approximated to the quantization scale of QST = 0. QST
= 0, the stream input is set to QST = 1, and QS
The QSC is converted and rewritten so that the quantization scale of T = 1 is approximated when QST = 0. QST =
When a stream of QST = 0 is input to a device fixed to 1, a significant shift in brightness, saturation, and hue of a reproduced image with respect to an original image can be suppressed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、MPEG2(Mov
ing Pictures Experts Group 2)におけるエンコードパ
ラメータである2種類のquantizer_scal
e_codeを近似的に変換するようにした信号処理装
置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to MPEG2 (Mov
2 kinds of quantizer_scal which are encoding parameters in ing Pictures Experts Group 2)
The present invention relates to a signal processing device and method adapted to approximately transform e_code.

【0002】[0002]

【従来の技術】ディジタルVTR(Video Tape Recorde
r) に代表されるように、ディジタルビデオ信号および
ディジタルオーディオ信号を記録媒体に記録し、また、
記録媒体から再生するようなデータ記録再生装置が知ら
れている。ディジタルビデオ信号は、データ容量が膨大
となるため、所定の方式で圧縮符号化されて記録媒体に
記録されるのが一般的である。近年では、MPEG2(M
oving Picture Experts Group 2)方式が圧縮符号化の標
準的な方式として知られている。
2. Description of the Related Art Digital VTR (Video Tape Recorde)
As represented by r), a digital video signal and a digital audio signal are recorded on a recording medium, and
A data recording / reproducing device for reproducing from a recording medium is known. Since a digital video signal has an enormous data capacity, it is generally compressed and encoded by a predetermined method and recorded on a recording medium. In recent years, MPEG2 (M
The oving Picture Experts Group 2) method is known as a standard method of compression coding.

【0003】上述のMPEG2を始めとする画像圧縮技
術では、可変長符号を用いてデータの圧縮率を高めてい
る。したがって、圧縮しようとする画像の複雑さによっ
て、1画面分、例えば1フレームあるいは1フィールド
当たりのデータの圧縮後の符号量が変動する。
In the image compression techniques such as the above-mentioned MPEG2, a variable length code is used to increase the data compression rate. Therefore, the code amount after compression of data for one screen, for example, one frame or one field varies depending on the complexity of the image to be compressed.

【0004】上述したMPEG2方式では、マクロブロ
ック層、スライス層、ピクチャ層、GOP層およびシー
ケンス層の順に下位から上位へと階層構造を有するデー
タにおいて、スライス層が可変長符号化の単位となって
いる。マクロブロック層は、さらに、複数個のDCT(D
iscrete Cosine Transform) ブロックからなる。各層の
先頭には、ヘッダ情報が格納されるヘッダ部が設けら
れ、例えばスライス層では、このヘッダ部を検出するこ
とで可変長符号の区切り位置が検出される。可変長符号
を復号化するデコーダでは、検出された区切り位置に基
づき可変長符号の復号化を行う。
In the above-mentioned MPEG2 system, in a data having a hierarchical structure from the lower layer to the upper layer in the order of macroblock layer, slice layer, picture layer, GOP layer and sequence layer, the slice layer serves as a unit of variable length coding. There is. The macroblock layer further includes a plurality of DCT (D
iscrete Cosine Transform) block. A header portion in which header information is stored is provided at the beginning of each layer. For example, in the slice layer, the delimiter position of the variable length code is detected by detecting this header portion. The decoder for decoding the variable-length code decodes the variable-length code based on the detected delimiter position.

【0005】一方、画像データのフォーマットは、画像
サイズとフレーム周波数との組み合わせ、走査方法の違
いなどにより、様々なものが考えられる。放送用や制作
用の映像機器では、一般に、扱われる画像データのフォ
ーマットに対して所定の制限が与えられる。上述のMP
EG2の規格は、こうした様々な画像フォーマットに柔
軟に対応できるように考えられている。
On the other hand, various image data formats are conceivable depending on the combination of the image size and the frame frequency and the difference in the scanning method. Video equipment for broadcasting and production generally imposes a predetermined restriction on the format of image data handled. MP mentioned above
The EG2 standard is designed to flexibly support such various image formats.

【0006】[0006]

【発明が解決しようとする課題】ところで、コンピュー
タ装置やデータレコーダでは、画像情報が単なるデータ
列として扱われる。しかしながら、一般のMPEG2対
応の映像機器は、MPEG2で規定可能な全ての画像情
報を扱えるわけではない。例えば放送用や業務用の機器
では、画像サイズとフレーム周波数をそれぞれ現行放送
方式と同じ値に限定したり、編集の都合でフレーム構造
やピクチャのエンコード型を固定するなどのことが行わ
れる。
By the way, in computer devices and data recorders, image information is treated as a simple data string. However, a general MPEG2-compatible video device cannot handle all image information that can be defined by MPEG2. For example, in a broadcasting or commercial device, the image size and the frame frequency are limited to the same values as those in the current broadcasting system, and the frame structure and the encoding type of the picture are fixed for the convenience of editing.

【0007】このような、放送用や業務用の機器で固定
的に扱われるエンコードパラメータの一つに、qaun
tizer_scale_type(以下、q_sca
le_type)がある。q_scale_typeに
ついて、概略的に説明する。上述したMPEG2では、
量子化スケール(quantizer_scale)の
ステップのカーブとして、線形および非線形の2種類が
用意されている。これら2種類の量子化スケールは、q
auntizer_scale_codeをインデック
スとして参照される。q_scale_typeは、こ
れら2種類の量子化スケールを選択するためのパラメー
タである。q_scale_type=1がより高ビッ
トレートに対応する量子化スケールのステップのカーブ
である。
[0007] One of the encoding parameters fixedly handled by such a broadcasting or commercial device is qaun.
timer_scale_type (hereinafter, q_scale
le_type). The q_scale_type will be briefly described. In MPEG2 mentioned above,
Two types of curves, linear and non-linear, are prepared as the curves of the steps of the quantization scale (quantizer_scale). These two types of quantization scale are q
It is referred to using "auntizer_scale_code" as an index. q_scale_type is a parameter for selecting these two types of quantization scales. q_scale_type = 1 is the curve of the quantization scale step corresponding to the higher bit rate.

【0008】放送用や業務用の機器では、このq_sc
ale_typeの値が「1」に限定されて扱われるこ
とが多い。これは、q_scale_type=1に限
定された機器では、q_scale_type=0のス
トリームを扱えないことを意味している。q_scal
e_typeの不適合は、同期はずれ、システムディレ
イのずれ、デコーダの暴走やハングアップといった重大
な問題を引き起こすものではない。
In a device for broadcasting or business use, this q_sc
The value of ale_type is often limited to “1” and handled. This means that a device limited to q_scale_type = 1 cannot handle a stream of q_scale_type = 0. q_scal
Mismatching e_type does not cause serious problems such as loss of synchronization, deviation of system delay, runaway or hang-up of the decoder.

【0009】しかしながら、q_scale_type
=0の条件でエンコードされたストリームを、q_sc
ale_type=1としてデコードすると、再生画像
の明度、彩度および色相が原画像から大きく外れる可能
性があるという問題点があった。
However, q_scale_type
A stream encoded under the condition of = 0, q_sc
When decoding with ale_type = 1, there is a problem that the brightness, saturation, and hue of the reproduced image may greatly deviate from the original image.

【0010】例えば、コンピュータ装置で作成したグラ
フィックをソフトウェアによりエンコードする場合に、
このような、異なる値のq_scale_typeによ
るストリームが生成されるおそれがある。
For example, when encoding a graphic created by a computer with software,
There is a possibility that streams with different values of q_scale_type may be generated.

【0011】q_scale_type=0とされたス
トリームをq_scale_type=1のシステムに
取り込む方法としては、q_scale_type=0
のストリームを一旦デコードし、再びq_scale_
type=1のストリームとしてエンコードする方法が
考えられる。しかしながら、この方法では、所要時間が
多大に必要である、回路規模が大きくなってしまう、な
どの問題点があった。
As a method of fetching a stream with q_scale_type = 0 into a system with q_scale_type = 1, q_scale_type = 0
Stream is decoded once, and again q_scale_
A method of encoding as a stream of type = 1 can be considered. However, this method has problems that it takes a lot of time and the circuit scale becomes large.

【0012】したがって、この発明の目的は、q_sc
ale_type=0とされたストリームがq_sca
le_type=1とされた機器に入力されても、再生
画像の明度、彩度および色相などが原画像から大きく外
れないようにした信号処理装置および方法を提供するこ
とにある。
Therefore, the object of the present invention is q_sc.
The stream for which ale_type = 0 is q_sca
It is an object of the present invention to provide a signal processing device and method that prevent the brightness, saturation, hue, etc. of a reproduced image from being largely deviated from the original image even when input to a device with le_type = 1.

【0013】[0013]

【課題を解決するための手段】この発明は、上述した課
題を解決するために、圧縮符号化の際の量子化スケール
を複数組の量子化スケールから選択して用いることが可
能とされ、量子化スケールを複数組の量子化スケールに
共通のインデックスで参照するようにした圧縮符号化方
式で圧縮符号化されたストリームが入力される信号処理
装置において、圧縮符号化されて入力されたストリーム
から圧縮符号化の際に用いられた量子化スケールの組を
示すパラメータを検出し、検出されたパラメータが量子
化スケールの所定の組を示しているかどうかを判定する
判定手段と、入力されたストリーム中のパラメータを書
き換えると共に、量子化スケールを参照するインデック
スを書き換える書き換え手段とを有し、判定手段によ
り、入力されたストリーム中のパラメータが所定の組以
外の組を示していると判定された場合、書き換え手段
は、入力されたストリーム中のパラメータを所定の組を
示すパラメータに書き換えると共に、所定の組以外の組
の量子化スケールを所定の組の量子化スケールに近似的
に変換するようなインデックスで、入力されたストリー
ム中の量子化スケールを参照するインデックスを書き換
えるようにしたことを特徴とする信号処理装置である。
In order to solve the above-mentioned problems, the present invention makes it possible to select and use a quantization scale for compression encoding from a plurality of sets of quantization scales. In a signal processing device to which a stream that has been compression-encoded by a compression-encoding method that refers to the encoding scale with a common index to a plurality of sets of quantization scales is input, compresses from the input stream that is compression-encoded. Detecting a parameter indicating a set of quantization scales used in encoding, determining means for determining whether the detected parameter indicates a predetermined set of quantization scales, and It has a rewriting unit that rewrites the parameter and also rewrites the index that refers to the quantization scale. If it is determined that the parameters in the stream indicate a group other than the predetermined group, the rewriting unit rewrites the parameters in the input stream to the parameters indicating the predetermined group and sets other than the predetermined group. In a signal processing device characterized in that the index that refers to the quantization scale in the input stream is rewritten with an index that approximately transforms the quantization scale of to a predetermined set of quantization scales. is there.

【0014】また、この発明は、圧縮符号化の際の量子
化スケールを複数組の量子化スケールから選択して用い
ることが可能とされ、量子化スケールを複数組の量子化
スケールに共通のインデックスで参照するようにした圧
縮符号化方式で圧縮符号化されたストリームが入力され
る信号処理方法において、圧縮符号化されて入力された
ストリームから圧縮符号化の際に用いられた量子化スケ
ールの組を示すパラメータを検出し、検出されたパラメ
ータが量子化スケールの所定の組を示しているかどうか
を判定する判定のステップと、入力されたストリーム中
のパラメータを書き換えると共に、量子化スケールを参
照するインデックスを書き換える書き換えのステップと
を有し、判定のステップにより、入力されたストリーム
中のパラメータが所定の組以外の組を示していると判定
された場合、書き換えのステップでは、入力されたスト
リーム中のパラメータを所定の組を示すパラメータに書
き換えると共に、所定の組以外の組の量子化スケールを
所定の組の量子化スケールに近似的に変換するようなイ
ンデックスで、入力されたストリーム中の量子化スケー
ルを参照するインデックスを書き換えるようにしたこと
を特徴とする信号処理方法である。
Further, according to the present invention, it is possible to select and use a quantization scale for compression encoding from a plurality of sets of quantization scales, and the quantization scale is an index common to the plurality of sets of quantization scales. In the signal processing method in which the stream coded by the compression coding method as referred to in is input, the set of quantization scales used in compression coding from the stream coded and input. Detecting the parameter, and determining whether the detected parameter indicates a predetermined set of quantization scales, and rewriting the parameters in the input stream and referring to the quantization scales. And a rewriting step of rewriting If it is determined that a set other than the predetermined set is indicated, in the rewriting step, the parameter in the input stream is rewritten to the parameter indicating the predetermined set, and the quantization scale of the set other than the predetermined set is set. The signal processing method is characterized in that an index that refers to a quantization scale in an input stream is rewritten with an index that approximately transforms into a predetermined set of quantization scales.

【0015】上述したように、この発明は、圧縮符号化
されて入力されたストリームから圧縮符号化の際に用い
られた量子化スケールの組を示すパラメータを検出して
検出されたパラメータが量子化スケールの所定の組を示
しているかどうかを判定し、入力されたストリーム中の
パラメータが所定の組以外の組を示していると判定され
た場合、入力されたストリーム中のパラメータを所定の
組を示すパラメータに書き換えると共に、所定の組以外
の組の量子化スケールを所定の組の量子化スケールに近
似的に変換するようなインデックスで、入力されたスト
リーム中の量子化スケールを参照するインデックスを書
き換えるようにしているため、所定の組以外の量子スケ
ールを用いて圧縮符号化されたストリームが入力されて
も、所定の組の量子化スケールを用いて圧縮符号化され
たストリームに近似的に変換して出力することができ
る。
As described above, according to the present invention, a parameter indicating a set of quantization scales used at the time of compression encoding is detected from a stream encoded and input, and the detected parameter is quantized. If it is determined that the parameters in the input stream indicate a set other than the predetermined set, it is determined whether the parameters in the input stream are set to the predetermined set. In addition to rewriting the parameters shown, rewrite the index that refers to the quantization scale in the input stream with an index that approximately converts the quantization scale of a set other than the predetermined set to the quantization scale of the predetermined set. Therefore, even if a stream compressed and encoded using a quantum scale other than the predetermined set is input, the amount of the predetermined set is It can be approximately converted into compression-coded stream and outputs with scale.

【0016】[0016]

【発明の実施の形態】以下、この発明の概念を、図1乃
至図3を用いて説明する。図1は、磁気テープを記録媒
体としてベースバンド信号の記録、再生を行うディジタ
ルVTR(Video Tape Recorder)の基本的な構成を示
す。記録時には、非圧縮のディジタルビデオ信号である
ベースバンド信号が端子500から入力される。ベース
バンド信号は、ECC(Error Correction Coding)エン
コーダ511に供給されると共に、入力信号のモニタ経
路であるEEパス508に供給され、スイッチ回路50
7に入力される。ECCエンコーダ501に供給された
ベースバンド信号は、シャフリングやエラー訂正符号化
処理が施され、記録アンプ502で記録符号化されて図
示されない回転ヘッドに供給され、回転ヘッドにより磁
気テープ503に記録される。
BEST MODE FOR CARRYING OUT THE INVENTION The concept of the present invention will be described below with reference to FIGS. FIG. 1 shows a basic configuration of a digital VTR (Video Tape Recorder) that records and reproduces a baseband signal using a magnetic tape as a recording medium. At the time of recording, a baseband signal which is an uncompressed digital video signal is input from the terminal 500. The baseband signal is supplied to an ECC (Error Correction Coding) encoder 511 and is also supplied to an EE path 508 which is a monitor path of the input signal, and the switch circuit 50.
Input to 7. The baseband signal supplied to the ECC encoder 501 is subjected to shuffling and error correction coding processing, recorded and coded by the recording amplifier 502, supplied to a rotary head (not shown), and recorded on the magnetic tape 503 by the rotary head. It

【0017】再生時には、磁気テープ503から回転ヘ
ッドにより再生された再生信号が再生アンプ504に供
給され、ディジタル信号に復号化される。再生アンプ5
04の出力は、ECCデコーダ505に供給され、エラ
ー訂正符号が復号化されてエラー訂正されると共にデシ
ャフリングされる。ECCデコーダ505から出力され
たベースバンド信号は、スイッチ回路507に入力され
る。スイッチ回路507では、上述のEEパス508か
ら入力された入力ベースバンド信号およびECCデコー
ダ505から出力されたベースバンド信号のうち一方が
選択され、選択された信号が端子506に導出される。
At the time of reproduction, the reproduction signal reproduced by the rotary head from the magnetic tape 503 is supplied to the reproduction amplifier 504 and decoded into a digital signal. Reproduction amplifier 5
The output of 04 is supplied to the ECC decoder 505, and the error correction code is decoded and error-corrected and deshuffled. The baseband signal output from the ECC decoder 505 is input to the switch circuit 507. The switch circuit 507 selects one of the input baseband signal input from the EE path 508 and the baseband signal output from the ECC decoder 505, and the selected signal is led to the terminal 506.

【0018】図2は、ビデオ信号がMPEG2方式でエ
ンコードされたストリームの記録、再生を行うディジタ
ルVTRの基本的な構成を示す。記録時には、ベースバ
ンド信号が端子510から入力され、MPEGエンコー
ダ511に供給される。MPEGエンコーダ511で
は、供給されたベースバンド信号を所定にMPEG2方
式でエンコードし、ストリームとして出力する。MPE
Gエンコーダ511から出力されたストリームは、セレ
クタ513の一方の入力端に供給される。また、MPE
G2方式で予めエンコードされたストリームが端子51
2から入力される。このストリームは、セレクタ513
の他方の入力端に供給される。
FIG. 2 shows a basic structure of a digital VTR for recording and reproducing a stream in which a video signal is encoded by the MPEG2 system. At the time of recording, a baseband signal is input from the terminal 510 and supplied to the MPEG encoder 511. The MPEG encoder 511 encodes the supplied baseband signal in a predetermined MPEG2 system and outputs it as a stream. MPE
The stream output from the G encoder 511 is supplied to one input end of the selector 513. Also, MPE
The stream pre-encoded by the G2 method is the terminal 51.
Input from 2. This stream is a selector 513
Is supplied to the other input terminal of the.

【0019】セレクタ513では、一方および他方の入
力端に供給されたストリームを所定に選択し、ECCエ
ンコーダ514に供給する。また、セレクタ513の出
力は、入力信号のモニタ経路であるEEパス523に供
給され、スイッチ回路522に入力される。ストリーム
は、ECCエンコーダ514で所定にシャフリングやエ
ラー訂正符号化処理が施され、記録アンプ515で記録
符号化されて図示されない回転ヘッドに供給され、磁気
テープ516に記録される。
The selector 513 selects a stream supplied to one input terminal and the other input terminal, and supplies it to the ECC encoder 514. Further, the output of the selector 513 is supplied to the EE path 523 which is a monitor path of the input signal and input to the switch circuit 522. The ECC encoder 514 performs predetermined shuffling and error correction coding processing on the stream, and the recording amplifier 515 records and codes the stream, which is supplied to a rotary head (not shown) and recorded on a magnetic tape 516.

【0020】再生時には、回転ヘッドにより磁気テープ
516から再生された再生信号が再生アンプ517に供
給され、ディジタル信号に復号化される。再生アンプ5
17の出力は、ECCデコーダ518に供給され、エラ
ー訂正符号が復号化されてエラー訂正されると共にデシ
ャフリングされ、MPEG2のストリームとされる。E
CCデコーダ518から出力されたストリームは、スイ
ッチ回路522に入力される。
At the time of reproduction, the reproduction signal reproduced from the magnetic tape 516 by the rotary head is supplied to the reproduction amplifier 517 and decoded into a digital signal. Reproduction amplifier 5
The output of 17 is supplied to the ECC decoder 518, the error correction code is decoded and the error is corrected, and the data is deshuffled to be an MPEG2 stream. E
The stream output from the CC decoder 518 is input to the switch circuit 522.

【0021】スイッチ回路522では、上述のEEパス
523から入力されたストリームおよびECCデコーダ
518から出力されたストリームのうち一方が選択され
る。選択された信号は、そのまま端子519に導出され
る。スイッチ回路522で選択されたストリームは、さ
らに、MPEGデコーダ520にも供給される。MPE
Gデコーダ520に供給されたストリームは、ベースバ
ンド信号に復号化され、端子521に導出される。
The switch circuit 522 selects one of the stream input from the EE path 523 and the stream output from the ECC decoder 518. The selected signal is directly output to the terminal 519. The stream selected by the switch circuit 522 is also supplied to the MPEG decoder 520. MPE
The stream supplied to the G decoder 520 is decoded into a baseband signal and is output to the terminal 521.

【0022】このように、機器間でのビデオ信号をスト
リームのままで伝送可能であれば、ベースバンド信号よ
りも少ない情報量で同じ枚数の画像を伝送することがで
きるようになる。また、伝送するたびにデータの伸張お
よび圧縮を繰り返して画質の劣化を招くベースバンド接
続に対し、ストリーム接続なら画質劣化無く画像情報を
伝送できる。画像を加工しないのであれば、ストリーム
接続の方がベースバンド接続よりも有利であるといえ
る。
As described above, if the video signal can be transmitted as a stream between the devices, the same number of images can be transmitted with a smaller amount of information than the baseband signal. In addition, in contrast to the baseband connection that causes the deterioration of the image quality by repeatedly decompressing and compressing the data every transmission, the image information can be transmitted without the deterioration of the image quality by the stream connection. If the image is not processed, it can be said that the stream connection is more advantageous than the baseband connection.

【0023】図3は、この発明によるVTRの基本的な
構成を示す。なお、図3において、上述した図2の構成
と対応する部分には同一の符号を付し、詳細な説明を省
略する。図3では、図2の構成に対して、QST変換部
530が追加されている。QST変換部530は、QS
Tチェッカ530AとQST、QSC書き換え部530
Bを有する。
FIG. 3 shows the basic structure of the VTR according to the present invention. In FIG. 3, parts corresponding to those in the above-described configuration of FIG. 2 are designated by the same reference numerals, and detailed description thereof will be omitted. In FIG. 3, a QST conversion unit 530 is added to the configuration of FIG. The QST conversion unit 530 uses the QS
T checker 530A and QST, QSC rewriting unit 530
Have B.

【0024】QSTチェッカ530Aにより、MPEG
2方式でエンコードされ入力されたストリームの、MP
EG2のエンコードパラメータの一つであるquant
izer_scale_type(QST)がチェック
される。また、QST、QSC書き換え部530Bで
は、QSTチェッカ530Aのチェック結果に基づき、
入力されたストリームの、q_scale_typeお
よび同じくMPEG2のエンコードパラメータの一つで
あるqauntizer_scale_code(QS
C)の書き換えが行われる。
The QST checker 530A allows MPEG
MP of the stream encoded and input in two formats
Quant, which is one of the encoding parameters of EG2
The sizer_scale_type (QST) is checked. Further, in the QST / QSC rewriting unit 530B, based on the check result of the QST checker 530A,
Q_scale_type of the input stream and qquantizer_scale_code (QS which is one of the encoding parameters of MPEG2)
Rewriting of C) is performed.

【0025】ここで、MPEG2における量子化スケー
ル(qauntizer_scale)について概略的
に説明する。量子化スケールは、量子化の際の分母とな
るもので、スライス毎およびマクロブロック毎に決める
ことができる。MPEG2では、量子化スケールのステ
ップとして、カーブが線形になるステップと、非線形に
なるステップとの2通り用意がされている。非線形のス
テップは、高ビットレート、すなわち量子化のステップ
サイズが小さくなる時により有効なものである。非線形
のステップによる量子化スケールでは、線形のステップ
による量子化スケールを用いたときより、より高画質が
得られる。
Here, the quantization scale (quantizer_scale) in MPEG2 will be briefly described. The quantization scale is a denominator at the time of quantization, and can be determined for each slice and each macroblock. In MPEG2, there are two types of quantization scale steps: a step in which the curve becomes linear and a step in which the curve becomes nonlinear. The non-linear step is more effective at high bit rates, ie when the quantization step size is small. The non-linear step quantization scale provides higher image quality than the linear step quantization scale.

【0026】量子化スケールは、qauntizer_
scale_codeをインデックスとして示される。
すなわち、量子化スケールとqauntizer_sc
ale_codeとの間に、2通りの対応関係があり、
これらのうち何方が適用されているかが、q_scal
e_typeによって示される。q_scale_ty
peが「0」で線形の量子化スケールを示し、「1」で
非線形の量子化スケールを示す。qauntizer_
scale_codeは、マクロブロック毎に指定する
ことができる。
The quantizer scale is qquantizer_
It is shown using scale_code as an index.
That is, the quantization scale and the quantizer_sc
There are two correspondences with ale_code,
Which of these is applied depends on q_scal
It is indicated by e_type. q_scale_ty
When pe is “0”, the linear quantization scale is shown, and when “1”, the nonlinear quantization scale is shown. qauntizer_
scale_code can be specified for each macroblock.

【0027】この発明では、入力されたストリーム中の
q_scale_typeをQSTチェッカ530Aで
チェックし、チェックの結果、値が「0」であれば、Q
ST、QSC書き換え部530Bで、そのストリーム中
のq_scale_typeの値を「1」に書き替える
と共に、qauntizer_scale_code
を、量子化スケールがq_scale_type=0の
ときの値に最も近い値になるように近似した値で書き換
える。
According to the present invention, the q_scale_type in the input stream is checked by the QST checker 530A, and if the check result shows that the value is "0", then Q_scale_type is checked.
In the ST / QSC rewriting unit 530B, the value of q_scale_type in the stream is rewritten to "1", and at the same time, qcounter_scale_code
Is rewritten with a value approximated so that the quantization scale becomes a value closest to the value when q_scale_type = 0.

【0028】これにより、入力されたストリームの量子
化スケールのステップがこのVTRが対応していない種
類のものであっても、再生画像の原画像との間の明度、
彩度、色相のずれを抑えることができる。
As a result, even if the step of the quantization scale of the input stream is of a type that this VTR does not support, the brightness between the reproduced image and the original image,
It is possible to suppress the shift in saturation and hue.

【0029】なお、図3の構成において、スイッチ回路
532でEEパス533側が選択されている場合は、エ
ンコードされ入力されたストリームに対してq_sca
le_typeのチェックを行い、チェック結果に基づ
きq_scale_typeおよびqauntizer
_scale_codeを書き換えたストリームを、そ
のまま端子519に導出させることができる。この場合
には、このVTRを量子スケール変換装置として用いる
ことができる。
In the configuration of FIG. 3, when the EE path 533 side is selected by the switch circuit 532, q_sca is applied to the encoded and input stream.
le_type is checked, and q_scale_type and qauntizer are checked based on the check result.
The stream in which _scale_code is rewritten can be directly led to the terminal 519. In this case, this VTR can be used as a quantum scale converter.

【0030】次に、この発明をディジタルVTRに対し
て適用した実施の一形態について説明する。このディジ
タルVTRは、放送局の環境で使用して好適なもので、
互いに異なる複数のフォーマットのビデオ信号の記録/
再生を可能とするものである。
Next, an embodiment in which the present invention is applied to a digital VTR will be described. This digital VTR is suitable for use in a broadcasting environment,
Recording / recording video signals in different formats
It enables reproduction.

【0031】この実施の第1の形態では、圧縮方式とし
ては、例えばMPEG2方式が採用される。MPEG2
は、動き補償予測符号化と、DCTによる圧縮符号化と
を組み合わせたものである。MPEG2のデータ構造
は、階層構造をなしている。図4は、一般的なMPEG
2のデータストリームの階層構造を概略的に示す。図4
に示されるように、データ構造は、下位から、マクロブ
ロック層(図4E)、スライス層(図4D)、ピクチャ
層(図4C)、GOP層(図4B)およびシーケンス層
(図4A)となっている。
In the first embodiment, for example, the MPEG2 system is adopted as the compression system. MPEG2
Is a combination of motion compensation predictive coding and compression coding by DCT. The data structure of MPEG2 has a hierarchical structure. FIG. 4 shows a general MPEG.
2 schematically shows the hierarchical structure of two data streams. Figure 4
As shown in FIG. 3, the data structure is, from the bottom, a macroblock layer (FIG. 4E), a slice layer (FIG. 4D), a picture layer (FIG. 4C), a GOP layer (FIG. 4B) and a sequence layer (FIG. 4A). ing.

【0032】図4Eに示されるように、マクロブロック
層は、DCTを行う単位であるDCTブロックからな
る。マクロブロック層は、マクロブロックヘッダと複数
のDCTブロックとで構成される。スライス層は、図4
Dに示されるように、スライスヘッダ部と、1以上のマ
クロブロックより構成される。ピクチャ層は、図4Cに
示されるように、ピクチャヘッダ部と、1以上のスライ
スとから構成される。ピクチャは、1画面に対応する。
GOP層は、図4Bに示されるように、GOPヘッダ部
と、フレーム内符号化に基づくピクチャであるIピクチ
ャと、予測符号化に基づくピクチャであるPおよびBピ
クチャとから構成される。
As shown in FIG. 4E, the macroblock layer is composed of DCT blocks, which are units for performing DCT. The macroblock layer is composed of a macroblock header and a plurality of DCT blocks. The slice layer is shown in Figure 4.
As shown in D, it is composed of a slice header part and one or more macroblocks. As shown in FIG. 4C, the picture layer is composed of a picture header section and one or more slices. A picture corresponds to one screen.
As shown in FIG. 4B, the GOP layer includes a GOP header portion, an I picture that is a picture based on intra-frame coding, and P and B pictures that are pictures based on predictive coding.

【0033】Iピクチャ(Intra-coded picture:イント
ラ符号化画像) は、符号化されるときその画像1枚の中
だけで閉じた情報を使用するものである。従って、復号
時には、Iピクチャ自身の情報のみで復号できる。Pピ
クチャ(Predictive-coded picture :順方向予測符号化
画像)は、予測画像(差分をとる基準となる画像)とし
て、時間的に前の既に復号されたIピクチャまたはPピ
クチャを使用するものである。動き補償された予測画像
との差を符号化するか、差分を取らずに符号化するか、
効率の良い方をマクロブロック単位で選択する。Bピク
チャ(Bidirectionally predictive-coded picture :両
方向予測符号化画像)は、予測画像(差分をとる基準と
なる画像)として、時間的に前の既に復号されたIピク
チャまたはPピクチャ、時間的に後ろの既に復号された
IピクチャまたはPピクチャ、並びにこの両方から作ら
れた補間画像の3種類を使用する。この3種類のそれぞ
れの動き補償後の差分の符号化と、イントラ符号化の中
で、最も効率の良いものをマクロブロック単位で選択す
る。
An I-picture (Intra-coded picture) uses information closed in only one picture when it is coded. Therefore, at the time of decoding, only the information of the I picture itself can be used for decoding. A P-picture (Predictive-coded picture) uses a previously decoded I-picture or P-picture that is temporally previous as a predictive picture (picture that serves as a reference for taking a difference). . Whether to code the difference from the motion-compensated predicted image, or to code without taking the difference,
Select the most efficient one in macroblock units. A B picture (Bidirectionally predictive-coded picture) is a previously decoded I picture or P picture that is temporally preceding, and a temporally posterior picture that is a temporally posterior picture. Three types of I-pictures or P-pictures already decoded as well as interpolated pictures made from both are used. Of the three types of differential encoding after motion compensation and intra encoding, the most efficient one is selected in macroblock units.

【0034】従って、マクロブロックタイプとしては、
フレーム内符号化(Intra) マクロブロックと、過去から
未来を予測する順方向(Forward) フレーム間予測マクロ
ブロックと、未来から過去を予測する逆方向(Backward)
フレーム間予測マクロブロックと、前後両方向から予測
する両方向マクロブロックとがある。Iピクチャ内の全
てのマクロブロックは、フレーム内符号化マクロブロッ
クである。また、Pピクチャ内には、フレーム内符号化
マクロブロックと順方向フレーム間予測マクロブロック
とが含まれる。Bピクチャ内には、上述した4種類の全
てのタイプのマクロブロックが含まれる。
Therefore, as the macro block type,
Intra-frame coding (Intra) macroblocks, forward predicting the future from the past (Forward) inter-frame prediction macroblocks, and backward predicting the past from the future (Backward)
There are inter-frame prediction macroblocks and bidirectional macroblocks predicted from both front and back directions. All macroblocks in an I picture are intra-frame coded macroblocks. In addition, an intra-frame encoded macroblock and a forward inter-frame prediction macroblock are included in the P picture. B-pictures include all four types of macroblocks described above.

【0035】GOPには、最低1枚のIピクチャが含ま
れ、PおよびBピクチャは、存在しなくても許容され
る。最上層のシーケンス層は、図4Aに示されるよう
に、シーケンスヘッダ部と複数のGOPとから構成され
る。
A GOP contains at least one I picture, and P and B pictures are allowed even if they do not exist. As shown in FIG. 4A, the uppermost sequence layer is composed of a sequence header part and a plurality of GOPs.

【0036】MPEGのフォーマットにおいては、スラ
イスが1つの可変長符号系列である。可変長符号系列と
は、可変長符号を正しく復号化しなければデータの境界
を検出できない系列である。
In the MPEG format, a slice is a variable length code sequence. The variable-length code sequence is a sequence in which a data boundary cannot be detected unless the variable-length code is correctly decoded.

【0037】また、シーケンス層、GOP層、ピクチャ
層およびスライス層の先頭には、それぞれ、バイト単位
に整列された所定のビットパターンを有するスタートコ
ードが配される。この、各層の先頭に配されるスタート
コードを、シーケンス層においてはシーケンスヘッダコ
ード、他の階層においてはスタートコードと称し、ビッ
トパターンが〔00 00 01 xx〕(16進表
記)とされる。2桁ずつ示され、〔xx〕は、各層のそ
れぞれで異なるビットパターンが配されることを示す。
At the beginning of the sequence layer, GOP layer, picture layer and slice layer, a start code having a predetermined bit pattern arranged in byte units is arranged. This start code arranged at the beginning of each layer is called a sequence header code in the sequence layer and a start code in the other layers, and the bit pattern is [00 00 01 xx] (hexadecimal notation). Two digits are shown, and [xx] indicates that different bit patterns are arranged in each layer.

【0038】すなわち、スタートコードおよびシーケン
スヘッダコードは、4バイト(=32ビット)からな
り、4バイト目の値に基づき、後に続く情報の種類を識
別できる。これらスタートコードおよびシーケンスヘッ
ダコードは、バイト単位で整列されているため、4バイ
トのパターンマッチングを行うだけで捕捉することがで
きる。
That is, the start code and the sequence header code consist of 4 bytes (= 32 bits), and the type of information that follows can be identified based on the value of the 4th byte. Since these start code and sequence header code are aligned in byte units, they can be captured only by performing 4-byte pattern matching.

【0039】さらに、スタートコードに続く1バイトの
上位4ビットが、後述する拡張データ領域の内容の識別
子となっている。この識別子の値により、その拡張デー
タの内容を判別することができる。
Further, the upper 4 bits of 1 byte following the start code serve as an identifier of the contents of the extended data area described later. The content of the extended data can be determined by the value of this identifier.

【0040】なお、マクロブロック層およびマクロブロ
ック内のDCTブロックには、このような、バイト単位
に整列された所定のビットパターンを有する識別コード
は、配されない。
It should be noted that such an identification code having a predetermined bit pattern aligned in byte units is not arranged in the macro block layer and the DCT block in the macro block.

【0041】各層のヘッダ部について、より詳細に説明
する。図4Aに示すシーケンス層では、先頭にシーケン
スヘッダ2が配され、続けて、シーケンス拡張3、拡張
およびユーザデータ4が配される。シーケンスヘッダ2
の先頭には、シーケンスヘッダコード1が配される。ま
た、図示しないが、シーケンス拡張3およびユーザデー
タ4の先頭にも、それぞれ所定のスタートコードが配さ
れる。シーケンスヘッダ2からから拡張およびユーザデ
ータ4までがシーケンス層のヘッダ部とされる。
The header section of each layer will be described in more detail. In the sequence layer shown in FIG. 4A, the sequence header 2 is arranged at the beginning, and subsequently the sequence extension 3, the extension and the user data 4 are arranged. Sequence header 2
A sequence header code 1 is placed at the beginning of the. Although not shown, a predetermined start code is also placed at the beginning of each of the sequence extension 3 and the user data 4. The sequence header 2 to the extension and user data 4 are used as the header portion of the sequence layer.

【0042】シーケンスヘッダ2には、図5に各パラメ
ータの内容と割当ビットが示されるように、シーケンス
ヘッダコード1、水平方向画素数および垂直方向ライン
数からなる符号化画像サイズ、アスペクト比、フレーム
レート、ビットレート、VBV(Video Buffering Verif
ier)バッファサイズ、量子化マトリクスなど、シーケン
ス単位で設定される情報がそれぞれ所定のビット数を割
り当てられて格納される。
In the sequence header 2, as shown in FIG. 5, the contents of each parameter and the allocated bits, the sequence header code 1, the encoded image size consisting of the number of pixels in the horizontal direction and the number of lines in the vertical direction, the aspect ratio, and the frame. Bit rate, VBV (Video Buffering Verif)
ier) Information set in sequence units, such as a buffer size and a quantization matrix, is stored by allocating a predetermined number of bits.

【0043】なお、図5および後述する図15までの各
図において、繁雑さを避けるために、一部のパラメータ
が省略されている。
In FIG. 5 and each of FIGS. 15 to 15 which will be described later, some parameters are omitted in order to avoid complexity.

【0044】シーケンスヘッダに続く拡張スタートコー
ド後のシーケンス拡張3では、図6に示されるように、
MPEG2で用いられるプロファイル、レベル、色差フ
ォーマット、プログレッシブシーケンスなどの付加デー
タが指定される。拡張およびユーザデータ4は、図7に
示されるように、シーケンス表示()により、原信号の
RGB変換特性や表示画サイズの情報を格納できると共
に、シーケンススケーラブル拡張()により、スケーラ
ビリティモードやスケーラビリティのレイヤ指定などを
行うことができる。
In the sequence extension 3 after the extension start code following the sequence header, as shown in FIG.
Additional data such as profile, level, color difference format, and progressive sequence used in MPEG2 are designated. As shown in FIG. 7, the extension and user data 4 can store the information of the RGB conversion characteristics of the original signal and the display image size by the sequence display (), and the scalability and the scalability of the scalability mode and the scalability by the sequence scalable extension (). You can specify layers.

【0045】シーケンス層のヘッダ部に続けて、GOP
が配される。GOPの先頭には、図4Bに示されるよう
に、GOPヘッダ6およびユーザデータ7が配される。
GOPヘッダ6およびユーザデータ7がGOPのヘッダ
部とされる。GOPヘッダ6には、図8に示されるよう
に、GOPのスタートコード5、タイムコード、GOP
の独立性や正当性を示すフラグがそれぞれ所定のビット
数を割り当てられて格納される。ユーザデータ7は、図
9に示されるように、拡張データおよびユーザデータを
含む。図示しないが、拡張データおよびユーザデータの
先頭には、それぞれ所定のスタートコードが配される。
Following the header of the sequence layer, GOP
Are arranged. At the beginning of the GOP, as shown in FIG. 4B, a GOP header 6 and user data 7 are arranged.
The GOP header 6 and the user data 7 are used as the header part of the GOP. As shown in FIG. 8, the GOP header 6 includes a GOP start code 5, a time code, and a GOP.
Flags indicating independence and legitimacy of are assigned a predetermined number of bits and stored. The user data 7 includes extension data and user data, as shown in FIG. Although not shown, a predetermined start code is placed at the beginning of each of the extension data and the user data.

【0046】GOP層のヘッダ部に続けて、ピクチャが
配される。ピクチャの先頭には、図4Cに示されるよう
に、ピクチャヘッダ9、ピクチャ符号化拡張10、なら
びに、拡張およびユーザデータ11が配される。ピクチ
ャヘッダ9の先頭には、ピクチャスタートコード8が配
される。また、ピクチャ符号化拡張10、ならびに、拡
張およびユーザデータ11の先頭には、それぞれ所定の
スタートコードが配される。ピクチャヘッダ9から拡張
およびユーザデータ11までがピクチャのヘッダ部とさ
れる。
A picture is arranged following the header part of the GOP layer. As shown in FIG. 4C, a picture header 9, a picture coding extension 10, and extension and user data 11 are arranged at the head of the picture. A picture start code 8 is arranged at the head of the picture header 9. A predetermined start code is arranged at the beginning of each of the picture coding extension 10 and the extension and user data 11. The picture header 9 to the extension and user data 11 are the header part of the picture.

【0047】ピクチャヘッダ9は、図10に示されるよ
うに、ピクチャスタートコード8が配されると共に、画
面に関する符号化条件が設定される。ピクチャ符号化拡
張10では、図11に示されるように、前後方向および
水平/垂直方向の動きベクトルの範囲の指定や、ピクチ
ャ構造の指定がなされる。また、ピクチャ符号化拡張1
0では、イントラマクロブロックのDC係数精度の設
定、VLCタイプの選択、線型/非線型量子化スケール
の選択、DCTにおけるスキャン方法の選択などが行わ
れる。
As shown in FIG. 10, the picture header 9 is provided with a picture start code 8 and is set with a coding condition for the screen. In the picture coding extension 10, as shown in FIG. 11, the range of the motion vector in the front-back direction and the horizontal / vertical direction and the picture structure are specified. Also, picture coding extension 1
At 0, the DC coefficient precision of the intra macroblock is set, the VLC type is selected, the linear / non-linear quantization scale is selected, and the scanning method in the DCT is selected.

【0048】拡張およびユーザデータ11では、図12
に示されるように、量子化マトリクスの設定や、空間ス
ケーラブルパラメータの設定などが行われる。これらの
設定は、ピクチャ毎に可能となっており、各画面の特性
に応じた符号化を行うことができる。また、拡張および
ユーザデータ11では、ピクチャの表示領域の設定を行
うことが可能となっている。さらに、拡張およびユーザ
データ11では、著作権情報を設定することもできる。
In the extension and user data 11, FIG.
As shown in, the quantization matrix setting, the spatial scalable parameter setting, and the like are performed. These settings are possible for each picture, and encoding can be performed according to the characteristics of each screen. In the extension and user data 11, it is possible to set the display area of the picture. Further, copyright information can be set in the extension and user data 11.

【0049】ピクチャ層のヘッダ部に続けて、スライス
が配される。スライスの先頭には、図4Dに示されるよ
うに、スライスヘッダ13が配され、スライスヘッド1
3の先頭に、スライススタートコード12が配される。
図13に示されるように、スライススタートコード12
は、当該スライスの垂直方向の位置情報を含む。スライ
スヘッダ13には、さらに、拡張されたスライス垂直位
置情報や、量子化スケール情報などが格納される。
Slices are arranged following the header part of the picture layer. As shown in FIG. 4D, the slice header 13 is arranged at the head of the slice, and the slice head 1
A slice start code 12 is placed at the beginning of the number 3.
As shown in FIG. 13, slice start code 12
Includes vertical position information of the slice. The slice header 13 further stores extended slice vertical position information, quantization scale information, and the like.

【0050】スライス層のヘッダ部に続けて、マクロブ
ロックが配される(図4E)。マクロブロックでは、マ
クロブロックヘッダ14に続けて複数のDCTブロック
が配される。上述したように、マクロブロックヘッダ1
4にはスタートコードが配されない。図14に示される
ように、マクロブロックヘッダ14は、マクロブロック
の相対的な位置情報が格納されると共に、動き補償モー
ドの設定、DCT符号化に関する詳細な設定などを指示
する。
Macroblocks are arranged following the header portion of the slice layer (FIG. 4E). In the macroblock, a plurality of DCT blocks are arranged following the macroblock header 14. As mentioned above, macroblock header 1
No start code is assigned to 4. As shown in FIG. 14, the macroblock header 14 stores relative position information of macroblocks, and instructs the setting of the motion compensation mode, the detailed setting regarding DCT coding, and the like.

【0051】マクロブロックヘッダ14に続けて、DC
Tブロックが配される。DCTブロックは、図15に示
されるように、可変長符号化されたDCT係数およびD
CT係数に関するデータが格納される。
Following the macroblock header 14, DC
T blocks are arranged. The DCT block includes variable length coded DCT coefficients and D as shown in FIG.
Data regarding the CT coefficient is stored.

【0052】なお、図4では、各層における実線の区切
りは、データがバイト単位に整列されていることを示
し、点線の区切りは、データがバイト単位に整列されて
いないことを示す。すなわち、ピクチャ層までは、図1
6Aに一例が示されるように、符号の境界がバイト単位
で区切られているのに対し、スライス層では、スライス
スタートコード12のみがバイト単位で区切られてお
り、各マクロブロックは、図16Bに一例が示されるよ
うに、ビット単位で区切ることができる。同様に、マク
ロブロック層では、各DCTブロックをビット単位で区
切ることができる。
In FIG. 4, solid line delimiters in each layer indicate that data is aligned in byte units, and dotted line delimiters indicate that data is not aligned in byte units. That is, up to the picture layer, as shown in FIG.
As shown in an example in FIG. 6A, the boundaries of the code are divided in byte units, whereas in the slice layer, only the slice start code 12 is divided in byte units, and each macroblock is shown in FIG. 16B. As shown in the example, the data can be divided bit by bit. Similarly, in the macroblock layer, each DCT block can be divided in bit units.

【0053】一方、復号および符号化による信号の劣化
を避けるためには、符号化データ上で編集することが望
ましい。このとき、PピクチャおよびBピクチャは、そ
の復号に、時間的に前のピクチャあるいは前後のピクチ
ャを必要とする。そのため、編集単位を1フレーム単位
とすることができない。この点を考慮して、この実施の
第1の形態では、1つのGOPが1枚のIピクチャから
なるようにしている。
On the other hand, in order to avoid signal deterioration due to decoding and coding, it is desirable to edit the coded data. At this time, the P picture and the B picture require temporally previous pictures or temporally previous and subsequent pictures for decoding. Therefore, the editing unit cannot be one frame. In consideration of this point, in the first embodiment, one GOP is made up of one I picture.

【0054】また、例えば1フレーム分の記録データが
記録される記録領域が所定のものとされる。MPEG2
では、可変長符号化を用いているので、1フレーム期間
に発生するデータを所定の記録領域に記録できるよう
に、1フレーム分の発生データ量が制御される。さら
に、この実施の第1の形態では、磁気テープへの記録に
適するように、1スライスを1マクロブロックから構成
すると共に、1マクロブロックを、所定長の固定枠に当
てはめる。
Further, for example, the recording area in which the recording data for one frame is recorded is set to a predetermined one. MPEG2
Since variable length coding is used, the amount of generated data for one frame is controlled so that the data generated in one frame period can be recorded in a predetermined recording area. Further, in the first embodiment, one slice is made up of one macroblock and one macroblock is applied to a fixed frame having a predetermined length so as to be suitable for recording on a magnetic tape.

【0055】図17は、この実施の第1の形態によるM
PEGストリームのヘッダを具体的に示す。図4で分か
るように、シーケンス層、GOP層、ピクチャ層、スラ
イス層およびマクロブロック層のそれぞれのヘッダ部
は、シーケンス層の先頭から連続的に現れる。図17
は、シーケンスヘッダ部分から連続した一例のデータ配
列を示している。
FIG. 17 shows the M according to the first embodiment.
The header of the PEG stream is specifically shown. As can be seen from FIG. 4, the header parts of the sequence layer, GOP layer, picture layer, slice layer, and macroblock layer continuously appear from the beginning of the sequence layer. FIG. 17
Indicates an example data array that is continuous from the sequence header portion.

【0056】先頭から、12バイト分の長さを有するシ
ーケンスヘッダ2が配され、続けて、10バイト分の長
さを有するシーケンス拡張3が配される。シーケンス拡
張3の次には、拡張およびユーザデータ4が配される。
拡張およびユーザデータ4の先頭には、4バイト分のユ
ーザデータスタートコードが配され、続くユーザデータ
領域には、SMPTEの規格に基づく情報が格納され
る。
A sequence header 2 having a length of 12 bytes is arranged from the beginning, and a sequence extension 3 having a length of 10 bytes is arranged subsequently. Next to the sequence extension 3, extension and user data 4 are arranged.
A 4-byte user data start code is placed at the beginning of the extension and user data 4, and information based on the SMPTE standard is stored in the subsequent user data area.

【0057】シーケンス層のヘッダ部の次は、GOP層
のヘッダ部となる。8バイト分の長さを有するGOPヘ
ッダ6が配され、続けて拡張およびユーザデータ7が配
される。拡張およびユーザデータ7の先頭には、4バイ
ト分のユーザデータスタートコードが配され、続くユー
ザデータ領域には、既存の他のビデオフォーマットとの
互換性をとるための情報が格納される。
The header portion of the sequence layer is followed by the header portion of the GOP layer. A GOP header 6 having a length of 8 bytes is arranged, followed by extension and user data 7. A 4-byte user data start code is placed at the beginning of the extension and user data 7, and the following user data area stores information for compatibility with other existing video formats.

【0058】GOP層のヘッダ部の次は、ピクチャ層の
ヘッダ部となる。9バイトの長さを有するピクチャヘッ
ダ9が配され、続けて9バイトの長さを有するピクチャ
符号化拡張10が配される。ピクチャ符号化拡張10の
後に、拡張およびユーザデータ11が配される。拡張お
よびユーザデータ11の先頭側133バイトに拡張およ
びユーザデータが格納され、続いて4バイトの長さを有
するユーザデータスタートコード15が配される。ユー
ザデータスタートコード15に続けて、既存の他のビデ
オフォーマットとの互換性をとるための情報が格納され
る。さらに、ユーザデータスタートコード16が配さ
れ、ユーザデータスタートコード16に続けて、SMP
TEの規格に基づくデータが格納される。ピクチャ層の
ヘッダ部の次は、スライスとなる。
The header of the GOP layer is followed by the header of the picture layer. A picture header 9 having a length of 9 bytes is arranged, followed by a picture coding extension 10 having a length of 9 bytes. After the picture coding extension 10, extension and user data 11 are arranged. Expansion and user data are stored in the leading 133 bytes of the expansion and user data 11, and subsequently, a user data start code 15 having a length of 4 bytes is arranged. Following the user data start code 15, information for compatibility with other existing video formats is stored. Further, a user data start code 16 is provided, and following the user data start code 16, SMP
Data based on the TE standard is stored. Next to the header part of the picture layer is a slice.

【0059】マクロブロックについて、さらに詳細に説
明する。スライス層に含まれるマクロブロックは、複数
のDCTブロックの集合であり、DCTブロックの符号
化系列は、量子化されたDCT係数の系列を0係数の連
続回数(ラン)とその直後の非0系列(レベル)を1つ
の単位として可変長符号化したものである。マクロブロ
ックならびにマクロブロック内のDCTブロックには、
バイト単位に整列した識別コードが付加されない。
The macroblock will be described in more detail. The macroblock included in the slice layer is a set of a plurality of DCT blocks, and the encoded sequence of the DCT block is a sequence of quantized DCT coefficients, the number of consecutive 0 coefficients (run) and a non-zero sequence immediately after that. This is a variable-length code in which (level) is one unit. For macroblocks and DCT blocks within macroblocks,
The identification code arranged in byte units is not added.

【0060】マクロブロックは、画面(ピクチャ)を1
6画素×16ラインの格子状に分割したものである。ス
ライスは、例えばこのマクロブロックを水平方向に連結
してなる。連続するスライスの前のスライスの最後のマ
クロブロックと、次のスライスの先頭のマクロブロック
とは連続しており、スライス間でのマクロブロックのオ
ーバーラップを形成することは、許されていない。ま
た、画面のサイズが決まると、1画面当たりのマクロブ
ロック数は、一意に決まる。
The macroblock has a screen (picture) of 1
It is divided into a grid of 6 pixels × 16 lines. The slice is formed by connecting the macroblocks in the horizontal direction, for example. The last macroblock of a slice before a continuous slice and the first macroblock of the next slice are continuous, and it is not allowed to form a macroblock overlap between slices. Further, when the screen size is determined, the number of macroblocks per screen is uniquely determined.

【0061】画面上での垂直方向および水平方向のマク
ロブロック数を、それぞれmb_heightおよびm
b_widthと称する。画面上でのマクロブロックの
座標は、マクロブロックの垂直位置番号を、上端を基準
に0から数えたmb_rowと、マクロブロックの水平
位置番号を、左端を基準に0から数えたmb_colu
mnとで表すように定められている。画面上でのマクロ
ブロックの位置を一つの変数で表すために、macro
block_addressを、macroblock
_address=mb_row×mb_width+
mb_columnこのように定義する。
The numbers of macroblocks in the vertical and horizontal directions on the screen are set to mb_height and m, respectively.
It is called b_width. The coordinates of the macroblock on the screen are mb_row, which is the vertical position number of the macroblock, which is counted from 0 based on the upper end, and mb_colu, which is the horizontal position number of the macroblock, which is counted from 0 based on the left end.
mn and mn. In order to represent the position of the macro block on the screen with one variable, macro
block_address to macroblock
_Address = mb_row × mb_width +
mb_column Defined like this.

【0062】ストリーム上でのスライスとマクロブロッ
クの順は、macroblock_addressの小
さい順でなければいけないと定められている。すなわ
ち、ストリームは、画面の上から下、左から右の順に伝
送される。
It is specified that the order of slices and macroblocks on the stream must be in the order of smaller macroblock_address. That is, the stream is transmitted from the top to the bottom of the screen and from the left to the right.

【0063】MPEGでは、1スライスを1ストライプ
(16ライン)で構成するのが普通であり、画面の左端
から可変長符号化が始まり、右端で終わる。従って、V
TRによってそのままMPEGエレメンタリストリーム
を記録した場合、高速再生時に、再生できる部分が画面
の左端に集中し、均一に更新することができない。ま
た、データのテープ上の配置を予測できないため、テー
プパターンを一定の間隔でトレースしたのでは、均一な
画面更新ができなくなる。さらに、1箇所でもエラーが
発生すると、画面右端まで影響し、次のスライスヘッダ
が検出されるまで復帰できない。このために、1スライ
スを1マクロブロックで構成するようにしている。
In MPEG, one slice is usually composed of one stripe (16 lines), and variable length coding starts from the left end of the screen and ends at the right end. Therefore, V
When the MPEG elementary stream is recorded as it is by TR, the reproducible portion is concentrated on the left end of the screen during high-speed reproduction, and it cannot be uniformly updated. Further, since the arrangement of the data on the tape cannot be predicted, even if the tape pattern is traced at regular intervals, the uniform screen update cannot be performed. Furthermore, if an error occurs even at one location, it affects the right edge of the screen and cannot recover until the next slice header is detected. For this reason, one slice is made up of one macroblock.

【0064】図18は、この実施の第1の形態による記
録再生装置の構成の一例を示す。記録時には、端子10
0から入力されたディジタル信号がSDI(Serial Data
Interface) 受信部101に供給される。SDIは、
(4:2:2)コンポーネントビデオ信号とディジタル
オーディオ信号と付加的データとを伝送するために、S
MPTEによって規定されたインターフェイスである。
SDI受信部101で、入力されたディジタル信号から
ディジタルビデオ信号とディジタルオーディオ信号とが
それぞれ抽出され、ディジタルビデオ信号(ベースバン
ド信号)は、MPEGエンコーダ102に供給され、デ
ィジタルオーディオ信号は、ディレイ103を介してE
CCエンコーダ109に供給される。ディレイ103
は、ディジタルオーディオ信号とディジタルビデオ信号
との時間差を解消するためのものである。
FIG. 18 shows an example of the structure of the recording / reproducing apparatus according to the first embodiment. When recording, terminal 10
The digital signal input from 0 is SDI (Serial Data
Interface) is supplied to the receiving unit 101. SDI is
In order to transmit a (4: 2: 2) component video signal, a digital audio signal and additional data, S
This is an interface defined by MPTE.
The SDI receiving unit 101 extracts a digital video signal and a digital audio signal from the input digital signal, supplies the digital video signal (baseband signal) to the MPEG encoder 102, and the digital audio signal passes through the delay 103. Through E
It is supplied to the CC encoder 109. Delay 103
Is for eliminating the time difference between the digital audio signal and the digital video signal.

【0065】SDI受信部101の出力は、さらに、E
Eパスを介してスイッチ回路550にも供給される。ス
イッチ回路550においてEEパス側が選択されると、
SDI受信部101から出力されたディジタルビデオ信
号は、EEパスからスイッチ回路550を介して後述す
るSDI出力部118に供給され、出力端120に導出
される。
The output of the SDI receiver 101 is further E
It is also supplied to the switch circuit 550 via the E path. When the EE path side is selected in the switch circuit 550,
The digital video signal output from the SDI receiving unit 101 is supplied from the EE path to the SDI output unit 118, which will be described later, via the switch circuit 550 and is led to the output terminal 120.

【0066】また、SDI受信部101では、入力され
たディジタル信号から同期信号を抽出し、抽出された同
期信号をタイミングジェネレータ104に供給する。タ
イミングジェネレータ104には、端子105から外部
同期信号を入力することもできる。タイミングジェネレ
ータ104では、入力されたこれらの同期信号および後
述するSDTI受信部108から供給される同期信号の
うち、指定された信号に基づきタイミングパルスを生成
する。生成されたタイミングパルスは、この記録再生装
置の各部に供給される。
The SDI receiving section 101 extracts a sync signal from the input digital signal and supplies the extracted sync signal to the timing generator 104. An external synchronization signal can be input to the timing generator 104 from the terminal 105. The timing generator 104 generates a timing pulse on the basis of a designated signal among these input synchronizing signals and the synchronizing signal supplied from the SDTI receiving unit 108 described later. The generated timing pulse is supplied to each part of this recording / reproducing apparatus.

【0067】入力ビデオ信号は、MPEGエンコーダ1
02においてDCT(Discrete Cosine Transform) の処
理を受け、係数データに変換され、係数データが可変長
符号化される。MPEGエンコーダ102からの可変長
符号化(VLC)データは、MPEG2に準拠したエレ
メンタリストリーム(ES)である。この出力は、記録
側のマルチフォーマットコンバータ(以下、MFCと称
する)106の一方の入力端に供給される。
The input video signal is the MPEG encoder 1
In 02, a DCT (Discrete Cosine Transform) process is performed, the coefficient data is converted, and the coefficient data is variable-length coded. The variable length coded (VLC) data from the MPEG encoder 102 is an elementary stream (ES) compliant with MPEG2. This output is supplied to one input end of a recording-side multi-format converter (hereinafter referred to as MFC) 106.

【0068】一方、入力端子107を通じて、SDTI
(Serial Data Transport Interface) のフォーマットの
データが入力される。この信号は、SDTI受信部10
8で同期検出される。そして、バッファに一旦溜め込ま
れ、エレメンタリストリームが抜き出される。抜き出さ
れたエレメンタリストリームは、QST変換部530に
供給され、上述したようにq_scale_typeが
チェックされ、チェック結果に基づき、q_scale
_typeおよびqauntizer_scale_c
odeの書き換えが行われる。QST変換部530から
出力されたMPEG ESは、記録側MFC106の他
方の入力端に供給される。同期検出されて得られた同期
信号は、上述したタイミングジェネレータ104に供給
される。
On the other hand, through the input terminal 107, SDTI
Data in the (Serial Data Transport Interface) format is input. This signal is sent to the SDTI receiver 10
8, the synchronization is detected. Then, it is temporarily stored in the buffer and the elementary stream is extracted. The extracted elementary stream is supplied to the QST conversion unit 530, q_scale_type is checked as described above, and q_scale is checked based on the check result.
_Type and qauntizer_scale_c
The ode is rewritten. The MPEG ES output from the QST conversion unit 530 is supplied to the other input end of the recording MFC 106. The synchronization signal obtained by the synchronization detection is supplied to the timing generator 104 described above.

【0069】なお、QST変換部530から出力された
MPEG ESは、EEパスを介してスイッチ回路55
1の一方の入力端にも供給される。
The MPEG ES output from the QST converter 530 is sent to the switch circuit 55 via the EE path.
1 is also supplied to one input terminal.

【0070】この発明では、例えばMPEG ES(M
PEGエレメンタリストリーム)を伝送するために、S
DTI(Serial Data Transport Interface)−CP(Con
tentPackage) が使用される。このESは、4:2:2
のコンポーネントであり、また、上述したように、全て
Iピクチャのストリームであり、1GOP=1ピクチャ
の関係を有する。SDTI−CPのフォーマットでは、
MPEG ESがアクセスユニットへ分離され、また、
フレーム単位のパケットにパッキングされている。SD
TI−CPでは、十分な伝送帯域(クロックレートで2
7MHzまたは36MHz、ストリームビットレートで27
0M bpsまたは360M bps)を使用しており、1フレ
ーム期間で、バースト的にESを送ることが可能であ
る。
In the present invention, for example, MPEG ES (M
In order to transmit a PEG elementary stream)
DTI (Serial Data Transport Interface) -CP (Con
tentPackage) is used. This ES is 4: 2: 2
In addition, as described above, all are I-picture streams and have a relationship of 1 GOP = 1 picture. In SDTI-CP format,
MPEG ES is separated into access units, and
It is packed in packets in frame units. SD
In TI-CP, a sufficient transmission band (2 at the clock rate
7MHz or 36MHz, 27 at stream bit rate
0 M bps or 360 M bps) is used, and ES can be sent in a burst in one frame period.

【0071】すなわち、1フレーム期間のSAVの後か
らEAVまでの間に、システムデータ、ビデオストリー
ム、オーディオストリーム、AUXデータが配される。
1フレーム期間全体にデータが存在せずに、その先頭か
ら所定期間バースト状にデータが存在する。フレームの
境界においてSDTI−CPのストリーム(ビデオおよ
びオーディオ)をストリームの状態でスイッチングする
ことができる。SDTI−CPは、クロック基準として
SMPTEタイムコードを使用したコンテンツの場合
に、オーディオ、ビデオ間の同期を確立する機構を有す
る。さらに、SDTI−CPとSDIとが共存可能なよ
うに、フォーマットが決められている。
That is, the system data, the video stream, the audio stream, and the AUX data are arranged between SAV of one frame period and EAV.
The data does not exist in the entire one frame period, but the data exists in a burst form for a predetermined period from the beginning thereof. SDTI-CP streams (video and audio) can be switched in a stream state at frame boundaries. SDTI-CP has a mechanism for establishing synchronization between audio and video in the case of content using SMPTE time code as a clock reference. Furthermore, the format is determined so that SDTI-CP and SDI can coexist.

【0072】上述したSDTI−CPを使用したインタ
ーフェースは、TS(Transport Stream)を転送する場合
のように、エンコーダおよびデコーダがVBV(Video B
uffer Verifier) バッファおよびTBs(Transport Buf
fers) を通る必要がなく、ディレイを少なくできる。ま
た、SDTI−CP自体が極めて高速の転送が可能なこ
ともディレイを一層少なくする。従って、放送局の全体
を管理するような同期が存在する環境では、SDTI−
CPを使用することが有効である。
In the interface using SDTI-CP described above, the encoder and the decoder use VBV (Video B) as in the case of transferring TS (Transport Stream).
uffer Verifier) buffer and TBs (Transport Buf)
You don't have to go through the fers) and you can reduce the delay. Also, the fact that SDTI-CP itself can perform extremely high-speed transfer further reduces the delay. Therefore, in an environment where synchronization exists that manages the entire broadcasting station, SDTI-
It is effective to use CP.

【0073】なお、SDTI受信部108では、さら
に、入力されたSDTI−CPのストリームからディジ
タルオーディオ信号を抽出する。抽出されたディジタル
オーディオ信号は、ECCエンコーダ109に供給され
る。
The SDTI receiving section 108 further extracts a digital audio signal from the input SDTI-CP stream. The extracted digital audio signal is supplied to the ECC encoder 109.

【0074】記録側MFC106は、セレクタおよびス
トリームコンバータを内蔵する。上述したQST変換部
530を記録側MFC106に内蔵させることもでき
る。記録側MFC106は、例えば1個の集積回路内に
構成される。記録側MFC106において行われる処理
について説明する。上述したMPEGエンコーダ102
およびSDTI受信部108から供給されたMPEG
ESは、セレクタで何方か一方を選択され、ストリーム
コンバータに供給される。
The recording MFC 106 contains a selector and a stream converter. The above-mentioned QST conversion unit 530 can be incorporated in the recording MFC 106. The recording MFC 106 is configured in, for example, one integrated circuit. The processing performed in the recording MFC 106 will be described. MPEG encoder 102 described above
And MPEG supplied from the SDTI receiver 108.
One of ES is selected by the selector and supplied to the stream converter.

【0075】ストリームコンバータでは、MPEG2の
規定に基づきDCTブロック毎に並べられていたDCT
係数を、1マクロブロックを構成する複数のDCTブロ
ックを通して、周波数成分毎にまとめ、まとめた周波数
成分を並べ替える。また、ストリームコンバータは、エ
レメンタリストリームの1スライスが1ストライプの場
合には、1スライスを1マクロブロックからなるものに
する。さらに、ストリームコンバータは、1マクロブロ
ックで発生する可変長データの最大長を所定長に制限す
る。これは、高次のDCT係数を0とすることでなしう
る。並べ替えられた変換エレメンタリストリームは、E
CCエンコーダ109に供給される。
In the stream converter, the DCTs arranged in each DCT block based on the MPEG2 standard.
Coefficients are grouped for each frequency component through a plurality of DCT blocks forming one macroblock, and the grouped frequency components are rearranged. Further, the stream converter, when one slice of the elementary stream is one stripe, makes one slice consist of one macroblock. Furthermore, the stream converter limits the maximum length of variable length data generated in one macroblock to a predetermined length. This can be done by setting the high-order DCT coefficient to 0. The rearranged converted elementary stream is E
It is supplied to the CC encoder 109.

【0076】ECCエンコーダ109は、大容量のメイ
ンメモリが接続され(図示しない)、パッキングおよび
シャフリング部、オーディオ用外符号エンコーダ、ビデ
オ用外符号エンコーダ、内符号エンコーダ、オーディオ
用シャフリング部およびビデオ用シャフリング部などを
内蔵する。また、ECCエンコーダ109は、シンクブ
ロック単位でIDを付加する回路や、同期信号を付加す
る回路を含む。ECCエンコーダ109は、例えば1個
の集積回路で構成される。
The ECC encoder 109 is connected to a large-capacity main memory (not shown), and has a packing and shuffling section, an audio outer code encoder, a video outer code encoder, an inner code encoder, an audio shuffling section, and a video. It has a built-in shuffling part. The ECC encoder 109 also includes a circuit that adds an ID in sync block units and a circuit that adds a synchronization signal. The ECC encoder 109 is composed of, for example, one integrated circuit.

【0077】なお、実施の第1の形態では、ビデオデー
タおよびオーディオデータに対するエラー訂正符号とし
ては、積符号が使用される。積符号は、ビデオデータま
たはオーディオデータの2次元配列の縦方向に外符号の
符号化を行い、その横方向に内符号の符号化を行い、デ
ータシンボルを2重に符号化するものである。外符号お
よび内符号としては、リードソロモンコード(Reed-Solo
mon code) を使用できる。
In the first embodiment, a product code is used as the error correction code for video data and audio data. The product code is a code in which an outer code is encoded in the vertical direction of a two-dimensional array of video data or audio data, an inner code is encoded in the horizontal direction, and a data symbol is doubly encoded. Reed-Solomon code (Reed-Solo code)
mon code) can be used.

【0078】ECCエンコーダ109における処理につ
いて説明する。エレメンタリストリームのビデオデータ
は、可変長符号化されているため、各マクロブロックの
データの長さが不揃いである。パッキングおよびシャフ
リング部では、マクロブロックが固定枠に詰め込まれ
る。このとき、固定枠からはみ出たオーバーフロー部分
は、固定枠のサイズに対して空いている領域に順に詰め
込まれる。
The processing in the ECC encoder 109 will be described. Since the video data of the elementary stream is variable-length coded, the data lengths of the macroblocks are not uniform. In the packing and shuffling section, macro blocks are packed in a fixed frame. At this time, the overflow portion protruding from the fixed frame is sequentially packed in an area vacant with respect to the size of the fixed frame.

【0079】また、画像フォーマット、シャフリングパ
ターンのバージョン等の情報を有するシステムデータ
が、後述するシスコン121から供給され、図示されな
い入力端から入力される。システムデータは、パッキン
グおよびシャフリング部に供給され、ピクチャデータと
同様に記録処理を受ける。また、走査順に発生する1フ
レームのマクロブロックを並び替え、テープ上のマクロ
ブロックの記録位置を分散させるシャフリングが行われ
る。シャフリングによって、変速再生時に断片的にデー
タが再生される時でも、画像の更新率を向上させること
ができる。
Further, system data having information such as an image format and a shuffling pattern version is supplied from a system controller 121, which will be described later, and input from an input end (not shown). The system data is supplied to the packing and shuffling unit and subjected to the recording process like the picture data. Further, shuffling is performed to rearrange the macroblocks of one frame that occur in the scanning order and to distribute the recording positions of the macroblocks on the tape. The shuffling can improve the image update rate even when the data is fragmentarily reproduced during variable speed reproduction.

【0080】パッキングおよびシャフリング部からのビ
デオデータおよびシステムデータ(以下、特に必要な場
合を除き、システムデータを含む場合も単にビデオデー
タと称する)は、ビデオデータに対して外符号化の符号
化を行うビデオ用外符号エンコーダに供給され、外符号
パリティが付加される。外符号エンコーダの出力は、ビ
デオ用シャフリング部で、複数のECCブロックにわた
ってシンクブロック単位で順番を入れ替える、シャフリ
ングがなされる。シンクブロック単位のシャフリングに
よって特定のECCブロックにエラーが集中することが
防止される。シャフリング部でなされるシャフリング
を、インターリーブと称することもある。ビデオ用シャ
フリング部の出力は、メインメモリに書き込まれる。
Video data and system data from the packing and shuffling section (hereinafter, simply referred to as video data when including system data unless otherwise required) are coded by outer coding. Is supplied to the outer code encoder for video, and the outer code parity is added. The output of the outer code encoder is shuffled by switching the order in sync block units over a plurality of ECC blocks in a video shuffling unit. Shuffling in sync block units prevents errors from concentrating on a specific ECC block. The shuffling performed by the shuffling section may be referred to as interleave. The output of the video shuffling unit is written in the main memory.

【0081】一方、上述したように、SDTI受信部1
08あるいはディレイ103から出力されたディジタル
オーディオ信号がECCエンコーダ109に供給され
る。この実施の第1の形態では、非圧縮のディジタルオ
ーディオ信号が扱われる。ディジタルオーディオ信号
は、これらに限らず、オーディオインターフェースを介
して入力されるようにもできる。また、図示されない入
力端子から、オーディオAUXが供給される。オーディ
オAUXは、補助的データであり、オーディオデータの
サンプリング周波数等のオーディオデータに関連する情
報を有するデータである。オーディオAUXは、オーデ
ィオデータに付加され、オーディオデータと同等に扱わ
れる。
On the other hand, as described above, the SDTI receiver 1
08 or the digital audio signal output from the delay 103 is supplied to the ECC encoder 109. In the first mode of this embodiment, an uncompressed digital audio signal is handled. The digital audio signal is not limited to these, and may be input via an audio interface. An audio AUX is supplied from an input terminal (not shown). The audio AUX is auxiliary data, and is data having information related to the audio data such as a sampling frequency of the audio data. The audio AUX is added to the audio data and treated in the same manner as the audio data.

【0082】オーディオAUXが付加されたオーディオ
データ(以下、特に必要な場合を除き、AUXを含む場
合も単にオーディオデータと称する)は、オーディオデ
ータに対して外符号の符号化を行うオーディオ用外符号
エンコーダに供給される。オーディオ用外符号エンコー
ダの出力がオーディオ用シャフリング部に供給され、シ
ャフリング処理を受ける。オーディオシャフリングとし
て、シンクブロック単位のシャフリングと、チャンネル
単位のシャフリングとがなされる。
Audio data added with an audio AUX (hereinafter, simply referred to as audio data even when including AUX unless otherwise required) is an outer code for audio which performs outer code coding on the audio data. Supplied to the encoder. The output of the audio outer code encoder is supplied to the audio shuffling unit and subjected to shuffling processing. As audio shuffling, shuffling in sync block units and shuffling in channel units are performed.

【0083】オーディオ用シャフリング部の出力は、メ
インメモリに書き込まれる。上述したように、メインメ
モリには、ビデオ用シャフリング部の出力も書き込まれ
ており、メインメモリで、オーディオデータとビデオデ
ータとが混合され、1チャンネルのデータとされる。
The output of the audio shuffling section is written in the main memory. As described above, the output of the video shuffling unit is also written in the main memory, and the audio data and the video data are mixed in the main memory to form one-channel data.

【0084】メインメモリからデータが読み出され、シ
ンクブロック番号を示す情報等を有するIDが付加さ
れ、内符号エンコーダに供給される。内符号エンコーダ
では、供給されたデータに対して内符号の符号化を施
す。内符号エンコーダの出力に対してシンクブロック毎
の同期信号が付加され、シンクブロックが連続する記録
データが構成される。
Data is read from the main memory, an ID having information indicating a sync block number and the like is added, and the data is supplied to the inner code encoder. The inner code encoder encodes the supplied data with an inner code. A sync signal for each sync block is added to the output of the inner code encoder to form recording data in which sync blocks are continuous.

【0085】ECCエンコーダ109から出力された記
録データは、記録アンプなどを含むイコライザ110に
供給され、記録RF信号に変換される。記録RF信号
は、回転ヘッドが所定に設けられた回転ドラム111に
供給され、磁気テープ112上に記録される。回転ドラ
ム111には、実際には、隣接するトラックを形成する
ヘッドのアジマスが互いに異なる複数の磁気ヘッドが取
り付けられている。
The recording data output from the ECC encoder 109 is supplied to the equalizer 110 including a recording amplifier and converted into a recording RF signal. The recording RF signal is supplied to the rotary drum 111 provided with a predetermined rotary head and recorded on the magnetic tape 112. A plurality of magnetic heads having different azimuths of heads forming adjacent tracks are actually attached to the rotary drum 111.

【0086】記録データに対して必要に応じてスクラン
ブル処理を行っても良い。また、記録時にディジタル変
調を行っても良く、さらに、パーシャル・レスポンスク
ラス4とビタビ符号を使用しても良い。なお、イコライ
ザ110は、記録側の構成と再生側の構成とを共に含
む。
The recording data may be scrambled if necessary. Also, digital modulation may be performed during recording, and partial response class 4 and Viterbi code may be used. The equalizer 110 includes both a recording-side configuration and a reproduction-side configuration.

【0087】図19は、上述した回転ヘッドにより磁気
テープ上に形成されるトラックフォーマットの一例を示
す。この例では、1フレーム当たりのビデオおよびオー
ディオデータが4トラックで記録されている。互いに異
なるアジマスの2トラックによって1セグメントが構成
される。すなわち、4トラックは、4セグメントからな
る。セグメントを構成する1組のトラックに対して、ア
ジマスと対応するトラック番号
FIG. 19 shows an example of a track format formed on a magnetic tape by the above rotary head. In this example, video and audio data per frame is recorded in 4 tracks. One segment is composed of two tracks of different azimuths. That is, 4 tracks consist of 4 segments. Track number corresponding to azimuth for one set of tracks that make up a segment

〔0〕とトラック番号
〔1〕が付される。トラックのそれぞれにおいて、両端
側にビデオデータが記録されるビデオセクタが配され、
ビデオセクタに挟まれて、オーディオデータが記録され
るオーディオセクタが配される。この図19は、テープ
上のセクタの配置を示すものである。
[0] and track number [1] are added. In each of the tracks, video sectors on which video data is recorded are arranged on both ends,
An audio sector in which audio data is recorded is arranged between the video sectors. FIG. 19 shows the arrangement of sectors on the tape.

【0088】この例では、4チャンネルのオーディオデ
ータを扱うことができるようにされている。A1〜A4
は、それぞれオーディオデータの1〜4chを示す。オ
ーディオデータは、セグメント単位で配列を変えられて
記録される。また、ビデオデータは、この例では、1ト
ラックに対して4エラー訂正ブロック分のデータがイン
ターリーブされ、Upper SideおよびLowe
r Sideのセクタに分割され記録される。
In this example, 4-channel audio data can be handled. A1 to A4
Indicates channels 1 to 4 of audio data, respectively. The audio data is recorded by changing the arrangement for each segment. In this example, the video data is interleaved with data for four error correction blocks for one track, and Upper Side and Lowe
It is recorded by being divided into r Side sectors.

【0089】Lower Sideのビデオセクタに
は、システムデータが記録されるシステム領域(SY
S)が所定位置に設けられる。システム領域は、例え
ば、Lower Sideのビデオセクタの先頭側と末
尾側とに、トラック毎に交互に設けられる。
The system sector (SY) in which system data is recorded is recorded in the video sector of Lower Side.
S) is provided at a predetermined position. The system area is alternately provided for each track on the leading side and the trailing side of the lower side video sector.

【0090】なお、図19において、SATは、サーボ
ロック用の信号が記録されるエリアである。また、各記
録エリアの間には、所定の大きさのギャップが設けられ
る。
In FIG. 19, SAT is an area in which a signal for servo lock is recorded. Further, a gap having a predetermined size is provided between each recording area.

【0091】図19は、1フレーム当たりのデータを4
トラックで記録する例であるが、記録再生するデータの
フォーマットによっては、1フレーム当たりのデータを
8トラック、6トラックなどで記録するようにもでき
る。
FIG. 19 shows that the data per frame is 4
Although an example of recording by tracks is used, data per frame can be recorded by 8 tracks, 6 tracks, etc. depending on the format of data to be recorded and reproduced.

【0092】図19Bに示されるように、テープ上に記
録されるデータは、シンクブロックと称される等間隔に
区切られた複数のブロックからなる。図19Cは、シン
クブロックの構成を概略的に示す。シンクブロックは、
同期検出するためのSYNCパターン、シンクブロック
のそれぞれを識別するためのID、後続するデータの内
容を示すDID、データパケットおよびエラー訂正用の
内符号パリティから構成される。データは、シンクブロ
ック単位でパケットとして扱われる。すなわち、記録あ
るいは再生されるデータ単位の最小のものが1シンクブ
ロックである。シンクブロックが多数並べられて(図1
9B)、例えばビデオセクタが形成される。
As shown in FIG. 19B, the data recorded on the tape is composed of a plurality of blocks called sync blocks which are divided at equal intervals. FIG. 19C schematically shows the structure of a sync block. The sync block is
It is composed of a SYNC pattern for detecting synchronization, an ID for identifying each sync block, a DID indicating the content of subsequent data, a data packet and an inner code parity for error correction. Data is handled as a packet in sync block units. That is, the smallest data unit to be recorded or reproduced is one sync block. Many sync blocks are lined up (Fig. 1
9B), for example a video sector is formed.

【0093】図19Dは、システム領域SYSの一例の
データ構成を示す。図19Cに示されるシンクブロック
中のデータ領域において、先頭から、システムデータに
5バイト、MPEGヘッダに2バイト、ピクチャ情報に
10バイト、ユーザデータに92バイトがそれぞれ割り
当てられる。
FIG. 19D shows an example of the data structure of the system area SYS. In the data area in the sync block shown in FIG. 19C, 5 bytes are allocated to the system data, 2 bytes to the MPEG header, 10 bytes to the picture information, and 92 bytes to the user data from the beginning.

【0094】システムデータには、スイッチング点の有
無およびその位置、ビデオのフォーマット(フレーム周
波数、インターリーブ方法、アスペクト比など)、シャ
フリングのバージョン情報などが記録される。また、シ
ステムデータには、記録されたMPEG ESのシンタ
クスの適正レベルが6ビットを用いて記録される。
In the system data, the presence or absence of switching points and their positions, video formats (frame frequency, interleaving method, aspect ratio, etc.), shuffling version information, etc. are recorded. Further, in the system data, an appropriate level of the recorded MPEG ES syntax is recorded using 6 bits.

【0095】MPEGヘッダは、シャトル再生時に必要
なMPEGのヘッダ情報が記録される。ピクチャ情報に
は、他のディジタルVTRとの互換性を保つための情報
が記録される。さらに、ユーザデータには、記録の年月
日やカセット番号などが記録される。
In the MPEG header, MPEG header information necessary for shuttle reproduction is recorded. Information for maintaining compatibility with other digital VTRs is recorded in the picture information. Further, the date of recording and the cassette number are recorded in the user data.

【0096】図18の説明に戻り、再生時には、磁気テ
ープ112から回転ドラム111で再生された再生信号
が再生アンプなどを含むイコライザ110の再生側の構
成に供給される。イコライザ110では、再生信号に対
して、等化や波形整形などがなされる。また、ディジタ
ル変調の復調、ビタビ復号等が必要に応じてなされる。
イコライザ110の出力は、ECCデコーダ113に供
給される。
Returning to the explanation of FIG. 18, at the time of reproduction, the reproduction signal reproduced from the magnetic tape 112 on the rotary drum 111 is supplied to the reproduction side structure of the equalizer 110 including a reproduction amplifier and the like. The equalizer 110 performs equalization and waveform shaping on the reproduced signal. In addition, demodulation of digital modulation, Viterbi decoding and the like are performed as necessary.
The output of the equalizer 110 is supplied to the ECC decoder 113.

【0097】ECCデコーダ113は、上述したECC
エンコーダ109と逆の処理を行うもので、大容量のメ
インメモリと、内符号デコーダ、オーディオ用およびビ
デオ用それぞれのデシャフリング部ならびに外符号デコ
ーダを含む。さらに、ECCデコーダ113は、ビデオ
用として、デシャフリングおよびデパッキング部、デー
タ補間部を含む。同様に、オーディオ用として、オーデ
ィオAUX分離部とデータ補間部を含む。ECCデコー
ダ113は、例えば1個の集積回路で構成される。
The ECC decoder 113 uses the ECC described above.
It performs a process reverse to that of the encoder 109, and includes a large-capacity main memory, an inner code decoder, audio and video deshuffling units, and an outer code decoder. Further, the ECC decoder 113 includes a deshuffling and depacking unit and a data interpolation unit for video. Similarly, for audio, an audio AUX separation unit and a data interpolation unit are included. The ECC decoder 113 is composed of, for example, one integrated circuit.

【0098】ECCデコーダ113における処理につい
て説明する。ECCデコーダ113では、先ず、同期検
出を行いシンクブロックの先頭に付加されている同期信
号を検出し、シンクブロックを切り出す。データは、再
生データは、シンクブロック毎に内符号エンコーダに供
給され、内符号のエラー訂正がなされる。内符号エンコ
ーダの出力に対してID補間処理がなされ、内符号によ
りエラーとされたシンクブロックのID例えばシンクブ
ロック番号が補間される。IDが補間された再生データ
は、ビデオデータとオーディオデータとに分離される。
The processing in the ECC decoder 113 will be described. The ECC decoder 113 first performs synchronization detection, detects a synchronization signal added to the head of the sync block, and cuts out the sync block. The reproduced data is supplied to the inner code encoder for each sync block, and the inner code is error-corrected. ID interpolation processing is performed on the output of the inner code encoder, and the ID of the sync block that has been determined to be an error by the inner code, for example, the sync block number is interpolated. The reproduction data in which the ID is interpolated is separated into video data and audio data.

【0099】上述したように、ビデオデータは、MPE
Gのイントラ符号化で発生したDCT係数データおよび
システムデータを意味し、オーディオデータは、PCM
(Pulse Code Modulation) データおよびオーディオAU
Xを意味する。
As described above, the video data is MPE
It means DCT coefficient data and system data generated by G intra-coding, and audio data is PCM.
(Pulse Code Modulation) Data and audio AU
Means X.

【0100】分離されたオーディオデータは、オーディ
オ用デシャフリング部に供給され、記録側のシャフリン
グ部でなされたシャフリングと逆の処理を行う。デシャ
フリング部の出力がオーディオ用の外符号デコーダに供
給され、外符号によるエラー訂正がなされる。オーディ
オ用の外符号デコーダからは、エラー訂正されたオーデ
ィオデータが出力される。訂正できないエラーがあるデ
ータに関しては、エラーフラグがセットされる。
The separated audio data is supplied to the audio deshuffling section, and the processing opposite to the shuffling performed in the recording side shuffling section is performed. The output of the deshuffling unit is supplied to the outer code decoder for audio, and error correction is performed by the outer code. Error-corrected audio data is output from the audio outer code decoder. An error flag is set for data with uncorrectable errors.

【0101】オーディオ用の外符号デコーダの出力か
ら、オーディオAUX分離部でオーディオAUXが分離
され、分離されたオーディオAUXがECCデコーダ1
13から出力される(経路は省略する)。オーディオA
UXは、例えば後述するシスコン121に供給される。
また、オーディオデータは、データ補間部に供給され
る。データ補間部では、エラーの有るサンプルが補間さ
れる。補間方法としては、時間的に前後の正しいデータ
の平均値で補間する平均値補間、前の正しいサンプルの
値をホールドする前値ホールド等を使用できる。
The audio AUX separating unit separates the audio AUX from the output of the outer code decoder for audio, and the separated audio AUX is the ECC decoder 1
13 is output (the route is omitted). Audio A
The UX is supplied to, for example, the syscon 121 described later.
Also, the audio data is supplied to the data interpolation unit. The data interpolating unit interpolates a sample having an error. As the interpolation method, average value interpolation for interpolating with the average value of correct data before and after temporally, previous value hold for holding the value of the previous correct sample, and the like can be used.

【0102】データ補間部の出力がECCデコーダ11
3からのオーディオデータの出力であって、ECCデコ
ーダ113から出力されたオーディオデータは、ディレ
イ117およびSDTI出力部115に供給される。デ
ィレイ117は、後述するMPEGデコーダ116での
ビデオデータの処理による遅延を吸収するために設けら
れる。ディレイ117に供給されたオーディオデータ
は、所定の遅延を与えられて、SDI出力部118に供
給される。
The output of the data interpolation unit is the ECC decoder 11
Audio data output from the ECC decoder 113 is output to the delay 117 and the SDTI output unit 115. The delay 117 is provided to absorb a delay due to processing of video data by the MPEG decoder 116 described later. The audio data supplied to the delay 117 is given a predetermined delay and then supplied to the SDI output unit 118.

【0103】分離されたビデオデータは、デシャフリン
グ部に供給され、記録側のシャフリングと逆の処理がな
される。デシャフリング部は、記録側のシャフリング部
でなされたシンクブロック単位のシャフリングを元に戻
す処理を行う。デシャフリング部の出力が外符号デコー
ダに供給され、外符号によるエラー訂正がなされる。訂
正できないエラーが発生した場合には、エラーの有無を
示すエラーフラグがエラー有りを示すものとされる。
The separated video data is supplied to the deshuffling section and processed in the reverse of the shuffling on the recording side. The deshuffling unit restores the shuffling in sync block units performed by the shuffling unit on the recording side. The output of the deshuffling unit is supplied to the outer code decoder, and error correction is performed using the outer code. When an uncorrectable error occurs, an error flag indicating the presence / absence of an error indicates that there is an error.

【0104】外符号デコーダの出力がデシャフリングお
よびデパッキング部に供給される。デシャフリングおよ
びデパッキング部は、記録側のパッキングおよびシャフ
リング部でなされたマクロブロック単位のシャフリング
を元に戻す処理を行う。また、デシャフリングおよびデ
パッキング部では、記録時に施されたパッキングを分解
する。すなわち、マクロブロック単位にデータの長さを
戻して、元の可変長符号を復元する。さらに、デシャフ
リングおよびデパッキング部において、システムデータ
が分離され、ECCデコーダ113から出力され、後述
するシスコン121に供給される。
The output of the outer code decoder is supplied to the deshuffling and depacking section. The deshuffling and depacking unit performs a process of returning the shuffling performed in the packing and shuffling units on the recording side in macroblock units. In the deshuffling and depacking section, the packing applied during recording is disassembled. That is, the length of data is returned in units of macroblocks to restore the original variable length code. Further, in the deshuffling and depacking unit, the system data is separated, output from the ECC decoder 113, and supplied to the syscon 121 described later.

【0105】デシャフリングおよびデパッキング部の出
力は、データ補間部に供給され、エラーフラグが立って
いる(すなわち、エラーのある)データが修整される。
すなわち、変換前に、マクロブロックデータの途中にエ
ラーがあるとされた場合には、エラー箇所以降の周波数
成分のDCT係数が復元できない。そこで、例えばエラ
ー箇所のデータをブロック終端符号(EOB)に置き替
え、それ以降の周波数成分のDCT係数をゼロとする。
同様に、高速再生時にも、シンクブロック長に対応する
長さまでのDCT係数のみを復元し、それ以降の係数
は、ゼロデータに置き替えられる。さらに、データ補間
部では、ビデオデータの先頭に付加されているヘッダが
エラーの場合に、ヘッダ(シーケンスヘッダ、GOPヘ
ッダ、ピクチャヘッダ、ユーザデータ等)を回復する処
理もなされる。
The output of the deshuffling and depacking unit is supplied to the data interpolating unit, and the data having an error flag (that is, having an error) is corrected.
That is, if it is determined that there is an error in the middle of the macroblock data before conversion, the DCT coefficient of the frequency component after the error location cannot be restored. Therefore, for example, the data at the error location is replaced with a block end code (EOB), and the DCT coefficient of the frequency components thereafter is set to zero.
Similarly, even during high-speed reproduction, only the DCT coefficients up to the length corresponding to the sync block length are restored, and the coefficients after that are replaced with zero data. Further, the data interpolating unit also performs processing for recovering the header (sequence header, GOP header, picture header, user data, etc.) when the header added to the beginning of the video data is in error.

【0106】DCTブロックに跨がって、DCT係数が
DC成分および低域成分から高域成分へと並べられてい
るため、このように、ある箇所以降からDCT係数を無
視しても、マクロブロックを構成するDCTブロックの
それぞれに対して、満遍なくDCならびに低域成分から
のDCT係数を行き渡らせることができる。
Since the DCT coefficients are arranged from the DC component and the low frequency component to the high frequency component across the DCT block, even if the DCT coefficient is ignored from a certain point onward, the macro block It is possible to evenly distribute DCT coefficients from DC and low-frequency components to each of the DCT blocks constituting the.

【0107】データ補間部から出力されたビデオデータ
がECCデコーダ113の出力であって、ECCデコー
ダ113の出力は、再生側のマルチフォーマットコンバ
ータ(以下、再生側MFCと略称する)114に供給さ
れる。再生側MFC114は、上述した記録側MFC1
06と逆の処理を行うものであって、ストリームコンバ
ータを含む。再生側MFC114は、例えば1個の集積
回路で構成される。
The video data output from the data interpolating unit is the output of the ECC decoder 113, and the output of the ECC decoder 113 is supplied to a multi-format converter on the reproducing side (hereinafter abbreviated as MFC on the reproducing side) 114. . The reproduction side MFC 114 is the recording side MFC 1 described above.
It performs the reverse processing of 06 and includes a stream converter. The reproducing MFC 114 is composed of, for example, one integrated circuit.

【0108】ストリームコンバータでは、記録側のスト
リームコンバータと逆の処理がなされる。すなわち、D
CTブロックに跨がって周波数成分毎に並べられていた
DCT係数を、DCTブロック毎に並び替える。これに
より、再生信号がMPEG2に準拠したエレメンタリス
トリームに変換される。
The stream converter performs the reverse process of the recording side stream converter. That is, D
The DCT coefficients that were arranged for each frequency component across the CT blocks are rearranged for each DCT block. As a result, the reproduction signal is converted into an MPEG2-compliant elementary stream.

【0109】また、ストリームコンバータの入出力は、
記録側と同様に、マクロブロックの最大長に応じて、十
分な転送レート(バンド幅)を確保しておく。マクロブ
ロック(スライス)の長さを制限しない場合には、画素
レートの3倍のバンド幅を確保するのが好ましい。
The input / output of the stream converter is
Similar to the recording side, a sufficient transfer rate (bandwidth) is secured according to the maximum length of the macroblock. When the length of the macro block (slice) is not limited, it is preferable to secure a bandwidth that is three times the pixel rate.

【0110】ストリームコンバータの出力が再生側MF
C114の出力である。再生側MFC114の出力は、
EEパス側との経路を切り換えるスイッチ回路551の
他方の入力端に供給される。スイッチ回路551の出力
は、SDTI出力部115およびMPEGデコーダ11
6に供給される。
The output of the stream converter is the reproduction side MF.
This is the output of C114. The output of the MFC 114 on the playback side is
It is supplied to the other input end of the switch circuit 551 that switches the path to the EE path side. The output of the switch circuit 551 is the output of the SDTI output unit 115 and the MPEG decoder 11.
6 is supplied.

【0111】MPEGデコーダ116は、エレメンタリ
ストリームを復号し、ビデオデータを出力する。すなわ
ち、MPEGデコーダ142は、逆量子化処理と、逆D
CT処理とがなされる。復号ビデオデータは、EEパス
側との経路を切り換えるスイッチ回路550を介してS
DI出力部118に供給される。上述したように、SD
I出力部118には、ECCデコーダ113でビデオデ
ータと分離されたオーディオデータがディレイ117を
介して供給されている。SDI出力部118では、供給
されたビデオデータとオーディオデータとを、SDIの
フォーマットにマッピングし、SDIフォーマットのデ
ータ構造を有するストリームへ変換される。SDI出力
部118からのストリームが出力端子120から外部へ
出力される。
The MPEG decoder 116 decodes the elementary stream and outputs video data. That is, the MPEG decoder 142 performs the inverse quantization process and the inverse D
CT processing is performed. The decoded video data is sent to the S through the switch circuit 550 that switches the path to the EE path side.
It is supplied to the DI output unit 118. As mentioned above, SD
The audio data separated from the video data by the ECC decoder 113 is supplied to the I output unit 118 via the delay 117. The SDI output unit 118 maps the supplied video data and audio data into an SDI format and converts the stream into a stream having a data structure of the SDI format. The stream from the SDI output unit 118 is output from the output terminal 120 to the outside.

【0112】一方、SDTI出力部115には、上述し
たように、ECCデコーダ113でビデオデータと分離
されたオーディオデータが供給されている。SDTI出
力部115では、供給された、エレメンタリストリーム
としてのビデオデータと、オーディオデータとをSDT
Iのフォーマットにマッピングし、SDTIフォーマッ
トのデータ構造を有するストリームへ変換される。変換
されたストリームは、出力端子119から外部へ出力さ
れる。
On the other hand, the SDTI output section 115 is supplied with the audio data separated from the video data by the ECC decoder 113 as described above. The SDTI output unit 115 receives the SDT of the supplied video data as an elementary stream and audio data.
It is mapped to the I format and converted into a stream having a data structure of the SDTI format. The converted stream is output from the output terminal 119 to the outside.

【0113】図18において、シスコン121は、例え
ばマイクロコンピュータからなり、この記録再生装置の
全体の動作を制御する。また、図示されないコントロー
ルパネルに設けられたスイッチ類が操作されると、操作
に応じた制御信号がシスコン121に供給される。この
制御信号に基づき、この記録再生装置での記録、再生な
どの動作がシスコン121により制御される。
In FIG. 18, the syscon 121 is composed of, for example, a microcomputer and controls the overall operation of this recording / reproducing apparatus. Further, when switches provided on a control panel (not shown) are operated, a control signal corresponding to the operation is supplied to the sys-con 121. Based on this control signal, the syscon 121 controls operations such as recording and reproducing in this recording / reproducing apparatus.

【0114】さらに、コントロールパネルには、LCD
(Liquid Crystal Display)などによる表示部を設けるこ
とができる(図示しない)。シスコン121において生
成された表示制御信号に基づき、表示部に所定の表示が
なされる。この記録再生装置の各状態などが、表示部に
表示される。
Further, the control panel has an LCD
A display unit such as (Liquid Crystal Display) can be provided (not shown). Based on the display control signal generated by the system controller 121, a predetermined display is displayed on the display unit. Each state of the recording / reproducing apparatus is displayed on the display unit.

【0115】サーボ122は、シスコン121と互いに
通信を行いながら、磁気テープ112の走行制御や回転
ドラム111の駆動制御などを行う。
The servo 122 controls the running of the magnetic tape 112 and the drive of the rotary drum 111 while communicating with the system controller 121.

【0116】図20Aは、MPEGエンコーダ102の
DCT回路から出力されるビデオデータ中のDCT係数
の順序を示す。SDTI受信部108から出力されるM
PEG ESについても同様である。以下では、MPE
Gエンコーダ102の出力を例に用いて説明する。DC
Tブロックにおいて左上のDC成分から開始して、水平
ならびに垂直空間周波数が高くなる方向に、DCT係数
がジグザグスキャンで出力される。その結果、図20B
に一例が示されるように、全部で64個(8画素×8ラ
イン)のDCT係数が周波数成分順に並べられて得られ
る。
FIG. 20A shows the order of DCT coefficients in the video data output from the DCT circuit of the MPEG encoder 102. M output from the SDTI receiving unit 108
The same applies to PEG ES. In the following, MPE
The output of the G encoder 102 will be described as an example. DC
Starting from the DC component at the upper left of the T block, DCT coefficients are output in a zigzag scan in the direction in which the horizontal and vertical spatial frequencies increase. As a result, FIG.
As shown in FIG. 1, a total of 64 (8 pixels × 8 lines) DCT coefficients are arranged in order of frequency components.

【0117】このDCT係数がMPEGエンコーダのV
LC部によって可変長符号化される。すなわち、最初の
係数は、DC成分として固定的であり、次の成分(AC
成分)からは、ゼロのランとそれに続くレベルに対応し
てコードが割り当てられる。従って、AC成分の係数デ
ータに対する可変長符号化出力は、周波数成分の低い
(低次の)係数から高い(高次の)係数へと、AC1
AC2 ,AC3 ,・・・と並べられたものである。可変
長符号化されたDCT係数をエレメンタリストリームが
含んでいる。
This DCT coefficient is the V of the MPEG encoder.
Variable length coding is performed by the LC unit. That is, the first coefficient is fixed as the DC component and the second component (AC
Component), a code is assigned corresponding to a run of zeros and subsequent levels. Therefore, the variable-length coded output for the coefficient data of the AC component is such that the coefficient of the frequency component is low (low order) to high (high order), AC 1 ,
AC 2 , AC 3 , ... Are arranged. The elementary stream includes DCT coefficients that have been variable-length coded.

【0118】上述した記録側MFC106に内蔵され
る、記録側のストリームコンバータでは、供給された信
号のDCT係数の並べ替えが行われる。すなわち、それ
ぞれのマクロブロック内で、ジグザグスキャンによって
DCTブロック毎に周波数成分順に並べられたDCT係
数がマクロブロックを構成する各DCTブロックにわた
って周波数成分順に並べ替えられる。
The recording-side stream converter built in the recording-side MFC 106 described above sorts the DCT coefficients of the supplied signals. That is, in each macroblock, the DCT coefficients arranged in the frequency component order in each DCT block by the zigzag scan are rearranged in the frequency component order in each DCT block forming the macroblock.

【0119】図21は、この記録側ストリームコンバー
タにおけるDCT係数の並べ替えを概略的に示す。
(4:2:2)コンポーネント信号の場合に、1マクロ
ブロックは、輝度信号Yによる4個のDCTブロック
(Y1 ,Y2 ,Y3 およびY4 )と、色度信号Cb,C
rのそれぞれによる2個ずつのDCTブロック(C
1 ,Cb2 ,Cr1 およびCr2 )からなる。
FIG. 21 schematically shows rearrangement of DCT coefficients in this recording side stream converter.
In the case of a (4: 2: 2) component signal, one macroblock includes four DCT blocks (Y 1 , Y 2 , Y 3 and Y 4 ) based on the luminance signal Y and chromaticity signals Cb and C.
Two DCT blocks (C
b 1 , Cb 2 , Cr 1 and Cr 2 ).

【0120】上述したように、MPEGエンコーダ10
2では、MPEG2の規定に従いジグザグスキャンが行
われ、図21Aに示されるように、各DCTブロック毎
に、DCT係数がDC成分および低域成分から高域成分
に、周波数成分の順に並べられる。一つのDCTブロッ
クのスキャンが終了したら、次のDCTブロックのスキ
ャンが行われ、同様に、DCT係数が並べられる。
As described above, the MPEG encoder 10
In 2, the zigzag scan is performed in accordance with the regulations of MPEG2, and as shown in FIG. 21A, the DCT coefficients are arranged in order from the DC component and the low frequency component to the high frequency component in the order of the frequency component for each DCT block. When the scan of one DCT block is completed, the scan of the next DCT block is performed, and the DCT coefficients are arranged in the same manner.

【0121】すなわち、マクロブロック内で、DCTブ
ロックY1 ,Y2 ,Y3 およびY4、DCTブロックC
1 ,Cb2 ,Cr1 およびCr2 のそれぞれについ
て、DCT係数がDC成分および低域成分から高域成分
へと周波数順に並べられる。そして、連続したランとそ
れに続くレベルとからなる組に、〔DC,AC1 ,AC
2 ,AC3 ,・・・〕と、それぞれ符号が割り当てられ
るように、可変長符号化されている。
That is, in the macroblock, the DCT block is
Lock Y1, Y2, Y3And YFour, DCT block C
b1, Cb2, Cr1And Cr2For each of
The DCT coefficient is from DC component and low frequency component to high frequency component
Are arranged in order of frequency. And a series of runs
In the set consisting of the following level, [DC, AC1, AC
2, AC3, ...]
As described above, variable length coding is performed.

【0122】記録側ストリームコンバータでは、可変長
符号化され並べられたDCT係数を、一旦可変長符号を
解読して各係数の区切りを検出し、マクロブロックを構
成する各DCTブロックに跨がって周波数成分毎にまと
める。この様子を、図21Bに示す。最初にマクロブロ
ック内の8個のDCTブロックのDC成分をまとめ、次
に8個のDCTブロックの最も周波数成分が低いAC係
数成分をまとめ、以下、順に同一次数のAC係数をまと
めるように、8個のDCTブロックに跨がって係数デー
タを並び替える。
In the recording side stream converter, the variable length coded and arranged DCT coefficients are once decoded to detect the delimiter of each coefficient, and the DCT coefficients are straddled across the DCT blocks constituting the macroblock. Collect by frequency component. This is shown in FIG. 21B. First, the DC components of the eight DCT blocks in the macroblock are grouped together, then the AC coefficient components having the lowest frequency components of the eight DCT blocks are grouped together, and hereinafter, the AC coefficients of the same order are grouped in order. The coefficient data is rearranged across the DCT blocks.

【0123】並び替えられた係数データは、DC
(Y1 ),DC(Y2 ),DC(Y3 ),DC
(Y4 ),DC(Cb1 ),DC(Cb2 ),DC(C
1 ),DC(Cr 2 ),AC1 (Y1 ),AC1 (Y
2 ),AC1 (Y3 ),AC1 (Y4 ),AC1 (Cb
1 ),AC1 (Cb2 ),AC1 (Cr1 ),AC
1 (Cr2 ),・・・である。ここで、DC、AC1
AC2 、・・・は、図20を参照して説明したように、
ランとそれに続くレベルとからなる組に対して割り当て
られた可変長符号の各符号である。
The rearranged coefficient data is DC
(Y1), DC (Y2), DC (Y3), DC
(YFour), DC (Cb1), DC (Cb2), DC (C
r1), DC (Cr 2), AC1(Y1), AC1(Y
2), AC1(Y3), AC1(YFour), AC1(Cb
1), AC1(Cb2), AC1(Cr1), AC
1(Cr2), ... Where DC, AC1,
AC2, ..., as described with reference to FIG.
Assigned to a set of runs followed by levels
These are respective codes of the generated variable length code.

【0124】記録側ストリームコンバータで係数データ
の順序が並べ替えられた変換エレメンタリストリーム
は、ECCエンコーダ109に内蔵されるパッキングお
よびシャフリング部に供給される。マクロブロックのデ
ータの長さは、変換エレメンタリストリームと変換前の
エレメンタリストリームとで同一である。また、MPE
Gエンコーダ102において、ビットレート制御により
GOP(1フレーム)単位に固定長化されていても、マ
クロブロック単位では、長さが変動している。パッキン
グおよびシャフリング部では、マクロブロックのデータ
を固定枠に当てはめる。
The converted elementary stream in which the order of the coefficient data is rearranged by the recording side stream converter is supplied to the packing and shuffling section built in the ECC encoder 109. The length of the data of the macroblock is the same in the converted elementary stream and the elementary stream before conversion. Also, MPE
Even if the G encoder 102 has a fixed length in GOP (1 frame) units by bit rate control, the length varies in macro block units. In the packing and shuffling section, macro block data is applied to a fixed frame.

【0125】図22は、パッキングおよびシャフリング
部でのマクロブロックのパッキング処理を概略的に示
す。マクロブロックは、所定のデータ長を持つ固定枠に
当てはめられ、パッキングされる。このとき用いられる
固定枠のデータ長を、記録および再生の際のデータの最
小単位であるシンクブロックのデータ長と一致させてい
る。これは、シャフリングおよびエラー訂正符号化の処
理を簡単に行うためである。図22では、簡単のため、
1フレームに8マクロブロックが含まれるものと仮定す
る。
FIG. 22 schematically shows the packing process of macroblocks in the packing and shuffling section. The macroblock is fitted into a fixed frame having a predetermined data length and packed. The data length of the fixed frame used at this time is matched with the data length of the sync block which is the minimum unit of data at the time of recording and reproducing. This is because the shuffling and error correction coding processes are easily performed. In FIG. 22, for simplicity,
Assume that one frame contains 8 macroblocks.

【0126】可変長符号化によって、図22Aに一例が
示されるように、8マクロブロックの長さは、互いに異
なる。この例では、固定枠である1シンクブロックのデ
ータ領域の長さと比較して、マクロブロック#1のデー
タ,#3のデータおよび#6のデータがそれぞれ長く、
マクロブロック#2のデータ,#5のデータ,#7のデ
ータおよび#8のデータがそれぞれ短い。また、マクロ
ブロック#4のデータは、1シンクブロックと略等しい
長さである。
Due to the variable length coding, as shown in FIG. 22A, the lengths of eight macroblocks are different from each other. In this example, the data of macroblock # 1, the data of # 3, and the data of # 6 are longer than the length of the data area of one sync block, which is a fixed frame.
The macroblock # 2 data, # 5 data, # 7 data, and # 8 data are short. The data of the macro block # 4 has a length substantially equal to that of one sync block.

【0127】パッキング処理によって、マクロブロック
が1シンクブロック長の固定長枠に詰め込まれる。過不
足無くデータを詰め込むことができるのは、1フレーム
期間で発生するデータ量が固定量に制御されているから
である。図22Bに一例が示されるように、1シンクブ
ロックと比較して長いマクロブロックは、シンクブロッ
ク長に対応する位置で分割される。分割されたマクロブ
ロックのうち、シンクブロック長からはみ出た部分(オ
ーバーフロー部分)は、先頭から順に空いている領域
に、すなわち、長さがシンクブロック長に満たないマク
ロブロックの後ろに、詰め込まれる。
By the packing processing, macroblocks are packed in a fixed length frame having a length of one sync block. Data can be packed without excess or deficiency because the amount of data generated in one frame period is controlled to be a fixed amount. As shown in an example in FIG. 22B, a macro block longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, a portion (overflow portion) protruding from the sync block length is packed in an area that is vacant in order from the beginning, that is, after the macroblock whose length is less than the sync block length.

【0128】図22Bの例では、マクロブロック#1
の、シンクブロック長からはみ出た部分が、先ず、マク
ロブロック#2の後ろに詰め込まれ、そこがシンクブロ
ックの長さに達すると、マクロブロック#5の後ろに詰
め込まれる。次に、マクロブロック#3の、シンクブロ
ック長からはみ出た部分がマクロブロック#7の後ろに
詰め込まれる。さらに、マクロブロック#6のシンクブ
ロック長からはみ出た部分がマクロブロック#7の後ろ
に詰め込まれ、さらにはみ出た部分がマクロブロック#
8の後ろに詰め込まれる。こうして、各マクロブロック
がシンクブロック長の固定枠に対してパッキングされ
る。
In the example of FIG. 22B, macroblock # 1
First, the part that is out of the sync block length is packed after the macro block # 2, and when it reaches the sync block length, it is packed after the macro block # 5. Next, the part of the macro block # 3 that extends beyond the sync block length is packed behind the macro block # 7. Further, the portion of the macroblock # 6 that extends beyond the sync block length is packed behind the macroblock # 7, and the portion that extends further out of the macroblock # 7.
It is packed behind 8. In this way, each macro block is packed in the fixed frame having the sync block length.

【0129】各マクロブロックに対応する可変長データ
の長さは、記録側ストリームコンバータにおいて予め調
べておくことができる。これにより、このパッキング部
では、VLCデータをデコードして内容を検査すること
無く、マクロブロックのデータの最後尾を知ることがで
きる。
The length of the variable length data corresponding to each macroblock can be checked in advance by the recording side stream converter. As a result, the packing unit can know the end of the macroblock data without decoding the VLC data and inspecting the contents.

【0130】図23は、上述したECCエンコーダ13
9のより具体的な構成を示す。図23において、164
がICに対して外付けのメインメモリ160のインター
フェースである。メインメモリ160は、SDRAMで
構成されている。インターフェース164によって、内
部からのメインメモリ160に対する要求を調停し、メ
インメモリ160に対して書込み/読出しの処理を行
う。また、パッキング部137a、ビデオシャフリング
部137b、パッキング部137cによって、パッキン
グおよびシャフリング部137が構成される。
FIG. 23 shows the ECC encoder 13 described above.
9 shows a more specific configuration. In FIG. 23, 164
Is an interface of the main memory 160 external to the IC. The main memory 160 is composed of SDRAM. The interface 164 arbitrates requests from the inside to the main memory 160, and performs write / read processing on the main memory 160. In addition, the packing section 137a, the video shuffling section 137b, and the packing section 137c constitute a packing and shuffling section 137.

【0131】図24は、メインメモリ160のアドレス
構成の一例を示す。メインメモリ160は、例えば64
MビットのSDRAMで構成される。メインメモリ16
0は、ビデオ領域250、オーバーフロー領域251お
よびオーディオ領域252を有する。ビデオ領域250
は、4つのバンク(vbank#0、vbank#1、
vbank#2およびvbank#3)からなる。4バ
ンクのそれぞれは、1等長化単位のディジタルビデオ信
号が格納できる。1等長化単位は、発生するデータ量を
略目標値に制御する単位であり、例えばビデオ信号の1
ピクチャ(Iピクチャ)である。図24中の、部分A
は、ビデオ信号の1シンクブロックのデータ部分を示
す。1シンクブロックには、フォーマットによって異な
るバイト数のデータが挿入される。複数のフォーマット
に対応するために、最大のバイト数以上であって、処理
に都合の良いバイト数例えば256バイトが1シンクブ
ロックのデータサイズとされている。
FIG. 24 shows an example of the address configuration of the main memory 160. The main memory 160 is, for example, 64
It is composed of an M-bit SDRAM. Main memory 16
0 has a video area 250, an overflow area 251, and an audio area 252. Video area 250
Are four banks (vbank # 0, vbank # 1,
vbank # 2 and vbank # 3). Each of the four banks can store a digital video signal in one equal length unit. The 1-equalization unit is a unit for controlling the amount of generated data to a substantially target value, for example, 1 of a video signal
It is a picture (I picture). Part A in FIG. 24
Indicates the data portion of one sync block of the video signal. Data of a different number of bytes is inserted in one sync block depending on the format. In order to support a plurality of formats, the number of bytes which is more than the maximum number and is convenient for processing, for example 256 bytes, is the data size of one sync block.

【0132】ビデオ領域の各バンクは、さらに、パッキ
ング用領域250Aと内符号化エンコーダへの出力用領
域250Bとに分けられる。オーバーフロー領域251
は、上述のビデオ領域に対応して、4つのバンクからな
る。さらに、オーディオデータ処理用の領域252をメ
インメモリ160が有する。
Each bank of the video area is further divided into a packing area 250A and an output area 250B to the inner coding encoder. Overflow area 251
Corresponds to the above-mentioned video area and is composed of four banks. Further, the main memory 160 has a region 252 for processing audio data.

【0133】この実施の第1の形態では、各マクロブロ
ックのデータ長標識を参照することによって、パッキン
グ部137aが固定枠長データと、固定枠を越える部分
であるオーバーフローデータとをメインメモリ160の
別々の領域に分けて記憶する。固定枠長データは、シン
クブロックのデータ領域の長さ以下のデータであり、以
下、ブロック長データと称する。ブロック長データを記
憶する領域は、各バンクのパッキング処理用領域250
Aである。ブロック長より短いデータ長の場合には、メ
インメモリ160の対応する領域に空き領域を生じる。
ビデオシャフリング部137bが書込みアドレスを制御
することによってシャフリングを行う。ここで、ビデオ
シャフリング部137bは、ブロック長データのみをシ
ャフリングし、オーバーフロー部分は、シャフリングせ
ずに、オーバーフローデータに割り当てられた領域に書
込まれる。
In the first embodiment, by referring to the data length indicator of each macroblock, the packing unit 137a stores the fixed frame length data and the overflow data which is a portion beyond the fixed frame in the main memory 160. Store in separate areas. The fixed frame length data is data that is equal to or shorter than the length of the data area of the sync block, and is hereinafter referred to as block length data. The area for storing the block length data is the packing processing area 250 of each bank.
It is A. When the data length is shorter than the block length, an empty area is created in the corresponding area of the main memory 160.
The video shuffling unit 137b performs shuffling by controlling the write address. Here, the video shuffling unit 137b shuffles only the block length data, and the overflow part is written in the area assigned to the overflow data without being shuffled.

【0134】次に、パッキング部137cが外符号エン
コーダ139へのメモリにオーバーフロー部分をパッキ
ングして読み込む処理を行う。すなわち、メインメモリ
160から外符号エンコーダ139に用意されている1
ECCブロック分のメモリに対してブロック長のデータ
を読み込み、若し、ブロック長のデータに空き領域が有
れば、そこにオーバーフロー部分を読み込んでブロック
長にデータが詰まるようにする。そして、1ECCブロ
ック分のデータを読み込むと、読み込み処理を一時中断
し、外符号エンコーダ139によって外符号のパリティ
を生成する。外符号パリティは、外符号エンコーダ13
9のメモリに格納する。外符号エンコーダ139の処理
が1ECCブロック分終了すると、外符号エンコーダ1
39からデータおよび外符号パリティを内符号を行う順
序に並び替えて、メインメモリ160のパッキング処理
用領域250Aと別の出力用領域250Bに書き戻す。
ビデオシャフリング部140は、この外符号の符号化が
終了したデータをメインメモリ160へ書き戻す時のア
ドレスを制御することによって、シンクブロック単位の
シャフリングを行う。
Next, the packing unit 137c performs a process of packing the overflow portion into the memory for the outer code encoder 139 and reading it. In other words, 1 prepared from the main memory 160 to the outer code encoder 139
If the block length data is read into the ECC block memory, and if the block length data has a vacant area, the overflow portion is read and the block length is filled with the data. Then, when the data for one ECC block is read, the reading process is temporarily interrupted, and the outer code encoder 139 generates the parity of the outer code. The outer code parity is the outer code encoder 13
9 memory. When the processing of the outer code encoder 139 is completed for one ECC block, the outer code encoder 1
The data and the outer code parity are rearranged from 39 in the order of performing the inner code, and are written back to the packing processing area 250A of the main memory 160 and another output area 250B.
The video shuffling unit 140 performs shuffling in sync block units by controlling the address when writing back the data whose outer code has been encoded to the main memory 160.

【0135】このようにブロック長データとオーバーフ
ローデータとを分けてメインメモリ160の第1の領域
250Aへのデータの書込み(第1のパッキング処
理)、外符号エンコーダ139へのメモリにオーバーフ
ローデータをパッキングして読み込む処理(第2のパッ
キング処理)、外符号パリティの生成、データおよび外
符号パリティをメインメモリ160の第2の領域250
Bに書き戻す処理が1ECCブロック単位でなされる。
外符号エンコーダ139がECCブロックのサイズのメ
モリを備えることによって、メインメモリ160へのア
クセスの頻度を少なくすることができる。
In this way, the block length data and the overflow data are divided and the data is written into the first area 250A of the main memory 160 (first packing processing), and the overflow data is packed into the memory of the outer code encoder 139. Read in (second packing process), outer code parity generation, and data and outer code parity in the second area 250 of the main memory 160.
The process of writing back to B is performed in units of one ECC block.
By providing the outer code encoder 139 with a memory of the size of the ECC block, it is possible to reduce the frequency of access to the main memory 160.

【0136】そして、1ピクチャに含まれる所定数のE
CCブロック(例えば32個のECCブロック)の処理
が終了すると、1ピクチャのパッキング、外符号の符号
化が終了する。そして、インターフェース164を介し
てメインメモリ160の領域250Bから読出したデー
タがID付加部148、内符号エンコーダ147、同期
付加部150で処理され、並列直列変換部124によっ
て、同期付加部150の出力データがビットシリアルデ
ータに変換される。出力されるシリアルデータがパーシ
ャル・レスポンスクラス4のプリコーダ125により処
理される。この出力が必要に応じてディジタル変調さ
れ、記録アンプ110を介して、回転ドラム111に設
けられた回転ヘッドに供給される。
A predetermined number of E's contained in one picture
When the processing of the CC block (for example, 32 ECC blocks) is completed, the packing of one picture and the encoding of the outer code are completed. Then, the data read from the area 250B of the main memory 160 via the interface 164 is processed by the ID addition unit 148, the inner code encoder 147, and the synchronization addition unit 150, and the parallel-serial conversion unit 124 outputs the output data of the synchronization addition unit 150. Is converted to bit serial data. The output serial data is processed by the partial response class 4 precoder 125. This output is digitally modulated as needed, and is supplied to the rotary head provided on the rotary drum 111 via the recording amplifier 110.

【0137】なお、ECCブロック内にヌルシンクと称
する有効なデータが配されないシンクブロックを導入
し、記録ビデオ信号のフォーマットの違いに対してEC
Cブロックの構成の柔軟性を持たせるようになされる。
ヌルシンクは、パッキングおよびシャフリングブロック
137のパッキング部137aにおいて生成され、メイ
ンメモリ160に書込まれる。従って、ヌルシンクがデ
ータ記録領域を持つことになるので、これをオーバーフ
ロー部分の記録用シンクとして使用することができる。
A sync block called null sync, in which effective data is not arranged, is introduced in the ECC block, and the EC is adapted to the difference in the format of the recorded video signal.
The configuration of the C block is made flexible.
The null sync is generated in the packing unit 137 a of the packing and shuffling block 137 and written in the main memory 160. Therefore, since the null sync has a data recording area, this can be used as a recording sync for the overflow portion.

【0138】オーディオデータの場合では、1フィール
ドのオーディオデータの偶数番目のサンプルと奇数番目
のサンプルとがそれぞれ別のECCブロックを構成す
る。ECCの外符号の系列は、入力順序のオーディオサ
ンプルで構成されるので、外符号系列のオーディオサン
プルが入力される毎に外符号エンコーダ136が外符号
パリティを生成する。外符号エンコーダ136の出力を
メインメモリ160の領域252に書込む時のアドレス
制御によって、シャフリング部137がシャフリング
(チャンネル単位およびシンクブロック単位)を行う。
In the case of audio data, even-numbered samples and odd-numbered samples of 1-field audio data form different ECC blocks. Since the ECC outer code sequence is composed of audio samples in the input order, the outer code encoder 136 generates an outer code parity each time an audio sample of the outer code sequence is input. The shuffling unit 137 performs shuffling (channel unit and sync block unit) by address control when writing the output of the outer code encoder 136 into the area 252 of the main memory 160.

【0139】さらに、126で示すCPUインターフェ
ースが設けられ、システムコントローラとして機能する
外部のCPU127からのデータを受け取り、内部ブロ
ックに対してパラメータの設定が可能とされている。複
数のフォーマットに対応するために、シンクブロック
長、パリティ長を始め多くのパラメータを設定すること
が可能とされている。
Further, a CPU interface indicated by 126 is provided to receive data from an external CPU 127 functioning as a system controller and set parameters for internal blocks. In order to support multiple formats, it is possible to set many parameters such as sync block length and parity length.

【0140】パラメータの1つとしての”パッキング長
データ”は、パッキング部137aおよび137bに送
られ、パッキング部137a、137bは、これに基づ
いて決められた固定枠(図22Aで「シンクブロック
長」として示される長さ)にVLCデータを詰め込む。
The "packing length data" as one of the parameters is sent to the packing units 137a and 137b, and the packing units 137a and 137b determine the fixed frame (the "sync block length" in FIG. 22A) based on this. (Length shown as) with VLC data.

【0141】パラメータの1つとしての”パック数デー
タ”は、パッキング部137bに送られ、パッキング部
137bは、これに基づいて1シンクブロック当たりの
パック数を決め、決められたパック数分のデータを外符
号エンコーダ139に供給する。
The "pack number data" as one of the parameters is sent to the packing section 137b, and the packing section 137b determines the number of packs per sync block based on this, and the data for the determined number of packs. Are supplied to the outer code encoder 139.

【0142】パラメータの1つとしての”ビデオ外符号
パリティ数データ”は、外符号エンコーダ139に送ら
れ、外符号エンコーダ139は、これに基づいた数のパ
リティが発声されるビデオデータの外符号の符号化を行
う。
The "video outer code parity number data" as one of the parameters is sent to the outer code encoder 139, and the outer code encoder 139 outputs the outer code of the video data for which the number of parities based on this is output. Encode.

【0143】パラメータの1つとしての”ID情報”お
よび”DID情報”のそれぞれは、ID付加部148に
送られ、ID付加部148は、これらID情報およびD
ID情報をメインメモリ160から読み出された単位長
のデータ列に付加する。
Each of the "ID information" and "DID information" as one of the parameters is sent to the ID adding section 148, and the ID adding section 148 receives the ID information and the DID information.
The ID information is added to the data string of unit length read from the main memory 160.

【0144】パラメータの1つとしての”ビデオ内符号
用パリティ数データ”および”オーディオ内符号用パリ
ティ数データ”のそれぞれは、内符号エンコーダ149
に送られ、内符号エンコーダ149は、これらに基づい
た数のパリティが発生されるビデオデータとオーディオ
データの内符号の符号化を行う。なお、内符号エンコー
ダ149には、パラメータの1つである”シンク長デー
タ”も送られており、これにより、内符号化されたデー
タの単位長(シンク長)が規制される。
Each of the "video inner code parity number data" and the "audio inner code parity number data" as one of the parameters is an inner code encoder 149.
Then, the inner code encoder 149 encodes the inner code of the video data and the audio data for which the number of parities is generated based on them. It should be noted that "sync length data" which is one of the parameters is also sent to the inner code encoder 149, whereby the unit length (sync length) of the inner coded data is regulated.

【0145】また、パラメータの1つとしてのシャフリ
ングテーブルデータがビデオ用シャフリングテーブル
(RAM)128vおよびオーディオ用シャフリングテ
ーブル(RAM)128aに格納される。シャフリング
テーブル128vは、ビデオシャフリング部137bお
よび140のシャフリングのためのアドレス変換を行
う。シャフリングテーブル128aは、オーディオシャ
フリング137のためのアドレス変換を行う。
Further, shuffling table data as one of the parameters is stored in the video shuffling table (RAM) 128v and the audio shuffling table (RAM) 128a. The shuffling table 128v performs address conversion for shuffling the video shuffling units 137b and 140. The shuffling table 128a performs address conversion for the audio shuffling 137.

【0146】次に、上述した、qauntizer_s
cale_codeによる量子化スケールの近似的変換
について説明する。図25は、MPEG2におけるqa
untizer_scale_codeと量子化スケー
ルの関係について示す。左欄に示されるqauntiz
er_scale_codeに対して、右欄に示される
2種類の量子化スケールがそれぞれ対応付けられてお
り、qauntizer_scale_codeにより
それぞれの両詩歌ステップが参照される。右欄左側がス
テップが線形である量子化スケールであって、q_sc
ale_type=0で示される。右欄右側がステップ
が非線形である量子化スケールであって、q_scal
e_type=1で示される。
Next, the above-mentioned qauntizer_s
Approximate conversion of the quantization scale by the call_code will be described. FIG. 25 shows qa in MPEG2.
The relationship between unizer_scale_code and the quantization scale will be shown. Qauntiz shown in the left column
The two types of quantization scales shown in the right column are associated with er_scale_code, and both poetry steps are referenced by quntizer_scale_code. The left side of the right column is the quantization scale with linear steps, and q_sc
It is indicated by ale_type = 0. On the right side of the right column is the quantization scale in which the step is non-linear, and q_scal
It is indicated by e_type = 1.

【0147】q_scale_type=1の、非線形
の量子化スケールは、q_scale_type=0
の、線形の量子化スケールにおける対応するqaunt
izer_scale_codeに対して、値が小さい
領域ではより細かいステップで、値が大きい領域ではよ
り荒いステップで関連付けられている。また、q_sc
ale_type=0では、量子化スケールの最大値が
「64」であるのに対し、q_scale_type=
1では、量子化スケールの最大値が「112」とされて
いる。
The non-linear quantization scale for q_scale_type = 1 is q_scale_type = 0.
Corresponding quantum in the linear quantization scale of
With respect to the izer_scale_code, it is associated with a finer step in a region having a small value and a coarser step in a region having a large value. Also, q_sc
In the case of ale_type = 0, the maximum value of the quantization scale is “64”, whereas q_scale_type =
In No. 1, the maximum value of the quantization scale is “112”.

【0148】これらの量子化スケールは、通常、機器側
で固定的に用いられる。例えばq_scale_typ
e=1のストリームを扱うようにされた機器において
は、図25の右欄右側に示された量子化スケールが固定
的に用いられる。すなわち、入力されたストリーム中の
qauntizer_scale_codeにより、こ
の量子化スケールが参照され、デコードに用いられる。
These quantization scales are usually fixedly used on the device side. For example, q_scale_type
In a device adapted to handle a stream of e = 1, the quantization scale shown on the right side of the right column in FIG. 25 is fixedly used. That is, this quantizer scale is referred to by the quantizer_scale_code in the input stream and used for decoding.

【0149】この実施の一形態では、QSTチェッカ5
30Aにおいて、入力されたMPEG ESのq_sc
ale_typeをチェックし、値が「0」であれば、
QST、QSC書き換え部530Bで、q_scale
_typeの値を「1」に書き換える。それと共に、量
子化スケールがq_scale_type=1、すなわ
ち非線形の量子化スケールに近似化した量子化スケール
になるように、qauntizer_scale_co
deを書き換える。
In this embodiment, the QST checker 5
30A, q_sc of the input MPEG ES
Check ale_type, and if the value is "0",
In the QST and QSC rewriting unit 530B, q_scale
Rewrite the value of _type to "1". At the same time, qquantizer_scale_co is set so that the quantization scale is q_scale_type = 1, that is, the quantization scale approximated to a non-linear quantization scale.
Rewrite de.

【0150】図26は、このq_scale_type
および量子化スケールの書き換えの例を示す。左欄が書
き換え前の、q_scale_type=0におけるq
auntizer_scale_codeおよび量子化
スケールである。右欄がqauntizer_scal
e_codeの書き換え後を示す。q_scale_t
ypeの値が「0」から「1」に書き換えられる。qa
untizer_scale_codeは、左欄右側の
値から右欄左側の値へ、それぞれ書き換えられる。ま
た、右欄において、書き換えられたqauntizer
_scale_codeに対応する、q_scale_
type=1の量子化スケールが左側に示されている。
FIG. 26 shows this q_scale_type.
An example of rewriting the quantization scale will be shown. Q in left column is for q_scale_type = 0 before rewriting
an quantizer scale and an quantizer_scale_code. Right column is quntizer_scal
The figure shows a state after rewriting e_code. q_scale_t
The value of type is rewritten from "0" to "1". qa
The unizer_scale_code is rewritten from the value on the right side of the left column to the value on the left side of the right column. Also, in the right column, the rewritten qauntizer
Q_scale_, which corresponds to _scale_code
The quantization scale of type = 1 is shown on the left.

【0151】例えばQST、QSC書き換え部530B
はメモリを有し、この図26左欄右側と右欄左側に基づ
く変換テーブルがQST、QSC書き換え部530Bの
メモリに予め格納される。QST、QSC書き換え部5
30Bでは、入力されたストリーム中のqauntiz
er_scale_codeに基づきこの変換テーブル
が参照されて、qauntizer_scale_co
deの書き換えが行われる。
For example, the QST and QSC rewriting section 530B
Has a memory, and the conversion table based on the left column right side and the right column left side in FIG. 26 is stored in advance in the memory of the QST and QSC rewriting unit 530B. QST, QSC rewriting section 5
In 30B, qauntiz in the input stream
This conversion table is referred to based on er_scale_code, and quntizer_scale_co
re is rewritten.

【0152】なお、図中、「or」は、両側の2つの値
の何れかを用いることを示し、qauntizer_s
cale_codeと量子化スケールとで対応する側が
用いられる。
In the figure, "or" indicates that either of the two values on both sides is used, and "quntizer_s" is used.
The corresponding side of the call_code and the quantization scale is used.

【0153】このqauntizer_scale_c
odeの書き換えの規則について、説明する。例えば、
q_scale_type=0のストリーム上に、qa
untizer_scale_code=10とされた
マクロブロックが存在した場合を考える。このマクロブ
ロックの量子化スケールは、図26の左欄を参照して、
値が「20」である。
This quntizer_scale_c
The rules for rewriting the ode will be described. For example,
On the stream of q_scale_type = 0, qa
Consider the case where there is a macroblock with unizer_scale_code = 10. For the quantization scale of this macroblock, refer to the left column of FIG.
The value is “20”.

【0154】これを、図26に、左欄右側から右欄左側
への矢印で示されるように、q_scale_type
=1、qauntizer_scale_code=1
4と書き換える。すると、図26右欄に示されるよう
に、qauntizer_scale_code=14
に対応する量子化スケールの値は、書き換える前と同様
に、やはり「20」となる。
This is indicated by q_scale_type as indicated by the arrow from the right side of the left column to the left side of the right column in FIG.
= 1 and quntizer_scale_code = 1
Rewrite as 4. Then, as shown in the right column of FIG. 26, quntizer_scale_code = 14
The value of the quantization scale corresponding to is also "20" as before rewriting.

【0155】また、別の例として、q_scale_t
ype=0のストリーム上に、qauntizer_s
cale_code=17とされたマクロブロックが存
在したとする。このマクロブロックの量子化スケール
は、図26の左欄を参照して、値が「34」である。
As another example, q_scale_t
On the stream of type = 0, quntizer_s
It is assumed that there is a macroblock for which call_code = 17. The quantization scale of this macroblock has a value of "34" with reference to the left column of FIG.

【0156】これを、上述のように図26の矢印に従っ
て、q_scale_type=1、qauntize
r_scale_code=18と書き換える。する
と、図26右欄に示されるように、qauntizer
_scale_code=18に対応する量子化スケー
ルの値は、「32」となる。
As described above, according to the arrow in FIG. 26, q_scale_type = 1, qauntize
Rewrite as r_scale_code = 18. Then, as shown in the right column of FIG. 26, the quntizer
The value of the quantization scale corresponding to _scale_code = 18 is "32".

【0157】また、図中に「or」で並列して示される
ように、q_scale_type=1、qaunti
zer_scale_code=19と書き換えた場合
は、qauntizer_scale_code=18
に対応する量子化スケールの値は、「36」となる。
Also, as shown in parallel with "or" in the figure, q_scale_type = 1, qaunti
When rewritten as zer_scale_code = 19, quntizer_scale_code = 18
The value of the quantization scale corresponding to is 36.

【0158】このように、この別の例では、上述した
{q_scale_type=0、qauntizer
_scale_code=10}と、{q_scale
_type=1、qauntizer_scale_c
ode=14}との関係のような、完全な対応関係では
ないが、最も近い値の量子化スケールで近似することが
できる。
As described above, in this another example, {q_scale_type = 0, qauntizer described above is used.
_Scale_code = 10} and {q_scale
_Type = 1, qauntizer_scale_c
Although it is not a perfect correspondence relationship such as the relationship with ode = 14}, it can be approximated by the nearest quantization scale.

【0159】このように、図26に示される規則に従っ
てq_scale_typeおよびqauntizer
_scale_codeを書き換えることで、q_sc
ale_type=1における量子化スケールを、q_
scale_type=0における量子化スケールに近
似させることができる。
Thus, according to the rules shown in FIG. 26, q_scale_type and qauntizer
By rewriting _scale_code, q_sc
The quantization scale at ale_type = 1 is q_
It can be approximated to the quantization scale at scale_type = 0.

【0160】したがって、q_scale_type=
1とされたMPEG ESを扱うようにされた機器で、
q_scale_type=0として入力されたMPE
GESに対してこの書き換え処理を行うことで、書き換
え処理が行われたMPEGESをデコードした再生画像
などにおける、明度、彩度、色相の原画像との大幅なず
れなどを、抑えることができる。
Therefore, q_scale_type =
It is a device designed to handle MPEG ES that is defined as 1.
MPE entered as q_scale_type = 0
By performing this rewriting process on the GES, it is possible to suppress a large deviation of the brightness, saturation, and hue from the original image in a reproduced image obtained by decoding the rewritten MPEGES.

【0161】図27は、q_scale_typeの位
置を概略的に示す。q_scale_typeは、ピク
チャ符号化拡張10に含まれ(図11参照)、図27に
示されるように、ピクチャか符号化拡張10の開始を表
すextention_start_codeの後ろか
ら28ビット目が割り当てられる。図16を用いて上述
したように、ピクチャ層までは符号の境界がバイト単位
で区切られているために、可変長符号を復号化せずに、
q_scale_typeの抽出および書き換えが可能
である。
FIG. 27 schematically shows the position of q_scale_type. The q_scale_type is included in the picture coding extension 10 (see FIG. 11), and as shown in FIG. 27, the 28th bit from the end of extension_start_code representing the start of the picture or the coding extension 10 is allocated. As described above with reference to FIG. 16, since the boundaries of the code are divided in byte units up to the picture layer, the variable length code is not decoded,
q_scale_type can be extracted and rewritten.

【0162】例えば、1バイト(8ビット)毎のバイト
マッチングを行うことで、スタートコードを表す〔00
00 01 xx〕を検出し、〔xx〕の部分が〔B
5〕であれば、検出されたスタートコードがピクチャ符
号化拡張10のスタートコードであると判断できる。こ
のスタートコードの次のビットから28ビットを数えた
位置がq_scale_typeである。QSTチェッ
カ530Aによってこの位置の値が検出され、値が
「0」であれば、QST、QSC書き換え部530Bに
対して、当該位置の値を「0」から「1」に書き換える
ように指示されると共に、qauntizer_sca
le_codeを書き換えるように指示される。
For example, by performing byte matching for each 1 byte (8 bits), the start code is represented by [00
00 01 xx] is detected, and the part of [xx] is [B
5], it can be determined that the detected start code is the start code of the picture coding extension 10. The position counting 28 bits from the next bit of this start code is q_scale_type. The value of this position is detected by the QST checker 530A, and if the value is "0", the QST / QSC rewriting unit 530B is instructed to rewrite the value of the position from "0" to "1". Together with qauntizer_sca
It is instructed to rewrite le_code.

【0163】qauntizer_scale_cod
eは、スライスヘッダ13およびマクロブロックヘッダ
14に含まれる。スライスヘッダ13に含まれるqau
ntizer_scale_codeは、スライスの先
頭のマクロブロックの量子化ステップを指定するもので
ある。スライスに含まれる、スライス先頭を除く各マク
ロブロックの量子化ステップは、各マクロブロックにそ
れぞれ含まれるqauntizer_scale_co
deによって指定される。この実施の一形態では、上述
したように、1スライス=1マクロブロックとしてMP
EG ESが構成されているので、スライスヘッダ13
に含まれるqauntizer_scale_code
を書き換える。
Quntizer_scale_cod
e is included in the slice header 13 and the macroblock header 14. Qau included in the slice header 13
nizer_scale_code specifies the quantization step of the head macroblock of the slice. The quantization step of each macroblock included in a slice, excluding the head of the slice, includes a quantizer_scale_co included in each macroblock.
specified by de. In this embodiment, as described above, MP is performed with 1 slice = 1 macroblock.
Since the EG ES is configured, the slice header 13
Included in qantizer_scale_code
Rewrite.

【0164】図28は、qauntizer_scal
e_codeの位置を概略的に示す。qauntize
r_scale_codeは、スライスヘッダ14の開
始を表すスライススタートコード12の後ろから5ビッ
トが割り当てられる。上述したように、スライス層にで
は、スライススタートコード12のみがバイト単位で区
切られているので、可変長符号を復号化せずにqaun
tizer_scale_codeの書き換えを行うこ
とが可能である。
FIG. 28 shows the qauntizer_scal.
The position of e_code is schematically shown. qauntize
Five bits from the rear of the slice start code 12 indicating the start of the slice header 14 are allocated to r_scale_code. As described above, in the slice layer, since only the slice start code 12 is divided in byte units, it is not necessary to decode the variable length code and the qaun
It is possible to rewrite the timer_scale_code.

【0165】例えば、1バイト毎のバイトマッチングを
行うことで、スタートコードを表す〔00 00 01
xx〕を検出し、〔xx〕の部分が〔01〕〜〔A
F〕であれば、検出されたスタートコードがスライスス
タートコード12であると判断できる。このスライスス
タートコード12直後の5ビットでqauntizer
_scale_codeが表される。上述したように、
QSTチェッカ530Aによってq_scale_ty
peが「0」であることが検出されたら、QSTチェッ
カ530AからQST、QSC書き換え部530Bに対
して、qauntizer_scale_codeを所
定に書き換えるように指示される。この指示に基づき、
qauntizer_scale_codeの書き換え
が行われる。
For example, by performing byte matching for each byte, the start code is represented by [00 00 01
xx] is detected, and the part of [xx] is [01] to [A].
F], it can be determined that the detected start code is the slice start code 12. 5 bits immediately after this slice start code 12 are used as a quntizer
_Scale_code is represented. As mentioned above,
Q_scale_ty by the QST checker 530A
When it is detected that pe is “0”, the QST checker 530A instructs the QST and QSC rewriting unit 530B to rewrite quntizer_scale_code to a predetermined value. Based on this instruction,
Rewriting of quntizer_scale_code is performed.

【0166】なお、上述では、QSTチェッカ530A
によるq_scale_typeのチェックと、QS
T、QSC書き換え部530Bでのq_scale_t
ypeおよびqauntizer_scale_cod
eの書き換えを、可変長符号を復号化せずに行っている
が、これはこの例に限られない。例えば、QST変換部
530に、さらに可変長符号復号器を持たせ、入力され
たMPEG ESの可変長符号を復号化してから上述の
チェックおよび書き換え処理を行うようにしてもよい。
この場合には、1スライスに複数のマクロブロックが含
まれる場合でも、マクロブロックのそれぞれについて、
上述のチェックおよび書き換えを行うことができる。
In the above description, the QST checker 530A is used.
Q_scale_type check by QS,
Q_scale_t in T, QSC rewriting unit 530B
ype and quntizer_scale_cod
Although e is rewritten without decoding the variable length code, this is not limited to this example. For example, the QST conversion unit 530 may be further provided with a variable length code decoder so that the above-mentioned check and rewrite processing is performed after decoding the input variable length code of MPEG ES.
In this case, even if one slice includes a plurality of macroblocks, for each macroblock,
The above checking and rewriting can be performed.

【0167】また、上述では、機器外で予めMPEG2
方式でエンコードされて入力されたストリームに対し
て、QST変換部530による上述した処理を行う例に
ついて説明したが、これはこの例に限られない。例え
ば、図29に一例が示されるように、機器外でエンコー
ドされ入力されたストリームと、機器内のMPEGエン
コーダ511でエンコードされたストリームとに対し
て、共にQST変換部530のチェックを行えるように
してもよい。また、図示は省略するが、再生側、すなわ
ちMPEGデコーダ518の出力側に、QST変換部5
30を配置することもできる。
In the above description, MPEG2 is preliminarily used outside the device.
An example in which the above-described processing by the QST conversion unit 530 is performed on a stream encoded and input by the method has been described, but this is not limited to this example. For example, as shown in FIG. 29, the QST conversion unit 530 can be checked for both the stream encoded and input outside the device and the stream encoded by the MPEG encoder 511 inside the device. May be. Although not shown, the QST converter 5 is provided on the reproducing side, that is, on the output side of the MPEG decoder 518.
It is also possible to arrange 30.

【0168】この発明では、上述とは逆の処理、すなわ
ち、q_scale_type=1のストリームをq_
scale_type=0のストリームに近似的に変換
するように、q_scale_typeおよびqaun
tizer_scale_codeの書き換えを行うよ
うにできる。
In the present invention, the reverse process to the above, that is, the stream with q_scale_type = 1 is changed to q_
q_scale_type and qaun to approximately convert to a stream with scale_type = 0
It is possible to rewrite the timer_scale_code.

【0169】しかしながら、この逆変換処理は、次のよ
うな理由から好ましくない。上述のq_scale_t
ype=0からq_scale_type=1への変換
は、q_scale_type=1として用意されてい
る量子化スケールの範囲がq_scale_type=
0として用意されている量子化スケールの範囲よりも広
いため、成り立つものである。逆方向の変換では、例え
ば、{q_scale_type=1、qauntiz
er_scale_code=31}のときの量子化ス
ケールの値は、「112」である。一方、q_scal
e_type=0では、この値に最も近い量子化スケー
ルの値は、「62」である。このように、逆方向の変換
では、量子化スケールの誤差が非常に大きくなり、再生
画像の明度、彩度、色相が原画像に対して大きく異なっ
てしまうおそれがあるため、有効な方法とはいえない。
However, this inverse conversion process is not preferable for the following reasons. The above q_scale_t
For conversion from type = 0 to q_scale_type = 1, the range of the quantization scale prepared as q_scale_type = 1 is q_scale_type =
This is true because it is wider than the range of the quantization scale prepared as 0. In the reverse conversion, for example, {q_scale_type = 1, qauntiz
The value of the quantization scale when er_scale_code = 31} is “112”. On the other hand, q_scal
At e_type = 0, the value of the quantization scale closest to this value is “62”. In this way, in the reverse conversion, the error of the quantization scale becomes very large, and the brightness, saturation, and hue of the reproduced image may differ greatly from the original image, so it is not an effective method. I can't say.

【0170】上述では、この発明がディジタルVTRに
適用されるものとして説明したが、これはこの例に限定
されない。例えば、QST変換部530を独立的に用い
て、q_scale_typeおよびqauntize
r_scale_code変換装置として構成すること
も可能である。
Although the present invention has been described above as applied to a digital VTR, it is not limited to this example. For example, using the QST conversion unit 530 independently, q_scale_type and qquantize
It can also be configured as an r_scale_code conversion device.

【0171】[0171]

【発明の効果】以上説明したように、この発明では、M
PEG2でエンコードされたストリーム中のq_sca
le_typeを検出し、検出されたq_scale_
typeの値に基づきストリーム中のq_scale_
typeを書き換えると共に、元のq_scale_t
ypeで示される量子化スケールのインデックスを、書
き換えられたq_scale_typeで示される量子
化スケールに近似化するインデックスに書き換えるよう
にしている。
As described above, according to the present invention, M
Q_sca in the stream encoded with PEG2
le_type is detected, and detected q_scale_
q_scale_ in the stream based on the value of type
Type is rewritten and the original q_scale_t
The index of the quantization scale indicated by ype is rewritten to the index that approximates the quantization scale indicated by the rewritten q_scale_type.

【0172】そのため、例えばq_scale_typ
e=1に固定された機器にこの発明を適用すると、q_
scale_type=0とされてエンコードされたス
トリームが入力されても、入力されたストリームのq_
scale_typeを「0」から「1」に書き換える
と共に、入力されたストリームの量子化スケールのイン
デックスを、q_scale_type=1のインデッ
クスに近似化されたインデックスに書き換える。これに
より、q_scale_type=1に固定された機器
でも、q_scale_type=0のストリームを取
り込むことができるようになるという効果がある。
Therefore, for example, q_scale_type
When the present invention is applied to a device fixed at e = 1, q_
Even if a stream encoded with scale_type = 0 is input, q_ of the input stream
The scale_type is rewritten from “0” to “1” and the index of the quantization scale of the input stream is rewritten to the index approximated to the index of q_scale_type = 1. As a result, there is an effect that even a device fixed to q_scale_type = 1 can capture a stream of q_scale_type = 0.

【図面の簡単な説明】[Brief description of drawings]

【図1】磁気テープを記録媒体としてベースバンド信号
の記録、再生を行うVTRの基本的な構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a basic configuration of a VTR that records and reproduces a baseband signal using a magnetic tape as a recording medium.

【図2】ビデオ信号がMPEG2方式でエンコードされ
たストリームの記録、再生を行うVTRの基本的な構成
を示すブロック図である。
FIG. 2 is a block diagram showing a basic configuration of a VTR that records and reproduces a stream in which a video signal is encoded by the MPEG2 system.

【図3】この発明によるVTRの基本的な構成を示すブ
ロック図である。
FIG. 3 is a block diagram showing a basic configuration of a VTR according to the present invention.

【図4】MPEG2のデータの階層構造を概略的に示す
略線図である。
FIG. 4 is a schematic diagram schematically showing a hierarchical structure of MPEG2 data.

【図5】MPEG2のストリーム中に配されるデータの
内容とビット割り当てを示す略線図である。
FIG. 5 is a schematic diagram showing the contents and bit allocation of data arranged in an MPEG2 stream.

【図6】MPEG2のストリーム中に配されるデータの
内容とビット割り当てを示す略線図である。
FIG. 6 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図7】MPEG2のストリーム中に配されるデータの
内容とビット割り当てを示す略線図である。
FIG. 7 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図8】MPEG2のストリーム中に配されるデータの
内容とビット割り当てを示す略線図である。
FIG. 8 is a schematic diagram showing the contents and bit allocation of data arranged in an MPEG2 stream.

【図9】MPEG2のストリーム中に配されるデータの
内容とビット割り当てを示す略線図である。
FIG. 9 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図10】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 10 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図11】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 11 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図12】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 12 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図13】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 13 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図14】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 14 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図15】MPEG2のストリーム中に配されるデータ
の内容とビット割り当てを示す略線図である。
FIG. 15 is a schematic diagram showing the content and bit allocation of data arranged in an MPEG2 stream.

【図16】データのバイト単位の整列を説明するための
図である。
FIG. 16 is a diagram for explaining alignment of data in units of bytes.

【図17】MPEGストリームのヘッダを具体的に示す
略線図である。
FIG. 17 is a schematic diagram specifically showing a header of an MPEG stream.

【図18】この発明に適用可能な記録再生装置の構成の
一例を示すブロック図である。
FIG. 18 is a block diagram showing an example of a configuration of a recording / reproducing apparatus applicable to the present invention.

【図19】磁気テープ上に形成されるトラックフォーマ
ットの一例を示す略線図である。
FIG. 19 is a schematic diagram showing an example of a track format formed on a magnetic tape.

【図20】ビデオエンコーダの出力の方法と可変長符号
化を説明するための略線図である。
[Fig. 20] Fig. 20 is a schematic diagram for explaining a method of outputting a video encoder and variable length coding.

【図21】ビデオエンコーダの出力の順序の並び替えを
説明するための略線図である。
FIG. 21 is a schematic diagram for explaining rearrangement of the output order of the video encoder.

【図22】順序の並び替えられたデータをシンクブロッ
クにパッキングする処理を説明するための略線図であ
る。
FIG. 22 is a schematic diagram for explaining a process of packing the data in which the order is rearranged in a sync block.

【図23】ECCエンコーダのより具体的な構成を示す
ブロック図である。
FIG. 23 is a block diagram showing a more specific configuration of the ECC encoder.

【図24】メインメモリのアドレス構成の一例を示す略
線図である。
FIG. 24 is a schematic diagram showing an example of an address configuration of a main memory.

【図25】MPEG2におけるqauntizer_s
cale_codeと量子化スケールの関係について示
す略線図である。
FIG. 25 is a figure of qquantizer_s in MPEG2.
It is an approximate line figure showing the relation between call_code and a quantization scale.

【図26】この発明によるq_scale_typeお
よび量子化スケールの書き換えの例を示す略線図であ
る。
FIG. 26 is a schematic diagram showing an example of rewriting q_scale_type and a quantization scale according to the present invention.

【図27】q_scale_typeの位置を概略的に
示す略線図である。
FIG. 27 is a schematic diagram schematically showing the position of q_scale_type.

【図28】qauntizer_scale_code
の位置を概略的に示す略線図である。
FIG. 28: quntizer_scale_code
It is an approximate line figure showing roughly the position of.

【図29】この発明によるVTRの他の例の基本的な構
成を示すブロック図である。
FIG. 29 is a block diagram showing a basic structure of another example of the VTR according to the present invention.

【符号の説明】[Explanation of symbols]

1・・・シーケンスヘッダコード、2・・・シーケンス
ヘッダ、3・・・シーケンス拡張、4・・・拡張および
ユーザデータ、5・・・GOPスタートコード、6・・
・GOPヘッダ、7・・・ユーザデータ、8・・・ピク
チャスタートコード、9・・・ピクチャヘッダ、10・
・・ピクチャ符号化拡張、11・・・拡張およびユーザ
データ、12・・・スライススタートコード、13・・
・スライスヘッダ、14・・・マクロブロックヘッダ、
101・・・SDI受信部、102・・・MPEGエン
コーダ、106・・・記録側マルチフォーマットコンバ
ータ(MFC)、108・・・SDTI受信部、109
・・・ECCエンコーダ、112・・・磁気テープ、1
13・・・ECCデコーダ、114・・・再生側MF
C、115・・・SDTI出力部、116・・・MPE
Gデコーダ、118・・・SDI出力部、137a,1
37c・・・パッキング部、137b・・・ビデオシャ
フリング部、139・・・外符号エンコーダ、140・
・・ビデオシャフリング、149・・・内符号エンコー
ダ、530・・・QST変換部、530A・・・QST
チェッカ、530B・・・QST、QSC書き換え部
1 ... Sequence header code, 2 ... Sequence header, 3 ... Sequence extension, 4 ... Extension and user data, 5 ... GOP start code, 6 ...
GOP header, 7 ... user data, 8 ... picture start code, 9 ... picture header, 10 ...
..Picture coding extension, 11 ... Extension and user data, 12 ... Slice start code, 13 ...
・ Slice header, 14 ... Macroblock header,
101 ... SDI receiver, 102 ... MPEG encoder, 106 ... Recording side multi-format converter (MFC), 108 ... SDTI receiver, 109
... ECC encoder, 112 ... Magnetic tape, 1
13 ... ECC decoder, 114 ... Playback side MF
C, 115 ... SDTI output section, 116 ... MPE
G decoder, 118 ... SDI output section, 137a, 1
37c ... Packing unit, 137b ... Video shuffling unit, 139 ... Outer code encoder, 140 ...
..Video shuffling, 149 ... Inner code encoder, 530 ... QST converter, 530A ... QST
Checker, 530B ... QST, QSC rewriting unit

フロントページの続き Fターム(参考) 5C053 FA14 FA21 GA11 GB22 GB26 GB29 GB32 GB38 HA40 JA21 5C059 KK01 KK41 MA00 MA01 MA23 MC11 MC38 ME01 PP04 RC11 SS11 TA48 TC45 UA02 UA05 5D044 AB05 AB07 BC01 CC03 DE15 DE43 DE44 EF05 FG18 GK08 5J064 AA01 BA09 BA16 BB09 BC01 BC02 BC16 BD03 BD04 Continued front page    F-term (reference) 5C053 FA14 FA21 GA11 GB22 GB26                       GB29 GB32 GB38 HA40 JA21                 5C059 KK01 KK41 MA00 MA01 MA23                       MC11 MC38 ME01 PP04 RC11                       SS11 TA48 TC45 UA02 UA05                 5D044 AB05 AB07 BC01 CC03 DE15                       DE43 DE44 EF05 FG18 GK08                 5J064 AA01 BA09 BA16 BB09 BC01                       BC02 BC16 BD03 BD04

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 圧縮符号化の際の量子化スケールを複数
組の量子化スケールから選択して用いることが可能とさ
れ、上記量子化スケールを上記複数組の量子化スケール
に共通のインデックスで参照するようにした圧縮符号化
方式で圧縮符号化されたストリームが入力される信号処
理装置において、 圧縮符号化されて入力されたストリームから上記圧縮符
号化の際に用いられた量子化スケールの組を示すパラメ
ータを検出し、検出された上記パラメータが上記量子化
スケールの所定の組を示しているかどうかを判定する判
定手段と、 上記入力されたストリーム中の上記パラメータを書き換
えると共に、上記量子化スケールを参照するインデック
スを書き換える書き換え手段とを有し、 上記判定手段により、上記入力されたストリーム中の上
記パラメータが上記所定の組以外の組を示していると判
定された場合、上記書き換え手段は、上記入力されたス
トリーム中の上記パラメータを上記所定の組を示すパラ
メータに書き換えると共に、上記所定の組以外の組の上
記量子化スケールを上記所定の組の上記量子化スケール
に近似的に変換するようなインデックスで、上記入力さ
れたストリーム中の上記量子化スケールを参照するイン
デックスを書き換えるようにしたことを特徴とする信号
処理装置。
1. A quantization scale for compression encoding can be selected from a plurality of sets of quantization scales to be used, and the quantization scale is referred to by an index common to the plurality of sets of quantization scales. In the signal processing device to which the stream encoded by the compression encoding method described above is input, the set of quantization scales used in the compression encoding is input from the input stream that is compression encoded. Detecting the parameter shown, determining means for determining whether the detected parameter indicates a predetermined set of the quantization scale, and rewriting the parameter in the input stream, the quantization scale And a rewriting unit that rewrites the index to be referred to, and the judging unit described above judges whether or not the above-mentioned pattern in the input stream is included. When it is determined that the parameter indicates a set other than the predetermined set, the rewriting unit rewrites the parameter in the input stream to a parameter indicating the predetermined set and also sets the parameter other than the predetermined set. The index referring to the quantization scale in the input stream is rewritten with an index that approximately transforms the quantization scale of the set to the predetermined quantization scale of the predetermined set. A characteristic signal processing device.
【請求項2】 請求項1に記載の信号処理装置におい
て、 上記ストリームは、さらに可変長符号を用いて圧縮符号
化されており、 上記可変長符号を復号化する復号手段をさらに有し、 上記判定手段および上記書き換え手段は、上記復号手段
により上記可変長符号を復号化してから上記判定、なら
びに、上記パラメータの書き換えおよび上記インデック
スの書き換えを行うようにしたことを特徴とする信号処
理装置。
2. The signal processing device according to claim 1, wherein the stream is compression-coded using a variable-length code, and the stream further comprises a decoding unit that decodes the variable-length code. The signal processing device, wherein the determining means and the rewriting means are configured to perform the determination, the parameter rewriting, and the index rewriting after the variable length code is decoded by the decoding means.
【請求項3】 請求項1に記載の信号処理装置におい
て、 上記圧縮符号化方式はMPEG2方式に準拠した方式で
あることを特徴とする信号処理装置。
3. The signal processing device according to claim 1, wherein the compression encoding system is a system based on the MPEG2 system.
【請求項4】 圧縮符号化の際の量子化スケールを複数
組の量子化スケールから選択して用いることが可能とさ
れ、上記量子化スケールを上記複数組の量子化スケール
に共通のインデックスで参照するようにした圧縮符号化
方式で圧縮符号化されたストリームが入力される信号処
理方法において、 圧縮符号化されて入力されたストリームから上記圧縮符
号化の際に用いられた量子化スケールの組を示すパラメ
ータを検出し、検出された上記パラメータが上記量子化
スケールの所定の組を示しているかどうかを判定する判
定のステップと、 上記入力されたストリーム中の上記パラメータを書き換
えると共に、上記量子化スケールを参照するインデック
スを書き換える書き換えのステップとを有し、 上記判定のステップにより、上記入力されたストリーム
中の上記パラメータが上記所定の組以外の組を示してい
ると判定された場合、上記書き換えのステップでは、上
記入力されたストリーム中の上記パラメータを上記所定
の組を示すパラメータに書き換えると共に、上記所定の
組以外の組の上記量子化スケールを上記所定の組の上記
量子化スケールに近似的に変換するようなインデックス
で、上記入力されたストリーム中の上記量子化スケール
を参照するインデックスを書き換えるようにしたことを
特徴とする信号処理方法。
4. A quantization scale for compression encoding can be selected and used from a plurality of sets of quantization scales, and the quantization scale is referred to by an index common to the plurality of sets of quantization scales. In the signal processing method in which the stream encoded by the compression encoding method is input, the set of the quantization scale used in the compression encoding is input from the stream input by the compression encoding. Detecting the parameter shown, determining step of determining whether the detected parameter indicates a predetermined set of the quantization scale, and rewriting the parameter in the input stream, and the quantization scale And the step of rewriting the index that refers to When it is determined that the parameter in the stream indicates a group other than the predetermined group, in the rewriting step, the parameter in the input stream is rewritten to a parameter indicating the predetermined group, and Rewrite the index that refers to the quantization scale in the input stream with an index that approximately converts the quantization scale of a set other than the predetermined set to the quantization scale of the predetermined set. A signal processing method characterized by the above.
JP2001193385A 2001-06-26 2001-06-26 Signal processing apparatus and method Pending JP2003006984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001193385A JP2003006984A (en) 2001-06-26 2001-06-26 Signal processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001193385A JP2003006984A (en) 2001-06-26 2001-06-26 Signal processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2003006984A true JP2003006984A (en) 2003-01-10

Family

ID=19031685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001193385A Pending JP2003006984A (en) 2001-06-26 2001-06-26 Signal processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2003006984A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006093306A1 (en) * 2005-03-03 2006-09-08 Pioneer Corporation Image encoding method conversion device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006093306A1 (en) * 2005-03-03 2006-09-08 Pioneer Corporation Image encoding method conversion device and method

Similar Documents

Publication Publication Date Title
KR100838902B1 (en) Stream processing unit
JP2003046944A (en) Signal processing device and method, recording device and method, reproducing device and method, recording and reproducing device and method, video camera, and video monitor device
KR100668993B1 (en) Signal processing apparatus and method, recording apparatus, reproducing apparatus, recording and reproducing apparatus, and stream processing apparatus and method
WO2001058171A1 (en) Recording device and method, and reproducing device and method
US20030070040A1 (en) Data processing apparatus and data recording apparatus
KR100796885B1 (en) Signal processor
KR100739262B1 (en) Recording apparatus and recording method, reproducing apparatus and reproducing method
US20020071491A1 (en) Signal processor
JP2000324448A (en) Data recording device, data recording / reproducing device, data recording method, and data recording / reproducing method
JP3775265B2 (en) Signal processing apparatus and method, recording / reproducing apparatus and method, and reproducing apparatus and method
KR100681992B1 (en) Recording device and method
JP2003006984A (en) Signal processing apparatus and method
JP2001155437A (en) Recording device and method
JP4432284B2 (en) Recording apparatus and method
JP4038949B2 (en) Playback apparatus and method
JP2002171241A (en) Stream transmission apparatus and method
JP2001218162A (en) Recording device and method
JP2001169243A (en) Recording apparatus and method, and reproducing apparatus and method
JP2000149455A (en) Data recording device and recording method, data recording / reproducing device, recording / reproducing method, and data recording medium
JP2002171524A (en) Data processing apparatus and method
JP2001346163A (en) Recording apparatus and method, reproducing apparatus and method, and recording / reproducing apparatus and method
JP2000152174A (en) Image data processing apparatus and method, and image data recording apparatus
JP2000312341A (en) Data transmission device and method, recording device, and recording / reproducing device
JP2000123485A (en) Recording device and method
JP2001218161A (en) Recording apparatus and method, and reproducing apparatus and method