JP2001197424A - Video editing apparatus, video editing method, and recording medium storing the program - Google Patents
Video editing apparatus, video editing method, and recording medium storing the programInfo
- Publication number
- JP2001197424A JP2001197424A JP2000004461A JP2000004461A JP2001197424A JP 2001197424 A JP2001197424 A JP 2001197424A JP 2000004461 A JP2000004461 A JP 2000004461A JP 2000004461 A JP2000004461 A JP 2000004461A JP 2001197424 A JP2001197424 A JP 2001197424A
- Authority
- JP
- Japan
- Prior art keywords
- quantization matrix
- scene
- information
- matrix information
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 量子化マトリックス情報の齟齬をなくし、シ
ーン結合による画質劣化を防止できる映像編集装置を提
供する。
【解決手段】 シーン情報に基づいて、各シーンの復号
に用いられている量子化マトリックスを抽出し、シーン
情報に基づいて、シーンの切り出しを行う。量子化マト
リックス情報調整手段104が、結合前後のシーンの量
子化マトリックス情報が一致しない場合に、切り出した
各シーンに、抽出した量子化マトリックス情報を付加
し、各シーンを結合し新たなストリームを作成する。
(57) [Summary] [PROBLEMS] To provide a video editing apparatus capable of eliminating inconsistency of quantization matrix information and preventing image quality deterioration due to scene combination. SOLUTION: A quantization matrix used for decoding each scene is extracted based on scene information, and a scene is cut out based on the scene information. If the quantization matrix information of the scenes before and after the joining does not match, the quantization matrix information adjusting unit 104 adds the extracted quantization matrix information to each of the cut out scenes, combines the scenes, and creates a new stream. I do.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、映像編集装置及び
その関連技術に係り、特にMPEG(Motion P
icutre Expert Group)規格に基づ
き符号化されたストリームから連続する複数のフレーム
(シーン)を切り出し、シーンを複数個結合して新たな
ストリームを作成する技術に関する。[0001] 1. Field of the Invention [0002] The present invention relates to a video editing apparatus and related technologies, and more particularly, to an MPEG (Motion P).
The present invention relates to a technique of cutting out a plurality of continuous frames (scenes) from a stream coded based on the icutre Expert Group standard and creating a new stream by combining a plurality of scenes.
【0002】[0002]
【従来の技術】動画像符号化の国際標準として、MPE
Gがあり、近年、例えば、ビデオCD、PC映像データ
にはMPEG1が用いられ、DVD、デジタル衛星放送
にはMPEG2が用いられるなど、MPEGの応用分野
が拡大している。2. Description of the Related Art MPE is an international standard for video coding.
In recent years, MPEG application fields are expanding, for example, MPEG1 is used for video CD and PC video data, and MPEG2 is used for DVD and digital satellite broadcasting.
【0003】MPEG方式は、国際規格機構(ISO)
がビットストリームの解釈およびその復号処理について
規定した動画像符号化方式であり、MPEG1標準とし
てISO11172があり、MPEG2標準としてIS
O13818がある。The MPEG system is based on the International Standards Organization (ISO)
Is a moving picture coding system that defines the interpretation of a bit stream and its decoding process. There is ISO11172 as an MPEG1 standard, and IS as an MPEG2 standard.
O13818.
【0004】このうち、MPEG1規格は、1.5Mb
ps程度の転送レートをもつデジタル記録媒体に、映像
データを圧縮して蓄積するための圧縮方式を規定してい
る。[0004] Among them, the MPEG1 standard is 1.5 Mb.
A compression method for compressing and storing video data in a digital recording medium having a transfer rate of about ps is defined.
【0005】また、MPEG2規格は、MPEG1規格
を拡張したもので、蓄積メディアだけでなく、通信・放
送メディアへの適用も考慮に入れた圧縮方式を規定して
いる。[0005] The MPEG2 standard is an extension of the MPEG1 standard, and defines a compression method that takes into account not only storage media but also communication and broadcast media.
【0006】MPEG1の映像データは、フレーム構造
の画像から構成され、それぞれの画像は画像内相関と画
像間相関を利用して圧縮されている。画像の圧縮方式
(画像タイプ)には、イントラ符号化画像(Iピクチ
ャ)、順方向予測符号化画像(Pピクチャ)、双方向予
測符号化画像(Bピクチャ)の3種類がある。[0006] MPEG1 video data is composed of images having a frame structure, and each image is compressed using an intra-image correlation and an inter-image correlation. There are three types of image compression methods (image types): an intra-coded image (I picture), a forward predictive coded image (P picture), and a bidirectional predictive coded image (B picture).
【0007】Iピクチャは他のフレームとの相関はな
く、そのフレームのデータのみで符号化されている。P
ピクチャは、時間的に前のフレーム(過去のフレーム)
との相関をとり、符号化されている。Bピクチャは、時
間的に前のフレーム(過去のフレーム)と後のフレーム
(未来のフレーム)の両方との相関をとり、符号化され
ている。[0007] The I picture has no correlation with other frames, and is coded using only the data of that frame. P
Picture is a temporally previous frame (past frame)
And is coded. The B picture is encoded by correlating both the temporally previous frame (past frame) and the subsequent frame (future frame).
【0008】図8は、MPEG1データの画像間相関を
示している。図8において、矩形は1枚の画像を意味し
ており、矩形内部の記号は、Iで始まる記号はIピクチ
ャを意味し、Pで始まる記号はPピクチャを意味し、B
で始まる記号はBピクチャを意味する。以下の説明にお
いても、この規則に従って各画像のタイプを示す。FIG. 8 shows a correlation between images of MPEG1 data. In FIG. 8, a rectangle means one image, symbols inside the rectangle are symbols starting with I, I symbols are used, symbols starting with P are P pictures, and B symbols are symbols.
A symbol starting with "" means a B picture. In the following description, each image type is indicated according to this rule.
【0009】また、各画像は、再生順(図8の左から右
へ)に並べられており、図8において、矢印は各画像の
相関関係を示し、例えば、画像B3は、画像I1と画像
P4を参照することで符号化されている。The images are arranged in the order of reproduction (from left to right in FIG. 8). In FIG. 8, arrows indicate the correlation between the images. It is encoded by referring to P4.
【0010】このように、後方の画像との画像間相関を
用いる可能性があるため、Bピクチャを含むMPEG1
データは、図9に示すように、再生される順序(再生
順、上段)とメディアに蓄積される順序(蓄積順、下
段)が異なる。As described above, since there is a possibility of using the inter-image correlation with the subsequent image, the MPEG1 including the B picture is used.
As shown in FIG. 9, the order in which data is reproduced (reproduction order, upper row) differs from the order in which data is stored in the medium (accumulation order, lower row).
【0011】一般的に、圧縮の効率は、 (Iピクチャ)<(Pピクチャ)<(Bピクチャ) となり、符号化量は、逆に、 (Iピクチャ)>(Pピクチャ)>(Bピクチャ) となる。In general, the compression efficiency is (I picture) <(P picture) <(B picture), and the coding amount is conversely: (I picture)> (P picture)> (B picture) Becomes
【0012】次に、MPEG符号化ストリームから再生
フレームを取り出す、復号処理について、図10を用い
て説明する。図10は、MPEGの映像データの復号処
理過程の説明図である。図10に示すように、符号化デ
ータは、可変長符号化、逆走査、逆量子化、逆DCT
(離散コサイン変換)、動き補償の各ステップを経て、
復号画素に復号される。Next, decoding processing for extracting a reproduced frame from an MPEG encoded stream will be described with reference to FIG. FIG. 10 is an explanatory diagram of a process of decoding MPEG video data. As shown in FIG. 10, the encoded data includes variable-length encoding, reverse scanning, inverse quantization, and inverse DCT.
(Discrete cosine transform), and through each step of motion compensation,
Decoded into decoded pixels.
【0013】ここで、逆量子化を行うステップでは、各
画像毎に有効な量子化マトリックスが用いられる。この
量子化マトリックスは、符号化時に設定されるもので、
復号時に用いる量子化マトリックスが正しくなければ、
逆量子化が不正になり、結局、復号画像の画質が大幅に
劣化する。In the step of performing inverse quantization, an effective quantization matrix is used for each image. This quantization matrix is set at the time of encoding,
If the quantization matrix used for decoding is incorrect,
The inverse quantization becomes incorrect, and as a result, the image quality of the decoded image is greatly deteriorated.
【0014】また、MPEG1の映像データは、図11
に示す構造をなし、シーケンスヘッダ、グループオブピ
クチャヘッダ(GOPヘッダ)、ピクチャヘッダ、ピク
チャデータ(スライスデータ以降)の順に記述されてい
る。Also, MPEG1 video data is shown in FIG.
And a sequence header, a group of picture header (GOP header), a picture header, and picture data (slice data and thereafter) are described in this order.
【0015】ピクチャデータの次には、シーケンスヘッ
ダまたはGOPヘッダまたはピクチャヘッダが続き、最
後に、シーケンスの終わりを示すシーケンスエンドコー
ドが記述されている。さらに、拡張データまたはユーザ
データを入れることができる。[0015] The picture data is followed by a sequence header, a GOP header, or a picture header. Finally, a sequence end code indicating the end of the sequence is described. Further, extended data or user data can be entered.
【0016】さて、ストリームにおける、量子化マトリ
ックスは、シーケンスヘッダのタイミングで更新され、
以降シーケンスヘッダが出現するまでは、現在の量子化
マトリックスが用いられる。なお、MPEG1の映像デ
ータの画像で用いられる色差フォーマットは4:2:0
のみであり、量子化マトリックスの種類として、イント
ラブロック用とノンイントラブロック用の2種類が存在
する。シーケンスヘッダには、これら2種類の量子化マ
トリックスを記述することができるし、記述しないこと
もできる。この場合、以降の画像の復号には、規格で規
定されるデフォルト値の量子化マトリックスが用いられ
る。Now, the quantization matrix in the stream is updated at the timing of the sequence header,
Thereafter, until the sequence header appears, the current quantization matrix is used. The color difference format used for the image of the MPEG1 video data is 4: 2: 0.
There are two types of quantization matrices, one for intra blocks and one for non-intra blocks. These two types of quantization matrices can be described or not described in the sequence header. In this case, a quantization matrix having a default value specified by the standard is used for decoding the subsequent image.
【0017】また、MPEG2では、図12に示すよう
に、MPEG1との若干相違点がある。1つ目の相違点
は、シーケンスヘッダの後に必ずシーケンス拡張が入る
ことである。このシーケンス拡張の有無によって、MP
EG1かMPEG2かの判別を行われる。即ち、シーケ
ンス拡張が無い場合は、MPEG1の映像データとして
扱われ、あればMPEG2として扱われる。Also, MPEG2 has some differences from MPEG1, as shown in FIG. The first difference is that the sequence extension always follows the sequence header. Depending on the presence or absence of this sequence extension, MP
It is determined whether it is EG1 or MPEG2. That is, if there is no sequence extension, it is treated as MPEG1 video data, and if there is no sequence extension, it is treated as MPEG2.
【0018】2つ目の相違点は、GOPヘッダは無くて
もよい点であり、3つ目は、ピクチャヘッダの後に、必
ずピクチャコーディング拡張が入る点である。The second difference is that the GOP header may not be provided, and the third difference is that the picture coding extension is always inserted after the picture header.
【0019】また、量子化マトリックスは、シーケンス
ヘッダまたは量子化マトリックス拡張で更新される。シ
ーケンスヘッダで更新される場合は、MPEG1の場合
と同様である。量子化マトリックス拡張は、図12にお
けるextension_and_user_data
(2)の位置に入りうる。量子化マトリックス拡張が入
った場合には、以降の画像では更新された量子化マトリ
ックスが用いられる。この場合は、記述されている種類
の量子化マトリックスのみ更新され、記述されていない
種類の量子化マトリックスは、以前更新された量子化マ
トリックスが引き続き用いられる。The quantization matrix is updated with a sequence header or a quantization matrix extension. The case of updating with the sequence header is the same as the case of MPEG1. The extension of the quantization matrix is shown in extension_and_user_data in FIG.
It can enter the position of (2). When the quantization matrix extension is included, the updated quantization matrix is used in subsequent images. In this case, only the type of quantization matrix described is updated, and for the type of quantization matrix not described, the previously updated quantization matrix continues to be used.
【0020】なお、MPEG2の色差フォーマットは、
4:2:0だけでなく、4:2:2または4:4:4が
ある。4:2:2及び4:4:4の場合は、量子化マト
リックスは4種類存在し、4:2:0の場合のイントラ
ブロック用とノンイントラブロック用が、それぞれ輝度
用と色差用の2つに分かれる。The color difference format of MPEG2 is
There is 4: 2: 2 or 4: 4: 4 as well as 4: 2: 0. In the case of 4: 2: 2 and 4: 4: 4, there are four types of quantization matrices. In the case of 4: 2: 0, two types of quantization matrices are used for the intra block and the non-intra block, for luminance and color difference, respectively. Divided into two.
【0021】ここで、特開平10−13783号公報で
は、MPEGの映像データから、連続する複数フレーム
を、シーンとして切り出し、シーンを複数個結合して新
たなストリームを作成する編集技術が、開示されてい
る。Here, Japanese Patent Application Laid-Open No. Hei 10-13783 discloses an editing technique in which a plurality of continuous frames are cut out from MPEG video data as scenes, and a plurality of scenes are combined to create a new stream. ing.
【0022】以下、この従来技術について、図13を用
いて説明する。まず、編集開始画像及び編集終了画像を
入力し(ステップ1301)、次に、編集範囲を切り出
し(ステップ1302)、編集範囲を出力する(ステッ
プ1303)。そして、編集対象がまだあるか判断し
(ステップ1304)、ある場合には、ステップ130
2以降の処理を繰り返し、ない場合には処理を終了す
る。Hereinafter, this prior art will be described with reference to FIG. First, an edit start image and an edit end image are input (step 1301), then an edit range is cut out (step 1302), and an edit range is output (step 1303). Then, it is determined whether there is any more edit target (step 1304).
The second and subsequent processes are repeated, and if not, the process is terminated.
【0023】以下、ステップ1302の切り出し処理に
ついて、図14及び図15を用いて説明する。Hereinafter, the clipping process in step 1302 will be described with reference to FIGS.
【0024】まず、図14を用いて、切り出し開始部分
の処理を説明する。図14(a)は、再生順のフレーム
の並びを示し、図14(b)は蓄積順のフレームの並び
を示している。First, the processing of the cutout start portion will be described with reference to FIG. FIG. 14A shows the arrangement of frames in the reproduction order, and FIG. 14B shows the arrangement of frames in the accumulation order.
【0025】ここで、図14(a)に示した再生画像上
の画像I2から編集を開始する場合には、図14(c)
に示すように、画像I2を利用して圧縮されている可能
性のある画像B0及びB1を削除し、画像I2の前にG
OPヘッダを付加する。また、図14(a)に示した再
生画像上の画像P5から編集を開始する場合には、図1
4(d)に示すように、画像I2を利用して、画像P5
を画像I5に再符号化し、画像P5を利用して圧縮され
ている可能性のある画像B3及びB4を削除し、画像I
5の前にGOPヘッダを付加する。さらに、図14
(a)に示した再生画像上の画像B3から編集を開始す
る場合には、図14(e)に示すように、画像I2とP
5を利用して、画像B3とB4をそれぞれ画像I3とI
4に再符号化し、再生順に並べ替え、画像I3の前にG
OPヘッダを付加する。Here, when editing is started from the image I2 on the reproduced image shown in FIG.
As shown in the figure, the images B0 and B1 which may have been compressed by using the image I2 are deleted, and G is added before the image I2.
An OP header is added. When editing is started from the image P5 on the reproduced image shown in FIG.
As shown in FIG. 4 (d), the image P5
Is re-encoded into an image I5, and the images B3 and B4 which may have been compressed using the image P5 are deleted.
GOP header is added before 5. Further, FIG.
When editing is started from the image B3 on the reproduced image shown in (a), as shown in FIG.
5, images B3 and B4 are converted to images I3 and I3, respectively.
4 and rearranged in the order of reproduction.
An OP header is added.
【0026】次に、図15を用いて、切り出し終了部分
の処理を説明する。図15(a)は、蓄積順のフレーム
の並びを示し、図15(b)は再生順のフレームの並び
を示している。Next, with reference to FIG. 15, the processing of the cutout end portion will be described. FIG. 15A shows the arrangement of frames in the order of accumulation, and FIG. 15B shows the arrangement of frames in the order of reproduction.
【0027】ここで、図15(b)に示した再生画像上
の画像I2で編集を終了する場合には、図15(c)に
示すように、画像I2を利用して圧縮されている可能性
のある画像B0及びB1まで残し、その後に次の編集範
囲のGOPヘッダを付加する。また、図15(b)に示
した再生画像上の画像P8で編集を終了する場合には、
図15(d)に示すように、画像P8を利用して圧縮さ
れている可能性のある画像B6及びB7まで残し、その
後に次の編集範囲のGOPヘッダを付加する。さらに、
図15(b)に示した再生画像上の画像B6で編集を終
了する場合には、図15(e)に示すように、画像P5
とP8を利用して画像B6を画像I6に再符号化し、そ
の画像I6を次の編集範囲のGOPヘッダの後に配置
し、画像P8を削除する。Here, when editing is to be ended with the image I2 on the reproduced image shown in FIG. 15B, the image may be compressed using the image I2 as shown in FIG. The remaining images B0 and B1 are left behind, and then a GOP header in the next editing range is added. When the editing is ended with the image P8 on the reproduced image shown in FIG.
As shown in FIG. 15D, images B6 and B7 which may be compressed using the image P8 are left, and a GOP header of the next editing range is added thereafter. further,
When the editing is ended with the image B6 on the reproduced image shown in FIG. 15B, as shown in FIG.
The image B6 is re-encoded into the image I6 by using the image P6 and the image P6, the image I6 is placed after the GOP header in the next editing range, and the image P8 is deleted.
【0028】[0028]
【発明が解決しようとする課題】この従来技術によれ
ば、シーンを結合して、新たなストリームを作成するこ
とができる。しかしながら、従来技術では、結合前後の
量子化マトリックス情報に関する配慮がない。したがっ
て、結合前後のシーンで、量子化マトリックス情報が異
なる場合、逆量子化が不正となって、画質劣化が発生し
てしまうという問題点があった。According to this conventional technique, scenes can be combined to create a new stream. However, in the related art, there is no consideration regarding the quantization matrix information before and after the combination. Therefore, when the quantization matrix information is different between the scenes before and after the combination, there is a problem that the inverse quantization is incorrect and the image quality is deteriorated.
【0029】そこで本発明は、シーン結合による画質劣
化を防止できる映像編集装置及びその関連技術を提供す
ることを目的とする。It is an object of the present invention to provide a video editing apparatus capable of preventing image quality deterioration due to scene combination and its related technology.
【0030】[0030]
【課題を解決するための手段】本発明では、シーン情報
入力手段が、編集対象ストリームから切り出す連続する
複数のフレームをシーンとし、シーン情報の入力を行
う。量子化マトリックス抽出手段が、シーン情報に基づ
いて、各シーンの復号に用いられている量子化マトリッ
クスを抽出する。シーン切り出し手段が、シーン情報に
基づいて、シーンの切り出しを行う。量子化マトリック
ス情報調整手段が、少なくとも結合前後のシーンの量子
化マトリックス情報が一致しない場合に、切り出した各
シーンに、抽出した量子化マトリックス情報を付加す
る。そして、シーン結合手段が、各シーンを結合し新た
なストリームを作成する。According to the present invention, the scene information input means inputs scene information by setting a plurality of continuous frames cut out from the stream to be edited as a scene. A quantization matrix extraction unit extracts a quantization matrix used for decoding each scene based on the scene information. A scene cutout unit cuts out a scene based on the scene information. The quantization matrix information adjusting means adds the extracted quantization matrix information to each cut-out scene when at least the quantization matrix information of the scenes before and after the combination does not match. Then, a scene combining unit combines the scenes to create a new stream.
【0031】この構成により、シーンを結合しても、量
子化マトリックス情報に齟齬を生じないため、画質劣化
を防止できる。With this configuration, even when scenes are combined, no inconsistency occurs in the quantization matrix information, so that image quality degradation can be prevented.
【0032】[0032]
【発明の実施の形態】請求項1、5、9では、編集対象
ストリームから切り出す連続する複数のフレームをシー
ンとし、シーン情報の入力を行い、編集対象ストリーム
から切り出す連続する複数のフレームをシーンとし、シ
ーン情報の入力を行い、シーン情報に基づいて、各シー
ンの復号に用いられている量子化マトリックスを抽出
し、シーン情報に基づいて、シーンの切り出しを行い、
少なくとも結合前後のシーンの量子化マトリックス情報
が一致しない場合に、切り出した各シーンに、抽出した
量子化マトリックス情報を付加し、各シーンを結合し新
たなストリームを作成する。According to the first, fifth and ninth aspects, a plurality of continuous frames cut out from a stream to be edited are set as scenes, scene information is input, and a plurality of continuous frames cut out from a stream to be edited are set as scenes. , Input scene information, extract the quantization matrix used for decoding each scene based on the scene information, and cut out the scene based on the scene information,
If at least the quantization matrix information of the scenes before and after the combination does not match, the extracted quantization matrix information is added to each cut-out scene, and the scenes are combined to create a new stream.
【0033】この構成により、シーン結合によっても、
量子化マトリックス情報の齟齬を生じないようにして、
画像劣化を防止できる。According to this configuration, even by scene combination,
To avoid inconsistency of the quantization matrix information,
Image deterioration can be prevented.
【0034】請求項2、6、10では、結合前後の量子
化マトリックス情報が一致する場合に、切り出した各シ
ーンに、抽出した量子化マトリックス情報を付加しな
い。According to the second, sixth and tenth aspects, when the quantization matrix information before and after the combination is the same, the extracted quantization matrix information is not added to each of the cut out scenes.
【0035】この構成により、無駄な情報付加を防止で
きる。With this configuration, useless information addition can be prevented.
【0036】請求項3、7、11では、結合前後の量子
化マトリックス情報の一致を判断することなしに、抽出
した量子化マトリックス情報を付加する。According to the third, seventh and eleventh aspects, the extracted quantization matrix information is added without judging whether the quantization matrix information before and after the combination matches.
【0037】この構成により、量子化マトリックス情報
の一致/不一致判定を省略して、処理速度を向上でき
る。With this configuration, the processing speed can be improved by omitting the coincidence / mismatch determination of the quantization matrix information.
【0038】請求項4、8、12では、量子化マトリッ
クス情報は、シーケンスヘッダ又は量子化マトリックス
拡張記載の情報である。According to the fourth, eighth, and twelfth aspects, the quantization matrix information is information of a sequence header or a quantization matrix extension.
【0039】この構成により、MPEG1、MPEG2
の双方について、対応することができる。With this configuration, MPEG1, MPEG2
Can be handled for both.
【0040】以下、本発明の実施の形態について、図面
を参照しながら説明する。図1は、本発明の一実施の形
態における映像編集装置のブロック図である。Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of a video editing device according to an embodiment of the present invention.
【0041】図1において、シーン情報入力手段101
は、編集対象ストリームから切り出す連続する複数のフ
レームをシーンとし、シーン情報の入力を行う。In FIG. 1, scene information input means 101
, A plurality of continuous frames cut out from the stream to be edited are set as scenes, and scene information is input.
【0042】量子化マトリックス抽出手段102は、シ
ーン情報に基づいて、各シーンの復号に用いられている
量子化マトリックス情報を抽出する。この量子化マトリ
ックス情報には、量子化マトリックスそのものと、量子
化マトリックス拡張があり得る。The quantization matrix extraction means 102 extracts quantization matrix information used for decoding each scene based on the scene information. The quantization matrix information may include a quantization matrix itself and a quantization matrix extension.
【0043】シーン切り出し手段103は、シーン情報
に基づいて、シーンの切り出しを行う。The scene cutout means 103 cuts out a scene based on the scene information.
【0044】量子化マトリックス調整手段104は、少
なくとも、結合前後の各シーンの量子化マトリックス情
報が一致しない場合に、切り出した各シーンに、抽出し
た量子化マトリックス情報を付加する。これによって、
シーン結合による量子化マトリックスの齟齬を防止でき
る。The quantization matrix adjusting means 104 adds the extracted quantization matrix information to each of the cut-out scenes at least when the quantization matrix information of each scene before and after the combination does not match. by this,
It is possible to prevent inconsistencies in the quantization matrix due to scene combination.
【0045】但し、結合前後の各シーンの量子化マトリ
ックス情報が一致する場合には、切り出した各シーンに
抽出した量子化マトリックス情報を付加しないようにし
ても良い。こうすると、無駄な情報付加を防止し、わず
かながらでも、新たなストリームのサイズを縮小でき
る。However, if the quantization matrix information of each scene before and after the combination matches, the extracted quantization matrix information may not be added to each cut-out scene. In this way, useless information addition can be prevented, and the size of a new stream can be reduced, albeit slightly.
【0046】しかし、各シーンの量子化マトリックス情
報が一致するか否かを問わず、どの場合にも、切り出し
た各シーンに抽出した量子化マトリックス情報を付加す
るようにしてもよい。こうすると、量子化マトリックス
情報の一致/不一致判定を省略できるから、処理速度を
向上できる。However, regardless of whether the quantization matrix information of each scene matches or not, in any case, the extracted quantization matrix information may be added to each cut-out scene. This makes it possible to omit the determination of the match / mismatch of the quantization matrix information, thereby improving the processing speed.
【0047】なお、後述するように、本形態では、結合
前後の各シーンの量子化マトリックス情報が一致する場
合には、切り出した各シーンに抽出した量子化マトリッ
クス情報を付加しないようにしているが、本発明は、こ
れに限定されるものではない。As will be described later, in the present embodiment, when the quantization matrix information of each scene before and after the combination matches, the extracted quantization matrix information is not added to each cut-out scene. However, the present invention is not limited to this.
【0048】また、図1のシーン結合手段105は、各
シーンを結合し新たなストリームを作成する。The scene combining means 105 shown in FIG. 1 combines the scenes to create a new stream.
【0049】図2は、同装置のハードウェア構成図であ
る。CPU205は、外部記憶装置207などに格納さ
れた制御プログラムにしたがって、周辺デバイスの各種
動作を制御する。そして、その周辺デバイスとして、デ
ィスプレイ201、ビデオRAM202、マウス20
3、キーボード204、主記憶装置206、外部記憶装
置207、スピーカ208が、バス209によって接続
されている。FIG. 2 is a hardware configuration diagram of the apparatus. The CPU 205 controls various operations of peripheral devices according to a control program stored in the external storage device 207 or the like. As peripheral devices, a display 201, a video RAM 202, a mouse 20
3, a keyboard 204, a main storage device 206, an external storage device 207, and a speaker 208 are connected by a bus 209.
【0050】ビデオRAM202は、ディスプレイ20
1に表示する画像データを記憶する。キーボード204
は、キーボード204上のキーが操作されると、その操
作キーに対応するキーのコードをCPU205に与え
る。マウス203は、マウス203上のボタンが操作さ
れると、そのボタンに対応するコードをCPU205に
与え、マウス203が移動すると、その移動に対応した
コードをCPU205に与える。そして、図1に示した
各手段101〜105は、CPU205が、これらの周
辺デバイスを制御し、制御プログラムを実行することに
より、実現される。The video RAM 202 stores the display 20
1 stores the image data to be displayed. Keyboard 204
When a key on the keyboard 204 is operated, the key code corresponding to the operation key is given to the CPU 205. When a button on the mouse 203 is operated, the mouse 203 gives a code corresponding to the button to the CPU 205, and when the mouse 203 moves, gives a code corresponding to the movement to the CPU 205. The units 101 to 105 shown in FIG. 1 are realized by the CPU 205 controlling these peripheral devices and executing a control program.
【0051】さて、図3を用いて、本発明の全体の処理
手順について説明する。まず、オペレータがシーン情報
入力手段101を用いて、編集対象ストリームから切り
出す連続する複数のフレームをシーンとし、シーン情報
の入力を行い(ステップ1)、次に、量子化マトリック
ス抽出手段102が、シーン情報に基づいて、各シーン
の復号に用いられている量子化マトリックス情報を抽出
する(ステップ2)。Now, the overall processing procedure of the present invention will be described with reference to FIG. First, the operator uses the scene information input unit 101 to input scene information by setting a plurality of continuous frames cut out from the stream to be edited as a scene (step 1). Next, the quantization matrix extraction unit 102 Based on the information, quantization matrix information used for decoding each scene is extracted (step 2).
【0052】次に、シーン切り出し手段103が、シー
ン情報に基づいて、シーンの切り出しを行う(ステップ
3)。Next, the scene cutout means 103 cuts out a scene based on the scene information (step 3).
【0053】そして、量子化マトリックス調整手段10
4が、結合前後の各シーンの量子化マトリックス情報が
一致するか否か検討する(ステップ4)。一致しない場
合には、切り出した各シーンに、抽出した量子化マトリ
ックス情報を付加する(ステップ5)。一致しない場合
には、量子化マトリックス情報の付加を省略する。Then, the quantization matrix adjusting means 10
4 examines whether or not the quantization matrix information of each scene before and after the combination matches (step 4). If they do not match, the extracted quantization matrix information is added to each cut-out scene (step 5). If they do not match, the addition of the quantization matrix information is omitted.
【0054】そして、シーン結合手段105が、各シー
ンを結合し新たなストリームを作成する(ステップ
6)。Then, the scene combining means 105 combines the scenes to create a new stream (step 6).
【0055】次に、各ステップの詳細について説明す
る。ステップ1においては、シーン情報の入力を行う。Next, the details of each step will be described. In step 1, scene information is input.
【0056】シーン情報とは、編集対象ストリームから
切り出す連続する複数のフレームを特定する情報であ
る。本形態においては、シーン情報は、結合するシーン
の個数、結合する順序、切りだし画像情報及び出力ファ
イル名から構成される。The scene information is information for specifying a plurality of continuous frames cut out from the stream to be edited. In the present embodiment, the scene information includes the number of scenes to be combined, the order of combination, cut-out image information, and an output file name.
【0057】切りだし画像情報は、結合する素材と、そ
の区間を指定する情報である。切り出し画像情報は、素
材のファイル名、切り出し先頭画像のバイト位置、切り
出し終端画像のバイト位置から構成され、結合する切り
出し画像の個数分存在する。出力ファイル名は、ステッ
プ6において、各シーンを結合し新たなストリームを作
成する際の出力先ファイル名である。The cut-out image information is information for designating a material to be combined and its section. The cut-out image information includes the file name of the material, the byte position of the cut-out leading image, and the byte position of the cut-out end image, and exists as many as the cut-out images to be combined. The output file name is an output destination file name when each scene is combined to create a new stream in step 6.
【0058】ステップ2においては、シーン情報に基づ
いて、各シーンの復号に用いられている量子化マトリッ
クス情報を抽出する。編集対象ストリームにおいて、各
シーンの先頭画像からシーケンスヘッダまたは量子化マ
トリックス拡張を後方検索し、編集対象ストリームで使
用されている量子化マトリックスを全て抽出し終わった
時点で処理を終了する。In step 2, the quantization matrix information used for decoding each scene is extracted based on the scene information. In the stream to be edited, the sequence header or the quantization matrix extension is searched backward from the top image of each scene, and the process ends when all the quantization matrices used in the stream to be edited have been extracted.
【0059】ここで、抽出する量子化マトリックスは、
編集対象ストリームの色差フォーマットが4:2:0の
場合には、イントラブロック用とノンイントラブロック
用の2種類で、色差フォーマットが4:2:2または
4:4:4の場合には、イントラ輝度ブロック用、イン
トラ色差ブロック用、ノンイントラ輝度ブロック用及び
ノンイントラ色差ブロック用の4種類となる。Here, the quantization matrix to be extracted is
When the chrominance format of the stream to be edited is 4: 2: 0, there are two types, one for the intra block and the other for the non-intra block, and when the chrominance format is 4: 2: 2 or 4: 4: 4, the intra There are four types: a luminance block, an intra chrominance block, a non-intra luminance block, and a non-intra chrominance block.
【0060】次に、図4を用いて具体的に説明する。図
4では、素材1で示される色差フォーマットが4:2:
2である編集対象ストリーム中のシーケンスヘッダ及び
量子化マトリックス拡張の位置の例を示している。Next, a specific description will be given with reference to FIG. In FIG. 4, the color difference format indicated by the material 1 is 4: 2:
2 shows an example of the position of the sequence header and the quantization matrix extension in the stream to be edited which is 2.
【0061】シーン1の先頭画像から後方検索を行った
とすると、まず、最初に量子化マトリックス拡張Qma
t_ext(1)が出現する。量子化マトリックス拡張
Qmat_ext(1)に記述されている量子化マトリ
ックスが前記4種類の量子化マトリックスであった場合
には、それらの量子化マトリックスを抽出し処理を終了
する。そうでなかった場合には、量子化マトリックス拡
張Qmat_ext(1)に記述されている量子化マト
リックスを抽出し、さらに後方検索を続ける。Assuming that a backward search is performed from the first image of scene 1, first, the quantization matrix expansion Qma
t_ext (1) appears. If the quantization matrices described in the quantization matrix extension Qmat_ext (1) are the four types of quantization matrices, those quantization matrices are extracted and the processing is terminated. Otherwise, the quantization matrix described in the quantization matrix extension Qmat_ext (1) is extracted, and the backward search is continued.
【0062】次に、シーケンスヘッダSeq_H(2)
が出現する。シーケンスヘッダSeq_H(2)に記述
されている量子化マトリックスのうち、既に抽出した量
子化マトリックスを除く種類の量子化マトリックスを抽
出する。Next, the sequence header Seq_H (2)
Appears. Among the quantization matrices described in the sequence header Seq_H (2), a type of quantization matrix other than the already extracted quantization matrix is extracted.
【0063】シーケンスヘッダSeq_H(2)が出現
した時点で、まだ抽出していない種類の量子化マトリッ
クスが存在する場合には、それらのマトリックスをデフ
ォルト値の量子化マトリックスとして抽出する。At the time when the sequence header Seq_H (2) appears, if there are any types of quantization matrices that have not been extracted yet, those matrices are extracted as default value quantization matrices.
【0064】なぜならば、シーケンスヘッダ出現後、シ
ーケンスヘッダに量子化マトリックスの記述がなくて
も、それらの種類の量子化マトリックスは全てデフォル
ト値に再設定されるからである。This is because, after the appearance of the sequence header, even if there is no description of the quantization matrix in the sequence header, all of those types of quantization matrices are reset to default values.
【0065】ステップ3においては、シーン情報に基づ
いて、各シーンの切り出しを行う。まず、各シーンを単
独で再生可能にするために、再符号化が必要である最小
限枚数の画像(対象画像)を特定する。シーンに含まれ
る画像において、対象画像を除く画像は、編集元の画像
をそのまま用いる。ここで、本明細書では、編集元の画
像をそのまま用いることができる範囲を、「再利用範
囲」と呼ぶ。In step 3, each scene is cut out based on the scene information. First, the minimum number of images (target images) that need to be re-encoded in order to enable each scene to be reproduced independently is specified. In the images included in the scene, the images other than the target image use the original image as it is. Here, in this specification, a range in which the original image can be used as it is is referred to as a “reuse range”.
【0066】次に、対象画像の画像タイプを決定する。
最後に、対象画像を決定した画像タイプで再符号化を行
う。以上の処理で、各シーンが単独で再生可能となる。Next, the image type of the target image is determined.
Finally, re-encoding is performed using the determined image type for the target image. With the above processing, each scene can be independently reproduced.
【0067】さらに、ステップ3の処理について、図5
を用いて具体的に説明する。図5では、編集対象ストリ
ームの各画像を再生される順序に並べてある。Further, regarding the processing of step 3, FIG.
This will be specifically described with reference to FIG. In FIG. 5, the images of the stream to be edited are arranged in the order in which they are reproduced.
【0068】今、画像B3〜B11からなるシーンが指
定され、この範囲を切り出すとする。このとき、画像B
3、P4及びB11は、シーンで指定された範囲の外の
画像を参照しているので、切り出す場合に参照元の画像
がなくなり、単独で再生不可能となる。Now, it is assumed that a scene including the images B3 to B11 is designated, and this range is cut out. At this time, image B
3, P4, and B11 refer to images outside the range specified in the scene, so there is no reference source image when cutting out, and it is impossible to reproduce alone.
【0069】従って、これらの画像B3、P4及びB1
1を対象画像とし、それぞれ画像I3’、I4’及びI
11’に再符号化を行う。この時、再符号化に用いる量
子化マトリックスは、対象画像で用いられている量子化
マトリックスを用いる。これで、シーンで指定される範
囲に含まれる画像の参照元は、シーン内で閉じるように
なり、シーンが単独で再生可能となる。Accordingly, these images B3, P4 and B1
1 as target images, and images I3 ′, I4 ′ and I
11 'is re-encoded. At this time, the quantization matrix used for the re-encoding uses the quantization matrix used for the target image. As a result, the reference source of the image included in the range specified by the scene is closed within the scene, and the scene can be reproduced independently.
【0070】なお、図5では、対象画像の再符号化後の
画像タイプをIピクチャとしているが、もちろんP、B
ピクチャを含めて再符号化を行ってもよい。In FIG. 5, the picture type of the target picture after re-encoding is I picture, but of course P, B
Re-encoding may be performed including a picture.
【0071】ステップ4においては、結合前後のシーン
の量子化マトリックス情報が一致するかどうか検討し、
不一致ならば、ステップ3によって、切り出した各シー
ンに、ステップ2で抽出した量子化マトリックスの情報
を付加する(ステップ5)。In step 4, it is examined whether or not the quantization matrix information of the scene before and after the combination matches,
If they do not match, in step 3, information of the quantization matrix extracted in step 2 is added to each cut-out scene (step 5).
【0072】さらに、ステップ4の処理について、図6
を用いて具体的に説明する。図6には、シーン1とシー
ン1に付加されうる量子化マトリックスの関係を模式的
に示してある。Further, regarding the processing of step 4, FIG.
This will be specifically described with reference to FIG. FIG. 6 schematically shows the relationship between scene 1 and a quantization matrix that can be added to scene 1.
【0073】図6に示すように、ステップ3によって、
シーン1が切り出されたとすると、必要に応じて、シー
ン1の先頭に、量子化マトリックス情報としての、シー
ケンスヘッダSeq_H(1)を付加する。このシーケ
ンスヘッダSeq_H(1)に、ステップ2で抽出され
たシーン1の先頭画像で用いられている量子化マトリッ
クスを記述する。As shown in FIG. 6, by step 3,
Assuming that scene 1 is cut out, sequence header Seq_H (1) as quantization matrix information is added to the beginning of scene 1 as necessary. In this sequence header Seq_H (1), the quantization matrix used in the first image of scene 1 extracted in step 2 is described.
【0074】こうすることで、量子化マトリックス情報
に齟齬を生じないことを補償できる。したがって、シー
ン1を復号する際に、正しい量子化マトリックスが使用
され、画質劣化を生じなくなる。なお、量子化マトリッ
クス情報としては、量子化マトリックス拡張を用いて行
うこともできるため、シーケンスヘッダを付加する代わ
りに、先頭画像の再符号化の際に、抽出された量子化マ
トリックスを記述した量子化マトリックス拡張を挿入す
ることもできる。By doing so, it is possible to compensate for no inconsistency in the quantization matrix information. Therefore, when decoding the scene 1, the correct quantization matrix is used, and the image quality does not deteriorate. In addition, since quantization matrix information can also be performed by using quantization matrix extension, instead of adding a sequence header, when re-encoding the first image, the quantization matrix that describes the extracted quantization matrix is used. A matrix extension can also be inserted.
【0075】ステップ5においては、各シーンを結合し
新たなストリームを作成する。ステップ1で入力された
シーン情報に基づき、各シーンを指定された順序で結合
し、シーン情報で指定された出力ファイル名の新たなス
トリームを作成する。In step 5, each scene is combined to create a new stream. Based on the scene information input in step 1, each scene is combined in a specified order, and a new stream having an output file name specified by the scene information is created.
【0076】図7に具体例を示す。ステップ1におい
て、3つのシーンをシーン1、2、3の順序に結合する
ように指定され、しかも、各シーン1,2,3の量子化
マトリックス情報が、全て異なるとすると、ステップ4
の処理までに、各シーンが単独で再生できるように、対
象画像が再符号化され、切り出しが行われ、更に、図7
(a)に示すように、各シーンの先頭に正しい量子化マ
トリックスを記述した、量子化マトリックス情報(斜線
部参照;シーケンスヘッダ又は量子化マトリックス拡
張)が付加される。FIG. 7 shows a specific example. If it is specified in step 1 that three scenes are to be combined in the order of scenes 1, 2, and 3, and if the quantization matrix information of each of scenes 1, 2, and 3 is all different, step 4
By the processing of (1), the target image is re-encoded and cut out so that each scene can be reproduced independently.
As shown in (a), at the beginning of each scene, quantization matrix information (see hatched portions; sequence header or quantization matrix extension) describing a correct quantization matrix is added.
【0077】このとき、ステップ6では、図7(b)に
示すように、各シーンを指定された順序で結合する。ま
ず、シーン1の先頭のシーケンスヘッダを結合し、シー
ン1の先頭の再符号化した対象画像を蓄積順に結合す
る。この時、対象画像の編集前の画像タイプと、再符号
化後の画像タイプが異なる場合には、再生順に基づいて
対象画像の再符号化後の画像タイプに従って、蓄積順に
並べ替える。次に、シーン1の再利用範囲を結合する。At this time, in step 6, as shown in FIG. 7B, the scenes are combined in the specified order. First, the sequence headers at the beginning of scene 1 are combined, and the re-encoded target images at the beginning of scene 1 are combined in the order of accumulation. At this time, if the image type of the target image before editing is different from the image type after re-encoding, the target image is rearranged in the accumulation order according to the image type after re-encoding of the target image based on the reproduction order. Next, the reuse ranges of scene 1 are combined.
【0078】そして、シーン1の最後に終端の再符号化
画像を蓄積順に結合する。シーン2及びシーン3につい
ても同様である。結合して作成される新たなストリーム
は、指定された出力ファイル名でファイルに出力され
る。なお、ステップ6では、シーンを結合した後でファ
イル出力を行ったが、逐次結合しながらファイル出力を
行うこともできる。At the end of the scene 1, the re-encoded image at the end is combined in the order of accumulation. The same applies to scene 2 and scene 3. The new stream created by combining is output to a file with the specified output file name. In step S6, file output is performed after scenes are combined, but file output can also be performed while sequentially combining scenes.
【0079】また、シーン1とシーン2では、量子化マ
トリックス情報が一致し、シーン2とシーン3では、量
子化マトリックス情報が一致しないものとすると、シー
ン2の先頭への、量子化マトリックス情報の付加を省略
できるため、図7(c)のように、図7(b)のストリ
ームよりも、わずかながらもサイズが小さいストリーム
とすることができる。Further, assuming that the quantization matrix information matches between scene 1 and scene 2 and the quantization matrix information does not match between scene 2 and scene 3, it is assumed that the quantization matrix information Since the addition can be omitted, as shown in FIG. 7C, the stream can be a stream that is slightly smaller in size than the stream in FIG. 7B.
【0080】以上の処理により、編集対象ストリームか
ら連続する複数のフレーム(シーン)が切り出され、シ
ーンが複数個結合された新たなストリームが作成され
る。With the above processing, a plurality of continuous frames (scenes) are cut out from the stream to be edited, and a new stream in which a plurality of scenes are combined is created.
【0081】なお、シーンの指定は、1つのストリーム
に対して複数のシーンを指定してもよく、各シーンの範
囲が重複してもよい。もちろん、複数のストリームに対
してシーンを指定してもよい。Note that a plurality of scenes may be designated for one stream, and the range of each scene may overlap. Of course, a scene may be designated for a plurality of streams.
【0082】また、本形態では、符号化ストリームの編
集処理をプログラムで実現する構成としたが、この処理
の一部、あるいは全体を論理回路などのハードウェアで
構成することもできる。このように構成することで、処
理時間を短縮することが可能となる。In this embodiment, the editing process of the coded stream is realized by a program. However, a part or the whole of this process may be configured by hardware such as a logic circuit. With this configuration, the processing time can be reduced.
【0083】[0083]
【発明の効果】本発明によると、既存のMPEGストリ
ームから連続する複数フレーム(シーン)を切り出し、
シーンを複数個結合して、復号時に用いる量子化マトリ
ックスの不整合に起因する画質劣化のない、新たなスト
リームを作成することができる。According to the present invention, a plurality of continuous frames (scenes) are cut out from an existing MPEG stream,
By combining a plurality of scenes, it is possible to create a new stream without image quality deterioration due to mismatch of quantization matrices used for decoding.
【図1】本発明の一実施の形態における映像編集装置の
ブロック図FIG. 1 is a block diagram of a video editing apparatus according to an embodiment of the present invention.
【図2】同装置のハードウェア構成図FIG. 2 is a hardware configuration diagram of the apparatus.
【図3】同装置の全体処理手順を示したフローチャートFIG. 3 is a flowchart showing an overall processing procedure of the apparatus.
【図4】同量子化マトリックス抽出手順の説明図FIG. 4 is an explanatory diagram of a quantization matrix extraction procedure;
【図5】同シーンの切り出し処理の説明図FIG. 5 is an explanatory diagram of cutout processing of the scene.
【図6】同シーンと付加される量子化マトリックス情報
との関係説明図FIG. 6 is an explanatory diagram showing a relationship between the scene and quantization matrix information to be added;
【図7】(a)同各シーンと量子化マトリックス情報と
の関係説明図(b)同結合後のストリームの構造図(省
略なし)(c)同結合後のストリームの構造図(省略あ
り)7A is a diagram illustrating the relationship between each scene and quantization matrix information. FIG. 7B is a diagram illustrating the structure of the stream after the combination (no omission). FIG. 7C is a diagram illustrating the structure of the stream after the combination.
【図8】従来のシーン結合処理の説明図FIG. 8 is an explanatory diagram of a conventional scene combining process.
【図9】MPEGデータの画像の再生順と蓄積順の関係
図FIG. 9 is a diagram showing the relationship between the reproduction order and the storage order of MPEG data images.
【図10】復号処理過程の説明図FIG. 10 is an explanatory diagram of a decoding process.
【図11】MPEG1映像データの構造図FIG. 11 is a structural diagram of MPEG1 video data.
【図12】MPEG2映像データの構造図FIG. 12 is a structural diagram of MPEG2 video data.
【図13】従来の映像編集装置のフローチャートFIG. 13 is a flowchart of a conventional video editing device.
【図14】従来の切り出し処理の説明図(開始部)FIG. 14 is an explanatory diagram of a conventional clipping process (starting part).
【図15】従来の切り出し処理の説明図(終了部)FIG. 15 is an explanatory diagram of a conventional clipping process (end section).
101 シーン情報入力手段 102 量子化マトリックス情報抽出手段 103 シーン切り出し手段 104 量子化マトリックス情報調整手段 105 シーン結合手段 DESCRIPTION OF SYMBOLS 101 Scene information input means 102 Quantization matrix information extraction means 103 Scene extraction means 104 Quantization matrix information adjustment means 105 Scene connection means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 池田 淳 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 川口 雄一 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5C053 FA14 GB06 GB08 GB09 GB22 GB26 GB34 GB37 GB38 GB40 JA21 JA30 KA01 LA06 5C059 KK01 KK39 MA00 MA23 MC14 ME01 PP05 PP06 PP07 PP16 RB09 RC14 RC26 RC31 SS20 UA02 UA05 UA29 UA39 5L096 EA24 EA35 FA81 9A001 BB03 EE04 FF03 HH28 JJ19 KK56 ────────────────────────────────────────────────── ─── Continued on the front page (72) Atsushi Ikeda 1006 Kadoma Kadoma, Kadoma, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. (72) Yuichi Kawaguchi 1006 Kadoma Kadoma, Kadoma City, Osaka Matsushita Electric Industrial F Term (reference) 5C053 FA14 GB06 GB08 GB09 GB22 GB26 GB34 GB37 GB38 GB40 JA21 JA30 KA01 LA06 5C059 KK01 KK39 MA00 MA23 MC14 ME01 PP05 PP06 PP07 PP16 RB09 RC14 RC26 RC31 SS20 UA02 UA05 UA29 UA39 5L096 EA24 EA24 EA24 EA24 EA24 EA24 EA24 EA24 EA24 EA24 EB
Claims (12)
複数のフレームをシーンとし、シーン情報の入力を行う
シーン情報入力手段と、シーン情報に基づいて、各シー
ンの復号に用いられている量子化マトリックスを抽出す
る量子化マトリックス抽出手段と、シーン情報に基づい
て、シーンの切り出しを行うシーン切り出し手段と、少
なくとも結合前後のシーンの量子化マトリックス情報が
一致しない場合に、切り出した各シーンに、抽出した量
子化マトリックス情報を付加する量子化マトリックス情
報調整手段と、各シーンを結合し新たなストリームを作
成するシーン結合手段を備えることを特徴とする映像編
集装置。1. A scene information input means for inputting scene information by using a plurality of continuous frames cut out from a stream to be edited, and a quantization matrix used for decoding each scene based on the scene information. Extracting quantization matrix extracting means, scene extracting means for extracting a scene based on the scene information, and extracting the quantized matrix into each extracted scene when at least the quantization matrix information of the scene before and after the combination does not match. A video editing apparatus comprising: quantization matrix information adjusting means for adding quantization matrix information; and scene combining means for combining scenes to create a new stream.
結合前後の量子化マトリックス情報が一致する場合に、
切り出した各シーンに、抽出した量子化マトリックス情
報を付加しないことを特徴とする請求項1記載の映像編
集装置。2. The quantization matrix information adjusting means according to claim 1,
When the quantization matrix information before and after combining matches,
2. The video editing apparatus according to claim 1, wherein the extracted quantization matrix information is not added to each of the extracted scenes.
結合前後の量子化マトリックス情報の一致を判断するこ
となしに、切り出した各シーンに、抽出した量子化マト
リックス情報を付加することを特徴とする請求項1記載
の映像編集装置。3. The quantization matrix information adjusting means,
2. The video editing apparatus according to claim 1, wherein the extracted quantization matrix information is added to each of the cut-out scenes without determining whether the quantization matrix information before and after the combination is equal.
ッダ又は量子化マトリックス拡張記載の情報であること
を特徴とする請求項1から3記載の映像編集装置。4. The video editing apparatus according to claim 1, wherein the quantization matrix information is information of a sequence header or a description of extension of the quantization matrix.
複数のフレームをシーンとし、シーン情報の入力を行う
シーン情報入力ステップと、シーン情報に基づいて、各
シーンの復号に用いられている量子化マトリックスを抽
出する量子化マトリックス抽出ステップと、シーン情報
に基づいて、シーンの切り出しを行うシーン切り出しス
テップと、少なくとも結合前後のシーンの量子化マトリ
ックス情報が一致しない場合に、切り出した各シーン
に、抽出した量子化マトリックス情報を付加する量子化
マトリックス情報調整ステップと、各シーンを結合し新
たなストリームを作成するシーン結合ステップを備える
ことを特徴とする映像編集方法。5. A scene information input step of inputting scene information using a plurality of continuous frames cut out from a stream to be edited, and a quantization matrix used for decoding each scene based on the scene information. Extracting a quantization matrix, extracting a scene based on the scene information, and extracting a scene.If at least the quantization matrix information of the scene before and after the combination does not match, the extracted quantum is added to each of the extracted scenes. A video editing method, comprising: a quantization matrix information adjusting step of adding quantization matrix information; and a scene combining step of combining respective scenes to create a new stream.
では、結合前後の量子化マトリックス情報が一致する場
合に、切り出した各シーンに、抽出した量子化マトリッ
クス情報を付加しないことを特徴とする請求項1記載の
映像編集方法。6. In the quantization matrix information adjusting step, when the quantization matrix information before and after the combination matches, the extracted quantization matrix information is not added to each cut-out scene. Video editing method described.
では、結合前後の量子化マトリックス情報の一致を判断
することなしに、切り出した各シーンに、抽出した量子
化マトリックス情報を付加することを特徴とする請求項
1記載の映像編集方法。7. The quantization matrix information adjusting step is characterized in that extracted quantization matrix information is added to each cut-out scene without judging whether the quantization matrix information before and after the combination is coincident. The video editing method according to claim 1.
ッダ又は量子化マトリックス拡張記載の情報であること
を特徴とする請求項1から3記載の映像編集方法。8. The video editing method according to claim 1, wherein the quantization matrix information is information of a sequence header or an extension description of the quantization matrix.
複数のフレームをシーンとし、シーン情報の入力を行う
シーン情報入力ステップと、シーン情報に基づいて、各
シーンの復号に用いられている量子化マトリックスを抽
出する量子化マトリックス抽出ステップと、シーン情報
に基づいて、シーンの切り出しを行うシーン切り出しス
テップと、少なくとも結合前後のシーンの量子化マトリ
ックス情報が一致しない場合に、切り出した各シーン
に、抽出した量子化マトリックス情報を付加する量子化
マトリックス情報調整ステップと、各シーンを結合し新
たなストリームを作成するシーン結合ステップを備える
ことを特徴とする映像編集プログラムを記録した記録媒
体。9. A scene information input step of inputting scene information using a plurality of continuous frames cut out from a stream to be edited, and a quantization matrix used for decoding each scene based on the scene information. Extracting a quantization matrix, extracting a scene based on the scene information, and extracting a scene.If at least the quantization matrix information of the scene before and after the combination does not match, the extracted quantum is added to each of the extracted scenes. A recording medium recording a video editing program, comprising: a quantization matrix information adjusting step of adding quantization matrix information; and a scene combining step of combining respective scenes to create a new stream.
プでは、結合前後の量子化マトリックス情報が一致する
場合に、切り出した各シーンに、抽出した量子化マトリ
ックス情報を付加しないことを特徴とする請求項1記載
の映像編集プログラムを記録した記録媒体。10. In the quantization matrix information adjusting step, when the quantization matrix information before and after the combination matches, the extracted quantization matrix information is not added to each of the cut out scenes. A recording medium on which the described video editing program is recorded.
プでは、結合前後の量子化マトリックス情報の一致を判
断することなしに、切り出した各シーンに、抽出した量
子化マトリックス情報を付加することを特徴とする請求
項1記載の映像編集プログラムを記録した記録媒体。11. The quantization matrix information adjusting step is characterized in that the extracted quantization matrix information is added to each of the cut out scenes without judging whether the quantization matrix information before and after the combination matches. A recording medium on which the video editing program according to claim 1 is recorded.
ヘッダ又は量子化マトリックス拡張記載の情報であるこ
とを特徴とする請求項1から3記載の映像編集プログラ
ムを記録した記録媒体。12. The recording medium according to claim 1, wherein the quantization matrix information is information of a sequence header or a quantization matrix extension description.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000004461A JP2001197424A (en) | 2000-01-13 | 2000-01-13 | Video editing apparatus, video editing method, and recording medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000004461A JP2001197424A (en) | 2000-01-13 | 2000-01-13 | Video editing apparatus, video editing method, and recording medium storing the program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001197424A true JP2001197424A (en) | 2001-07-19 |
Family
ID=18533250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000004461A Pending JP2001197424A (en) | 2000-01-13 | 2000-01-13 | Video editing apparatus, video editing method, and recording medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001197424A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007318516A (en) * | 2006-05-26 | 2007-12-06 | Sony Corp | Program, information processing apparatus, information processing method, and recording medium |
JP2008028793A (en) * | 2006-07-24 | 2008-02-07 | Nec Electronics Corp | Stream edit method and stream editor |
-
2000
- 2000-01-13 JP JP2000004461A patent/JP2001197424A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007318516A (en) * | 2006-05-26 | 2007-12-06 | Sony Corp | Program, information processing apparatus, information processing method, and recording medium |
JP2008028793A (en) * | 2006-07-24 | 2008-02-07 | Nec Electronics Corp | Stream edit method and stream editor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6546189B1 (en) | Method and apparatus for editing compressed moving pictures and storage medium | |
US7893968B2 (en) | Composite still-image creating device capable of creating a still image from moving images | |
US6285361B1 (en) | Method and apparatus for clipping video segments from an audiovisual file | |
JP3493872B2 (en) | Image data processing method and apparatus | |
JP3706721B2 (en) | Search method and search device inside audiovisual file | |
JP3932546B2 (en) | MPEG video editing apparatus and MPEG video editing method | |
WO2000014741A1 (en) | Method and device for managing multimedia file | |
US6400886B1 (en) | Method and apparatus for stitching edited video segments | |
US8165217B2 (en) | Image decoding apparatus and method for decoding prediction encoded image data | |
US6201925B1 (en) | Method and apparatus for editing video files | |
JP3325464B2 (en) | Moving image processing device | |
JP2001197424A (en) | Video editing apparatus, video editing method, and recording medium storing the program | |
JP2000244872A (en) | Transcoder device | |
JP2002300528A (en) | Method and device for editing video stream | |
JP4154799B2 (en) | Compressed video editing apparatus and storage medium | |
US6754272B2 (en) | Picture signal processing method and apparatus, picture signal recording method and apparatus and recording medium | |
JP2000278643A (en) | Data converter | |
JP2914320B2 (en) | Module switching type image compression / playback device | |
JP3588153B2 (en) | Data editing method and editing device | |
JP2812203B2 (en) | Image playback device | |
JP3896697B2 (en) | Lossy compression data editing device | |
US20060098739A1 (en) | Video frame encoder driven by repeat decisions | |
JPH09261632A (en) | Image signal processor | |
JPH06350964A (en) | Picture reproducing device and picture decoder | |
JPH08205076A (en) | Moving image editing apparatus and moving image editing method |