JP2001119302A - Encoding device, decoding device, information processing system, information processing method, and storage medium - Google Patents
Encoding device, decoding device, information processing system, information processing method, and storage mediumInfo
- Publication number
- JP2001119302A JP2001119302A JP29445499A JP29445499A JP2001119302A JP 2001119302 A JP2001119302 A JP 2001119302A JP 29445499 A JP29445499 A JP 29445499A JP 29445499 A JP29445499 A JP 29445499A JP 2001119302 A JP2001119302 A JP 2001119302A
- Authority
- JP
- Japan
- Prior art keywords
- information
- encoding
- decoding
- encoded
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【課題】 カテゴリを超えてオブジェクトの再生を可能
にすることで、幅広い装置間でオブジェクトの共有が可
能となる情報処理システムを提供する。
【解決手段】 復号側130,140において、通知手
段131,141は、自装置の状態(自装置が有する復
号機能)を取得し、その状態情報を符号化側110に通
知する。符号化側110において、符号化手段114,
117,119は、復号側130,140からの状態情
報により、符号化情報の出力先の復号装置が対応可能な
符号化方式での情報の符号化を行なう。
(57) [Summary] [PROBLEMS] To provide an information processing system capable of sharing objects between a wide range of devices by enabling reproduction of objects beyond categories. SOLUTION: On a decoding side 130, 140, a notifying means 131, 141 acquires a state of its own device (a decoding function of its own device) and notifies the encoding side 110 of the state information. On the encoding side 110, encoding means 114,
117 and 119 encode the information in an encoding method that can be supported by the decoding device to which the encoded information is output, based on the status information from the decoding sides 130 and 140.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えば、コンピュ
ータグラフィクス(以下、「CG」と言う)の記述言語
と自然画像を統合的に扱う符号化方式によって得られた
符号化データの処理を行う装置やシステムに用いられる
符号化装置、復号装置、情報処理システム、情報処理方
法、及びそれを実施するための処理ステップをコンピュ
ータが読出可能に格納した記憶媒体に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for processing coded data obtained by a coding system for integrally handling a natural language and a description language of computer graphics (hereinafter referred to as "CG"). The present invention relates to an encoding device, a decoding device, an information processing system, an information processing method, and a storage medium in which processing steps for executing the same are stored in a computer readable manner.
【0002】[0002]
【従来の技術】従来より例えば、動画像の符号化方式と
して、フレーム内符号化方式である「Motion J
PEG」や「Digital Video」等の符号化
方式や、フレーム間予測符号化を用いた「H.26
1」、「H.263」、「MPEG−1」、「MPEG
−2」等の符号化方式が知られている。2. Description of the Related Art Conventionally, for example, "Motion J" which is an intra-frame encoding system has been used as a moving image encoding system.
"H.26" using an encoding method such as "PEG" or "Digital Video" or inter-frame predictive encoding.
1 "," H.263 "," MPEG-1 "," MPEG
-2 "and the like are known.
【0003】上述のような符号化方式は、ISO(In
ternational Organization
for Standardization:国際標準化
機構)やITU(Intenational Te1e
communicationUnion:国際電気通信
連合)によって国際標準化されている。[0003] The above-mentioned encoding method is based on ISO (In)
international Organization
for Standardization (International Organization for Standardization) and ITU (International Te1e)
communication Union (International Telecommunication Union).
【0004】また、コンピュータ、放送、通信等、多く
の分野で利用できる、汎用的な次世代マルチメディア符
号化規格として、「MPEG−4」符号化方式の国際標
準化作業が進められている。[0004] International standardization work on the "MPEG-4" encoding system is underway as a general-purpose next-generation multimedia encoding standard that can be used in many fields such as computer, broadcasting, and communication.
【0005】「MPEG−4」は、いままでのフレーム
又はフィールド単位の符号化方式とは異なり、オブジェ
クト単位に符号化できるという特徴を有し、アニメーシ
ョンやCGといった技術も統合的に扱えるようになって
いる。これにより、人の顔や体のアニメーションを符号
化(FBA符号化)したり、テクスチャを貼ったメッシ
ュを符号化(メッシュ符号化)したり、或いは、静止画
像を符号化することも同じ符号化方式の中で可能とな
る。[0005] "MPEG-4" has a feature that, unlike conventional encoding methods in units of frames or fields, encoding can be performed in units of objects, and techniques such as animation and CG can be integratedly handled. ing. Accordingly, encoding of animation of a human face or body (FBA encoding), encoding of a textured mesh (mesh encoding), or encoding of a still image is the same as encoding. It becomes possible in the scheme.
【0006】また、「MPEG−4」は、従来のメディ
ア間の同期等を実現させることを重視したシステムで用
いられる符号化方式とは異なり、CGで用いられるよう
な、シーンの記述を行えるようになっている。これによ
り、複数のオブジェクトの表示方法や属性を表すことが
可能となる。[0006] Also, "MPEG-4" is different from a conventional encoding method used in a system that emphasizes realizing synchronization between media and the like, and is capable of describing a scene as used in CG. It has become. This makes it possible to represent the display method and attributes of a plurality of objects.
【0007】上記のシーンの記述は、CGの世界で広く
用いられているVRML(Virtual Reali
ty Modeling Language)をべ一ス
としたBIFS(Binary Format for
Scene)によって行われる。これについての詳細
は、「MPEG−4」符号化方式のシステムパート(I
SO/IEC 14496−1)に記載されている。こ
れにより、統合的なビジュアル、オーディオの同期、C
Gの記述による画像の合成が可能となる。The description of the scene described above is based on VRML (Virtual Realiy) widely used in the CG world.
BIFS (Binary Format for) based on ty Modeling Language
Scene). The details of this are described in the system part (I.
SO / IEC 14496-1). This allows for integrated visual and audio synchronization, C
It is possible to compose an image by the description of G.
【0008】上述のような「MPEG−4」符号化方式
を採用したシステムとして、例えば、図11に示すよう
なデータ処理システム800がある。このデータ処理シ
ステム800は、「MPEG−4」符号化方式に従った
符号化処理を行なうMPFG−4符号化装置(以下、単
に「符号化装置」と言う)810と、符号化装置810
での符号化処理後のデータを復号するMPEG−4復号
装置(以下、単に「復号装置」と言う)820とが接続
された構成としている。[0008] As a system adopting the above-mentioned "MPEG-4" coding method, for example, there is a data processing system 800 as shown in FIG. The data processing system 800 includes an MPFG-4 encoder (hereinafter, simply referred to as “encoder”) 810 that performs an encoding process according to the “MPEG-4” encoding scheme, and an encoder 810.
And an MPEG-4 decoding device (hereinafter, simply referred to as a “decoding device”) 820 that decodes the data after the encoding process in FIG.
【0009】符号化装置810は、シーン設定器81
1、BIFS符号化部812、記憶部813、ビジュア
ル符号化部814、記憶部815、オーディオ符号化部
816、及ぶ多重化器817から構成されている。The encoding device 810 includes a scene setting unit 81
1, a BIFS encoding unit 812, a storage unit 813, a visual encoding unit 814, a storage unit 815, an audio encoding unit 816, and a multiplexer 817.
【0010】復号装置820は、分離器821、BIF
S復号部822、レンダリング器823、ビジュアル復
号部824、合成器825、ディスプレイ826、オー
ディオ復号部827、及びスピーカ828から構成され
ている。[0010] The decoding device 820 includes a demultiplexer 821, a BIF
It comprises an S decoding unit 822, a rendering unit 823, a visual decoding unit 824, a synthesizer 825, a display 826, an audio decoding unit 827, and a speaker 828.
【0011】上述のような構成において、まず、符号化
装置810の記憶部813には、撮像して得られた自然
画像の動画像(以下、このような動画像を「ビデオ」と
言う)や顔や体の構成と動きをCGで表したデータ、テ
クスチャをメッシュで表現したデータ等が蓄積されてい
る。また、記憶部815には、録音して得られたオーデ
ィオデータが蓄積されている。In the above-described configuration, first, the storage unit 813 of the encoding device 810 stores a moving image of a natural image obtained by imaging (hereinafter, such a moving image is referred to as a “video”). Data, such as data representing the structure and movement of the face and body by CG, data representing texture by mesh, and the like are stored. The storage unit 815 stores audio data obtained by recording.
【0012】そこで、例えば、符号化装置810にてユ
ーザは、シーン設定器811により、記憶部813や記
憶部815からシーンに必要な画像データやオーディオ
データを選択し、その表示や出力のタイミングを決定す
る。また、シーン記述に必要なCGを構成する。このよ
うなユーザからの指示に従って、シーン設定器811
は、自然画像の動画像や音声の出力方法、CGで生成す
る画像のコマンド等のシーン記述情報を生成する。Therefore, for example, in the encoding device 810, the user selects image data and audio data necessary for a scene from the storage unit 813 or the storage unit 815 using the scene setting unit 811 and sets the display and output timings. decide. Also, a CG required for the scene description is configured. According to such an instruction from the user, the scene setting device 811
Generates scene description information such as a method of outputting a moving image and a sound of a natural image, and a command of an image generated by CG.
【0013】BIFS符号化部812は、シーン設定器
810で生成されたシーン記述情報を符号化する。The BIFS encoding section 812 encodes the scene description information generated by the scene setting device 810.
【0014】また、記憶部813から選択された画像デ
ータは、ビジュアル符号化部814に対して入力され
る。The image data selected from the storage unit 813 is input to the visual encoding unit 814.
【0015】ビジュアル符号化部814は、記憶部81
3からの画像データを、MPEG−4符号化方式のビジ
ュアルパート(ISO/IEC 14496−2)に記
載された符号化方式で符号化する。具体的には、ビジュ
アル符号化部814は、ビデオを符号化するビデオ符号
化や、非自然画像符号化方式としてのFBA符号化、メ
ッシュ符号化、静止画像を符号化する静止画像符号化等
の各種符号化方式での符号化が可能となっており、符号
化対象の画像データに適した符号化方式で当該データの
符号化を行なう。The visual encoding unit 814 includes a storage unit 81
3 is encoded by the encoding method described in the visual part of the MPEG-4 encoding method (ISO / IEC 14496-2). Specifically, the visual encoding unit 814 performs video encoding for encoding video, FBA encoding as a non-natural image encoding scheme, mesh encoding, still image encoding for encoding still images, and the like. Encoding can be performed in various encoding systems, and the data is encoded using an encoding system suitable for the image data to be encoded.
【0016】また、記憶部815から選択されたオーデ
ィオデータは、オーディオ符号化器816に対して入力
される。The audio data selected from the storage unit 815 is input to an audio encoder 816.
【0017】オーディオ符号化部816は、記憶部81
5からのオーディオデータを、MPEG−4符号化方式
のオーディオパート(ISO/IEC 14496−
3)に記載された符号化方式で符号化する。具体的に
は、オーディオ符号化器816は、音声用(例えば、C
ELP符号化)や、音響用(例えば、AAC符号化)、
或いは文字コードを音声合成するための記述用(例え
ば、TTS符号化)等の各種符号化方式での符号化が可
能となっており、符号化対象のオーディオデータに適し
た符号化方式で当該データの符号化を行なう。The audio encoding unit 816 includes a storage unit 81
5 from the audio part of the MPEG-4 encoding system (ISO / IEC 14496-).
Encode by the encoding method described in 3). Specifically, the audio encoder 816 is used for audio (for example, C
ELP encoding), audio (for example, AAC encoding),
Alternatively, it is possible to perform encoding using various encoding schemes such as description for synthesizing a character code (for example, TTS encoding), and the data is encoded in an encoding scheme suitable for the audio data to be encoded. Is performed.
【0018】多重化器817は、BIFS符号化部81
2にて得られた符号化後のデータ(BIFS符号化デー
タ)、ビジュアル符号化部814にて得られた符号化後
のデータ(ビジュアル符号化データ)、及びオーディオ
符号化部816にて得られた符号化後のデータ(オーデ
ィオ符号化データ)を、MPEG−4符号化方式のシス
テムパートに記載された多重化方式に従って多重化して
出力する。The multiplexer 817 includes a BIFS encoding unit 81
2, the encoded data (BIFS encoded data) obtained in step 2, the encoded data (visual encoded data) obtained in visual encoding section 814, and the data obtained in audio encoding section 816. The encoded data (audio encoded data) is multiplexed and output according to the multiplexing method described in the system part of the MPEG-4 encoding method.
【0019】符号化装置810から出力された多重化デ
ータは、復号装置820に対して入力され、その分離器
821によってそれぞれの符号化データに分離される。
すなわち、分離器821は、符号化装置810の多重化
器817での多重化動作とは逆の動作によって、多重化
器817の出力を、BIFS符号化データ、ビジュアル
符号化データ、及びオーディオ符号化データに分離す
る。The multiplexed data output from the encoding device 810 is input to a decoding device 820, and is separated into respective encoded data by a separator 821.
That is, the demultiplexer 821 outputs the output of the multiplexer 817 to the BIFS coded data, the visual coded data, and the audio coded data by the operation reverse to the multiplexing operation of the multiplexer 817 of the coding device 810. Separate into data.
【0020】BIFS復号部822は、分離器821で
の分離により得られたBIFS符号化データを復号し、
シーン記述をするためのCGのコマンド等を再生する。
レンダリング器823は、BIFS復号部822にて再
生されたCGのコマンド等に従ってレンダリングを行っ
て画像データ(CG画像等)を生成する。The BIFS decoding section 822 decodes the BIFS encoded data obtained by the separation in the separator 821,
A CG command or the like for describing a scene is reproduced.
The rendering unit 823 performs rendering in accordance with a CG command or the like reproduced by the BIFS decoding unit 822 to generate image data (such as a CG image).
【0021】ビジュアル復号部824は、分離器821
での分離により得られたビジュアル符号化データを復号
し、画像データを再生或いは生成する。このとき、ビジ
ュアル復号部824は、復号対象の符号化データに適し
た復号方式(当該符号化データで用いられた符号化方式
に対応する復号方式)によって当該符号化データを復号
する。The visual decoding unit 824 includes a separator 821
Decodes the visual coded data obtained by the separation in step (1), and reproduces or generates image data. At this time, the visual decoding unit 824 decodes the encoded data using a decoding method suitable for the encoded data to be decoded (a decoding method corresponding to the encoding method used for the encoded data).
【0022】合成器825は、レンダリング器823及
びビジュアル復号器824にて再生或いは生成された画
像データを合成する。ディスプレイ826は、合成器8
25にて得られた合成画像データを表示する。The combiner 825 combines the image data reproduced or generated by the renderer 823 and the visual decoder 824. The display 826 displays the synthesizer 8
The composite image data obtained in step 25 is displayed.
【0023】オーディオ復号部827は、分離器821
での分離により得られたオーディオ符号化データを復号
レてオーディオデータを再生する。このとき、オーディ
オ復号部827は、復号対象のオーディオ符号化データ
に適した復号方式(当該符号化データで用いられた符号
化方式に対応する復号方式)によって当該符号化データ
を復号する。The audio decoding unit 827 includes a separator 821
Then, the audio data is reproduced by decoding the encoded audio data obtained by the separation in step (1). At this time, the audio decoding unit 827 decodes the encoded data using a decoding method suitable for the audio encoded data to be decoded (a decoding method corresponding to the encoding method used for the encoded data).
【0024】スピーカ828は、オーディオ復号部82
7にて再生されたオーディオデータを音として出力す
る。The speaker 828 is connected to the audio decoding unit 82
The audio data reproduced in step 7 is output as sound.
【0025】上述のように、「MPEG−4」符号化方
式は非常に多機能であり、種々のメディアを統合的に扱
うことができる。しかしながら、それらの機能を全てそ
ろえるには非常に大規模な構成が不可欠となる。このた
め、プロファイルとレベルという概念を用い、いくつか
のカテゴリに分類している。これにより、単にビデオを
再生するだけの端末(ビデオ再生専用の端末装置)や、
CG等を自由に扱える装置等、各種の装置に幅広く対応
できるようになった。As described above, the "MPEG-4" encoding method is very versatile and can handle various media in an integrated manner. However, a very large-scale configuration is indispensable to provide all of these functions. For this reason, they are classified into several categories using the concept of profiles and levels. As a result, a terminal that simply plays back video (a terminal device dedicated to video playback),
It has become possible to widely support various devices such as a device that can freely handle CG and the like.
【0026】[0026]
【発明が解決しようとする課題】しかしながら、上述し
たような従来の符号化方式では、同カテゴリの端末では
再生できるオブジェクトの種類は保証されているが、カ
テゴリが異なるものについてはオブジェクトが再生され
ないといった問題が生じていた。このため、例えば、C
G等を自由に扱える符号化装置で作成した符号化データ
を、ビデオ再生専用の端末装置で再生することができな
かった。However, in the above-described conventional encoding method, the types of objects that can be reproduced by terminals of the same category are guaranteed, but objects of different categories are not reproduced. There was a problem. Thus, for example, C
Encoded data created by an encoding device that can freely handle G or the like cannot be reproduced by a terminal device dedicated to video reproduction.
【0027】そこで、本発明は、上記の欠点を除去する
ために成されたもので、カテゴリを超えてオブジェクト
の再生を可能にすることで、幅広い装置或いはシステム
間でオブジェクトの共有が可能となる、符号化装置、復
号装置、情報処理システム、情報処理方法、及びそれを
実施するための処理ステップをコンピュータが読出可能
に格納した記憶媒体を提供することを目的とする。Therefore, the present invention has been made to eliminate the above-mentioned drawbacks. By enabling reproduction of an object beyond a category, the object can be shared between a wide range of devices or systems. It is an object of the present invention to provide an encoding device, a decoding device, an information processing system, an information processing method, and a storage medium in which processing steps for executing the same are stored in a computer-readable manner.
【0028】[0028]
【課題を解決するための手段】斯かる目的下において、
第1の発明は、複数種類の符号化方式によって任意の情
報を符号化することが可能な符号化装置であって、上記
符号化の結果である符号化情報の復号側の状態を取得す
る復号側状態取得手段と、上記復号側状態取得手段にて
得られた復号側状態情報に基づいて、上記複数種類の符
号化方式から選択した符号化方式により情報の符号化を
行なう符号化手段とを備えることを特徴とする。For such a purpose,
A first invention is an encoding device capable of encoding arbitrary information by a plurality of types of encoding schemes, and a decoding apparatus that acquires a decoding side state of encoded information as a result of the encoding. Side state acquiring means, and encoding means for encoding information based on the decoding state information obtained by the decoding state acquisition means, using an encoding method selected from the plurality of types of encoding methods. It is characterized by having.
【0029】第2の発明は、上記第1の発明において、
上記符号化手段は、上記複数種類の符号化方式に対応し
た複数の符号化手段と、上記復号側状態情報に基づい
て、符号化対象となる情報を上記複数の符号化手段から
選択した符号化手段へ与える情報供給手段とを含むこと
を特徴とする。According to a second aspect, in the first aspect,
The encoding unit includes a plurality of encoding units corresponding to the plurality of types of encoding schemes, and an encoding unit that selects information to be encoded from the plurality of encoding units based on the decoding-side state information. Means for supplying information to the means.
【0030】第3の発明は、上記第1の発明において、
上記複数種類の符号化方式は、MPEG−4符号化方式
の符号化方式を含むことを特徴とする。According to a third aspect, in the first aspect,
The plurality of types of encoding schemes include an encoding scheme of the MPEG-4 encoding scheme.
【0031】第4の発明は、上記第1の発明において、
上記符号化手段は、コンピュータグラフィックス画像情
報を生成するための記述情報を符号化する第1の符号化
手段と、少なくとも当該コンピュータグラフィックス画
像情報を自然画像符号化方式で符号化する第2の符号化
手段とを含み、これらの第1及び第2の符号化手段から
上記復号側状態情報に基づいて選択した手段により情報
の符号化を行なうことを特徴とする。According to a fourth aspect, in the first aspect,
The encoding unit encodes description information for generating computer graphics image information, and a second encoding unit encodes at least the computer graphics image information using a natural image encoding method. Encoding means for encoding information by means selected from the first and second encoding means based on the decoding-side state information.
【0032】第5の発明は、上記第1の発明において、
上記符号化手段は、合成音声情報を生成するための記述
情報を符号化する第1の符号化手段と、少なくとも当該
合成音声情報を自然音響符号化方式で符号化する第2の
符号化手段とを含み、これらの第1及び第2の符号化手
段から上記復号側状態情報に基づいて選択した手段によ
り情報の符号化を行なうことを特徴とする。According to a fifth aspect, in the first aspect,
The encoding means comprises: first encoding means for encoding description information for generating synthesized speech information; and second encoding means for encoding at least the synthesized speech information by a natural acoustic encoding method. And information is encoded by means selected from the first and second encoding means based on the decoding-side state information.
【0033】第6の発明は、コンピュータグラフィック
ス画像情報を生成するための記述情報を符号化する第1
の符号化手段と、上記コンピュータグラフィックス画像
情報を自然画像符号化方式で符号化する第2の符号化手
段と、上記第1の符号化手段にて得られた符号化情報
と、上記第2の符号化手段にて得られた符号化情報との
何れかを選択して出力する出力手段とを備えることを特
徴とする。According to a sixth aspect, in the first aspect, description information for encoding computer graphics image information is encoded.
Encoding means; encoding means for encoding the computer graphics image information by a natural image encoding method; encoding information obtained by the first encoding means; And output means for selecting and outputting any of the encoded information obtained by the encoding means.
【0034】第7の発明は、合成音声情報を生成するた
めの記述情報を符号化する第1の符号化手段と、上記合
成音声情報を自然音響符号化方式で符号化する第2の符
号化手段と、上記第1の符号化手段にて得られた符号化
情報と、上記第2の符号化手段にて得られた符号化情報
との何れかを選択して出力する出力手段とを備えること
を特徴とする。According to a seventh aspect of the present invention, there is provided a first encoding means for encoding description information for generating synthesized speech information, and a second encoding means for encoding the synthesized speech information by a natural acoustic encoding method. Means, and output means for selecting and outputting one of the encoded information obtained by the first encoding means and the encoded information obtained by the second encoding means. It is characterized by the following.
【0035】第8の発明は、上記第6又は7の発明にお
いて、上記出力手段の出力先である復号側の状態を取得
する復号側状態取得手段と、上記復号側状態取得手段に
て得られた復号側状態情報に基づいて、上記出力手段で
の選択出力動作を制御する制御手段とを備えることを特
徴とする。According to an eighth aspect, in the sixth or seventh aspect, the decoding state acquisition means for acquiring the state of the decoding side, which is the output destination of the output means, and the decoding state acquisition means. Control means for controlling the selective output operation of the output means based on the decoding-side state information.
【0036】第9の発明は、上記第4又は6の発明にお
いて、上記第1の符号化手段は、MPEG−4符号化方
式のBIFS符号化方式及び非自然画像符号化方式の何
れかの符号化方式により、上記コンピュータグラフィッ
クス画像情報を生成するための記述情報を符号化し、上
記第2の符号化手段は、MPEG−4符号化方式の自然
画像符号化方式により、少なくとも上記コンピュータグ
ラフィックス画像情報を符号化することを特徴とする。In a ninth aspect based on the fourth aspect or the sixth aspect, the first encoding means comprises a code of one of a BIFS encoding method and a non-natural image encoding method of an MPEG-4 encoding method. The description information for generating the computer graphics image information is encoded by an encoding method, and the second encoding unit is configured to encode at least the computer graphics image by a natural image encoding method of an MPEG-4 encoding method. The information is encoded.
【0037】第10の発明は、上記第5又は7の発明に
おいて、上記第1の符号化手段は、MPEG−4符号化
方式のBIFS符号化方式及び非自然音響符号化方式の
何れかの符号化方式により、上記合成音声情報を生成す
るための記述情報を符号化し、上記第2の符号化手段
は、MPEG−4符号化方式の自然音響符号化方式によ
り、少なくとも上記合成音声情報を符号化することを特
徴とする。In a tenth aspect based on the fifth aspect or the seventh aspect, the first encoding means comprises one of a BIFS encoding scheme of MPEG-4 encoding scheme and a non-natural acoustic encoding scheme. The description information for generating the synthesized speech information is encoded by a coding scheme, and the second encoding means encodes at least the synthesized speech information by a natural acoustic coding scheme of an MPEG-4 coding scheme. It is characterized by doing.
【0038】第11の発明は、入力された符号化情報を
復号する復号装置であって、上記符号化情報の入力先で
ある符号化側に対して、自装置の状態を通知する通知手
段と、上記通知手段による通知に基づいて上記符号化側
にて符号化された情報を復号する復号手段とを備えるこ
とを特徴とする。An eleventh invention is a decoding device for decoding input coded information, comprising: a notifying means for notifying a coding side, to which the coded information is input, of its own state. Decoding means for decoding the information encoded on the encoding side based on the notification by the notifying means.
【0039】第12の発明は、上記第11の発明におい
て、上記通知手段は、上記復号手段が有する復号機能の
情報を通知することを特徴とする。In a twelfth aspect based on the eleventh aspect, the notifying means notifies information on a decoding function of the decoding means.
【0040】第13の発明は、上記第12の発明におい
て、上記復号機能の情報は、コンピュータグラフィック
ス画像情報を生成するための記述情報が符号化された情
報を復号する機能を有するか否かの情報、及び画像情報
が符号化された情報を復号する機能を有するか否かの情
報の少なくとも何れかを含むことを特徴とする。In a thirteenth aspect based on the twelfth aspect, the information of the decoding function has a function of decoding information in which description information for generating computer graphics image information is encoded. And at least one of the information as to whether or not the image information has a function of decoding the encoded information.
【0041】第14の発明は、上記第12の発明におい
て、上記復号機能の情報は、合成音声情報を生成するた
めの記述情報が符号化された情報を復号する機能を有す
るか否かの情報、及び音声情報が符号化された情報を復
号する機能を有するか否かの情報の少なくとも何れかを
含むことを特徴とする。In a fourteenth aspect based on the twelfth aspect, the information of the decoding function is information as to whether or not the information has a function of decoding information in which description information for generating synthesized speech information is encoded. , And / or information on whether or not the audio information has a function of decoding the encoded information.
【0042】第15の発明は、上記第11の発明におい
て、上記符号化側は、請求項1〜10の何れかに記載の
符号化装置の機能を有することを特徴とする。According to a fifteenth aspect, in the eleventh aspect, the encoding side has the function of the encoding device according to any one of the first to tenth aspects.
【0043】第16の発明は、入力された符号化情報を
復号する復号装置であって、自装置の状態を取得する装
置状態取得手段と、上記装置状態取得手段により得られ
た装置状態情報に基づいて、情報毎に複数種類の符号化
方式で符号化した結果である複数種類の上記符号化情報
から選択した符号化情報を復号する復号手段とを備える
ことを特徴とする。A sixteenth aspect of the present invention is a decoding device for decoding input coded information, comprising: a device status obtaining means for obtaining the status of the own device; and a device status information obtained by the device status obtaining device. And decoding means for decoding coded information selected from a plurality of types of the coded information, which is a result of performing coding by a plurality of types of coding schemes for each information based on the information.
【0044】第17の発明は、上記第16の発明におい
て、上記装置状態取得手段は、上記復号手段が有する復
号機能の情報を取得することを特徴とする。In a seventeenth aspect based on the sixteenth aspect, the apparatus status acquisition means acquires information on a decoding function of the decoding means.
【0045】第18の発明は、上記第17の発明におい
て、上記復号機能の情報は、コンピュータグラフィック
ス画像情報を生成するための記述情報が符号化された情
報を復号する機能を有するか否かの情報、及び画像情報
が符号化された情報を復号する機能を有するか否かの情
報の少なくとも何れかを含むことを特徴とする。In an eighteenth aspect based on the seventeenth aspect, the information of the decoding function has a function of decoding information in which description information for generating computer graphics image information is encoded. And at least one of the information as to whether or not the image information has a function of decoding the encoded information.
【0046】第19の発明は、上記第17の発明におい
て、上記復号機能の情報は、合成音声情報を生成するた
めの記述情報が符号化された情報を復号する機能を有す
るか否かの情報、及び音声情報が符号化された情報を復
号する機能を有するか否かの情報の少なくとも何れかを
含むことを特徴とする。In a nineteenth aspect based on the seventeenth aspect, the information of the decoding function is information as to whether or not the information has a function of decoding information in which description information for generating synthesized speech information is encoded. , And / or information on whether or not the audio information has a function of decoding the encoded information.
【0047】第20の発明は、上記第11又は16の発
明において、上記符号化情報は、MPEG−4符号化方
式により情報が符号化された情報を含むことを特徴とす
る。According to a twentieth aspect, in the eleventh or sixteenth aspect, the encoded information includes information in which information is encoded by an MPEG-4 encoding method.
【0048】第21の発明は、複数の機器が通信可能に
接続されてなる情報処理システムであって、上記複数の
機器のうち少なくとも1つの機器は、請求項1〜10の
何れかに記載の符号化装置の機能、及び請求項11〜2
0の何れかに記載の復号装置の機能の少なくとも何れか
の機能を有することを特徴とする。A twenty-first invention is an information processing system in which a plurality of devices are communicably connected, wherein at least one of the plurality of devices is one of the first to tenth aspects. 3. Functions of an encoding device, and claims 11 and 2.
0. It has at least one of the functions of the decoding device according to any one of the above.
【0049】第22の発明は、符号化側で任意の情報を
符号化し、当該符号化情報を復号側で復号するための情
報処理方法であって、上記復号側の状態情報を取得する
復号側状態情報取得ステップと、上記復号側状態情報取
得ステップにより得られた復号側状態情報に基づいた符
号化方式により情報を符号化する符号化ステップとを含
むことを特徴とする。A twenty-second invention is an information processing method for encoding arbitrary information on the encoding side and decoding the encoded information on the decoding side, wherein the decoding side acquires the decoding side state information. It is characterized by including a state information acquiring step and an encoding step of encoding information by an encoding method based on the decoding side state information obtained in the decoding side state information acquiring step.
【0050】第23の発明は、上記第22の発明におい
て、上記復号側状態情報取得ステップは、上記復号側が
有する復号機能の情報を上記復号側状態情報として取得
するステップを含み、上記符号化ステップは、上記復号
側状態情報により、上記復号側で対応可能な符号化方式
により情報を符号化するステップを含むことを特徴とす
る。In a twenty-third aspect based on the twenty-second aspect, the decoding-side state information obtaining step includes a step of obtaining information on a decoding function of the decoding side as the decoding-side state information. Is characterized by including a step of encoding information by an encoding method which can be supported by the decoding side, based on the decoding side state information.
【0051】第24の発明は、上記第22の発明におい
て、上記復号側状態情報取得ステップは、上記復号側
が、コンピュータグラフィックス画像情報を生成するた
めの記述情報を符号化した情報を復号する機能を有する
か否かの情報を上記復号側状態情報として取得するステ
ップを含み、上記符号化ステップは、上記復号側状態情
報により、上記復号側が、コンピュータグラフィックス
画像情報を生成するための記述情報を符号化した情報を
復号する機能を持たない場合、上記コンピュータグラフ
ィックス画像情報を自然画像符号化方式により符号化す
るステップを含むことを特徴とする。In a twenty-fourth aspect based on the twenty-second aspect, in the decoding-side state information obtaining step, the decoding side decodes information obtained by coding description information for generating computer graphics image information. Obtaining the information as to whether or not the decoding side information as the decoding side state information, the encoding step, the decoding side by the decoding side state information, the decoding side, the description information for generating computer graphics image information When the computer graphics image information is not provided with a function of decoding the encoded information, the method includes a step of encoding the computer graphics image information by a natural image encoding method.
【0052】第25の発明は、上記第22の発明におい
て、上記復号側状態情報取得ステップは、上記復号側
が、合成音声情報を生成するための記述情報を符号化し
た情報を復号する機能を有するか否かの情報を上記復号
側状態情報として取得するステップを含み、上記符号化
ステップは、上記復号側状態情報により、上記復号側
が、合成音声情報を生成するための記述情報を符号化し
た情報を復号する機能を持たない場合、上記合成音声情
報を自然音響符号化方式により符号化するステップを含
むことを特徴とする。In a twenty-fifth aspect based on the twenty-second aspect, in the decoding-side state information obtaining step, the decoding side has a function of decoding information obtained by coding description information for generating synthesized speech information. Obtaining the information as to whether or not the information as the decoding side state information, wherein the encoding step is the information in which the decoding side encodes the description information for generating the synthesized speech information by the decoding side state information. If there is no function of decoding the synthesized speech information, the method includes a step of encoding the synthesized speech information by a natural acoustic encoding method.
【0053】第26の発明は、符号化側で任意の情報を
符号化し、当該符号化情報を復号側で復号するための情
報処理方法であって、1つの情報毎に複数種類の符号化
方式で符号化した複数種類の符号化情報を生成する符号
化ステップと、上記復号側の状態情報を取得する復号側
状態情報取得ステップと、上記復号側状態情報取得ステ
ップにより得られた復号側状態情報に基づいて、上記符
号化ステップにより得られた複数種類の符号化情報から
選択した符号化情報を復号する復号ステップを含むこと
を特徴とする。A twenty-sixth invention is an information processing method for encoding arbitrary information on the encoding side and decoding the encoded information on the decoding side, wherein a plurality of types of encoding schemes are provided for each piece of information. An encoding step of generating a plurality of types of encoded information encoded in the above, a decoding-side state information obtaining step of obtaining the decoding-side state information, and a decoding-side state information obtained by the decoding-side state information obtaining step A decoding step of decoding encoded information selected from the plurality of types of encoded information obtained in the encoding step based on the above.
【0054】第27の発明は、上記第26の発明におい
て、上記復号側状態情報取得ステップは、上記復号側
が、コンピュータグラフィックス画像情報を生成するた
めの記述情報を符号化した情報を復号する機能を有する
か否かの情報を上記復号側状態情報として取得するステ
ップを含み、上記符号化ステップは、上記コンピュータ
グラフィックス画像情報を生成するための記述情報を符
号化する第1の符号化ステップと、上記コンピュータグ
ラフィックス画像情報を自然画像符号化方式により符号
化する第2の符号化ステップとを含み、上記復号ステッ
プは、上記復号側状態情報により、上記復号側が、上記
コンピュータグラフィックス画像情報を生成するための
記述情報を符号化した情報を復号する機能を持たない場
合、上記第2の符号化ステップにより得られた符号化情
報を復号するステップを含むことを特徴とする。In a twenty-seventh aspect based on the twenty-sixth aspect, the decoding side state information acquiring step is characterized in that the decoding side decodes information obtained by coding description information for generating computer graphics image information. Acquiring the information as to whether or not the information has the decoding side state information, wherein the encoding step includes a first encoding step of encoding descriptive information for generating the computer graphics image information; A second encoding step of encoding the computer graphics image information by a natural image encoding method, wherein the decoding step includes the following steps: If there is no function of decoding the information obtained by encoding the description information for generation, the second code Characterized in that it comprises a step of decoding the obtained encoded information in step.
【0055】第28の発明は、上記第26の発明におい
て、上記復号側状態情報取得ステップは、上記復号側
が、合成音声情報を生成するための記述情報を符号化し
た情報を復号する機能を有するか否かの情報を上記復号
側状態情報として取得するステップを含み、上記符号化
ステップは、上記合成音声情報を生成するための記述情
報を符号化する第1の符号化ステップと、上記合成音声
情報を自然音響符号化方式により符号化する第2の符号
化ステップとを含み、上記復号ステップは、上記復号側
状態情報により、上記復号側が、上記合成音声情報を生
成するための記述情報を符号化した情報を復号する機能
を持たない場合、上記第2の符号化ステップにより得ら
れた符号化情報を復号するステップを含むことを特徴と
する。In a twenty-eighth aspect based on the twenty-sixth aspect, the decoding-side state information acquiring step has a function that the decoding side decodes information obtained by coding description information for generating synthetic speech information. Acquiring the information as to whether or not the information is the decoding-side state information, wherein the encoding step includes a first encoding step of encoding descriptive information for generating the synthesized speech information; A second encoding step of encoding information by a natural acoustic encoding method, wherein the decoding step encodes descriptive information for the decoding side to generate the synthesized speech information by the decoding side state information. If the apparatus does not have a function of decoding the encoded information, the method includes a step of decoding the encoded information obtained in the second encoding step.
【0056】第29の発明は、上記第22又は26の発
明において、上記符号化ステップは、MPEG−4符号
化方式の符号化方式により情報を符号化するステップを
含むことを特徴とする。According to a twenty-ninth aspect, in the twenty-second or twenty-sixth aspect, the encoding step includes a step of encoding information according to an MPEG-4 encoding scheme.
【0057】第30の発明は、請求項1〜10の何れか
に記載の符号化装置、又は請求項11〜20の何れかに
記載の復号装置、又は請求項21に記載の情報処理シス
テムの手段を実施するための処理プログラムを、コンピ
ュータが読出可能に格納した記憶媒体であることを特徴
とする。According to a thirtieth invention, an encoding apparatus according to any one of claims 1 to 10, a decoding apparatus according to any one of claims 11 to 20, or an information processing system according to claim 21 A computer-readable storage medium stores a processing program for implementing the means.
【0058】第31の発明は、請求項22〜29の何れ
かに記載の情報処理方法の処理ステップを、コンピュー
タが読出可能に格納した記憶媒体であることを特徴とす
る。According to a thirty-first aspect of the present invention, a computer readable storage medium stores the processing steps of the information processing method according to any one of claims 22 to 29.
【0059】[0059]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0060】(第1の実施の形態)本発明は、例えば、
図1に示すようなデータ処理システム100に適用され
る。このデータ処理システム100は、MPEG−4符
号化方式を採用したシステムであり、符号化装置110
と、2つの復号装置130及び140とが、互いにデー
タ授受可能なように接続された構成としている。以下、
このようなデータ処理システム100について具体的に
説明する。(First Embodiment) The present invention provides, for example,
It is applied to a data processing system 100 as shown in FIG. This data processing system 100 is a system that employs the MPEG-4 encoding method,
And two decoding devices 130 and 140 are connected so that data can be exchanged with each other. Less than,
Such a data processing system 100 will be specifically described.
【0061】[符号化装置110の構成]符号化装置1
10は、自然画像の動画像や音声の出力方法やCGで生
成する画像のコマンド等のシーン記述情報(シーン記述
言語)を生成するシーン設定器111と、シーン設定器
111により生成されたシーン記述情報を符号化するB
IFS符号化器114と、シーン設定器111により生
成されたシーン記述情報をレンダリングして画像データ
を生成するレンダリング部113と、ビデオ等の各種画
像データを蓄積している記憶部115と、記憶部115
に蓄積されている画像データ又はレンダリング部113
にて得られた画像データを符号化するビジュアル符号化
部117と、各種オーディオデータを蓄積している記憶
部118と、記憶部118に蓄積されているオーディオ
データを符号化するオーディオ符号化部119と、BI
FS符号化器114、ビジュアル符号化部117、及び
オーディオ符号化部119にて得られた各符号化データ
を多重化して出力する多重化器121とを備えている。[Configuration of Encoding Device 110] Encoding device 1
Reference numeral 10 denotes a scene setting unit 111 that generates scene description information (scene description language) such as a method of outputting a moving image and a sound of a natural image and an image command generated by CG, and a scene description generated by the scene setting unit 111. B to encode information
An IFS encoder 114, a rendering unit 113 that renders scene description information generated by the scene setting unit 111 to generate image data, a storage unit 115 that stores various image data such as videos, and a storage unit 115
Data or rendering unit 113 stored in
, A storage unit 118 storing various audio data, and an audio coding unit 119 coding the audio data stored in the storage unit 118. And BI
The FS encoder 114, the visual encoder 117, and a multiplexer 121 that multiplexes and outputs each encoded data obtained by the audio encoder 119.
【0062】ここで、符号化装置110は、上記の構成
に加えて、多重化器121の出力先である復号装置の状
態情報を取得するためのデコーダ状態判定器120と、
デコーダ状態判定器120にて得られた情報に基づいて
シーン設定器111にて得られたシーン記述情報の出力
先をレンダリング部113とBIFS符号化部114で
切り替えるセレクタ112と、デコーダ状態判定器12
0にて得られた情報に基づいてビジュアル符号化部11
7に対して入力する画像データをレンダリング部113
での画像データと記憶部115での画像データで切り替
えるセレクタ116とを更に加えた構成としている。Here, in addition to the above configuration, the encoding apparatus 110 includes a decoder state determination unit 120 for acquiring state information of the decoding apparatus to which the multiplexer 121 outputs, and
A selector 112 for switching an output destination of the scene description information obtained by the scene setting unit 111 by the rendering unit 113 and the BIFS encoding unit 114 based on the information obtained by the decoder state determination unit 120;
0 based on the information obtained at 0
Image data to be input to the rendering unit 113
And a selector 116 for switching between the image data in the storage unit 115 and the image data in the storage unit 115.
【0063】シーン設定器111は、ユーザからの指示
に従って、自然画像の動画像や音声の出力方法、CGで
生成する画像のコマンド等のシーン記述情報を生成す
る。The scene setting unit 111 generates scene description information such as a method of outputting a moving image of a natural image or a sound, a command of an image generated by CG, etc. in accordance with an instruction from a user.
【0064】デコーダ状態判定器120は、符号化デー
タを出力する復号装置(ここでは、復号装置130又は
復号装置140)の状態情報、例えば、復号可能な符号
化データの符号化方式についての情報を、当該復号装置
と通信して取得し、その取得情報に基づいた制御信号
を、セレクタ112及びセレクタ116にそれぞれ供給
する。The decoder state determiner 120 outputs the state information of the decoding device (here, the decoding device 130 or the decoding device 140) that outputs the coded data, for example, information about the coding method of the coded data that can be decoded. , And obtains a control signal based on the obtained information to the selector 112 and the selector 116, respectively.
【0065】セレクタ112は、デコーダ状態判定器1
20からの制御信号に基づいて、シーン設定器111に
て生成されたCG等に関するシーン記述情報の出力先と
して、レンダリング器113又はBIFS符号化器11
4を選択する。The selector 112 is a decoder state determiner 1
The rendering device 113 or the BIFS encoder 11 outputs the scene description information relating to the CG generated by the scene setting device 111 based on the control signal from the
Select 4.
【0066】レンダリング器113は、セレクタ112
を介して供給されたシーン記述情報をレンダリングし
て、画像データを生成する。The rendering unit 113 includes a selector 112
And renders the scene description information supplied via the. And generates image data.
【0067】BIFS符号化器114は、セレクタ11
2を介して供給されたシーン記述情報を、BIFSによ
って符号化する。The BIFS encoder 114 is connected to the selector 11
2 is encoded by BIFS.
【0068】セレクタ116は、デコーダ状態判定器1
20からの制御信号に基づいて、レンダリング器113
にて得られた画像データ、又は記憶部115に蓄積され
ている画像データを選択し、その選択した画像データ
を、ビジュアル符号化部117に対して入力する。The selector 116 is a decoder state determiner 1
Renderer 113 based on the control signal from
Or the image data stored in the storage unit 115 is selected, and the selected image data is input to the visual encoding unit 117.
【0069】ビジュアル符号化部117は、セレクタ1
16を介して供給された画像データを、当該画像データ
に適したMPEG−4符号化方式のビジュアル符号化方
式に従って符号化する。具体的には、ビジュアル符号化
部117は、ビデオを符号化するビデオ符号化や、非自
然画像符号化方式としてのFBA符号化、メッシュ符号
化、静止画像を符号化する静止画像符号化等の各種符号
化方式での符号化が可能となっており、符号化対象の画
像データに適した符号化方式で当該データの符号化を行
なう。The visual encoding unit 117 has the selector 1
The image data supplied via the MPU 16 is encoded according to a visual encoding method of the MPEG-4 encoding method suitable for the image data. Specifically, the visual encoding unit 117 performs video encoding for encoding video, FBA encoding as a non-natural image encoding method, mesh encoding, still image encoding for encoding still images, and the like. Encoding can be performed in various encoding systems, and the data is encoded using an encoding system suitable for the image data to be encoded.
【0070】オーディオ符号化部119は、記憶部11
8に蓄積されているオーディオデータを、当該オーディ
オデータに適したMPEG−4符号化方式のオーディオ
符号化方式に従って符号化する。具体的には、オーディ
オ符号化器119は、音声用(例えば、CELP符号
化)や、音響用(例えば、AAC符号化)、或いは文字
コードを音声合成するための記述用(例えば、TTS符
号化)、サウンド合成のための記述用(例えば、MID
I方式)等の各種符号化方式での符号化が可能となって
おり、符号化対象のオーディオデータに適した符号化方
式で当該データの符号化を行なう。[0070] The audio encoding unit 119 is provided in the storage unit 11.
8 is encoded according to an audio encoding system of the MPEG-4 encoding system suitable for the audio data. Specifically, the audio encoder 119 is used for audio (for example, CELP encoding), audio (for example, AAC encoding), or description for synthesizing a character code (for example, TTS encoding). ), Description for sound synthesis (eg, MID
It is possible to perform encoding using various encoding methods such as I method), and encodes the data using an encoding method suitable for audio data to be encoded.
【0071】多重化器121は、BIFS符号化器11
4にて得られたBIFS符号化データ、ビジュアル符号
化部117にて得られたビジュアル符号化データ、及び
オーディオ符号化部119にて得られたオーディオ符号
化データを、MPEG−4符号化方式の多重化方式に従
って多重化する。The multiplexer 121 is provided for the BIFS encoder 11
The BIFS coded data obtained in step 4, the visual coded data obtained in the visual coding section 117, and the audio coded data obtained in the audio coding section 119 are converted into MPEG-4 coding schemes. Multiplex according to the multiplexing method.
【0072】上述のような構成により、符号化装置11
0は、特に、符号化データの出力先の復号装置の状態
(復号能力)に基づいて、CG画像については、CGを
生成するためのシーン記述情報をBIFS符号化したデ
ータと、CGをビジュアル符号化の一機能であるビデオ
符号化(自然画像符号化)したデータとの何れかを選択
して出力するようになされている。With the above configuration, the encoding device 11
0 is, in particular, for a CG image, BIFS-encoded scene description information for generating a CG, and a visual code for the CG, based on the state (decoding capability) of the decoding device at the output destination of the encoded data. And one of video-encoded (natural image-encoded) data, which is one of the functions.
【0073】[復号装置130の構成]復号装置130
は、符号化装置110で用いられる各種符号化方式に対
応した復号機能を有するものであり、符号化装置110
からの多重化データから各符号化データを分離する分離
器132と、分離器132での分離により得られたBI
FS符号化データを復号してシーン記述情報を再生する
BIFS復号部133と、BIFS復号部133にて再
生されたシーン記述情報のCGのコマンド等に従ってレ
ンダリングを行って画像データを生成するレンダリング
器134と、分離器132での分離により得られたビジ
ュアル符号化データを復号して画像データを再生或いは
生成するビジュアル復号部135と、レンダリング器1
34にて生成された画像データ及びビジュアル復号部1
35にて再生又は生成された画像データを合成する合成
器136と、合成器136にて得られた合成画像データ
を表示するディスプレイ137と、分離器132での分
離により得られたオーディオ符号化データを復号してオ
ーディオデータを再生するオーディオ復号部138と、
オーディオ復号部138にて再生されたオーディオデー
タを出力するスピーカ139とを備えている。[Configuration of Decoding Device 130]
Has a decoding function corresponding to various encoding methods used in the encoding device 110.
132 for separating each encoded data from the multiplexed data from
A BIFS decoding unit 133 that decodes the FS encoded data and reproduces the scene description information, and a rendering unit 134 that performs rendering according to the CG command of the scene description information reproduced by the BIFS decoding unit 133 and generates image data. A visual decoding unit 135 that decodes the visual coded data obtained by the separation in the separator 132 to reproduce or generate image data, and a rendering unit 1
Image data and visual decoding unit 1 generated in step 34
A synthesizer 136 for synthesizing the image data reproduced or generated at 35, a display 137 for displaying the synthesized image data obtained at the synthesizer 136, and audio encoded data obtained by the separation at the separator 132 An audio decoding unit 138 for decoding the audio data and reproducing the audio data;
And a speaker 139 for outputting audio data reproduced by the audio decoding unit 138.
【0074】さらに、復号装置130は、自装置の状態
(ここでは、自装置が有する復号器の種類等の状態)を
把握し、それを符号化装置110に通知するためのデコ
ーダ状態送信器131を備えている。したがって、デコ
ーダ状態送信器131は、自装置が、BIFS符号化デ
ータ、各ビジュアル符号化データ、及び各オーディオ符
号化データを復号できることを把握している。Further, the decoding apparatus 130 grasps the state of the apparatus itself (here, the state of the type of the decoder of the apparatus, etc.), and notifies the encoding apparatus 110 of the state by transmitting a decoder state transmitter 131. It has. Accordingly, the decoder status transmitter 131 knows that the device itself can decode BIFS encoded data, visual encoded data, and audio encoded data.
【0075】[復号装置140の構成]復号装置140
は、符号化装置110で用いられる各種符号化方式のう
ち、ビデオ符号化及び音声符号化に対応する復号機能の
みを有するものであり、符号化装置110からの多重化
データから各符号化データを分離する分離器142と、
分離器142での分離により得られたビジュアル符号化
データ(ビジュアル符号化の一機能であるビデオ符号化
により得られたビデオ符号化データ)を復号して画像デ
ータを再生するビデオ復号器143と、ビデオ復号器1
43にて再生された画像データを表示するディスプレイ
144と、分離器142での分離により得られたオーデ
ィオ符号化データ(オーディオ符号化の一機能である音
声符号化により得られた音声符号化データ)を復号して
音声データを再生する音声復号器145と、音声復号器
145にて再生された音声データを出力するスピーカ1
46とを備えている。[Configuration of Decoding Device 140] Decoding Device 140
Has only a decoding function corresponding to video encoding and audio encoding among various encoding methods used in the encoding device 110, and encodes each encoded data from the multiplexed data from the encoding device 110. A separator 142 for separating;
A video decoder 143 that decodes the visual coded data obtained by the separation in the separator 142 (video coded data obtained by video coding which is a function of the visual coding) to reproduce image data; Video decoder 1
A display 144 for displaying the image data reproduced at 43, and audio encoded data obtained by the separation at the separator 142 (audio encoded data obtained by audio encoding which is a function of audio encoding) Decoder 145 that decodes audio data to reproduce audio data, and speaker 1 that outputs audio data reproduced by audio decoder 145
46.
【0076】さらに、復号装置140は、自装置の状態
(ここでは、自装置が有する復号器の種類等の状態)を
把握し、それを符号化装置110に通知するためのデコ
ーダ状態送信器141を備えている。したがって、デコ
ーダ状態送信器141は、自装置が、ビデオ符号化デー
タ、及び音声符号化データのみを復号できることを把握
している。Further, decoding apparatus 140 grasps the state of its own apparatus (here, the state such as the type of decoder of its own apparatus), and decoder state transmitter 141 for notifying coding apparatus 110 of the state. It has. Therefore, the decoder status transmitter 141 recognizes that it can decode only the video coded data and the voice coded data.
【0077】[符号化装置110の出力先が復号装置1
30の場合の動作]ここでは、符号化装置110で符号
化されたデータを、復号装置130で再生する場合の動
作について説明する。[Encoding device 110 outputs to decoding device 1
Operation in Case of 30] Here, an operation in the case where the data encoded by the encoding device 110 is reproduced by the decoding device 130 will be described.
【0078】まず、符号化装置110で符号化対象とな
る動画像を、例えば、図2に示すような画像とする。こ
の図2において、”150”は、CGで作成された部屋
の画像を表す。”151”は、撮影して得られた動画像
(ビデオ)から切出された牛の画像を表す。この牛の画
像151のデータは、記憶部115に格納されている。
また、その牛の泣き声のデータは、記憶部118に格納
されている。”152”は、CGで作成されたウサギの
画像を表す。First, a moving image to be encoded by the encoding device 110 is, for example, an image as shown in FIG. In FIG. 2, "150" represents an image of a room created by CG. “151” represents a cow image cut out from a moving image (video) obtained by shooting. The data of the cow image 151 is stored in the storage unit 115.
The data of the cry of the cow is stored in the storage unit 118. “152” represents a rabbit image created by CG.
【0079】上記図2に示したような画像を符号化する
際、部屋の画像150、及びウサギの画像152につい
ては、シーン設定器111において、当該牛及びウサギ
のCGを生成するためのコマンド等がシーン記述情報と
して作成され、このシーン記述情報が、BIFS符号化
部114によりBIFS符号化方式で符号化される。When the image shown in FIG. 2 is encoded, the scene setting device 111 generates a command or the like for generating the CG of the cow and the rabbit with respect to the room image 150 and the rabbit image 152. Is created as scene description information, and the scene description information is encoded by the BIFS encoding unit 114 in the BIFS encoding method.
【0080】一方、牛の画像151については、記憶部
115から読み出されて、ビジュアル符号化部117に
よりMPEG−4符号化方式のビデオ符号化方式で符号
化される。また、その泣き声のオーディオデータは、記
憶部118から読み出されて、オーディオ符号化部11
9によりMPEG−4符号化方式の音声符号化方式で符
号化される。On the other hand, the cow image 151 is read from the storage unit 115, and is encoded by the visual encoding unit 117 in the video encoding system of the MPEG-4 encoding system. Also, the audio data of the cry is read from the storage unit 118 and is read from the audio encoding unit 11.
9 is encoded by the audio encoding method of the MPEG-4 encoding method.
【0081】そこで、符号化装置110は、上述のよう
な符号化に先立ち、デコーダ状態判定器120を動作さ
せ、復号装置130のデコーダ状態送信器131と通信
を行う。Therefore, prior to the above-described encoding, encoding apparatus 110 operates decoder state determiner 120 to communicate with decoder state transmitter 131 of decoding apparatus 130.
【0082】復号装置130は、上述したように、符号
化装置110にて用いられる各種符号化方式に対応した
復号機能(BIFS復号部133、ビジュアル復号部1
35、及びオーディオ復号部138)を備えていること
から、BIFS符号、ビジュアルの各種符号化データ、
及びオーディオの各種符号化データを復号できることを
把握し、このことを復号装置130の状態としてデコー
ダ状態送信器131によって符号化装置110へ通知す
る。As described above, the decoding device 130 has a decoding function (BIFS decoding unit 133, visual decoding unit 1) corresponding to various encoding methods used in the encoding device 110.
35 and the audio decoding unit 138), BIFS code, various coded data of visual,
It recognizes that various encoded data of audio can be decoded, and notifies the encoding device 110 of this fact as the state of the decoding device 130 by the decoder status transmitter 131.
【0083】符号化装置110において、デコーダ状態
判定器120は、復号装置130からの状態情報を受け
取ると、当該情報に基づいて符号化を実行することを各
処理部に指示する。すなわち、デコーダ状態判定器12
0は、セレクタ112に対しては出力先をBIFS符号
化部114とする制御信号を与え、セレクタ116に対
しては入力先を記憶部115とする制御信号を与える。In the encoding device 110, when the decoder status judgment unit 120 receives the status information from the decoding device 130, it instructs each processing unit to execute the encoding based on the information. That is, the decoder state determiner 12
A value of 0 gives the selector 112 a control signal that sets the output destination to the BIFS encoding unit 114, and gives the selector 116 a control signal that sets the input destination to the storage unit 115.
【0084】これにより、シーン設定器111で作成さ
れた部屋及びウサギの画像150,152のCGのコマ
ンドのシーン記述情報は、セレクタ112を介してBI
FS符号化部114に対して入力される。BIFS符号
化部114は、シーン設定器111からのシーン記述情
報(部屋及びウサギの画像150,152のCGのコマ
ンド)をBIFS符号化する。BIFS符号化部114
にて得られた符号化データ(BIFS符号化データ)
は、多重化器121に供給される。Thus, the scene description information of the CG commands of the room and rabbit images 150 and 152 created by the scene setting device 111 is transmitted to the BI
Input to FS encoding section 114. The BIFS encoding unit 114 BIFS-encodes the scene description information (CG commands of the room and rabbit images 150 and 152) from the scene setting unit 111. BIFS encoder 114
Encoded data (BIFS encoded data) obtained in
Is supplied to the multiplexer 121.
【0085】また、記憶部115に格納されている牛の
画像151のデータは、セレクタ116を介して、ビジ
ュアル符号化部117に対して読み出される。ビジュア
ル符号化部117は、セレクタ116を介して記憶部1
15から読み出された牛の画像151のデータを、当該
データに適した符号化方式(ビデオ符号化方式)で符号
化する。ビジュアル符号化部117にて得られた符号化
データ(ビデオ符号化データ)は、多重化器121に供
給される。The data of the cow image 151 stored in the storage unit 115 is read out to the visual encoding unit 117 via the selector 116. The visual encoding unit 117 communicates with the storage unit 1 via the selector 116.
The data of the cow image 151 read from 15 is encoded by an encoding method (video encoding method) suitable for the data. The encoded data (video encoded data) obtained by the visual encoding unit 117 is supplied to the multiplexer 121.
【0086】また、記憶部118に格納されている牛の
泣き声のオーディオデータは、オーディオ符号化部11
9に対して読み出される。オーディオ符号化部119
は、記憶部118から読み出された牛の泣き声のオーデ
ィオデータを、当該データに適した符号化方式(音声符
号化方式)で符号化する。オーディオ符号化部119に
て得られた符号化データ(音声符号化データ)は、多重
化器121に供給される。The audio data of the cow cry stored in the storage unit 118 is output from the audio encoding unit 11.
9 is read. Audio encoding section 119
Encodes the cow crying audio data read from the storage unit 118 using an encoding method (speech encoding method) suitable for the data. The encoded data (audio encoded data) obtained by the audio encoding unit 119 is supplied to the multiplexer 121.
【0087】上述のように、部屋の画像150、ウサギ
の画像152のCGのコマンドに関しては、復号装置1
30がBIFS符号化データの復号が行なえるBIFS
復号部133を備えているので、BIFS符号化され、
牛の画像151に関しては、復号装置130がビデオ符
号化データの復号が行なえるビジュアル復号部135を
備えているので、ビデオ符号化され、牛の泣き声のオー
ディオデータに関しては、復号装置130が音声符号化
データの復号が行えるオーディオ復号部138を備えて
いるので、音声符号化される。As described above, regarding the CG commands of the room image 150 and the rabbit image 152, the decoding device 1
30 is a BIFS capable of decoding BIFS encoded data
Since it has the decoding unit 133, it is BIFS-encoded,
For the cow image 151, the decoding device 130 includes the visual decoding unit 135 capable of decoding the video encoded data. Therefore, for the audio data of the cow cry which is video-encoded, the decoding device 130 Since it has the audio decoding unit 138 that can decode the encoded data, the audio is encoded.
【0088】そして、多重化器121は、BIFS符号
化器114からのBIFS符号化データ、ビジュアル符
号化部117からのビデオ符号化データ、及びオーディ
オ符号化部119からの音声符号化データを多重化し
て、その多重化データを復号装置130に対して出力す
る。The multiplexer 121 multiplexes the BIFS coded data from the BIFS coder 114, the video coded data from the visual coder 117, and the audio coded data from the audio coder 119. Then, the multiplexed data is output to the decoding device 130.
【0089】図3(a)は、多重化器121にて得られ
る多重化データを示したものである。ここでの多重化デ
ータは、上記図3(a)に示すように、符号化データ部
161〜164を含み、符号化データ部161(Roo
m BIFS code)は、部屋の画像150をBI
FS符号化した結果のBIFS符号化データが格納され
たデータ部であり、符号化データ部162(Rabbi
t BIFS code)は、ウサギの画像152をB
IFS符号化した結果のBIFS符号化データが格納さ
れたデータ部であり、符号化データ部163(Catt
le Video code)は、牛の画像151をビ
デオ符号化した結果のビデオ符号化データが格納された
データ部であり、符号化データ部164(Audio
code)は、牛の泣き声を音声符号化した結果の音声
符号化データが格納されたデータ部である。このような
多重化データが、復号装置130に対して入力される。FIG. 3A shows multiplexed data obtained by the multiplexer 121. The multiplexed data here includes encoded data units 161 to 164, as shown in FIG.
m BIFS code) converts the room image 150 into BI
This is a data section in which BIFS encoded data resulting from the FS encoding is stored, and is encoded data section 162 (Rabbi).
t BIFS code) converts the image 152 of the rabbit to B
This is a data section in which BIFS encoded data resulting from the IFS encoding is stored, and is encoded data section 163 (Catt).
The “le Video code” is a data portion in which video encoded data obtained by video encoding the cow image 151 is stored, and the encoded data portion 164 (Audio) is stored.
code) is a data section in which voice-encoded data as a result of voice-encoding a cow cry is stored. Such multiplexed data is input to the decoding device 130.
【0090】復号装置130において、分離器132
は、符号化装置110からの上記図3(a)に示したよ
うな多重化データを、BIFS符号化データ(161,
162)、ビデオ符号化データ(163)、及び音声符
号化データ(164)に分離して、BIFS符号化デー
タをBIFS復号部133へ供給し、ビデオ符号化デー
タをビジュアル復号部135へ供給し、音声符号化デー
タをオーディオ復号部138に供給する。In the decoding device 130, the demultiplexer 132
Converts the multiplexed data as shown in FIG. 3A from the encoding device 110 into BIFS encoded data (161,
162), separates the video encoded data (163) and the audio encoded data (164), supplies the BIFS encoded data to the BIFS decoding unit 133, and supplies the video encoded data to the visual decoding unit 135; The audio encoded data is supplied to the audio decoding unit 138.
【0091】BIFS復号部133は、分離器132か
らのBIFS符号化データ(161,162)を復号し
て、部屋の画像150及びウサギの画像152のCGの
コマンドを再生し、そのコマンドをレンダリング器13
4に供給する。The BIFS decoding unit 133 decodes the BIFS encoded data (161, 162) from the separator 132, reproduces the CG commands of the room image 150 and the rabbit image 152, and renders the commands. 13
4
【0092】レンダリング器134は、BIFS復号部
133からのコマンドデータを解釈して、部屋の画像1
50とウサギの画像152をそれぞれ描画し、その描画
した結果得られた各画像データを合成器136に供給す
る。[0092] The rendering unit 134 interprets the command data from the BIFS decoding unit 133 and outputs the image 1 of the room.
The image 152 of the rabbit and the image 152 of the rabbit are respectively drawn, and each image data obtained as a result of the drawing is supplied to the synthesizer 136.
【0093】ビジュアル復号部135は、分離器132
からのビデオ符号化データ(163)を復号し、牛の画
像151を再生し、その画像データを合成器136に供
給する。The visual decoding unit 135 includes a
, And reproduces the cow image 151, and supplies the image data to the synthesizer 136.
【0094】合成器136は、レンダリング器134及
びビジュアル復号部135からの各画像データ、すなわ
ち部屋の画像150、ウサギの画像152、及び牛の画
像151を合成し、その合成画像データをディスプレイ
137に供給する。ディスプレイ137は、合成器13
6からの合成画像を表示する。したがって、ディスプレ
イ137には、上記図2に示したような画像が表示され
る。The synthesizer 136 combines the image data from the rendering unit 134 and the visual decoding unit 135, that is, the room image 150, the rabbit image 152, and the cow image 151, and displays the synthesized image data on the display 137. Supply. The display 137 includes the synthesizer 13
6 is displayed. Therefore, the image as shown in FIG. 2 is displayed on the display 137.
【0095】一方、オーディオ復号部138は、分離器
132からの音声符号化データ(164)を復号し、牛
の声の音声データを再生し、それをスピーカ139を介
して出力する。したがって、ディスプレイ137の表示
画面において、牛の画像151の鳴き声が、スピーカ1
39から出力される。On the other hand, the audio decoding unit 138 decodes the encoded audio data (164) from the separator 132, reproduces the audio data of the cow voice, and outputs it through the speaker 139. Therefore, on the display screen of the display 137, the cry of the cow image 151 is heard by the speaker 1.
It is output from 39.
【0096】[符号化装置110の出力先が復号装置1
40の場合の動作]ここでは、符号化装置110で符号
化されたデータを、復号装置140で再生する場合の動
作について説明する。尚、符号化装置110で符号化対
象となる動画像は、上述した復号装置130の場合と同
様に、図2に示すような画像とする。[Encoding device 110 outputs to decoding device 1
Operation in Case of 40] Here, the operation in the case where the data encoded by encoding apparatus 110 is reproduced by decoding apparatus 140 will be described. It should be noted that the moving image to be encoded by the encoding device 110 is an image as shown in FIG.
【0097】まず、上述した復号装置130の場合と同
様に、符号化装置110は、符号化に先立ち、デコーダ
状態判定器120を動作させ、復号装置140のデコー
ダ状態送信器141と通信を行う。First, as in the case of the decoding apparatus 130 described above, the coding apparatus 110 operates the decoder state determination unit 120 and performs communication with the decoder state transmitter 141 of the decoding apparatus 140 prior to encoding.
【0098】復号装置140は、上述した復号装置13
0とは異なり、BIFS符号化データを復号する機能は
持っておらず、ビジュアル符号化の一機能であるビデオ
符号化によって得られた符号化データ(ビデオ符号化デ
ータ)のみ復号できるビデオ復号器143、及び音声符
号化データのみを復号できる音声復号器145を備えて
いることから、ビデオ符号化データ及び音声符号化デー
タのみ復号できることを把握し、このことを復号装置1
40の状態としてデコーダ状態送信器141によって符
号化装置110へ通知する。The decoding device 140 is the same as the decoding device 13 described above.
Unlike 0, the video decoder 143 does not have a function of decoding BIFS coded data, and can decode only coded data (video coded data) obtained by video coding which is a function of visual coding. , And the audio decoder 145 that can decode only the audio encoded data, it is understood that only the video encoded data and the audio encoded data can be decoded.
The decoder status transmitter 141 notifies the encoding device 110 of the status of 40.
【0099】符号化装置110において、デコーダ状態
判定器120は、復号装置140からの状態情報を受け
取ると、当該情報に基づいて符号化を実行することを各
処理部に指示する。すなわち、デコーダ状態判定器12
0は、セレクタ112に対して、出力先をレンダリング
器113とする制御信号を与える。また、デコーダ状態
判定器120は、セレクタ116に対して、部屋の画像
150及びウサギの画像152のCG画像の符号化時に
は入力先をレンダリング器113とし、牛の画像151
の符号化時には入力先を記憶部115とする制御信号を
与える。In the encoding device 110, when the decoder status judgment unit 120 receives the status information from the decoding device 140, it instructs each processing unit to execute the encoding based on the information. That is, the decoder state determiner 12
0 gives a control signal to the selector 112 to set the output destination to the rendering unit 113. In addition, the decoder state determination unit 120 sets the input destination to the rendering unit 113 when encoding the CG image of the room image 150 and the rabbit image 152 with respect to the selector 116, and outputs the cow image 151.
At the time of encoding, a control signal with the input destination being the storage unit 115 is provided.
【0100】これにより、シーン設定器111で作成さ
れた部屋及びウサギの画像150,152のCGのコマ
ンドのシーン記述情報は、セレクタ112を介してレン
ダリング器113に対して入力される。レンダリング器
113は、セレクタ112を介して供給された部屋及び
ウサギの画像150,152のCGのコマンドを解釈
し、部屋及びウサギの画像150,152を描写する。
この描写された部屋及びウサギの画像150,152
は、セレクタ116を介して、ビジュアル符号化部11
7へ供給される。ビジュアル符号化部117は、セレク
タ116を介して供給された部屋及びウサギの画像15
0,152を、ビジュアル符号化の一機能であるビデオ
符号化する。ビジュアル符号化部117にて得られた符
号化データ(ビデオ符号化データ)は、多重化器121
に供給される。Thus, the scene description information of the CG commands of the room and rabbit images 150 and 152 created by the scene setting device 111 is input to the rendering device 113 via the selector 112. The rendering unit 113 interprets the CG commands of the room and rabbit images 150 and 152 supplied via the selector 112 and renders the room and rabbit images 150 and 152.
Images 150 and 152 of the depicted room and rabbit
Is supplied to the visual encoding unit 11 via the selector 116.
7. The visual encoding unit 117 outputs the image 15 of the room and the rabbit supplied through the selector 116.
0, 152 is video encoded, which is a function of visual encoding. The encoded data (video encoded data) obtained by the visual encoding unit 117 is
Supplied to
【0101】また、記憶部115に格納されている牛の
画像151のデータは、セレクタ116を介して、ビジ
ュアル符号化部117に対して読み出される。ビジュア
ル符号化部117は、セレクタ116を介して記憶部1
15から読み出された牛の画像151のデータを、ビジ
ュアル符号化の一機能であるビデオ符号化する。ビジュ
アル符号化部117にて得られた符号化データ(ビデオ
符号化データ)は、多重化器121に供給される。The data of the cow image 151 stored in the storage unit 115 is read out to the visual encoding unit 117 via the selector 116. The visual encoding unit 117 communicates with the storage unit 1 via the selector 116.
The data of the cow image 151 read from 15 is video-encoded, which is a function of visual encoding. The encoded data (video encoded data) obtained by the visual encoding unit 117 is supplied to the multiplexer 121.
【0102】また、記憶部118に格納されている牛の
泣き声のオーディオデータは、オーディオ符号化部11
9に対して読み出される。オーディオ符号化部119
は、記憶部118から読み出された牛の泣き声のオーデ
ィオデータを、音声符号化する。オーディオ符号化部1
19にて得られた符号化データ(音声符号化データ)
は、多重化器121に供給される。The audio data of the cow cry stored in the storage unit 118 is
9 is read. Audio encoding section 119
Encodes the audio data of the cow cry read from the storage unit 118 by voice encoding. Audio encoding unit 1
Encoded data (audio encoded data) obtained in 19
Is supplied to the multiplexer 121.
【0103】上述のように、部屋の画像150、ウサギ
の画像152のCGのコマンドに関しては、復号装置1
40がBIFS復号機能を備えておらず、復号装置14
0が備えているビデオ復号器143に合わせて、ビデオ
符号化され、牛の画像151に関しては、復号装置14
0がビデオ復号器143を備えているので、ビデオ符号
化され、牛の泣き声のオーディオデータに関しては、復
号装置140が音声符号化データの復号が行える音声復
号器145を備えているので、音声符号化される。As described above, regarding the CG commands of the room image 150 and the rabbit image 152, the decoding device 1
40 does not have a BIFS decoding function and the decoding device 14
0 is video-encoded according to the video decoder 143 of the decoding device 14 for the cow image 151.
0 is provided with the video decoder 143, so that the audio data of the cow cry is video-encoded, and the decoding device 140 is provided with the audio decoder 145 capable of decoding the encoded audio data. Be transformed into
【0104】そして、多重化器121は、ビジュアル符
号化器117からのビデオ符号化データ、及びオーディ
オ符号化部119からの音声符号化データを多重化し
て、その多重化データを復号装置130に対して出力す
る。The multiplexer 121 multiplexes the video coded data from the visual coder 117 and the voice coded data from the audio coder 119, and sends the multiplexed data to the decoding device 130. Output.
【0105】上記図3(b)は、多重化器121にて得
られる多重化データを示したものである。ここでの多重
化データは、上記図3(b)に示すように、符号化デー
タ部171〜174を含み、符号化データ部171(R
oom Video code)は、部屋の画像150
をビデオ符号化した結果のビデオ符号化データが格納さ
れたデータ部であり、符号化データ部172(Rabb
it Video code)は、ウサギの画像152
をビデオ符号化した結果のビデオ符号化データが格納さ
れたデータ部であり、符号化データ部173(Catt
le Videocode)は、牛の画像151をビデ
オ符号化した結果のビデオ符号化データが格納されたデ
ータ部であり、符号化データ部174(Audio c
ode)は、牛の泣き声を音声符号化した結果の音声符
号化データが格納されたデータ部である。このような多
重化データが、復号装置140に対して入力される。FIG. 3B shows the multiplexed data obtained by the multiplexer 121. As shown in FIG. 3B, the multiplexed data here includes coded data units 171 to 174, and the coded data unit 171 (R
oom Video code) is the image 150 of the room.
Is a data portion in which video coded data as a result of video coding is stored, and is a coded data portion 172 (Rabb
it Video code) is a rabbit image 152
Is a data portion in which video encoded data as a result of video encoding is stored, and is encoded data portion 173 (Catt).
The “le Videocode” is a data section in which video encoded data obtained by video encoding the cow image 151 is stored, and an encoded data section 174 (Audio c) is stored.
mode) is a data section in which voice-encoded data obtained by voice-encoding a cow's cry is stored. Such multiplexed data is input to the decoding device 140.
【0106】復号装置140において、分離器142
は、符号化装置110からの上記図3(b)に示したよ
うな多重化データを、ビデオ符号化データ(171〜1
73)、及び音声符号化データ(174)に分離して、
ビデオ符号化データをビデオ復号器143へ供給し、音
声符号化データを音声復号器145に供給する。In the decoding device 140, the separator 142
Converts the multiplexed data as shown in FIG. 3B from the encoding device 110 into video encoded data (171 to 1).
73), and audio encoded data (174).
The encoded video data is supplied to a video decoder 143, and the encoded audio data is supplied to an audio decoder 145.
【0107】ビデオ復号器143は、分離器142から
のビデオ符号化データ(171〜173)を復号し、部
屋の画像150、ウサギの画像152、及び牛の画像1
51を再生し、それらの画像データをディスプレイ14
4に供給する。ディスプレイ144は、ビデオ復号器1
43からの画像を表示する。したがって、ディスプレイ
144には、上記図2に示したような画像が表示され
る。The video decoder 143 decodes the video coded data (171 to 173) from the separator 142, and outputs a room image 150, a rabbit image 152, and a cow image 1
51 and reproduces the image data on the display 14.
4 The display 144 displays the video decoder 1
The image from 43 is displayed. Therefore, an image as shown in FIG. 2 is displayed on the display 144.
【0108】一方、音声復号器145は、分離器142
からの音声符号化データ(174)を復号し、牛の声の
音声データを再生し、それをスピーカ146を介して出
力する。したがって、ディスプレイ144の表示画面に
おいて、牛の画像151の鳴き声が、スピーカ146か
ら出力される。On the other hand, speech decoder 145
, And reproduces the voice data of the cow's voice, and outputs it via the speaker 146. Therefore, on the display screen of the display 144, the cry of the cow image 151 is output from the speaker 146.
【0109】上述のように、本実施の形態では、符号化
装置110での符号化構成を、符号化データの出力先の
復号装置の情報(復号機能)に基づいた符号化を行なう
ように構成したので、符号化装置110の出力先の復号
装置には、それが有する復号機能に対応した符号化デー
タが与えられることになる。したがって、CGのレンダ
リング等の特別な機能を備えていない等というように、
復号側が有する復号構成が如何なる構成であっても、C
G等を自由に扱える符号化側で作成された画像を、情報
の欠陥を生じることなく、好適に再生することができ
る。As described above, in the present embodiment, the encoding configuration in encoding apparatus 110 is configured to perform encoding based on information (decoding function) of a decoding apparatus to which encoded data is output. Therefore, the encoded data corresponding to the decoding function of the output device of the encoding device 110 is provided to the decoding device. Therefore, there is no special function such as CG rendering.
Regardless of the decoding configuration of the decoding side, C
An image created on the encoding side that can freely handle G or the like can be suitably reproduced without causing information defects.
【0110】尚、本実施例の形態においては、データ処
理システム100で採用する符号化方式を、CGとビデ
オを統合的に扱う符号化方式とし、その一例として、M
PEG−4符号化方式を挙げたが、これに限定されるこ
とはない。In the present embodiment, the encoding system employed in the data processing system 100 is an encoding system that handles CG and video in an integrated manner.
Although the PEG-4 encoding method has been described, the present invention is not limited to this.
【0111】また、符号化装置110の記憶部115,
118の構成やそれぞれに格納されているデータは、上
述したデータに限定されることはなく、例えば、1つの
可搬のメディアに記憶された動画像データであったり、
符号化されたデータであってももちろんかまわない。[0111] Also, the storage unit 115,
The configuration of 118 and the data stored in each of them are not limited to the above-mentioned data, for example, moving image data stored in one portable medium,
Of course, it may be coded data.
【0112】また、上記図1に示した各構成部をソフト
ウェアで記述し、演算装置等で処理を行う等の変更も可
能である。Further, it is also possible to change the components shown in FIG. 1 described in FIG. 1 by software and to perform processing by an arithmetic unit or the like.
【0113】また、データ処理システム100での多重
化の方式についても、上述した多重化方式に限定される
ことはなく、例えば、VOP単位で時分割多重化を行う
方式であってももちろんかまわない。The multiplexing method in the data processing system 100 is not limited to the above-described multiplexing method. For example, a time-division multiplexing method for each VOP may be used. .
【0114】また、例えば、復号装置130のデコーダ
状態送信器131が、分離器132がMPEG−4符号
化方式の多重化データから当該データを構成している各
データを分離することができることを把握し、復号装置
140のデコーダ状態送信器141が、分離器142が
ITUで勧告されている多重化方式H.223の多重化
データから当該データを構成している各データを分離す
ることができることを把握していた場合、符号化装置1
10において、多重化器121での多重化方式を、出力
先の復号装置に合わせて適宜変更するようにしてもよ
い。Further, for example, the decoder status transmitter 131 of the decoding device 130 recognizes that the demultiplexer 132 can separate each data constituting the data from the multiplexed data of the MPEG-4 encoding system. Then, the decoder status transmitter 141 of the decoding device 140 determines that the demultiplexer 142 has the multiplexing scheme H. If it is understood that each data constituting the data can be separated from the multiplexed data of H.223, the encoding apparatus 1
In 10, the multiplexing method of the multiplexer 121 may be changed as appropriate in accordance with the decoding device at the output destination.
【0115】また、符号化装置110の出力先の復号装
置の状態を把握するための通信については、上述したよ
うな通信に限定されることはなく、例えば、プロファイ
ルをやり取りすることによって、復号装置の状態を把握
することを実現することも可能である。Further, the communication for grasping the state of the decoding device at the output destination of the encoding device 110 is not limited to the communication described above. For example, by exchanging profiles, the decoding device It is also possible to realize grasping the state of.
【0116】(第2の実施の形態)本発明は、例えば、
図4に示すようなデータ処理システム200に適用され
る。このデータ処理システム200は、MPEG−4符
号化方式を採用したシステムであり、符号化装置210
と、2つの復号装置230及び240とが、互いにデー
タ授受可能なように接続された構成としている。以下、
このようなデータ処理システム200について具体的に
説明する。(Second Embodiment) The present invention provides, for example,
It is applied to a data processing system 200 as shown in FIG. This data processing system 200 is a system that employs the MPEG-4 encoding method, and includes an encoding device 210
And two decoding devices 230 and 240 are connected so that data can be exchanged with each other. Less than,
Such a data processing system 200 will be specifically described.
【0117】[符号化装置210の構成]符号化装置2
10は、顔や体等のアニメーションを設定するためのF
BA設定器211と、FBA設定器211での設定に基
づいた顔や体等のアニメーションに関するアニメーショ
ン記述情報をレンダリングして画像データを生成するレ
ンダイング器213と、FBA設定器211での設定に
基づいた顔や体等のアニメーションに関するアニメーシ
ョン記述情報を符号化するFBA符号化器214と、ビ
デオ等の各種画像データを蓄積している記憶部215
と、記憶部215に蓄積されている画像データ又はレン
ダリング器213にて得られた画像データを符号化する
ビデオ符号化器217と、音声のテキストデータを入力
するための端末装置220と、端末装置220にて入力
されたテキストデータから音声データを生成する音声合
成器222と、音声合成器222にて得られた音声デー
タをCELP符号化方式で符号化するCELP符号化器
223と、音声合成器222にて得られた音声データを
TTS符号化方式で符号化するTTS符号化器224
と、FBA符号化器214又はビデオ符号化器217に
て得られた符号化データとCELP符号化器223又は
TTS符号化器224にて得られた符号化データを多重
化して出力する多重化器219とを備えている。[Configuration of Encoding Device 210] Encoding Device 2
Reference numeral 10 denotes an F for setting animation of a face, a body, and the like.
A BA setting unit 211, a rendering unit 213 that renders animation description information on animation of a face, a body, and the like based on the settings in the FBA setting unit 211 to generate image data, and a setting unit based on the settings in the FBA setting unit 211 An FBA encoder 214 for encoding animation description information related to animation of a face, a body, and the like, and a storage unit 215 for storing various image data such as videos.
A video encoder 217 for encoding image data stored in the storage unit 215 or image data obtained by the rendering unit 213; a terminal device 220 for inputting audio text data; A speech synthesizer 222 for generating speech data from the text data input at 220, a CELP encoder 223 for encoding the speech data obtained by the speech synthesizer 222 by a CELP encoding method, and a speech synthesizer TTS encoder 224 for encoding the audio data obtained in 222 by the TTS encoding method
And a multiplexer that multiplexes the encoded data obtained by the FBA encoder 214 or the video encoder 217 and the encoded data obtained by the CELP encoder 223 or the TTS encoder 224 and outputs the multiplexed data. 219.
【0118】ここで、符号化装置210は、上記の構成
に加えて、多重化器219の出力先である復号装置の状
態情報を取得するためのデコーダ状態判定器226と、
デコーダ状態判定器226にて得られた情報に基づいて
FBA設定器211にて得られたアニメーション記述情
報の出力先をレンダリング器213とFBA符号化器2
14で切り替えるセレクタ212と、デコーダ状態判定
器226にて得られた情報に基づいてビデオ符号化器2
17に対して入力する画像データをレンダリング器21
3からの画像データ又は記憶部215からの画像データ
から選択するセレクタ216と、デコーダ状態判定器2
26にて得られた情報に基づいて多重化器219に対し
て入力する画像の符号化データをFBA符号化器214
からの符号化データ又はビデオ符号化器217からの符
号化データから選択するセレクタ218と、デコーダ状
態判定器226にて得られた情報に基づいて端末装置2
20にて得られたテキストデータの出力先に音声合成器
222とTTS符号化器224を切り替えるセレクタ2
21と、デコーダ状態判定器226にて得られた情報に
基づいて多重化器219に対して入力する音声の符号化
データをCELP符号化器223からの符号化データ又
はTTS符号化器224からの符号化データから選択す
るセレクタ225とを更に加えた構成としている。Here, in addition to the above configuration, encoding apparatus 210 further includes a decoder state determination unit 226 for acquiring state information of the decoding apparatus to which the multiplexer 219 outputs, and
Based on the information obtained by the decoder state determination unit 226, the output destination of the animation description information obtained by the FBA setting unit 211 is determined by the rendering unit 213 and the FBA encoder 2.
14 and the video encoder 2 based on the information obtained by the decoder state determiner 226.
Image data to be input to the rendering device 21
Selector 216 for selecting from the image data from storage unit 3 or the image data from storage unit 215;
The coded data of the image input to the multiplexer 219 based on the information obtained in
A terminal device 2 based on information obtained by a selector 218 for selecting from the encoded data from the decoder or the encoded data from the video encoder 217 and the information obtained by the decoder state determiner 226.
Selector 2 for switching between the speech synthesizer 222 and the TTS encoder 224 to the output destination of the text data obtained at 20.
21 and the speech encoded data input to the multiplexer 219 based on the information obtained by the decoder state decision unit 226, the encoded data from the CELP encoder 223 or the encoded data from the TTS encoder 224. A selector 225 for selecting from encoded data is further added.
【0119】デコーダ状態判定器226は、符号化デー
タを出力する復号装置(ここでは、復号装置230又は
復号装置240)の状態情報、例えば、復号可能な符号
化データの符号化方式についての情報を、当該復号装置
と通信して取得し、その取得情報に基づいた制御信号
を、セレクタ212,216,218,221,225
にそれぞれ供給する。The decoder state determiner 226 outputs the state information of the decoding device (here, the decoding device 230 or the decoding device 240) that outputs the coded data, for example, information about the coding method of the coded data that can be decoded. , And obtains a control signal based on the obtained information by communicating with the selector 212, 216, 218, 221, 225.
Respectively.
【0120】FBA設定器211は、ユーザからの指示
に従って、顔や体等のアニメーションの設定、例えば、
顔や体の構成やその各部の動きの設定(顔や体の定義や
その動きを表すFBAパラメータ)に基づいたアニメー
ション記述情報を生成する。The FBA setting unit 211 sets animation of a face, a body, etc., for example, in accordance with an instruction from the user.
Animation description information is generated based on the configuration of the face and body and the movement of each part thereof (the definition of the face and body and FBA parameters representing the movement).
【0121】セレクタ212は、デコーダ状態判定器2
26からの制御信号に基づいて、FBA設定器211に
て生成されたアニメーション記述情報の出力先として、
レンダリング器213又はFBA符号化器214を選択
する。The selector 212 is a decoder state decision unit 2
As an output destination of the animation description information generated by the FBA setting unit 211 based on the control signal from the
The rendering unit 213 or the FBA encoder 214 is selected.
【0122】レンダリング器213は、セレクタ212
を介して供給されたアニメーション記述情報をレンダリ
ングして、画像データを生成する。The rendering unit 213 includes a selector 212
Renders the animation description information supplied through the. And generates image data.
【0123】FBA符号化器214は、セレクタ212
を介して供給されたアニメーション記述情報を、MPE
G−4符号化方式のビジュアルパートに記載されたFB
A符号化方式によって符号化する。The FBA encoder 214 has a selector 212
The animation description information supplied through the
FB described in the visual part of the G-4 encoding method
Encoding is performed by the A encoding method.
【0124】セレクタ216は、デコーダ状態判定器2
26からの制御信号に基づいて、レンダリング器113
にて得られた画像データ、又は記憶部215に蓄積され
ている画像データを選択し、その選択した画像データ
を、ビデオ符号化器217に対して入力する。The selector 216 is connected to the decoder state determiner 2
Rendering device 113 based on the control signal from
Or the image data stored in the storage unit 215 is selected, and the selected image data is input to the video encoder 217.
【0125】ビデオ符号化器217は、セレクタ216
を介して供給された画像データを、MPEG−4符号化
方式のビデオ符号化方式に従って符号化する。The video encoder 217 includes a selector 216
Is encoded in accordance with the video encoding method of the MPEG-4 encoding method.
【0126】セレクタ218は、デコーダ状態判定器2
26からの制御信号に基づいて、FBA符号化器214
にて得られた符号化データ(FBA符号化データ)、又
はビデオ符号化器217にて得られた符号化データ(ビ
デオ符号化データ)を選択し、その選択した符号化デー
タを、多重化器219に対して入力する。The selector 218 is connected to the decoder state determiner 2
26, the FBA encoder 214
And the encoded data (video encoded data) obtained by the video encoder 217 are selected, and the selected encoded data is transmitted to the multiplexer. 219.
【0127】端末装置220は、ユーザからの指示に従
って、顔や体等のアニメーションに合わせて音声を発生
させるための文章をテキストデータとして生成する。[0127] The terminal device 220 generates, as text data, a sentence for generating a voice in accordance with the animation of the face, body, or the like in accordance with an instruction from the user.
【0128】セレクタ221は、デコーダ状態判定器2
26からの制御信号に基づいて、端末装置220にて生
成されたテキストデータの出力先として、音声合成器2
22又はTTS符号化器224を選択する。The selector 221 is connected to the decoder state determiner 2
The speech synthesizer 2 outputs the text data generated by the terminal device 220 based on the control signal from the
22 or the TTS encoder 224 is selected.
【0129】音声合成器222は、セレクタ216を介
して供給されたテキストデータに対して音声合成処理を
行うことで音声データを生成する。The voice synthesizer 222 generates voice data by performing voice synthesis processing on the text data supplied via the selector 216.
【0130】CELP符号化器223は、音声合成器2
22にて得られた音声データを、MPEG−4符号化方
式のオーディオ符号化方式の一機能であるCELP符号
化方式で符号化する。[0130] The CELP encoder 223 is a speech synthesizer 2.
The audio data obtained in step 22 is encoded by the CELP encoding method, which is a function of the audio encoding method of the MPEG-4 encoding method.
【0131】TTS符号化器224は、セレクタ216
を介して供給されたテキストデータを、MPEG−4符
号化方式のオーディオ符号化方式の一機能であるTTS
符号化方式で符号化する。The TTS encoder 224 includes a selector 216
The text data supplied via the TTS is converted to a TTS which is a function of an audio encoding system of the MPEG-4 encoding system.
Encode using the encoding method.
【0132】セレクタ225は、デコーダ状態判定器2
26からの制御信号に基づいて、CELP符号化器22
3にて得られた符号化データ(CELP符号化デー
タ)、又はTTS符号化器224にて得られた符号化デ
ータ(TTS符号化データ)を選択し、その選択した符
号化データを、多重化器219に対して入力する。The selector 225 is connected to the decoder state determiner 2
26, the CELP encoder 22
3. The coded data (CELP coded data) obtained in step 3 or the coded data (TTS coded data) obtained in the TTS encoder 224 is selected, and the selected coded data is multiplexed. Input to the box 219.
【0133】多重化器219は、セレクタ218を介し
て供給された符号化データ(ビデオ符号化データ)と、
セレクタ225を介して供給された符号化データ(音声
符号化データ)とを、MPEG−4符号化方式の多重化
方式で多重化して出力する。The multiplexer 219 outputs the encoded data (video encoded data) supplied via the selector 218,
The coded data (speech coded data) supplied via the selector 225 is multiplexed by the multiplexing method of the MPEG-4 coding method and output.
【0134】[復号装置230の構成]復号装置230
は、符号化装置210からの多重化データから各符号化
データを分離する分離器232と、分離器232での分
離により得られたFBA符号化データを復号してアニメ
ーション記述情報を再生するFBA復号器233と、F
BA復号器233にて再生されたアニメーション記述情
報等に従ったレンダリングを行って画像データを生成す
るレンダリング器234と、分離器232での分離によ
り得られたビデオ符号化データを復号して画像データを
再生するビデオ復号器235と、レンダリング器234
にて生成された画像データ及びビデオ復号器235にて
再生された画像データを合成する合成器236と、合成
器236にて得られた合成画像データを表示するディス
プレイ237と、分離器232での分離により得られた
TTS符号化データを復号してオーディオデータを再生
するTTS復号器238と、TTS復号器238にて再
生されたオーディオデータを出力するスピーカ239と
を備えている。[Configuration of Decoding Device 230] Decoding Device 230
Is a separator 232 for separating each encoded data from the multiplexed data from the encoding device 210, and an FBA decoding for decoding the FBA encoded data obtained by the separation by the separator 232 and reproducing animation description information. Vessel 233 and F
A rendering unit 234 that generates image data by performing rendering in accordance with the animation description information and the like reproduced by the BA decoder 233, and decodes video encoded data obtained by separation by the separator 232 to generate image data. And a renderer 234 for playing back
, A display 237 for displaying the synthesized image data obtained by the synthesizer 236, and a separator 232 for synthesizing the image data generated by the image data and the image data reproduced by the video decoder 235. A TTS decoder 238 that decodes the TTS encoded data obtained by the separation and reproduces audio data, and a speaker 239 that outputs the audio data reproduced by the TTS decoder 238 are provided.
【0135】さらに、復号装置230は、自装置の状態
(ここでは、自装置が有する復号器の種類等の状態)を
把握し、それを符号化装置210に通知するためのデコ
ーダ状態送信器231を備えている。したがって、デコ
ーダ状態送信器231は、自装置が、FBA符号化デー
タ、ビデオ符号化データ、及びTTS符号化データを復
号できることを把握している。[0135] Furthermore, decoding apparatus 230 grasps the state of its own apparatus (here, the state of the type of its own decoder, etc.), and decoder state transmitter 231 for notifying encoding apparatus 210 of it. It has. Therefore, the decoder status transmitter 231 knows that it can decode the FBA encoded data, the video encoded data, and the TTS encoded data.
【0136】[復号装置240の構成]復号装置240
は、符号化装置210からの多重化データから各符号化
データを分離する分離器242と、分離器242での分
離により得られたビデオ符号化データを復号して画像デ
ータを再生するビデオ復号器243と、ビデオ復号器2
43にて再生された画像データを表示するディスプレイ
244と、分離器242での分離により得られたCEL
P符号化データを復号してオーディオデータを再生する
CELP復号器245と、CELP復号器245にて再
生されたオーディオデータを出力するスピーカ246と
を備えている。[Configuration of Decoding Device 240] Decoding Device 240
Is a separator 242 for separating each encoded data from the multiplexed data from the encoding device 210, and a video decoder for decoding the video encoded data obtained by the separation by the separator 242 and reproducing the image data. 243 and video decoder 2
A display 244 for displaying the image data reproduced at 43, and a CEL obtained by the separation at the separator 242.
The CELP decoder 245 includes a CELP decoder 245 that decodes P-coded data to reproduce audio data, and a speaker 246 that outputs audio data reproduced by the CELP decoder 245.
【0137】さらに、復号装置240は、自装置の状態
(ここでは、自装置が有する復号器の種類等の状態)を
把握し、それを符号化装置210に通知するためのデコ
ーダ状態送信器241を備えている。したがって、デコ
ーダ状態送信器241は、自装置が、ビデオ符号化デー
タ、及びCELP符号化データのみを復号できることを
把握している。Further, decoding apparatus 240 grasps the state of its own apparatus (here, the state such as the type of the decoder of its own apparatus), and decoder state transmitter 241 for notifying coding apparatus 210 of the state. It has. Therefore, the decoder status transmitter 241 knows that it can decode only the video coded data and the CELP coded data.
【0138】[符号化装置210の出力先が復号装置2
30の場合の動作]ここでは、符号化装置210で符号
化されたデータを、復号装置230で再生する場合の動
作について説明する。[Encoding device 210 outputs to decoding device 2
Operation in Case of 30] Here, an operation in the case where the data encoded by the encoding device 210 is reproduced by the decoding device 230 will be described.
【0139】まず、符号化装置210で符号化対象とな
る動画像を、例えば、図5に示すような画像とする。First, a moving image to be encoded by the encoding device 210 is, for example, an image as shown in FIG.
【0140】上記図5において、”250”は、撮影し
て得られた背景の動画像を表す。この背景画像250の
データは、記憶部215に格納されており、MPEG−
4符号化方式のビデオ符号化方式で符号化される。In FIG. 5, "250" represents a background moving image obtained by photographing. The data of the background image 250 is stored in the storage unit 215, and is stored in the storage unit 215.
It is encoded by a video encoding system of four encoding systems.
【0141】一方、”251”は、CGで作成されたキ
ャラクタ画像を表す。キャラクタ画像251は、顔や体
の特徴やその動きがパラメータ化されており、このパラ
メータ(FBAパラメータ)が、FBA設定器211に
て設定される。したがって、FBA設定器211は、設
定されたパラメータに基づいたアニメーション記述情報
を生成し、このアニメーション記述情報は、FBA符号
化方式で符号化等される。また、キャラクタ画像251
の当該キャラクタの音声は、端末装置220により入力
される。したがって、端末装置220は、入力された音
声に基づいたテキストデータを生成し、このテキストデ
ータは、TTS符号化方式で符号化等される。On the other hand, "251" represents a character image created by CG. In the character image 251, features of the face and body and their movements are parameterized, and these parameters (FBA parameters) are set by the FBA setting unit 211. Therefore, the FBA setting unit 211 generates animation description information based on the set parameters, and the animation description information is encoded by the FBA encoding method. Also, the character image 251
Is input by the terminal device 220. Therefore, the terminal device 220 generates text data based on the input voice, and the text data is encoded by the TTS encoding method.
【0142】そこで、符号化装置210は、上述のよう
な符号化に先立ち、デコーダ状態判デコーダ状態判定器
226を動作させ、復号装置230のデコーダ状態送信
器231と通信を行う。Therefore, prior to the above-described encoding, the encoding apparatus 210 operates the decoder state determination decoder state determination unit 226 to communicate with the decoder state transmitter 231 of the decoding apparatus 230.
【0143】復号装置230は、上述したように、FB
A復号器233、ビデオ復号器235、及びTTS復号
器238を備えていることから、FBA符号化方式、ビ
デオ符号化方式、及びTTS符号方式による各符号化デ
ータを復号できることを把握し、このことを復号装置2
30の状態としてデコーダ状態送信器231によって符
号化装置210へ通知する。As described above, the decoding device 230
Since it is provided with the A decoder 233, the video decoder 235, and the TTS decoder 238, it is understood that each coded data can be decoded by the FBA coding method, the video coding method, and the TTS coding method. Decoding device 2
The state of 30 is notified to the encoding device 210 by the decoder state transmitter 231.
【0144】符号化装置210において、デコーダ状態
判定器226は、復号装置230からの状態情報を受け
取ると、当該情報に基づいて符号化を実行することを各
処理部に指示する。すなわち、デコーダ状態判定器22
6は、セレクタ212に対しては出力先をFBA符号化
器214とする制御信号を与え、セレクタ216に対し
ては入力先を記憶部215とする制御信号を与え、セレ
クタ221に対しては出力先をTTS符号化器224と
する制御信号を与え、セレクタ225に対しては入力先
をTTS符号化器224とする制御信号を与え、セレク
タ218に対しては背景画像250とキャラクタ画像2
51の符号化に従って入力先をビデオ符号化器217と
FBA符号化器214で適宜切り替える制御信号を与え
る。In the encoding apparatus 210, upon receiving the state information from the decoding apparatus 230, the decoder state determination unit 226 instructs each processing unit to execute encoding based on the information. That is, the decoder state determiner 22
6 supplies a control signal to the selector 212 to set the output destination to the FBA encoder 214, a control signal to the selector 216 to set the input destination to the storage unit 215, and outputs a control signal to the selector 221. A control signal for the TTS encoder 224 is provided to the destination, a control signal for the TTS encoder 224 is provided to the selector 225, and the background image 250 and the character image 2 are provided to the selector 218.
A control signal for appropriately switching the input destination between the video encoder 217 and the FBA encoder 214 according to the encoding of 51 is given.
【0145】これにより、FBA設定器211で作成さ
れたアニメーション記述情報(キャラクタ画像251の
顔や体の定義やその動きを表すFBAパラメータの情
報)は、セレクタ212を介してFBA符号化器214
に対して入力される。FBA符号化器214は、セレク
タ212を介して供給されたアニメーション記述情報
を、FBA符号化する。FBA符号化器214にて得ら
れた符号化データ(FBA符号化データ)は、セレクタ
218に対して入力される。Thus, the animation description information (FBA parameter information indicating the definition and movement of the face and body of the character image 251) created by the FBA setting unit 211 is transmitted to the FBA encoder 214 via the selector 212.
Is entered for The FBA encoder 214 performs FBA encoding on the animation description information supplied via the selector 212. The encoded data (FBA encoded data) obtained by the FBA encoder 214 is input to the selector 218.
【0146】また、記憶部215に格納されている背景
画像250のデータは、セレクタ216を介して、ビデ
オ符号化器217に対して読み出される。ビデオ符号化
器217は、セレクタ216を介して記憶部215から
読み出された背景画像250のデータを、ビデオ符号化
方式で符号化する。ビデオ符号化器217にて得られた
符号化データ(ビデオ符号化データ)は、セレクタ21
8に対して入力される。The data of the background image 250 stored in the storage unit 215 is read out to the video encoder 217 via the selector 216. The video encoder 217 encodes the data of the background image 250 read from the storage unit 215 via the selector 216 by the video encoding method. The encoded data (video encoded data) obtained by the video encoder 217 is
8 is input.
【0147】セレクタ218は、デコーダ状態判定器2
26からの制御信号に従って、FBA符号化器214か
らのFBA符号化データと、ビデオ符号化器217から
のビデオ符号化データとを適宜切り替えて多重化器21
9に供給する。The selector 218 is connected to the decoder state determiner 2
26, the FBA coded data from the FBA coder 214 and the video coded data from the video coder 217 are appropriately switched according to the control signal from the multiplexor 21.
9.
【0148】端末装置220にて得られたテキストデー
タは、セレクタ221を介して、TTS符号化器224
へ供給される。TTS符号化器224は、セレクタ22
1を介して供給されたテキストデータを、TTS符号化
方式で符号化する。TTS符号化部224にて得られた
符号化データ(TTS符号化データ)は、セレクタ22
5を介して多重化器219へ供給される。The text data obtained by the terminal device 220 is transmitted to the TTS encoder 224 via the selector 221.
Supplied to The TTS encoder 224 selects the selector 22
1 is coded by the TTS coding method. The encoded data (TTS encoded data) obtained by the TTS encoding unit 224 is
5 to a multiplexer 219.
【0149】上述のように、キャラクタ画像251に関
しては、復号装置230がFBA符号化データの復号が
行なえるFBA復号器233を備えているので、FBA
符号化され、背景画像250に関しては、復号装置23
0がビデオ符号化データの復号が行なえるビデオ復号器
235を備えているので、ビデオ符号化され、キャラク
タの声のオーディオデータに関しては、復号装置230
がTTS符号化データの復号が行えるTTS復号器23
8を備えているので、TTS符号化される。As described above, with respect to the character image 251, since the decoding device 230 has the FBA decoder 233 capable of decoding FBA encoded data,
For the encoded and background image 250, the decoding device 23
0 is provided with a video decoder 235 capable of decoding video encoded data.
Is a TTS decoder 23 capable of decoding TTS encoded data
8 is provided, so that TTS encoding is performed.
【0150】そして、多重化器219は、セレクタ21
8からのFBA符号化データ及びビデオ符号化データ
と、セレクタ219からのTTS符号化データとを、M
PEG−4符号化方式の多重化方式に従って多重化し
て、その多重化データを復号装置230に対して出力す
る。The multiplexer 219 is connected to the selector 21
8 and the TTS encoded data from the selector 219
The multiplexed data is multiplexed according to the multiplexing method of the PEG-4 encoding method, and the multiplexed data is output to the decoding device 230.
【0151】図6は、多重化器219にて得られる多重
化データにおいて、ビデオ符号化データとFBA符号化
データを示したものである。この図6において、”26
1”〜”269”で示すそれぞれのコードは次のような
情報を表す。FIG. 6 shows video coded data and FBA coded data in the multiplexed data obtained by the multiplexer 219. In FIG. 6, "26"
Each code indicated by 1 "to" 269 "represents the following information.
【0152】261:ビジュアルシーケンスの先頭を表
すVOSSC(visual_object_seaq
uense_start code)符号 262:プロファイルとレベルを示すPLI(prof
ile_and_level_indication)
符号 263:ビジュアルオブジェクトの先頭を示すVOSC
(visual_object_start_cod
e)符号 264:拡張情報の有無を示すISVO(is_vis
ual_object_identifier)符号 265:ビジュアルオブジェクトの種類を示すVOTY
PE(visual_object_type)符号、
ビデオ符号化されている場合にはVOTYPE=000
1 266:VOL(Video Objet Laye
r)の先頭を表すVOLSC(video_objec
t_layer_start_code)符号これ以降
に、ビデオに関する符号が続く。ここでは、背景画像2
50のビデオ符号化データが続いている。 267:VOTYPE符号、FBA符号化されている場
合にはVOTYPE=0101 268:FBA符号化データの先頭を表すFBAOPS
C(face_object_start_code)
符号これ以降に、FBAに関する符号が続く。 269:ビジュアルのシーケンスの終了を表すVOSE
ND(visual_object_seaquens
e_end_code)符号261: VOSSC (visual_object_seaq) representing the head of the visual sequence
ence_start code) 262: PLI (prof) indicating profile and level
ile_and_level_indication)
Reference numeral 263: VOSC indicating the head of the visual object
(Visual_object_start_cod
e) Code 264: ISVO (is_vis) indicating presence / absence of extension information
ual_object_identifier) code 265: VOTY indicating type of visual object
PE (visual_object_type) code,
VOTYPE = 000 if video encoded
1 266: VOL (Video Object Layer)
r) VOLSC (video_object) representing the beginning of
(t_layer_start_code) code This is followed by the code for the video. Here, the background image 2
Fifty video coded data follows. 267: VOTYPE code, VOTYPE = 0101 if FBA encoded, 268: FBAOPS representing the beginning of FBA encoded data
C (face_object_start_code)
The code following this is followed by the code for FBA. 269: VOSE indicating end of visual sequence
ND (visual_object_seaquens
e_end_code) code
【0153】尚、ここでは、復号装置230がFBA符
号化による符号化データを復号できることから、復号装
置230へはFBA符号化データが供給されるため、上
記図6では、コード267及び268を含むFBA符号
化データが多重化された状態を示している。また、上記
図6に示した多重化データにおけるビデオ符号化データ
とFBA符号化データのフォーマットについては、IS
O/IEC14496−2に詳細が記載されているの
で、ここではその説明を省略する。Here, since the decoding device 230 can decode the coded data by the FBA coding, the FBA coded data is supplied to the decoding device 230. Therefore, in FIG. 6, the codes 267 and 268 are included. This shows a state where FBA encoded data is multiplexed. The format of the video coded data and the FBA coded data in the multiplexed data shown in FIG.
Since the details are described in O / IEC14496-2, the description is omitted here.
【0154】したがって、復号装置230に供給される
多重化データでは、上記図6に示したようなフォーマッ
トに従ったビデオ符号化データとFBA符号化データに
続いて、上記図3(a)及び(b)に示したフォーマッ
トと同様にして、音声の符号化データであるTTS符号
化データが多重化されている。Accordingly, in the multiplexed data supplied to the decoding device 230, the video coded data and the FBA coded data according to the format shown in FIG. 6 are followed by the multiplexed data shown in FIGS. Similarly to the format shown in b), TTS encoded data, which is encoded data of audio, is multiplexed.
【0155】復号装置230において、分離器232
は、符号化装置210からの上記図6に示したようなビ
デオ符号化データ及びFBA符号化データと、TTS符
号化データとが多重化されたデータを、それぞれの符号
化に分離して、FBA符号化データをFBA復号器23
3へ供給し、ビデオ符号化データをビデオ復号器235
へ供給し、TTS符号化データをTTS復号器238に
供給する。In the decoding device 230, the demultiplexer 232
Separates the data obtained by multiplexing the video coded data and the FBA coded data as shown in FIG. 6 from the coding device 210 and the TTS coded data into respective coded data, and FBA decoder 23 encodes the encoded data
3 and supplies the video encoded data to a video decoder 235.
And supplies the TTS encoded data to the TTS decoder 238.
【0156】FBA復号器233は、分離器232から
のFBA符号化データ、すなわちFBA符号化データの
先頭を表すFBAOPSC符号268以降のFBA符号
化データを復号して再生して得たアニメーション記述情
報(キャラクタ画像251の顔や体の定義やその動きを
表すFBAパラメータの情報)をレンダリング器234
に供給する。The FBA decoder 233 decodes and reproduces the FBA coded data from the separator 232, that is, the FBA coded data after the FBA OPSC code 268 representing the head of the FBA coded data, and reproduces the animation description information ( The definition of the face and body of the character image 251 and the information of the FBA parameters representing the movement thereof) are rendered by the rendering unit 234.
To supply.
【0157】レンダリング器234は、FBA復号器2
33からのアニメーション記述情報を解釈して、キャラ
クタ画像251の顔や体等の画像を描画し、その描画し
た結果得られた画像データを合成器236に供給する。[0157] The rendering unit 234 is the FBA decoder 2
It interprets the animation description information from 33 and draws an image of the face or body of the character image 251, and supplies image data obtained as a result of the drawing to the synthesizer 236.
【0158】ビデオ復号器235は、分離器232から
のビデオ符号化データ、すなわちビデオ符号化データの
先頭を表すVOLSC符号266以降のビデオ符号化デ
ータを復号し、背景画像250を再生し、その画像デー
タを合成器236に供給する。The video decoder 235 decodes the video coded data from the demultiplexer 232, that is, the video coded data after the VOLSC code 266 representing the head of the video coded data, reproduces the background image 250, and The data is supplied to the synthesizer 236.
【0159】合成器236は、レンダリング器234及
びビデオ復号器235からの各画像データ、すなわちキ
ャラクタ画像251及び背景画像250を合成し、その
合成画像データをディスプレイ237に供給する。ディ
スプレイ237は、合成器236からの合成画像を表示
する。したがって、ディスプレイ237には、上記図5
に示したような画像が表示される。The synthesizing unit 236 synthesizes the image data from the rendering unit 234 and the video decoder 235, that is, the character image 251 and the background image 250, and supplies the synthesized image data to the display 237. The display 237 displays the synthesized image from the synthesizer 236. Therefore, the display 237 shown in FIG.
Is displayed.
【0160】一方、TTS復号器238は、分離器23
2からのTTS符号化データを復号し、キャラクタ画像
251の当該キャラクタの声のデータを再生し、それを
スピーカ239を介して出力する。したがって、ディス
プレイ237の表示画面において、キャラクタの声が、
スピーカ239から出力される。On the other hand, the TTS decoder 238
2 is decoded, the voice data of the character in the character image 251 is reproduced, and the data is output via the speaker 239. Therefore, on the display screen of the display 237, the voice of the character is
Output from the speaker 239.
【0161】[符号化装置210の出力先が復号装置2
40の場合の動作]ここでは、符号化装置210で符号
化されたデータを、復号装置240で再生する場合の動
作について説明する。尚、符号化装置210で符号化対
象となる動画像は、上述した復号装置230の場合と同
様に、図5に示すような画像とする。[Output destination of encoding apparatus 210 is decoding apparatus 2
Operation in Case of 40] Here, an operation in the case where the data encoded by the encoding device 210 is reproduced by the decoding device 240 will be described. Note that the moving image to be encoded by the encoding device 210 is an image as shown in FIG. 5, as in the case of the decoding device 230 described above.
【0162】まず、上述した復号装置230の場合と同
様に、符号化装置210は、符号化に先立ち、デコーダ
状態判定器226を動作させ、復号装置240のデコー
ダ状態送信器241と通信を行う。First, as in the case of the decoding device 230 described above, the coding device 210 operates the decoder state determination unit 226 and performs communication with the decoder state transmitter 241 of the decoding device 240 prior to encoding.
【0163】復号装置240は、上述した復号装置23
0とは異なり、FBA符号化データを復号する機能は持
っておらず、ビデオ符号化によって得られた符号化デー
タ(ビデオ符号化データ)のみ復号できるビデオ復号器
243、及びCELP符号化によって得られたCELP
符号化データのみを復号できるCELP復号器245を
備えていることから、ビデオ符号化データ及びCELP
符号化データのみ復号できることを把握し、このことを
復号装置240の状態としてデコーダ状態送信器241
によって符号化装置210へ通知する。The decoding device 240 is the same as the decoding device 23 described above.
Unlike 0, it does not have a function of decoding FBA coded data, and can decode only coded data (video coded data) obtained by video coding, and a video decoder 243 obtained by CELP coding. CELP
Since a CELP decoder 245 capable of decoding only encoded data is provided, video encoded data and CELP
It understands that only the encoded data can be decoded, and this is set as the state of the decoding device 240 and the decoder state transmitter 241.
To the encoding device 210.
【0164】符号化装置210において、デコーダ状態
判定器226は、復号装置240からの状態情報を受け
取ると、当該情報に基づいて符号化を実行することを各
処理部に指示する。すなわち、デコーダ状態判定器22
6は、セレクタ212に対しては出力先をレンダリング
器213とする制御信号を与え、セレクタ216に対し
ては背景画像250とキャラクタ画像251の符号化に
従って入力先をレンダリング器213と記憶部215で
適宜切り替える制御信号を与え、セレクタ218に対し
ては入力先をビデオ符号化器217とする制御信号を与
え、セレクタ221に対しては出力先を音声合成器22
2とする制御信号を与え、セレクタ225に対しては入
力先をCELP符号化器223とする制御信号を与え
る。In the encoding device 210, upon receiving the status information from the decoding device 240, the decoder status decision unit 226 instructs each processing unit to execute the encoding based on the information. That is, the decoder state determiner 22
6 supplies a control signal to the selector 212 so that the output destination is the rendering unit 213, and inputs the input destination to the selector 216 by the rendering unit 213 and the storage unit 215 according to the encoding of the background image 250 and the character image 251. A control signal for appropriately switching is provided, a control signal for inputting the video encoder 217 to the selector 218, and an output destination for the audio synthesizer 22 to the selector 221.
2 to the selector 225 and a control signal to the CELP encoder 223 as an input destination.
【0165】これにより、FBA設定器211で作成さ
れたアニメーション記述情報(キャラクタ画像251の
顔や体の定義やその動きを表すFBAパラメータの情
報)は、セレクタ212を介してレンダリング器213
に対して入力される。Thus, the animation description information (FBA parameter information indicating the definition and movement of the face and body of the character image 251) created by the FBA setting unit 211 is transmitted to the rendering unit 213 via the selector 212.
Is entered for
【0166】レンダリング器213は、セレクタ212
を介して供給されたアニメーション記述情報を解釈し
て、キャラクタ画像251の顔や体等の画像を描画す
る。レンダリング器213にて描画された画像のデータ
は、セレクタ216に対して入力される。The rendering unit 213 includes a selector 212
Interpretation of the animation description information supplied through the. And renders an image of the character image 251 such as a face and a body. Data of the image drawn by the rendering device 213 is input to the selector 216.
【0167】また、記憶部215に格納されている背景
画像250のデータは、セレクタ216に対して読み出
される。The data of the background image 250 stored in the storage unit 215 is read out to the selector 216.
【0168】セレクタ216は、デコーダ状態判定器2
26からの制御信号に従って、レンダリング器213か
らの画像データと、記憶部215からの画像データとを
適宜切り替えてビデオ符号化器217に供給する。The selector 216 is connected to the decoder state determiner 2
In accordance with the control signal from, image data from the rendering unit 213 and image data from the storage unit 215 are appropriately switched and supplied to the video encoder 217.
【0169】ビデオ符号化器217は、セレクタ216
を介して供給された画像データ(背景画像250とキャ
ラクタ画像251が適宜切り替えられて供給された画像
データ)を、ビデオ符号化方式で符号化する。ビデオ符
号化器217にて得られた符号化データ(ビデオ符号化
データ)は、セレクタ218を介して多重化器219に
供給される。The video encoder 217 includes a selector 216
(The image data supplied by appropriately switching the background image 250 and the character image 251) supplied via the video encoding system. The encoded data (video encoded data) obtained by the video encoder 217 is supplied to the multiplexer 219 via the selector 218.
【0170】端末装置220にて得られたテキストデー
タは、セレクタ221を介して、音声合成器222へ供
給される。音声合成器222は、端末装置220からの
テキストデータに対して音声合成処理を行なうことで、
当該テキストデータの音声データを生成し、それをCE
LP符号化器223へ供給する。CELP符号化器22
3は、音声合成器222からの音声データを、CELP
符号化方式で符号化する。CELP符号化器223にて
得られた符号化データ(CELP符号化データ)は、セ
レクタ225を介して多重化器219へ供給される。[0170] The text data obtained by the terminal device 220 is supplied to the speech synthesizer 222 via the selector 221. The voice synthesizer 222 performs a voice synthesis process on the text data from the terminal device 220,
Generates audio data of the text data and applies it to CE
This is supplied to the LP encoder 223. CELP encoder 22
3 converts the speech data from the speech synthesizer 222 into CELP
Encode using the encoding method. The encoded data (CELP encoded data) obtained by the CELP encoder 223 is supplied to the multiplexer 219 via the selector 225.
【0171】上述のように、キャラクタ画像251に関
しては、復号装置240がFBA符号化データを復号で
きないので、ビデオ符号化され、背景画像250に関し
ては、復号装置240がビデオ符号化データの復号が行
なえるビデオ復号器243を備えているので、ビデオ符
号化され、キャラクタの声のオーディオデータに関して
は、復号装置240がCELP符号化データの復号が行
えるCELP復号器245を備えているので、CELP
符号化される。As described above, since the decoding device 240 cannot decode the FBA coded data with respect to the character image 251, the decoding device 240 can decode the video coded data with respect to the background image 250. Since the video decoder 243 includes a CELP decoder 245 capable of decoding CELP encoded data with respect to the audio data of the voice of the character that is video-encoded,
Encoded.
【0172】そして、多重化器219は、セレクタ21
8からのビデオ符号化データと、セレクタ219からの
CELP符号化データとを、MPEG−4符号化方式の
多重化方式に従って多重化して、その多重化データを復
号装置240に対して出力する。The multiplexer 219 selects the selector 21
8 and the CELP coded data from the selector 219 are multiplexed according to the multiplexing method of the MPEG-4 coding method, and the multiplexed data is output to the decoding device 240.
【0173】図7は、多重化器219にて得られる多重
化データにおいて、ビデオ符号化データを示したもので
ある。この図7に示すように、ここでの多重化データで
は、上記図6に示したようなコード261〜266によ
る背景画像250のビデオ符号化データに続いて、コー
ド271〜275によるキャラクタ画像251のビデオ
符号化データが多重化される。すなわち、キャラクタ画
像251をビデオ符号化した結果のビデオ符号化データ
の先頭を表すVOSSC符号271に続いて、キャラク
タ画像251のビデオ符号化データに関するISVO符
号272、VOTYPE符号273、VOLSC符号2
74が続く。この場合のVOTYPE符号273は、
「0001」となっている。FIG. 7 shows video coded data in the multiplexed data obtained by the multiplexer 219. As shown in FIG. 7, in the multiplexed data here, following the video encoded data of the background image 250 by the codes 261 to 266 as shown in FIG. 6, the character image 251 by the codes 271 to 275 is obtained. Video encoded data is multiplexed. That is, following the VOSSC code 271 representing the head of video encoded data obtained as a result of video encoding the character image 251, an ISVO code 272, a VOTYPE code 273, and a VOLSC code 2 relating to the video encoded data of the character image 251.
74 follows. The VOTYPE code 273 in this case is
"0001".
【0174】したがって、復号装置240に供給される
多重化データでは、上記図7に示したようなフォーマッ
トに従った背景画像250及びキャラクタ画像251の
ビデオ符号化データに続いて、上記図3(a)及び
(b)に示したフォーマットと同様にして、音声の符号
化データであるCELP符号化データが多重化されてい
る。Therefore, in the multiplexed data supplied to the decoding device 240, following the video encoded data of the background image 250 and the character image 251 according to the format shown in FIG. ) And CELP coded data, which are coded data of audio, are multiplexed in the same manner as the formats shown in FIGS.
【0175】復号装置240において、分離器242
は、符号化装置210からの上記図7に示したようなビ
デオ符号化データと、CELP符号化データとが多重化
されたデータを、それぞれの符号化に分離して、ビデオ
符号化データをビデオ復号器243へ供給し、CELP
符号化データをCELP復号器245に供給する。In the decoding device 240, the demultiplexer 242
Separates the data obtained by multiplexing the video coded data as shown in FIG. 7 from the coding device 210 and the CELP coded data into respective codings, and converts the video coded data into video data. Supply to the decoder 243 and CELP
The encoded data is supplied to the CELP decoder 245.
【0176】ビデオ復号器243は、分離器242から
のビデオ符号化データ、すなわち背景画像250のビデ
オ符号化データの先頭を表すVOLSC符号265以降
のビデオ符号化データと、キャラクタ画像251のビデ
オ符号化データの先頭を表すVOLSC符号274以降
のビデオ符号化データとを復号し、背景画像250とキ
ャラクタ画像251を同期をとって再生し、その再生画
像データをディスプレイ244に供給する。ディスプレ
イ244は、ビデオ復号器243からの画像を表示す
る。したがって、ディスプレイ244には、上記図5に
示したような画像が表示される。The video decoder 243 outputs the video coded data from the demultiplexer 242, that is, the video coded data of the VOLSC code 265 or later representing the head of the video coded data of the background image 250 and the video coded data of the character image 251. It decodes the coded video data after the VOLSC code 274 representing the head of the data, reproduces the background image 250 and the character image 251 in synchronization, and supplies the reproduced image data to the display 244. The display 244 displays an image from the video decoder 243. Therefore, an image as shown in FIG. 5 is displayed on the display 244.
【0177】一方、CELP復号器245は、分離器2
42からのCELP符号化データを復号し、キャラクタ
画像251の当該キャラクタの声のデータを再生し、そ
れをスピーカ246を介して出力する。したがって、デ
ィスプレイ244の表示画面において、キャラクタの声
が、スピーカ246から出力される。On the other hand, CELP decoder 245
The CPU decodes the CELP coded data from the character image, reproduces the voice data of the character in the character image 251, and outputs it through the speaker 246. Therefore, on the display screen of display 244, the voice of the character is output from speaker 246.
【0178】上述のように、本実施の形態では、符号化
装置110での符号化構成を、符号化データの出力先の
復号装置の情報(復号機能)に基づいた符号化を行なう
ように構成したので、符号化装置110の出力先の復号
装置が、そのカテゴリによってビジュアルなレベルでの
画像やオーディオが復元できない構成であっても、当該
復号装置には、その構成に対応した符号化データが与え
られることになる。したがって、FBAパラメータのレ
ンダリング等の特別な機能を備えていない等というよう
に、復号側が有する復号構成が如何なる構成であって
も、画像をパラメータ等で記号化したデータ等を自由に
扱える符号化側で作成された画像を、情報の欠陥を生じ
ることなく、好適に再生することができる。As described above, in the present embodiment, the encoding configuration in encoding apparatus 110 is configured to perform encoding based on information (decoding function) of a decoding apparatus to which encoded data is output. Therefore, even if the decoding device at the output destination of the encoding device 110 has a configuration in which an image or audio at a visual level cannot be restored depending on the category, encoded data corresponding to the configuration is stored in the decoding device. Will be given. Therefore, regardless of the decoding configuration of the decoding side, such as not having a special function such as rendering of FBA parameters, the encoding side capable of freely handling data or the like obtained by encoding an image using parameters or the like. Can be suitably reproduced without causing information defects.
【0179】尚、本実施例の形態においては、データ処
理システム200で採用する符号化方式を、画像をパラ
メータ等で記号化したデータとビデオを統合的に扱う符
号化方式とし、その一例として、MPEG−4符号化方
式を挙げたが、これに限定されることはない。In the present embodiment, the encoding system adopted in the data processing system 200 is an encoding system for integrally handling data and video obtained by encoding an image using parameters and the like. Although the MPEG-4 encoding method has been described, the present invention is not limited to this.
【0180】また、符号化装置210の記憶部215の
構成や格納されているデータ、端末装置220から入力
されるTTS符号化又はCELP符号化の対象となるデ
ータデータは、上述したデータに限定されることはな
く、例えば、1つの可搬のメディアに記憶された動画像
データであったり、符号化されたデータであってももち
ろんかまわない。Further, the configuration of the storage unit 215 of the encoding device 210, stored data, and data to be subjected to TTS encoding or CELP encoding inputted from the terminal device 220 are limited to the above-described data. For example, the moving image data may be moving image data stored in one portable medium or encoded data.
【0181】また、上記図4に示した各構成部をソフト
ウェアで記述し、演算装置等で処理を行う等の変更も可
能である。Further, it is also possible to change each component shown in FIG. 4 described above with software, for example, to perform processing by an arithmetic unit or the like.
【0182】また、データ処理システム200での多重
化の方式についても、上述した多重化方式に限定される
ことはなく、例えば、VOP単位でFBA符号化データ
とビデオ符号化データについて時分割多重化を行う方式
であってももちろんかまわない。The multiplexing method in the data processing system 200 is not limited to the multiplexing method described above. For example, time division multiplexing of FBA coded data and video coded data in units of VOP is performed. Of course, it does not matter.
【0183】また、例えば、復号装置230のデコーダ
状態送信器231が、分離器232がMPEG−4符号
化方式の多重化データから当該データを構成している各
データを分離することができることを把握し、復号装置
240のデコーダ状態送信器241が、分離器242が
ITUで勧告されている多重化方式H.223の多重化
データから当該データを構成している各データを分離す
ることができることを把握していた場合、符号化装置2
10において、多重化器219での多重化方式を、出力
先の復号装置に合わせて適宜変更するようにしてもよ
い。Further, for example, the decoder status transmitter 231 of the decoding device 230 recognizes that the demultiplexer 232 can demultiplex each data constituting the data from the multiplexed data of the MPEG-4 encoding method. Then, the decoder status transmitter 241 of the decoding device 240 determines that the demultiplexer 242 has the multiplexing scheme H.264 recommended by the ITU. If it is understood that each data constituting the data can be separated from the multiplexed data of H.223, the encoding device 2
In 10, the multiplexing method in the multiplexer 219 may be changed as appropriate in accordance with the decoding device at the output destination.
【0184】また、符号化装置210の出力先の復号装
置の状態を把握するための通信については、上述したよ
うな通信に限定されることはなく、例えば、プロファイ
ルをやり取りすることによって、復号装置の状態を把握
することを実現することも可能である。Further, the communication for grasping the state of the decoding device at the output destination of the encoding device 210 is not limited to the communication described above. For example, by exchanging profiles, the decoding device It is also possible to realize grasping the state of.
【0185】また、FBA符号化方式ではなく、他のビ
ジュアル符号化方式を用いた場合も同様である。例え
ば、メッシュ符号化を用いる場合、復号装置にメッシュ
符号化方式による情報を復号する機能がないときには同
様にビデオ符号化を行なう。さらに、オーディオ符号化
もこれに限定されず、端末220の代わりにMIDI音
源、TTS符号化器224の代わりにMIDI符号化
器、音声合成器222の代わりに音響合成器、CELP
符号化器の代わりにAAC符号化器というような構成も
可能である。The same applies to the case where another visual coding method is used instead of the FBA coding method. For example, when mesh encoding is used, video encoding is performed similarly when the decoding device does not have a function of decoding information according to the mesh encoding method. Further, the audio encoding is not limited to this, but a MIDI sound source instead of the terminal 220, a MIDI encoder instead of the TTS encoder 224, an acoustic synthesizer instead of the speech synthesizer 222, CELP
A configuration such as an AAC encoder instead of the encoder is also possible.
【0186】(第3の実施の形態)本発明は、例えば、
図8に示すようなデータ処理システム300に適用され
る。このデータ処理システム300は、MPEG−4符
号化方式を採用したシステムであり、符号化装置310
と、2つの復号装置330及び340とが、互いにデー
タ授受可能なように接続された構成としている。(Third Embodiment) The present invention relates to, for example,
It is applied to a data processing system 300 as shown in FIG. The data processing system 300 is a system that employs the MPEG-4 encoding method, and includes an encoding device 310
And two decoding devices 330 and 340 are connected so as to be able to exchange data with each other.
【0187】ここで、データ処理システム300は、上
記図1に示したデータ処理システム100と同様の構成
としているが、主に次のような構成についてデータ処理
システム100と異なっている。Here, the data processing system 300 has the same configuration as the data processing system 100 shown in FIG. 1, but differs from the data processing system 100 mainly in the following configuration.
【0188】まず、データ処理システム300は、記憶
装置350を更に備えた構成としている。この記憶装置
350は、符号化装置310、復号装置330,340
のそれぞれからアクセスされるものである。すなわち、
符号化装置310は、生成した各種符号化データを記憶
装置350に格納し、復号装置330,340はそれぞ
れ、自装置の状態(復号機能)情報に従って、記憶装置
350の格納情報の中から自装置の状態に適した符号化
データを選択してそれを復号する。First, the data processing system 300 is configured to further include a storage device 350. The storage device 350 includes an encoding device 310 and decoding devices 330 and 340.
Is accessed from each of the. That is,
The encoding device 310 stores the generated various types of encoded data in the storage device 350, and the decoding devices 330 and 340 respectively select their own devices from the storage information of the storage device 350 according to the status (decoding function) information of the own device. And selects the coded data suitable for the state, and decodes it.
【0189】したがって、符号化装置310は、復号装
置330,340からの装置状態(復号機能)を取得す
るためのデータ状態判定器と、当該データ状態判定器の
出力に従ってシーン設定器111の出力を選択するセレ
クタを備えておらず、シーン設定器111の出力は、レ
ンダリング器113とBIFS符号化部114の両者に
与えられるようになされている。これにより、符号化装
置310では、CGのコマンドをBIFG符号化したB
IFS符号化データと共に、当該CGのコマンドに従っ
た描画により得られた画像をビデオ符号化したビデオ符
号化データとが得られ、これらの符号化データが記憶装
置350に格納されることになる。Therefore, encoding apparatus 310 has a data state determiner for acquiring the apparatus state (decoding function) from decoding apparatuses 330 and 340, and outputs the output of scene setting unit 111 according to the output of the data state determiner. There is no selector for selection, and the output of the scene setting unit 111 is provided to both the rendering unit 113 and the BIFS encoding unit 114. Accordingly, the encoding device 310 converts the CG command into a BIFG-encoded B
Along with the IFS encoded data, video encoded data obtained by video encoding an image obtained by drawing according to the command of the CG are obtained, and these encoded data are stored in the storage device 350.
【0190】また、オーディオ符号化部119は、記憶
部118に記憶されているオーディオデータを、複数の
符号化方式によって符号化し、複数種類の符号化データ
を生成する。すなわち、録音された音響や音声は、MP
EG−4符号化方式の各機能、例えば、AAC符号化方
式やCELP符号化方式で符号化され、合成音について
は、MIDI符号化方式やTTS符号化方式で符号化さ
れ、さらにこれらの音のデータとしては、AAC符号化
方式やCELP符号化方式で符号化される。したがっ
て、記憶装置350には、オーディオデータの符号化デ
ータについても、それぞれが符号化方式が異なる複数種
類の符号化データが格納されることになる。The audio encoding section 119 encodes the audio data stored in the storage section 118 according to a plurality of encoding methods, and generates a plurality of types of encoded data. That is, the recorded sound or voice is MP
Each function of the EG-4 coding method, for example, is coded by the AAC coding method or the CELP coding method, and the synthesized sound is coded by the MIDI coding method or the TTS coding method. Data is encoded by the AAC encoding method or the CELP encoding method. Therefore, the storage device 350 also stores a plurality of types of encoded data of audio data, each of which has a different encoding method.
【0191】また、復号装置330において、自装置の
状態を取得するデコーダ状態判定器331は、その取得
した自装置状態を符号化装置310に通知するのではな
く、分離器332に対して通知するようになされてい
る。復号装置340においても同様に、自装置の状態を
取得するデコーダ状態判定器341は、その取得した自
装置状態を符号化装置310に通知するのではなく、分
離器342に対して通知するようになされている。これ
により、分離器332,342は、デコーダ状態判定器
331,341からの自装置状態に従って、当該自装置
状態に適した符号化データを記憶装置350の中から選
択して取得することになる。In the decoding apparatus 330, the decoder state determination unit 331 for acquiring the state of the apparatus itself notifies the obtained apparatus state to the demultiplexer 332 instead of notifying the encoding apparatus 310. It has been made like that. Similarly, in the decoding apparatus 340, the decoder state determination unit 341 that acquires the state of the own apparatus does not notify the acquired apparatus state to the encoding apparatus 310 but notifies the separator 342. It has been done. As a result, the separators 332 and 342 select and acquire the encoded data suitable for the own device state from the storage device 350 according to the own device state from the decoder state determiners 331 and 341.
【0192】以下、上述のようなデータ処理システム3
00の動作について具体的に説明する。尚、上記図8の
データ処理システム300において、上記図1に示した
データ処理システム100と同様に動作する箇所には同
じ符号を付し、その詳細な説明は省略する。The data processing system 3 as described above
The operation of 00 will be specifically described. In the data processing system 300 shown in FIG. 8, the parts operating in the same manner as the data processing system 100 shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted.
【0193】[符号化装置310の動作]ここでは、符
号化装置310で符号化対象となる動画像を、例えば、
上記図2に示した画像とする。[Operation of Encoding Device 310] Here, a moving image to be encoded by the encoding device 310 is, for example,
Assume that the image is shown in FIG.
【0194】先ず、シーン設定器111で作成された部
屋及びウサギの画像150,152のCGのコマンドの
シーン記述情報は、BIFS符号化部114及びレンダ
リング器113に対してそれぞれ入力される。First, the scene description information of the CG command of the room and rabbit images 150 and 152 created by the scene setting unit 111 is input to the BIFS encoding unit 114 and the rendering unit 113, respectively.
【0195】BIFS符号化部114は、シーン設定器
111からのシーン記述情報(部屋及びウサギの画像1
50,152のCGのコマンド)をBIFS符号化す
る。BIFS符号化部114にて得られた符号化データ
(BIFS符号化データ)は、多重化器321に供給さ
れる。The BIFS encoding unit 114 converts the scene description information (room and rabbit image 1) from the scene setting unit 111.
50, 152 CG commands) are BIFS-encoded. The coded data (BIFS coded data) obtained by the BIFS coding unit 114 is supplied to the multiplexer 321.
【0196】レンダリング器113は、シーン設定器1
11からのシーン記述情報をレンダリングして、画像デ
ータを生成する。レンダリング器113にて得られた画
像データは、セレクタ116に対して入力される。The rendering device 113 is a scene setting device 1
11 is rendered to generate image data. The image data obtained by the rendering unit 113 is input to the selector 116.
【0197】また、記憶部115に格納されている牛の
画像151のデータは、セレクタ116に対して入力さ
れる。The data of the cow image 151 stored in the storage unit 115 is input to the selector 116.
【0198】セレクタ116は、レンダリング器113
からの画像データと、記憶部115からの画像データと
を適宜選択してビジュアル符号化部117に供給する。The selector 116 has a rendering unit 113
And the image data from the storage unit 115 are appropriately selected and supplied to the visual encoding unit 117.
【0199】ビジュアル符号化部117は、セレクタ1
16からの画像データ(部屋及びウサギの画像150,
152のデータ、牛の画像151のデータ)を、当該デ
ータに適した符号化方式(ビデオ符号化方式)で符号化
する。ビジュアル符号化部117にて得られた符号化デ
ータ(ビデオ符号化データ)は、多重化器321に供給
される。The visual encoding unit 117 has the selector 1
Image data from room 16 (room and rabbit images 150,
152, and the cow image 151) are encoded by an encoding method (video encoding method) suitable for the data. The encoded data (video encoded data) obtained by the visual encoding unit 117 is supplied to the multiplexer 321.
【0200】また、記憶部118に格納されている牛の
泣き声のオーディオデータは、オーディオ符号化部11
9に対して読み出される。オーディオ符号化部119
は、記憶部118から読み出された牛の泣き声のオーデ
ィオデータを、例えば、ACC符号化方式とCELP符
号化方式のそれぞれで符号化し、当該オーディオデータ
のACC符号化データとCELP符号化データを生成す
る。オーディオ符号化部119にて得られたオーディオ
符号化データ(ACC符号化データ、CELP符号化デ
ータ)は、多重化器321に供給される。The audio data of the cry of the cow stored in the storage unit 118 is stored in the audio encoding unit 11.
9 is read. Audio encoding section 119
Encodes the audio data of the cow cry read from the storage unit 118 by, for example, each of the ACC encoding method and the CELP encoding method, and generates ACC encoded data and CELP encoded data of the audio data. I do. The audio encoded data (ACC encoded data, CELP encoded data) obtained by the audio encoding unit 119 is supplied to the multiplexer 321.
【0201】多重化器321は、BIFS符号化器11
4からのBIFS符号化データ、ビジュアル符号化部1
17からのビデオ符号化データ、及びオーディオ符号化
部119からのオーディオ符号化データを多重化する。The multiplexer 321 is provided for the BIFS encoder 11
4, BIFS encoded data, visual encoding unit 1
17 and the audio encoded data from the audio encoding unit 119 are multiplexed.
【0202】図9は、多重化器321にて得られる多重
化データを示したものである。ここでの多重化データ
は、上記図9に示すように、システムヘッダ部(Sys
tem Header)371と、各種の符号化データ
部372〜378を含んでいる。FIG. 9 shows multiplexed data obtained by the multiplexer 321. The multiplexed data in this case is stored in the system header (Sys) as shown in FIG.
(Tem Header) 371 and various encoded data sections 372 to 378.
【0203】システムヘッダ部371には、詳細は後述
するが、ISO/IEC14496−1で規定されてい
るノードの状態が記録されている。As will be described in detail later, the system header section 371 records the state of a node specified by ISO / IEC14496-1.
【0204】符号化データ部372(Room−BIF
S codes)には、部屋の画像150をBIFS符
号化した結果のBIFS符号化データが格納され、符号
化データ部373(Rabbit−BIFS code
s)には、ウサギの画像152をBIFS符号化した結
果のBIFS符号化データが格納される。The encoded data section 372 (Room-BIF)
S codes) stores BIFS encoded data as a result of BIFS encoding the room image 150, and encodes the encoded data section 373 (Rabbit-BIFS code).
In s), BIFS encoded data obtained by BIFS encoding the rabbit image 152 is stored.
【0205】符号化データ部374(ACC Audi
o codes)には、牛の鳴き声をACC符号化方式
によって符号化した結果のACC符号化データが格納さ
れ、符号化データ部375(CELP Audio c
odes)には、牛の鳴き声をCELP符号化方式によ
って符号化した結果のCELP符号化データが格納され
る。Encoded data section 374 (ACC Audio)
o code) stores ACC coded data obtained by coding the cow's bark according to the ACC coding method, and the coded data section 375 (CELP Audio c)
odes) stores CELP encoded data obtained as a result of encoding a cow's cry by the CELP encoding method.
【0206】符号化データ部376(Cattle−V
ideo−codes)には、牛の画像151をビデオ
符号化した結果のビデオ符号化データが格納され、符号
化データ部377(Room−Video code
s)には、部屋の画像150をレンダリングした画像を
ビデオ符号化した結果のビデオ符号化データが格納さ
れ、符号化データ部378(Rabbit−Video
codes)には、ウサギの画像152をレンダリン
グした画像をビデオ符号化した結果のビデオ符号化デー
タが格納される。The encoded data section 376 (Cutter-V)
In the “video-codes”, video encoded data obtained by video-encoding the cow image 151 is stored, and an encoded data section 377 (Room-Video code) is stored.
s) stores video-encoded data obtained by video-encoding an image in which the room image 150 is rendered, and an encoded data unit 378 (Rabbit-Video).
codes) stores video encoded data obtained by video encoding an image in which the rabbit image 152 is rendered.
【0207】図10は、上記図9に示したシステムヘッ
ダ371の各符号化データをノードとした時の関係を模
式的に示したものである。この図10に示すノード38
1〜392は、次のような情報を示すノードである。FIG. 10 schematically shows a relationship when each encoded data of the system header 371 shown in FIG. 9 is set as a node. The node 38 shown in FIG.
1 to 392 are nodes indicating the following information.
【0208】 ノード381:全てのシーケンスの親を表す。 ノード382:牛(151)の泣き声を表す。 ノード383:部屋の画像150を表す。 ノード384:ウサギの画像152を表す。 ノード385:牛の画像151を表す。 ノード382〜385は、親ノード381につながって
おり、親ノード381を再生すると自動的に再生される
関係にある。Node 381: Represents the parent of all sequences. Node 382: represents the cry of the cow (151). Node 383: Represents a room image 150. Node 384: Represents a rabbit image 152. Node 385: Represents an image 151 of a cow. The nodes 382 to 385 are connected to the parent node 381, and are in a relationship of being automatically reproduced when the parent node 381 is reproduced.
【0209】ノード386:牛(151)の泣き声をA
CC符号化したデータを指し示す。 ノード387:牛(151)の泣き声をCELP符号化
したデータを指し示す。 これらのノード386及び387は、泣き声ノード38
2につながっおり、復号装置の状態によって選択的に再
生される。Node 386: The cry of cow (151) is A
Points to CC encoded data. Node 387: Points to CELP encoded data of the cry of cow (151). These nodes 386 and 387 are cry nodes 38
2 and selectively reproduced according to the state of the decoding device.
【0210】ノード388:部屋の画像150をBIF
S符号化したデータを指し示す。 ノード389:部屋の画像150をビデオ符号化したデ
ータを指し示す。 これらのノード388及び389は、部屋ノード383
につながっており、復号装置の状態によって選択的に再
生される。Node 388: BIF image of room 150
Points to S-encoded data. Node 389: Indicates data obtained by video-coding the room image 150. These nodes 388 and 389 are the room nodes 383
, And are selectively reproduced according to the state of the decoding device.
【0211】ノード390:ウサギの画像152をBI
FS符号化したデータを指し示す。 ノード391:ウサギの画像152をビデオ符号化した
データを指し示す。 これらのノード390及び391は、ウサギノード38
4につながっており、復号装置の状態によって選択的に
再生される。Node 390: BI image of rabbit 152
Indicates FS encoded data. Node 391 indicates data obtained by video-encoding the rabbit image 152. These nodes 390 and 391 are the rabbit nodes 38
4 and selectively reproduced according to the state of the decoding device.
【0212】ノード392:牛の画像151をビデオ符
号化したデータを指し示す。 このノード392は、牛ノード385につながってい
る。Node 392: Indicates data obtained by video-coding the cow image 151. This node 392 is connected to the cow node 385.
【0213】上述のような各符号化データが多重化され
たデータが、記憶装置350に蓄積される。[0213] Data obtained by multiplexing each of the encoded data as described above is stored in the storage device 350.
【0214】[復号装置330の動作]ここでは、上述
のようにして符号化装置310で得られた符号化データ
を、復号装置330で復号する場合について説明する。[Operation of Decoding Apparatus 330] Here, a case where the encoded data obtained by encoding apparatus 310 as described above is decoded by decoding apparatus 330 will be described.
【0215】先ず、デコーダ状態判定器331は、自装
置が、符号化装置310で用いられる各種の符号化方式
に対応した復号機能を有する、すなわちBIFS復号部
133、ビジュアル復号部135、及びオーディオ復号
部138を備えていることから、BIFS符号化方式、
ビデオ符号化方式、ACC符号化方式、及びCELP符
号化方式による各符号化データを復号できることを把握
している。そこで、デコーダ状態判定器331は、例え
ば、高い品質での再生を行なうために、BIFS符号化
方式、ビデオ符号化方式、及びACC符号化方式による
各符号化データの復号を行なうことを決定し、そのこと
を分離器332に通知する。First, the decoder state determiner 331 has its own decoding function corresponding to the various encoding systems used in the encoding device 310, that is, the BIFS decoding unit 133, the visual decoding unit 135, and the audio decoding unit. Since it has the unit 138, the BIFS encoding method
It is understood that each encoded data by the video encoding system, the ACC encoding system, and the CELP encoding system can be decoded. Therefore, the decoder state determiner 331 determines to decode each of the coded data according to the BIFS coding method, the video coding method, and the ACC coding method, for example, in order to perform reproduction with high quality. This is notified to the separator 332.
【0216】分離器332は、デコーダ状態判定器33
1からの通知に従って、記憶装置350に格納されてい
る多重化データのシステムヘッダ部371を解釈して、
部屋の画像150についてはノード388のBIFS符
号化データ(372)、ウサギの画像152については
ノード390のBIFS符号化データ(373)、牛の
画像151についてはノード392のビデオ符号化デー
タ(376)、牛の鳴き声についてはノード386のA
CC符号化データ(374)、としてそれぞれ選択し、
その選択した符号化データを多重化データから分離す
る。[0216] The demultiplexer 332 is a decoder
In accordance with the notification from No. 1, the system header section 371 of the multiplexed data stored in the storage device 350 is interpreted,
For room image 150, BIFS coded data at node 388 (372), for rabbit image 152, BIFS coded data at node 390 (373), and for cow image 151, video coded data at node 392 (376). , The cow's call
CC encoded data (374), respectively,
The selected coded data is separated from the multiplexed data.
【0217】したがって、BIFS復号部133には、
部屋及びウサギの画像150,152のBIFS符号化
データ(372,373)が供給され、ビジュアル復号
部135には、牛の画像151のビデオ符号化データ
(376)が供給され、オーディオ復号部138には、
牛の鳴き声のACC符号化データ(374)が供給され
る。Therefore, BIFS decoding section 133 includes:
BIFS encoded data (372, 373) of the room and rabbit images 150 and 152 are supplied, video encoded data (376) of the cow image 151 is supplied to the visual decoder 135, and the audio decoder 138 is supplied to the audio decoder 138. Is
The ACC coded data (374) of the cow call is supplied.
【0218】BIFS復号部133は、分離器132か
らのBIFS符号化データ(372,373)を復号し
て、部屋の画像150及びウサギの画像152のCGの
コマンドを再生し、そのコマンドをレンダリング器13
4に供給する。The BIFS decoding section 133 decodes the BIFS coded data (372, 373) from the separator 132, reproduces the CG commands of the room image 150 and the rabbit image 152, and renders the commands to the rendering device. 13
4
【0219】レンダリング器134は、BIFS復号部
133からのコマンドデータを解釈して、部屋の画像1
50とウサギの画像152をそれぞれ描画し、その描画
した結果得られた各画像データを合成器136に供給す
る。[0219] The rendering unit 134 interprets the command data from the BIFS decoding unit 133 and outputs the image 1 of the room.
The image 152 of the rabbit and the image 152 of the rabbit are respectively drawn, and each image data obtained as a result of the drawing is supplied to the synthesizer 136.
【0220】ビジュアル復号部135は、分離器132
からのビデオ符号化データ(376)を復号し、牛の画
像151を再生し、その画像データを合成器136に供
給する。[0220] The visual decoding unit 135 includes the demultiplexer 132.
Decodes the encoded video data (376), reproduces the cow image 151, and supplies the image data to the synthesizer 136.
【0221】合成器136は、レンダリング器134及
びビジュアル復号部135からの各画像データ、すなわ
ち部屋の画像150、ウサギの画像152、及び牛の画
像151を合成し、その合成画像データをディスプレイ
137に供給する。ディスプレイ137は、合成器13
6からの合成画像を表示する。したがって、ディスプレ
イ137には、上記図2に示したような画像が表示され
る。The synthesizer 136 combines the image data from the rendering unit 134 and the visual decoding unit 135, that is, the room image 150, the rabbit image 152, and the cow image 151, and displays the synthesized image data on the display 137. Supply. The display 137 includes the synthesizer 13
6 is displayed. Therefore, the image as shown in FIG. 2 is displayed on the display 137.
【0222】一方、オーディオ復号部138は、分離器
132からのACC符号化データ(374)を復号し、
牛の声の音声データを再生し、それをスピーカ139を
介して出力する。したがって、ディスプレイ137の表
示画面において、牛の画像151の鳴き声が、スピーカ
139から出力される。On the other hand, audio decoding section 138 decodes ACC encoded data (374) from separator 132,
The voice data of the cow voice is reproduced and output through the speaker 139. Therefore, on the display screen of the display 137, the cry of the cow image 151 is output from the speaker 139.
【0223】[復号装置340の動作]ここでは、上述
のようにして符号化装置310で得られた符号化データ
を、復号装置340で復号する場合について説明する。[Operation of Decoding Device 340] Here, the case where the encoded data obtained by encoding device 310 as described above is decoded by decoding device 340 will be described.
【0224】先ず、デコーダ状態判定器341は、自装
置が、ビジュアル符号化の一機能であるビデオ符号化に
よって得られた符号化データ(ビデオ符号化データ)の
み復号できるビデオ復号器143、及びCELP符号化
データのみを復号できる音声復号器145を備えている
ことから、ビデオ符号化データ及びCELP符号化デー
タのみ復号できることを把握している。そこで、デコー
ダ状態判定器341は、ビデオ符号化方式、及びCEL
P符号化方式による各符号化データの復号を行なうこと
を決定し、そのことを分離器342に通知する。First, the decoder state determiner 341 includes a video decoder 143 that enables its own device to decode only coded data (video coded data) obtained by video coding, which is a function of visual coding, and a CELP. Since the audio decoder 145 that can decode only the encoded data is provided, it is understood that only the video encoded data and the CELP encoded data can be decoded. Therefore, the decoder state determiner 341 uses the video encoding method and the CEL
It decides to decode each encoded data by the P encoding method, and notifies the separator 342 of the fact.
【0225】分離器342は、デコーダ状態判定器34
1からの通知に従って、記憶装置350に格納されてい
る多重化データのシステムヘッダ部371を解釈して、
部屋の画像150についてはノード389のビデオ符号
化データ(377)、ウサギの画像152についてはノ
ード391のビデオ符号化データ(378)、牛の画像
151についてはノード392のビデオ符号化データ
(376)、牛の鳴き声についてはノード387のCE
LP符号化データ(375)、としてそれぞれ選択し、
その選択した符号化データを多重化データから分離す
る。The separator 342 is connected to the decoder state determiner 34
In accordance with the notification from No. 1, the system header section 371 of the multiplexed data stored in the storage device 350 is interpreted,
Video encoded data at node 389 (377) for room image 150, video encoded data at node 391 (378) for rabbit image 152, and video encoded data at node 392 (376) for cow image 151 , About the cow's call, the CE of node 387
LP encoded data (375), respectively,
The selected coded data is separated from the multiplexed data.
【0226】したがって、ビデオ復号器143には、部
屋、ウサギ、及び牛の画像150〜152のビデオ符号
化データ(376〜378)が供給され、音声復号器1
45には、牛の鳴き声のCELP符号化データ(37
5)が供給される。Therefore, the video decoder 143 is supplied with the video encoded data (376 to 378) of the images 150 to 152 of the room, the rabbit and the cow, and the audio decoder 1
45, CELP coded data of the cry of the cow (37
5) is supplied.
【0227】ビデオ復号器143は、分離器142から
のビデオ符号化データ(376〜378)を復号し、部
屋の画像150、ウサギの画像152、及び牛の画像1
51を再生し、それらの画像データをディスプレイ14
4に供給する。ディスプレイ144は、ビデオ復号器1
43からの画像を表示する。したがって、ディスプレイ
144には、上記図2に示したような画像が表示され
る。The video decoder 143 decodes the video coded data (376 to 378) from the separator 142 and outputs the room image 150, the rabbit image 152, and the cow image 1
51 and reproduces the image data on the display 14.
4 The display 144 displays the video decoder 1
The image from 43 is displayed. Therefore, an image as shown in FIG. 2 is displayed on the display 144.
【0228】一方、音声復号器145は、分離器142
からのCELP符号化データ(375)を復号し、牛の
声の音声データを再生し、それをスピーカ146を介し
て出力する。したがって、ディスプレイ144の表示画
面において、牛の画像151の鳴き声が、スピーカ14
6から出力される。On the other hand, speech decoder 145
And decodes the CELP encoded data (375), reproduces the voice data of cow voice, and outputs it through the speaker 146. Therefore, on the display screen of the display 144, the cry of the cow image 151
6 is output.
【0229】上述のような本実施の形態では、1つの符
号化対象のデータを複数種類の符号化方式で符号化し、
これらの各符号化データの中から復号装置の状態(復号
機能)に適した符号化データを選択して復号できるよう
に構成したので、復号側で画像やオーディオが復号でき
ない状態を回避できる。また、CGのレンダリング等の
特別な構成が無い復号装置であっても、情報の欠落を生
じること無く、好適に情報を復号して再生することがで
きる。In the present embodiment as described above, one data to be encoded is encoded by a plurality of types of encoding methods.
Since it is configured such that encoded data suitable for the state (decoding function) of the decoding device can be selected from these encoded data and can be decoded, it is possible to avoid a state where the decoding side cannot decode an image or audio. Further, even with a decoding device having no special configuration such as CG rendering, it is possible to suitably decode and reproduce information without causing loss of information.
【0230】尚、本実施例の形態においては、データ処
理システム300で採用する符号化方式を、CGとビデ
オを統合的に扱う符号化方式とし、その一例として、M
PEG−4符号化方式を挙げたが、これに限定されるこ
とはない。In the present embodiment, the encoding system adopted in the data processing system 300 is an encoding system that handles CG and video in an integrated manner.
Although the PEG-4 encoding method has been described, the present invention is not limited to this.
【0231】また、符号化装置310の記憶部115,
118の構成やそれぞれに格納されているデータは、上
述したデータに限定されることはなく、例えば、1つの
可搬のメディアに記憶された動画像データであったり、
符号化されたデータであってももちろんかまわない。[0231] The storage unit 115,
The configuration of 118 and the data stored in each of them are not limited to the above-mentioned data, for example, moving image data stored in one portable medium,
Of course, it may be coded data.
【0232】また、上記図8に示した各構成部をソフト
ウェアで記述し、演算装置等で処理を行う等の変更も可
能である。Further, it is also possible to change each component shown in FIG. 8 described above by software, and to perform processing by an arithmetic unit or the like.
【0233】また、データ処理システム300での多重
化の方式についても、上述した多重化方式に限定される
ことはなく、例えば、VOP単位で時分割多重化を行う
方式であってももちろんかまわない。The multiplexing method in the data processing system 300 is not limited to the multiplexing method described above. For example, a time-division multiplexing method in VOP units may be used. .
【0234】また、多重化方式もこれに限定されず、I
TUで勧告されている多重化方式H.223の多重化方
式を用いてもかまわない。Also, the multiplexing method is not limited to this.
The multiplexing method H. H.223 multiplexing method may be used.
【0235】また、本発明の目的は、上述した第1〜第
3の実施の形態のホスト及び端末の機能を実現するソフ
トウェアのプログラムコードを記憶した記憶媒体を、シ
ステム或いは装置に供給し、そのシステム或いは装置の
コンピュータ(又はCPUやMPU)が記憶媒体に格納
されたプログラムコードを読みだして実行することによ
っても、達成されることは言うまでもない。この場合、
記憶媒体から読み出されたプログラムコード自体が各実
施の形態の機能を実現することとなり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することとな
る。プログラムコードを供給するための記憶媒体として
は、ROM、フロッピーディスク、ハードディスク、光
ディスク、光磁気ディスク、CD−ROM、CD−R、
磁気テープ、不揮発性のメモリカード等を用いることが
できる。また、コンピュータが読みだしたプログラムコ
ードを実行することにより、各実施の形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼動しているOS等が実際の処理
の一部又は全部を行い、その処理によって各実施の形態
の機能が実現される場合も含まれることは言うまでもな
い。さらに、記憶媒体から読み出されたプログラムコー
ドが、コンピュータに挿入された拡張機能ボードやコン
ピュータに接続された機能拡張ユニットに備わるメモリ
に書き込まれた後、そのプログラムコードの指示に基づ
き、その機能拡張ボードや機能拡張ユニットに備わるC
PUなどが実際の処理の一部又は全部を行い、その処理
によって各実施の形態の機能が実現される場合も含まれ
ることは言うまでもない。Further, an object of the present invention is to supply a storage medium storing program codes of software for realizing the functions of the host and the terminal according to the first to third embodiments to a system or an apparatus. It is needless to say that the present invention is also achieved when a computer (or CPU or MPU) of the system or the apparatus reads out and executes the program code stored in the storage medium. in this case,
The program code itself read from the storage medium realizes the function of each embodiment, and the storage medium storing the program code constitutes the present invention. As storage media for supplying the program code, ROM, floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R,
A magnetic tape, a nonvolatile memory card, or the like can be used. The functions of each embodiment are implemented by executing the program code read by the computer, and the OS or the like running on the computer performs actual processing based on the instructions of the program code. It goes without saying that a part or all of the above is performed and the function of each embodiment is realized by the processing. Further, after the program code read from the storage medium is written to a memory provided in an extension function board inserted into the computer or a function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. C provided on board and function expansion unit
It goes without saying that a PU or the like performs part or all of the actual processing, and the processing realizes the functions of the embodiments.
【0236】[0236]
【発明の効果】以上説明したように本発明では、符号化
側の構成を、符号化情報の出力先の復号側の状態情報
(復号側が有する復号機能の情報等)に基づいた符号化
を行なうように構成したので、符号化情報の復号側に
は、当該復号側の状態に適した符号化情報が与えられる
ことになる。また、復号側の構成を、当該復号側の状態
情報(復号側が有する復号機能の情報等)に基づいた符
号化情報を取得するように構成したので、当該復号側
は、当該復号側の状態に適した符号化情報を復号するこ
とになる。As described above, according to the present invention, the configuration on the encoding side performs encoding based on state information on the decoding side to which the encoded information is output (information on the decoding function of the decoding side, etc.). With such a configuration, the decoding side of the encoded information is provided with the encoded information suitable for the state of the decoding side. In addition, since the configuration of the decoding side is configured to acquire the encoding information based on the state information of the decoding side (information of the decoding function of the decoding side, etc.), the decoding side changes the state of the decoding side. The appropriate encoded information will be decoded.
【0237】これにより、CG画像(コンピュータグラ
フィック画像)のレンダリング等やオーディオの特別な
機能を備えていない等というように、復号側が有する復
号構成が如何なる構成であっても、CGやオーディオ等
を自由に扱える符号化側で作成された画像を、情報の欠
陥を生じることなく、好適に再生することができる。This makes it possible to freely use CG, audio, and the like, regardless of the decoding configuration of the decoding side, such as rendering of a CG image (computer graphic image) or no special audio function. An image created on the encoding side, which can be handled by a computer, can be suitably reproduced without causing information defects.
【0238】すなわち、ビデオのみを再生できる端末が
復号側であっても、CG画像を扱うカテゴリの装置であ
る符号化側で作成した画像を再生する動作を容易に且つ
確実に行なうことができる。また、扱う符号化情報をM
PEG−4等の標準化に則った符号化方式により得られ
た情報とすれば、幅広い装置間での情報の共有が可能に
なる。さらに、各復号側で、同一の符号化情報から復号
能力に適した復号が行えるようになる。That is, even if the terminal that can reproduce only the video is the decoding side, the operation of reproducing the image created on the encoding side, which is a device of the category handling CG images, can be performed easily and reliably. Also, the encoding information to be handled is M
If information obtained by an encoding method conforming to standardization such as PEG-4 is used, information can be shared between a wide range of devices. Further, each decoding side can perform decoding suitable for decoding capability from the same encoded information.
【0239】よって、本発明によれば、プロファイル等
のカテゴリが異なる符号化側と復号側の間で好適に情報
を符号化、復号、再生することができる。Thus, according to the present invention, information can be suitably encoded, decoded, and reproduced between the encoding side and the decoding side having different categories such as profiles.
【図面の簡単な説明】[Brief description of the drawings]
【図1】第1の実施の形態において、本発明を適用した
データ処理システムの構成を説明するための図である。FIG. 1 is a diagram for describing a configuration of a data processing system to which the present invention is applied in a first embodiment.
【図2】上記データ処理システムの符号化装置で符号化
する動画像の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a moving image to be encoded by an encoding device of the data processing system.
【図3】上記符号化データの構成を説明するための示す
図である。FIG. 3 is a diagram for explaining a configuration of the encoded data.
【図4】第2の実施の形態において、本発明を適用した
データ処理システムの構成を説明するための図である。FIG. 4 is a diagram illustrating a configuration of a data processing system to which the present invention is applied in a second embodiment.
【図5】上記データ処理システムの符号化装置で符号化
する動画像の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a moving image to be encoded by an encoding device of the data processing system.
【図6】上記符号化データ(FBA符号化データを含む
データ)の構成を説明するための示す図である。FIG. 6 is a diagram illustrating a configuration of the encoded data (data including FBA encoded data).
【図7】上記符号化データ(FBA符号化データを含ま
ないデータ)の構成を説明するための示す図である。FIG. 7 is a diagram illustrating a configuration of the encoded data (data not including FBA encoded data).
【図8】第3の実施の形態において、本発明を適用した
データ処理システムの構成を説明するための図である。FIG. 8 is a diagram illustrating a configuration of a data processing system to which the present invention is applied in a third embodiment.
【図9】上記データ処理システムの符号化装置で得られ
る符号化データの構成を説明するための示す図である。FIG. 9 is a diagram illustrating a configuration of encoded data obtained by an encoding device of the data processing system.
【図10】上記符号化データに含まれる各種の符号化デ
ータの関係(ノード関係)を説明するための図である。FIG. 10 is a diagram for explaining a relationship (node relationship) between various types of encoded data included in the encoded data.
【図11】従来のデータ処理システムの構成を示すフロ
ック図である。FIG. 11 is a block diagram showing a configuration of a conventional data processing system.
100 データ処理システム 110 符号化装置 111 シーン設定器 112,116 セレクタ 113 レンダリング器 114 BIFS符号化部 115,118 記憶部 117 ビジュアル符号化部 119 オーディオ符号化部 120 デコーダ状態判定器 121 多重化器 130 復号装置 131 デコーダ状態送信器 132 分離器 133 BIFS復号部 134 レンダリング器 135 ビジュアル復号部 136 合成器 137 ディスプレイ 138 オーディオ復号部 139 スピーカ 140 復号装置 141 デコーダ状態送信器 142 分離器 143 ビデオ復号器 144 ディスプレイ 145 音声復号器 146 スピーカ REFERENCE SIGNS LIST 100 Data processing system 110 Encoding device 111 Scene setting unit 112, 116 Selector 113 Rendering unit 114 BIFS encoding unit 115, 118 Storage unit 117 Visual encoding unit 119 Audio encoding unit 120 Decoder state determination unit 121 Multiplexer 130 Decoding Device 131 Decoder state transmitter 132 Separator 133 BIFS decoder 134 Renderer 135 Visual decoder 136 Combiner 137 Display 138 Audio decoder 139 Speaker 140 Decoder 141 Decoder state transmitter 142 Separator 143 Video decoder 144 Display 145 Audio Decoder 146 Speaker
Claims (31)
報を符号化することが可能な符号化装置であって、 上記符号化の結果である符号化情報の復号側の状態を取
得する復号側状態取得手段と、 上記復号側状態取得手段にて得られた復号側状態情報に
基づいて、上記複数種類の符号化方式から選択した符号
化方式により情報の符号化を行なう符号化手段とを備え
ることを特徴とする符号化装置。An encoding apparatus capable of encoding arbitrary information by using a plurality of types of encoding methods, wherein the decoding side acquires a state of a decoding side of encoded information which is a result of the encoding. Status acquisition means, and encoding means for encoding information based on the decoding side state information obtained by the decoding side state acquisition means, using an encoding scheme selected from the plurality of types of encoding schemes. An encoding device characterized by the above-mentioned.
と、 上記復号側状態情報に基づいて、符号化対象となる情報
を上記複数の符号化手段から選択した符号化手段へ与え
る情報供給手段とを含むことを特徴とする請求項1記載
の符号化装置。2. The encoding unit includes: a plurality of encoding units corresponding to the plurality of types of encoding schemes; and information to be encoded based on the decoding-side state information. 2. An encoding apparatus according to claim 1, further comprising: information supply means for supplying the information to an encoding means selected from the following.
−4符号化方式の符号化方式を含むことを特徴とする請
求項1記載の符号化装置。3. The method according to claim 1, wherein the plurality of types of encoding methods are MPEG.
2. The encoding apparatus according to claim 1, wherein the encoding apparatus includes an encoding scheme of a -4 encoding scheme.
ィックス画像情報を生成するための記述情報を符号化す
る第1の符号化手段と、少なくとも当該コンピュータグ
ラフィックス画像情報を自然画像符号化方式で符号化す
る第2の符号化手段とを含み、これらの第1及び第2の
符号化手段から上記復号側状態情報に基づいて選択した
手段により情報の符号化を行なうことを特徴とする請求
項1記載の符号化装置。4. An encoding apparatus according to claim 1, wherein said encoding means encodes descriptive information for generating computer graphics image information, and encodes at least said computer graphics image information by a natural image encoding method. And a second encoding unit for encoding the information by means selected from the first and second encoding units based on the decoding-side state information. An encoding device according to claim 1.
するための記述情報を符号化する第1の符号化手段と、
少なくとも当該合成音声情報を自然音響符号化方式で符
号化する第2の符号化手段とを含み、これらの第1及び
第2の符号化手段から上記復号側状態情報に基づいて選
択した手段により情報の符号化を行なうことを特徴とす
る請求項1記載の符号化装置。5. The encoding device according to claim 1, wherein the encoding unit encodes description information for generating synthesized speech information;
A second encoding unit that encodes the synthesized speech information at least using a natural acoustic encoding method, and includes information selected by the first and second encoding units based on the decoding side state information. 2. The encoding apparatus according to claim 1, wherein encoding is performed.
生成するための記述情報を符号化する第1の符号化手段
と、 上記コンピュータグラフィックス画像情報を自然画像符
号化方式で符号化する第2の符号化手段と、 上記第1の符号化手段にて得られた符号化情報と、上記
第2の符号化手段にて得られた符号化情報との何れかを
選択して出力する出力手段とを備えることを特徴とする
符号化装置。6. A first encoding means for encoding descriptive information for generating computer graphics image information, and a second encoding means for encoding said computer graphics image information in a natural image encoding system. Means; and output means for selecting and outputting one of the encoded information obtained by the first encoding means and the encoded information obtained by the second encoding means. An encoding device characterized by the above-mentioned.
を符号化する第1の符号化手段と、 上記合成音声情報を自然音響符号化方式で符号化する第
2の符号化手段と、 上記第1の符号化手段にて得られた符号化情報と、上記
第2の符号化手段にて得られた符号化情報との何れかを
選択して出力する出力手段とを備えることを特徴とする
符号化装置。7. A first encoding unit that encodes description information for generating synthetic speech information, a second encoding unit that encodes the synthetic speech information by a natural acoustic encoding method, Output means for selecting and outputting one of the coded information obtained by the first coding means and the coded information obtained by the second coding means. Encoding device.
態を取得する復号側状態取得手段と、 上記復号側状態取得手段にて得られた復号側状態情報に
基づいて、上記出力手段での選択出力動作を制御する制
御手段とを備えることを特徴とする請求項6又は7記載
の符号化装置。8. A decoding-side state obtaining means for obtaining a decoding-side state which is an output destination of the output means, and a decoding-side state information obtained by the decoding-side state obtaining means. 8. The encoding apparatus according to claim 6, further comprising control means for controlling the selection output operation.
符号化方式のBIFS符号化方式及び非自然画像符号化
方式の何れかの符号化方式により、上記コンピュータグ
ラフィックス画像情報を生成するための記述情報を符号
化し、 上記第2の符号化手段は、MPEG−4符号化方式の自
然画像符号化方式により、少なくとも上記コンピュータ
グラフィックス画像情報を符号化することを特徴とする
請求項4又は6記載の符号化装置。9. The method according to claim 1, wherein the first encoding means comprises MPEG-4.
The description information for generating the computer graphics image information is encoded by any one of a BIFS encoding method and a non-natural image encoding method, and the second encoding unit includes: 7. The encoding apparatus according to claim 4, wherein at least the computer graphics image information is encoded by a natural image encoding method of an MPEG-4 encoding method.
4符号化方式のBIFS符号化方式及び非自然音響符号
化方式の何れかの符号化方式により、上記合成音声情報
を生成するための記述情報を符号化し、 上記第2の符号化手段は、MPEG−4符号化方式の自
然音響符号化方式により、少なくとも上記合成音声情報
を符号化することを特徴とする請求項5又は7記載の符
号化装置。10. The MPEG encoding apparatus according to claim 1, wherein
The description information for generating the synthetic speech information is encoded by any one of a BIFS encoding method and a non-natural acoustic encoding method of a four-encoding method, and the second encoding means includes an MPEG encoding method. The encoding apparatus according to claim 5, wherein at least the synthesized speech information is encoded by a natural sound encoding scheme of a −4 encoding scheme.
装置であって、 上記符号化情報の入力先である符号化側に対して、自装
置の状態を通知する通知手段と、 上記通知手段による通知に基づいて上記符号化側にて符
号化された情報を復号する復号手段とを備えることを特
徴とする復号装置。11. A decoding device for decoding input coded information, comprising: a notifying unit for notifying a coding side, to which the coded information is input, of a state of the coding device; And decoding means for decoding the information encoded on the encoding side based on the notification from the decoding apparatus.
る復号機能の情報を通知することを特徴とする請求項1
1記載の復号装置。12. The information processing apparatus according to claim 1, wherein the notifying unit notifies information on a decoding function of the decoding unit.
2. The decoding device according to 1.
グラフィックス画像情報を生成するための記述情報が符
号化された情報を復号する機能を有するか否かの情報、
及び画像情報が符号化された情報を復号する機能を有す
るか否かの情報の少なくとも何れかを含むことを特徴と
する請求項12記載の復号装置。13. The information on the decoding function includes information as to whether or not the information has a function of decoding information in which description information for generating computer graphics image information is encoded.
The decoding apparatus according to claim 12, further comprising at least one of information indicating whether or not the image information has a function of decoding encoded information.
を生成するための記述情報が符号化された情報を復号す
る機能を有するか否かの情報、及び音声情報が符号化さ
れた情報を復号する機能を有するか否かの情報の少なく
とも何れかを含むことを特徴とする請求項12記載の復
号装置。14. The information of the decoding function includes information as to whether or not it has a function of decoding information in which description information for generating synthetic speech information is encoded, and information in which the speech information is encoded. 13. The decoding device according to claim 12, comprising at least one of information on whether or not the device has a decoding function.
れかに記載の符号化装置の機能を有することを特徴とす
る請求項11記載の復号装置。15. The decoding device according to claim 11, wherein the coding side has the function of the coding device according to any one of claims 1 to 10.
装置であって、 自装置の状態を取得する装置状態取得手段と、 上記装置状態取得手段により得られた装置状態情報に基
づいて、情報毎に複数種類の符号化方式で符号化した結
果である複数種類の上記符号化情報から選択した符号化
情報を復号する復号手段とを備えることを特徴とする復
号装置。16. A decoding device for decoding input coded information, comprising: a device status obtaining unit for obtaining a status of the own device; and information based on the device status information obtained by the device status obtaining unit. Decoding means for decoding coded information selected from a plurality of types of the coded information, each of which is a result of coding with a plurality of types of coding schemes.
段が有する復号機能の情報を取得することを特徴とする
請求項16記載の復号装置。17. The decoding apparatus according to claim 16, wherein said apparatus state obtaining means obtains information on a decoding function of said decoding means.
グラフィックス画像情報を生成するための記述情報が符
号化された情報を復号する機能を有するか否かの情報、
及び画像情報が符号化された情報を復号する機能を有す
るか否かの情報の少なくとも何れかを含むことを特徴と
する請求項17記載の復号装置。18. The information of the decoding function includes information as to whether or not the information has a function of decoding information in which description information for generating computer graphics image information is encoded.
18. The decoding device according to claim 17, further comprising at least one of information indicating whether or not the image information has a function of decoding encoded information.
を生成するための記述情報が符号化された情報を復号す
る機能を有するか否かの情報、及び音声情報が符号化さ
れた情報を復号する機能を有するか否かの情報の少なく
とも何れかを含むことを特徴とする請求項17記載の復
号装置。19. The information of the decoding function includes information as to whether or not it has a function of decoding information in which descriptive information for generating synthetic speech information is encoded, and information in which the speech information is encoded. 18. The decoding apparatus according to claim 17, wherein the decoding apparatus includes at least one of information indicating whether or not the apparatus has a decoding function.
化方式により情報が符号化された情報を含むことを特徴
とする請求項11又は16記載の復号装置。20. The decoding device according to claim 11, wherein the encoded information includes information obtained by encoding information according to an MPEG-4 encoding method.
る情報処理システムであって、 上記複数の機器のうち少なくとも1つの機器は、請求項
1〜10の何れかに記載の符号化装置の機能、及び請求
項11〜20の何れかに記載の復号装置の機能の少なく
とも何れかの機能を有することを特徴とする情報処理シ
ステム。21. An information processing system in which a plurality of devices are communicably connected, wherein at least one of the plurality of devices is an encoding device according to any one of claims 1 to 10. An information processing system having at least one of a function and a function of the decoding device according to any one of claims 11 to 20.
該符号化情報を復号側で復号するための情報処理方法で
あって、 上記復号側の状態情報を取得する復号側状態情報取得ス
テップと、 上記復号側状態情報取得ステップにより得られた復号側
状態情報に基づいた符号化方式により情報を符号化する
符号化ステップとを含むことを特徴とする情報処理方
法。22. An information processing method for encoding arbitrary information on the encoding side and decoding the encoded information on the decoding side, wherein the decoding-side state information acquiring step for acquiring the decoding-side state information is performed. And an encoding step of encoding information by an encoding method based on the decoding-side state information obtained in the decoding-side state information obtaining step.
上記復号側が有する復号機能の情報を上記復号側状態情
報として取得するステップを含み、 上記符号化ステップは、上記復号側状態情報により、上
記復号側で対応可能な符号化方式により情報を符号化す
るステップを含むことを特徴とする請求項22記載の情
報処理方法。23. The decoding side state information obtaining step,
Acquiring the information of the decoding function of the decoding side as the decoding side state information. The information processing method according to claim 22, comprising a step.
上記復号側が、コンピュータグラフィックス画像情報を
生成するための記述情報を符号化した情報を復号する機
能を有するか否かの情報を上記復号側状態情報として取
得するステップを含み、 上記符号化ステップは、上記復号側状態情報により、上
記復号側が、コンピュータグラフィックス画像情報を生
成するための記述情報を符号化した情報を復号する機能
を持たない場合、上記コンピュータグラフィックス画像
情報を自然画像符号化方式により符号化するステップを
含むことを特徴とする請求項22記載の情報処理方法。24. The decoding-side state information obtaining step,
The decoding side includes a step of acquiring information as to whether or not the decoding side has the function of decoding the information obtained by encoding the description information for generating the computer graphics image information as the decoding side state information. According to the decoding side state information, if the decoding side does not have a function of decoding information obtained by coding description information for generating computer graphics image information, the computer graphics image information is converted into a natural image coding scheme. 23. The information processing method according to claim 22, further comprising a step of performing encoding according to:
上記復号側が、合成音声情報を生成するための記述情報
を符号化した情報を復号する機能を有するか否かの情報
を上記復号側状態情報として取得するステップを含み、 上記符号化ステップは、上記復号側状態情報により、上
記復号側が、合成音声情報を生成するための記述情報を
符号化した情報を復号する機能を持たない場合、上記合
成音声情報を自然音響符号化方式により符号化するステ
ップを含むことを特徴とする請求項22記載の情報処理
方法。25. The decoding-side state information obtaining step,
The decoding side includes a step of acquiring, as the decoding side state information, information as to whether or not the decoding side has a function of decoding information obtained by encoding the description information for generating the synthesized speech information. When the decoding side does not have a function of decoding the information obtained by coding the description information for generating the synthesized speech information according to the decoding side state information, the decoding of the synthesized speech information by the natural acoustic coding method is performed. 23. The information processing method according to claim 22, comprising:
該符号化情報を復号側で復号するための情報処理方法で
あって、 1つの情報毎に複数種類の符号化方式で符号化した複数
種類の符号化情報を生成する符号化ステップと、 上記復号側の状態情報を取得する復号側状態情報取得ス
テップと、 上記復号側状態情報取得ステップにより得られた復号側
状態情報に基づいて、上記符号化ステップにより得られ
た複数種類の符号化情報から選択した符号化情報を復号
する復号ステップを含むことを特徴とする情報処理方
法。26. An information processing method for encoding arbitrary information on the encoding side and decoding the encoded information on the decoding side, wherein each information is encoded by a plurality of types of encoding systems. An encoding step of generating a plurality of types of encoded information; a decoding-side state information obtaining step of obtaining the decoding-side state information; and a decoding-side state information obtained by the decoding-side state information obtaining step. An information processing method comprising a decoding step of decoding encoded information selected from a plurality of types of encoded information obtained in the encoding step.
上記復号側が、コンピュータグラフィックス画像情報を
生成するための記述情報を符号化した情報を復号する機
能を有するか否かの情報を上記復号側状態情報として取
得するステップを含み、 上記符号化ステップは、上記コンピュータグラフィック
ス画像情報を生成するための記述情報を符号化する第1
の符号化ステップと、上記コンピュータグラフィックス
画像情報を自然画像符号化方式により符号化する第2の
符号化ステップとを含み、 上記復号ステップは、上記復号側状態情報により、上記
復号側が、上記コンピュータグラフィックス画像情報を
生成するための記述情報を符号化した情報を復号する機
能を持たない場合、上記第2の符号化ステップにより得
られた符号化情報を復号するステップを含むことを特徴
とする請求項26記載の情報処理方法。27. The decoding-side state information acquiring step,
The decoding side includes a step of acquiring, as the decoding side state information, information as to whether or not the decoding side has a function of decoding the information obtained by encoding the description information for generating the computer graphics image information. Encoding the description information for generating the computer graphics image information;
And a second encoding step of encoding the computer graphics image information according to a natural image encoding method. The decoding step includes the steps of: When the apparatus does not have a function of decoding information obtained by coding description information for generating graphics image information, the method includes a step of decoding the coding information obtained in the second coding step. The information processing method according to claim 26.
上記復号側が、合成音声情報を生成するための記述情報
を符号化した情報を復号する機能を有するか否かの情報
を上記復号側状態情報として取得するステップを含み、 上記符号化ステップは、上記合成音声情報を生成するた
めの記述情報を符号化する第1の符号化ステップと、上
記合成音声情報を自然音響符号化方式により符号化する
第2の符号化ステップとを含み、 上記復号ステップは、上記復号側状態情報により、上記
復号側が、上記合成音声情報を生成するための記述情報
を符号化した情報を復号する機能を持たない場合、上記
第2の符号化ステップにより得られた符号化情報を復号
するステップを含むことを特徴とする請求項26記載の
情報処理方法。28. The decoding-side state information acquiring step,
The decoding side includes a step of obtaining, as the decoding side state information, information as to whether or not the decoding side has a function of decoding information obtained by coding the description information for generating the synthesized speech information. A first encoding step of encoding descriptive information for generating synthesized speech information, and a second encoding step of encoding the synthesized speech information by a natural acoustic encoding method, wherein the decoding step includes: According to the decoding side state information, if the decoding side does not have a function of decoding information obtained by coding the description information for generating the synthesized speech information, the coding obtained by the second coding step The information processing method according to claim 26, further comprising a step of decoding information.
符号化方式の符号化方式により情報を符号化するステッ
プを含むことを特徴とする請求項22又は26記載の情
報処理方法。29. The encoding method according to claim 29, wherein the encoding step comprises:
27. The information processing method according to claim 22, further comprising the step of encoding information by an encoding method.
化装置、又は請求項11〜20の何れかに記載の復号装
置、又は請求項21に記載の情報処理システムの手段を
実施するための処理プログラムを、コンピュータが読出
可能に格納したことを特徴とする記憶媒体。30. An encoding device according to any one of claims 1 to 10, a decoding device according to any one of claims 11 to 20, or a means of the information processing system according to claim 21. A computer-readable storage medium for storing a processing program for the same.
報処理方法の処理ステップを、コンピュータが読出可能
に格納したことを特徴とする記憶媒体。31. A storage medium, wherein the processing steps of the information processing method according to claim 22 are stored in a computer-readable manner.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29445499A JP2001119302A (en) | 1999-10-15 | 1999-10-15 | Encoding device, decoding device, information processing system, information processing method, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29445499A JP2001119302A (en) | 1999-10-15 | 1999-10-15 | Encoding device, decoding device, information processing system, information processing method, and storage medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001119302A true JP2001119302A (en) | 2001-04-27 |
| JP2001119302A5 JP2001119302A5 (en) | 2006-11-30 |
Family
ID=17808001
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP29445499A Withdrawn JP2001119302A (en) | 1999-10-15 | 1999-10-15 | Encoding device, decoding device, information processing system, information processing method, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001119302A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7594041B2 (en) | 2001-11-16 | 2009-09-22 | Sharp Kabushiki Kaisha | Recording medium, content recording/reproducing system, content reproducing apparatus, content recording apparatus, and content recoding apparatus |
| JP2012510653A (en) * | 2008-12-01 | 2012-05-10 | ノーテル・ネットワークス・リミテッド | Method and apparatus for providing a video representation of a three-dimensional computer generated virtual environment |
| US9978380B2 (en) | 2009-10-20 | 2018-05-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values |
-
1999
- 1999-10-15 JP JP29445499A patent/JP2001119302A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7594041B2 (en) | 2001-11-16 | 2009-09-22 | Sharp Kabushiki Kaisha | Recording medium, content recording/reproducing system, content reproducing apparatus, content recording apparatus, and content recoding apparatus |
| JP2012510653A (en) * | 2008-12-01 | 2012-05-10 | ノーテル・ネットワークス・リミテッド | Method and apparatus for providing a video representation of a three-dimensional computer generated virtual environment |
| US9978380B2 (en) | 2009-10-20 | 2018-05-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values |
| US11443752B2 (en) | 2009-10-20 | 2022-09-13 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values |
| US12080300B2 (en) | 2009-10-20 | 2024-09-03 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100563013B1 (en) | Generation of bitstreams containing binary image / audio data multiplexed with code specifying objects in ASCII format | |
| JP3407287B2 (en) | Encoding / decoding system | |
| US6377309B1 (en) | Image processing apparatus and method for reproducing at least an image from a digital data sequence | |
| KR102140388B1 (en) | Decoding device, decoding method and recording medium | |
| US6414972B1 (en) | Signal decoding method, signal decoding apparatus, signal multiplexing method, signal multiplexing apparatus, and recording medium | |
| KR100413935B1 (en) | Picture coding device and picture decoding device | |
| JP2001119302A (en) | Encoding device, decoding device, information processing system, information processing method, and storage medium | |
| KR20000022500A (en) | Method of encoding information, its encoder, its decoding/ synthesizing method, its decoder/synthesizer and recording which those methods are recorded. | |
| US20020080399A1 (en) | Data processing apparatus, data processing method, data processing program, and computer-readable memory storing codes of data processing program | |
| JP3729865B2 (en) | Data multiplexing method, data multiplexing device using the method, multiplex data relay device, multiplex data decoding method, multiplex data decoding device using the method, and recording medium on which these methods are recorded | |
| JP2002142227A (en) | Hierarchical coding apparatus and hierarchical decoding apparatus for video signal | |
| JP2004537931A (en) | Method and apparatus for encoding a scene | |
| JP3158064B2 (en) | Video encoding device and video decoding device | |
| JP4289753B2 (en) | REPRODUCTION METHOD AND DEVICE AND DISPLAY DEVICE | |
| JP3854871B2 (en) | Image processing apparatus, image processing method, recording medium, and program | |
| US7154906B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable storage medium storing image processing program code | |
| KR100810649B1 (en) | System and method for moving picture file and multimedia file synthesis | |
| JPH1132337A (en) | Data structure for image transmission, encoding method and decoding method | |
| JP2002271738A (en) | Information processing apparatus, control method therefor, computer program, and storage medium | |
| JPH0984008A (en) | Image / sound encoder and decoder | |
| JP2002094996A (en) | Receiver | |
| JP2005159878A (en) | Data processing apparatus, data processing method, program, and storage medium | |
| Bojkovic et al. | Audiovisual integration in multimedia communications based on MPEG-4 facial animation | |
| JP2000078574A (en) | Video and audio reproducing device | |
| JP2006014180A (en) | Data processing apparatus, data processing method and program thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061013 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061013 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080908 |