JP2006014180A - データ処理装置、データ処理方法及びそのプログラム - Google Patents
データ処理装置、データ処理方法及びそのプログラム Download PDFInfo
- Publication number
- JP2006014180A JP2006014180A JP2004191539A JP2004191539A JP2006014180A JP 2006014180 A JP2006014180 A JP 2006014180A JP 2004191539 A JP2004191539 A JP 2004191539A JP 2004191539 A JP2004191539 A JP 2004191539A JP 2006014180 A JP2006014180 A JP 2006014180A
- Authority
- JP
- Japan
- Prior art keywords
- data
- decoding
- event
- scene
- object data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】 複数のオブジェクトから構成される符号化されたマルチメディアデータを再生する際に、動画や音声等のメディアオブジェクトデータとシーンとが同期した合成、再生を確実に行うことができるデータ処理装置、データ処理方法及びそのプログラムを提供する。
【解決手段】 メディア復号回路104は、逆多重化回路102がマルチメディアデータを分離した複数のオブジェクトデータを復号化する。シーン記述データ復号回路103は、受信したマルチメディアデータに含まれるシーン記述データを復号化する。逆多重化回路102は、オブジェクトデータの読み込みを開始するタイミングでイベント発行命令を出力する。イベント発生回路105は、イベント発行命令に応じてイベントを発生する。シーン合成回路106は、イベントを受信したタイミングに応じてシーン記述データを基に、復号化した複数のオブジェクトデータの合成処理を行う。
【選択図】 図1
【解決手段】 メディア復号回路104は、逆多重化回路102がマルチメディアデータを分離した複数のオブジェクトデータを復号化する。シーン記述データ復号回路103は、受信したマルチメディアデータに含まれるシーン記述データを復号化する。逆多重化回路102は、オブジェクトデータの読み込みを開始するタイミングでイベント発行命令を出力する。イベント発生回路105は、イベント発行命令に応じてイベントを発生する。シーン合成回路106は、イベントを受信したタイミングに応じてシーン記述データを基に、復号化した複数のオブジェクトデータの合成処理を行う。
【選択図】 図1
Description
本発明は、例えば符号化された動画像オブジェクトデータ、音声オブジェクトデータ、シーン記述データを含むマルチメディアデータを分離、復号化し、復号化されたデータを合成、出力するデータ処理装置、データ処理方法及びそのプログラムに関するものである。
動画像や音声を圧縮符号化し、多重化し、伝送若しくは蓄積し、これを逆多重化して復号する符号化標準の国際規格としてMPEG(Motion Picture Experts Group)−1、及びMPEG−2などが知られている。
一方、ISO/IEC 14496 part 1(MPEG−4 Systems)では、静止画、動画像や音声、テキスト、CG(Computer Graphics)など複数のオブジェクトを含むマルチメディアデータの符号化ビットストリームを多重化・同期する手法が標準化されている。
上述したようなMPEG−4のデータストリームには、これまでの一般的なマルチメディアデータとは異なり、静止画像、動画像や音声に加え、テキストやCGなどの各オブジェクトを空間・時間的に配置するための情報として、VRML(Virtual Reality Modeling Language)を自然動画像や音声が扱えるように拡張したBIFS(Binary Format for Scenes)が含まれている。ここでBIFSはMPEG−4のシーンを2値で記述する情報である。
このようなマルチメディアデータを構成する静止画、動画、音声等個々のオブジェクトは、それぞれ個別に最適な符号化が施されて送信されることになるので、復号側でも個別に復号され、上述のシーン記述情報に伴い時間的、空間的に配置され、個々のデータの持つ時間軸を再生機内部の時間軸に合わせて同期させ、シーンを合成し再生される。
又、一般的にシーンの構成を記述する方法としては、上述したVRML、BIFSの他に、HTML(Hypertext Markup Language)や、XML(eXtensible Markup Language)を用いて記述されるSMIL(Synchronized Multimedia Integration Language)、XMT(eXtensible MPEG−4 Textual Format)などがある。
このようなマルチメディアデータのビットストリームを再生する際には、動画像や音声に加えて、シーン及びシーンを構成する各オブジェクトとも同期して合成し、再生することが要求される。そこで、オーディオとビデオとCGを同期して合成し、再生する手法が提案されている(例えば、特許文献1参照。)。
又、コンテンツデータの再生中に後続のコンテンツデータの先行取得をおこなうことにより、シーン記述情報による時刻指定を守った再生ができ、しかも再生開始まで、あるいは次に再生を開始するまでの遅延を小さくする手法が提案されている(例えば、特許文献2参照。)。
しかしながら、上記特許文献1に提案される方式は、動画像や音声を読み込み、再生を開始するまでに要する遅延に関しては何等言及されておらず、例えばネットワークを介して配信される動画像や音声の読み込みに時間を要した場合には、シーン記述情報の時間的な配置に従って動画像や音声を合成、再生することができないといった問題を有している。
又、上記特許文献2に提案される方式は、ネットワークを介して配信されるマルチメディアデータを受信して再生する場合に限定されている為、蓄積媒体から再生する場合に適用できず、又、ネットワークの通信速度や回線状況によっては動画像や音声とシーンとの同期が確実に取れるとは限らない、などの問題を有している。
又、上述したVRML、BIFSといったシーン記述方法では、無限に高速で処理されるという動作環境を理想としているが、動画像や音声の読み込みは負荷の大きい作業であるため、現実の動作環境においては再生開始に時間を要する。このように再生開始に要する時間は、ネットワークの通信速度、回線状況や受信端末の処理能力に依存する。この為、通信速度が低い場合や回線が混雑している場合や、処理能力の低い受信端末を使用する場合等には、再生開始時、若しくはシーン記述データの更新時に、シーンとシーンを構成する動画像や音声等のメディアオブジェクトデータとの同期が取れないという問題を有している。
本発明は、上述した事情を考慮してなされたもので、動画、音声、静止画、テキスト、CG等、複数のオブジェクトから構成される符号化されたマルチメディアデータを再生する際に、動画や音声等のメディアオブジェクトデータとシーンとが同期した合成、再生を確実に行うことができるデータ処理装置、データ処理方法及びそのプログラムを提供することを目的とする。
この発明は、上述した課題を解決すべくなされたもので、本発明によるデータ処理装置においては、符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置であって、受信したマルチメディアデータをオブジェクトデータ単位で分離する分離手段と、分離手段が分離した複数のオブジェクトデータを復号化する一つ又は複数の第1の復号化手段と、マルチメディアデータに含まれる一部のデータとして又はネットワークと異なる通信経路で独立したデータとして符号化されたシーン記述データを受信した場合に、シーン記述データを復号化する第2の復号化手段と、分離手段がオブジェクトデータの読み込みを開始するタイミング又は、第1の復号化手段がオブジェクトデータを復号化するタイミングに応じてイベントを発生するイベント発生手段と、イベント発生手段が発生するイベントを受信したタイミングに応じて、第2の復号化手段が復号化したシーン記述データを基に、第1の復号化手段が復号化した複数のオブジェクトデータの合成処理を行うシーン合成手段とを備えることを特徴とする。
また、本発明によるデータ処理方法においては、符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置を用いたデータ処理方法であって、受信したマルチメディアデータをオブジェクトデータ単位で分離する分離ステップと、分離ステップで分離した複数のオブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、マルチメディアデータに含まれる一部のデータとして又はネットワークと異なる通信経路で独立したデータとして符号化されたシーン記述データを受信した場合に、シーン記述データを復号化する第2の復号化ステップと、分離ステップでオブジェクトデータの読み込みを開始するタイミング又は、第1の復号化ステップでオブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、イベント発生ステップで発生するイベントを受信したタイミングに応じて、第2の復号化ステップで復号化したシーン記述データを基に、第1の復号化ステップで復号化した複数のオブジェクトデータの合成処理を行うシーン合成ステップとを有することを特徴とする。
また、本発明によるプログラムは、符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置用のプログラムであって、受信したマルチメディアデータをオブジェクトデータ単位で分離する分離ステップと、分離ステップで分離した複数のオブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、マルチメディアデータに含まれる一部のデータとして又はネットワークと異なる通信経路で独立したデータとして符号化されたシーン記述データを受信した場合に、シーン記述データを復号化する第2の復号化ステップと、分離ステップでオブジェクトデータの読み込みを開始するタイミング又は、第1の復号化ステップでオブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、イベント発生ステップで発生するイベントを受信したタイミングに応じて、第2の復号化ステップで復号化したシーン記述データを基に、第1の復号化ステップで復号化した複数のオブジェクトデータの合成処理を行うシーン合成ステップとをコンピュータに実行させるためのプログラムである。
また、本発明による記録媒体は、符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置用のプログラムを記録した記録媒体であって、受信したマルチメディアデータをオブジェクトデータ単位で分離する分離ステップと、分離ステップで分離した複数のオブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、マルチメディアデータに含まれる一部のデータとして又はネットワークと異なる通信経路で独立したデータとして符号化されたシーン記述データを受信した場合に、シーン記述データを復号化する第2の復号化ステップと、分離ステップでオブジェクトデータの読み込みを開始するタイミング又は、第1の復号化ステップでオブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、イベント発生ステップで発生するイベントを受信したタイミングに応じて、第2の復号化ステップで復号化したシーン記述データを基に、第1の復号化ステップで復号化した複数のオブジェクトデータの合成処理を行うシーン合成ステップとをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明によるデータ処理装置、データ処理方法及びそのプログラムは、複数のオブジェクトから構成されるマルチメディアデータから各オブジェクトを分離し、再生する際に、動画像や音声等のメディアオブジェクトデータとシーンとが同期した合成や再生を、通信回線の種類や回線状況や端末の処理能力に関わらず、確実に行うことができるという効果が得られる。
以下、図面を用いて本発明の実施形態について説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態としてのマルチメディアデータ受信装置(以下、単に受信装置とする)101の基本構成を示す図である。図1においては、回路構成を示すと共に、各回路間でのデータの流れも合わせて示している。
[第1の実施形態]
図1は、本発明の第1の実施形態としてのマルチメディアデータ受信装置(以下、単に受信装置とする)101の基本構成を示す図である。図1においては、回路構成を示すと共に、各回路間でのデータの流れも合わせて示している。
図1に示すように、受信装置101は、逆多重化回路(分離手段)102、シーン記述データ復号回路(第2の復号化手段)103、メディア復号回路(第1の復号化手段)104、イベント発生回路105、シーン合成回路106、及び出力機器107により構成されている。図1において、100は各種ネットワークに代表される伝送路であり、本実施形態においては加工、符号化されたマルチメディアデータが配信されてくるネットワークである。ここで、本実施形態においては伝送路100からマルチメディアデータを取得しているが、このように放送ネットワークや通信ネットワークといった通信路を介して取得する方法に限定されるものではなく、例えばDVD−RAM等の記録媒体からマルチメディアデータを読み出すことで取得する方法であってもよい。
受信装置101は、伝送路100を介してネットワーク経由で配信されたマルチメディアデータを受信すると、逆多重化回路102に入力する。逆多重化回路102は、受信したマルチメディアデータを、シーン記述データや、静止画や動画像、音声などのメディアオブジェクトデータ等に分離し、それぞれシーン記述データ復号回路103、メディア復号回路104へ出力する。尚、上述したように、受信装置101は、記録媒体からデータを読み出す構成を備えることで、記録媒体から読み込んだマルチメディアデータを逆多重化回路102に入力してもよい。
又、図1において、メディア復号回路104は一つであるが、本実施形態においては、静止画像オブジェクトデータ、動画像オブジェクトデータ、音声オブジェクトデータについて、複数のオブジェクトがマルチメディアデータ内に存在しても復号可能な装置であり、例えばメディア復号回路104は静止画像用、動画像用、音声用に各々複数の復号回路から構成されているものとする。
又、上記静止画像オブジェクトデータは、例えば周知のJPEG方式にて高能率(圧縮)符号化されたデータである。又、上記動画像オブジェクトデータは、例えば周知のMPEG−2やMPEG−4、H263方式にて高能率符号化されたデータである。又、上記音声オブジェクトデータは、例えば周知のCELP(Code Excited Linear Prediction)、AAC(Advanced Audio Coding)、変換領域重み付けインターリーブベクトル量子化(TWINVQ)符号化などの高能率符号化が施されたデータである。
符号化が施されたシーン記述データ、メディアオブジェクトデータは、それぞれシーン記述データ復号回路103とメディア復号回路104において復号され、シーン合成回路106に供給される。シーン合成回路106は、復号されたシーン記述データに基づいてシーンと復号されたメディアオブジェクトデータを合成する。このようにして得られた最終的なマルチメディアデータ列は、ディスプレイやスピーカー、プリンタなどに代表される出力機器107に供給され、再生されることになる。
また、逆多重化回路102は、各々のノードに関連する動画像や音声の読み込みを開始すると、イベント発生回路105へイベント発行命令を送信する機能(発行命令手段)を有する。イベント発行命令を受信したイベント発生回路105は、シーン合成回路106へイベントを送信する。
次に、本実施形態における受信装置101が受信するマルチメディアデータのデータ構造について具体例を示して説明する。
図2は、本実施形態におけるマルチメディアデータ200全体のデータ構造例を示す図である。図2に示すように、マルチメディアデータ200は、シーン記述データ201及びメディアデータ202〜205等のパケットから構成される。シーン記述データ201は、シーンを構成するメディアデータ202〜205よりも先に送信され、受信装置101においても、シーン記述データ201、メディアデータ202〜205の順でデータを取得する。
図2は、本実施形態におけるマルチメディアデータ200全体のデータ構造例を示す図である。図2に示すように、マルチメディアデータ200は、シーン記述データ201及びメディアデータ202〜205等のパケットから構成される。シーン記述データ201は、シーンを構成するメディアデータ202〜205よりも先に送信され、受信装置101においても、シーン記述データ201、メディアデータ202〜205の順でデータを取得する。
上記シーン記述データ201、メディアデータ202〜205の各パケットには、パケットヘッダ部に同期管理の為の時間情報(DTS、CTS等)が付加される。DTS(Decoding Time Stamp)は、シーン記述データ復号回路103とメディア復号回路104の前段にある図示しない復号化バッファに当該パケットが到着していなければならない時刻を示す情報である。また、CTS(Composition time Stamp)は、シーン記述データ復号回路103とメディア復号回路104の後段にある図示しないコンポジションメモリに当該パケットが存在しなければならない時刻を示す情報である。各パケットはパケット毎に付加されたパケットヘッダ部のDTSの時刻で復号され、CTS以降の時刻で有効になる。前述したような、無限に高速で処理を行うことが出来る理想的な動作環境においては、上記時間情報DTS、CTSに従って、メディアデータを復号処理し再生することが可能である。
ここで、図2に示したシーン記述データ201の記述について具体例を示して説明する。図3は、図2に示したシーン記述データ201の記述例を示す図である。図3に示すように、シーン記述データ201は、シーン記述言語として例えばBIFS(Binary Format for Scenes)を用いて記述されたBIFSデータ300のような記述構成となる。ここで、シーンとは、視聴者に提示される画面や時間的な構成であり、MPEG−4のシステムパートではシーン記述言語として、前述したBIFSが規格化されている。ここでは簡単の為、図3に示すようにBIFSデータをテキストとして表記する。
BIFSデータ300は、Groupノード301で始まる。全てのBIFSはSFTopNodeと呼ばれる種類のノードで始まるが、Groupノード301はSFTopNodeの一つである。このGroupノード301の子ノード(childrenフィールド)に、動画像に関する情報がTransform2Dノード302として記述されている。Transform2Dノード302は、キーワードDEFを使用してMOVIEという名称で定義されている。以下、Transform2Dノード302を単にMOVIE302とする。
実際に表示される動画像データは、MovieTextureノード303によって定義され、フィールドurlに記述された"test.mpeg"が動画像オブジェクトデータの所在を示している。ここで"test.mpeg"は例えばMPEG1−Videoの動画ファイルフォーマットである。
又、TimeSensorノード304は、時間の経過と共にイベントを発生し、時刻0秒(フィールドstartTime 0)から1秒間(フィールドcycleInterval 1)、0.0〜1.0の範囲でfraction_changedイベントを出力する。TimeSensorノード304は、キーワードDEFを使用してTIMERという名称で定義される。以下、TimeSensorノード304を単にTIMER304とする。
PositionInterpolator2Dノード305は、補完子ノードの一つである。0〜1の入力値(フィールドkey[0 1])に対して線形補間を実行し、(1,1)〜(2,2)の値(フィールドkeyValue[1,1 2,2])をvalue_changedイベントとして出力し、例えば0.5の入力値に対して、(1.5,1.5)を出力する。PositionInterpolator2Dノード305は、キーワードDEFを使用して、SCALEという名称で定義される。以下、PositionInterpolator2Dノード305を単にSCALE305とする。
TIMER304のfraction_changed出力イベントは、ROUTE文306によって、SCALE305のset_fraction入力イベントにルート接続される。このROUTE接続により、線形補間が実行され、その結果はSCALE305のvalue_changed出力イベントとして送出される。
さらに、SCALE305のvalue_changed出力イベントは、ROUTE文307によって、MOVIE302のフィールドscaleにルート接続される。このROUTE接続により、動画像MOVIE302の表示スケールが変更される。
このようにBIFSデータ300によると、時刻0秒から1秒間、動画像オブジェクトデータ"test.mpeg"のスケールは(1,1)から(2,2)まで拡大されることになる。例えば0.5秒時には、幅、高さ共1.5倍のスケールで表示される。尚、ここではその他のノード、フィールドに関しての詳細な説明は省略する。
次に、図3に示したBIFSデータ300を含むマルチメディアデータ例及び、そのマルチメディアデータに対する動作環境による復号、再生処理の違いについて説明する。
図4(a)は、図3に示したBIFSデータ300を含むマルチメディアデータ例を示す図である。図4(a)に示すように、マルチメディアデータ400は、前述のBIFSデータ300と動画像オブジェクトデータ“test.mpeg"の各フレームFrameN(N=0,1,2,…)とから構成される。また、図4(b)は、図4(a)に示した、マルチメディアデータ400に対する動作環境による復号、再生処理の違いを示す図である。
図4(a)は、図3に示したBIFSデータ300を含むマルチメディアデータ例を示す図である。図4(a)に示すように、マルチメディアデータ400は、前述のBIFSデータ300と動画像オブジェクトデータ“test.mpeg"の各フレームFrameN(N=0,1,2,…)とから構成される。また、図4(b)は、図4(a)に示した、マルチメディアデータ400に対する動作環境による復号、再生処理の違いを示す図である。
本実施形態では、マルチメディアデータ400を構成するBIFSデータ300のパケットには、DTS、CTSとして0(msec(ミリ秒))が付加され、動画像オブジェクトデータ“test.mpeg"の各フレームFrameNにはDTS、CTSとして50×N(msec)が付加されているものとする。
上述したDTS、CTSが付与されたマルチメディアデータ400を復号、再生処理した場合、図4(b)の上段に示すように理想的な動作環境においては、BIFSデータ300及び動画像オブエジェクトデータFrame0(401)は、時刻0msecで復号、再生される。又、動画像オブジェクトデータFrame10(402)は、時刻500(msec)で復号、再生される。同様に、動画像オブジェクトデータFrame20(403)は、時刻1000(msec)で復号、再生され、動画像オブジェクトデータFrame30(404)は、時刻1500(msec)で復号、再生される。このように、無限に高速で処理される理想的な動作環境においては、BIFSデータ300及び動画像オブジェクトデータFrameNは、時間情報DTS、CTSに従って理想的なタイミングで復号、再生処理がなされる。
ここで、図4(b)の上段に示すような理想的なタイミングでマルチメディアデータ400が復号、再生処理された場合の画面例について説明する。
図5は、図4(b)の上段に示すような理想的なタイミングでマルチメディアデータ400が復号、再生処理された場合の画面例を時間経過と共に示した図である。図5に示すように、時刻0msec時に、動画像Frame0(401)が幅、高さのスケールがそれぞれ等倍で再生される(画面500)。次に、時刻500msec時に、動画像Frame10(402)が幅、高さのスケールがそれぞれ1.5倍で再生される(画面501)。同様に、時刻1000msec、1500msec時に、動画像Frame20(403)、Frame30(404)が幅、高さのスケールがそれぞれ2倍で再生される(画面502、画面503)。このように、動画像オブジェクトデータの各フレームFrameNは、コンテンツ作成者の意図したスケールで時間情報DTS、CTSに応じたタイミングで再生される。
図5は、図4(b)の上段に示すような理想的なタイミングでマルチメディアデータ400が復号、再生処理された場合の画面例を時間経過と共に示した図である。図5に示すように、時刻0msec時に、動画像Frame0(401)が幅、高さのスケールがそれぞれ等倍で再生される(画面500)。次に、時刻500msec時に、動画像Frame10(402)が幅、高さのスケールがそれぞれ1.5倍で再生される(画面501)。同様に、時刻1000msec、1500msec時に、動画像Frame20(403)、Frame30(404)が幅、高さのスケールがそれぞれ2倍で再生される(画面502、画面503)。このように、動画像オブジェクトデータの各フレームFrameNは、コンテンツ作成者の意図したスケールで時間情報DTS、CTSに応じたタイミングで再生される。
ところが、伝送路100が接続されているネットワークの通信速度が低い場合や、回線が混雑している場合や、受信装置101の処理能力が低い場合等には、マルチメディアデータ400中のBIFSデータ300に後続する動画像オブジェクトデータFrameNの受信処理や、復号処理に遅延が発生する場合が考えられる。このような場合には、時間情報DTS、CTSに応じたタイミングで動画像オブジェクトデータFrameNの復号、再生を行うことができない場合がある。図4(b)の下段は、時間情報DTS、CTSに応じたタイミングで動画像オブジェクトデータFrameNの復号、再生を行うことができない場合を示している。
具体的には図4(b)の下段に示す遅延環境は、動画像オブジェクトデータの受信や復号に500msecの遅延が発生した場合の例である。すなわち、BIFSデータ300は、時刻0msecで復号、再生されるが、動画像オブジェクトデータの各フレーム401〜404は、各々の時間情報DTS、CTSより500msec遅れて復号、再生される。
ここで、図4(b)の下段に示すような遅延の発生する遅延環境でマルチメディアデータ400が復号、再生処理された場合の画面例について説明する。
図6は、図4(b)の下段に示すような遅延の発生する遅延環境でマルチメディアデータ400に対して従来の復号、再生処理が行われた場合の画面例を示す図である。図6に示すように、動画像の各フレームは、復号、再生処理のタイミングがずれたことにより、コンテンツ作成者が意図したものとは異なるスケールで再生されることになる。
図6は、図4(b)の下段に示すような遅延の発生する遅延環境でマルチメディアデータ400に対して従来の復号、再生処理が行われた場合の画面例を示す図である。図6に示すように、動画像の各フレームは、復号、再生処理のタイミングがずれたことにより、コンテンツ作成者が意図したものとは異なるスケールで再生されることになる。
つまり、時刻0msec時には、BIFSデータ300は復号されているが、動画像Frame0(401)の復号がなされていない為、何も表示されない(画面600)。次に、時刻500msec時には、時刻0msecで表示されるべき動画像Frame0(401)が、幅、高さのスケールがそれぞれ1.5倍で再生される(画面601)。次に、時刻1000msec時には、時刻500msecで表示されるべき動画像Frame10(402)が、幅、高さのスケールがそれぞれ2倍で再生される(画面602)。次に、時刻1500msec時に、時刻1000msecで表示されるべき動画像Frame20(403)が、幅、高さのスケールがそれぞれ2倍で再生される(画面603)。時刻2000msec時に、時刻1500msecで表示されるべき動画像Frame30(404)が、幅、高さのスケールがそれぞれ2倍で再生される(画面604)。
このように遅延の発生する環境において従来の復号、再生処理を行うと、シーン記述データは時間情報に従って復号、再生されるので、時間経過と共にシーン(フィールド値等)を変化するが、後続のメディアオブジェクトデータの受信、復号に遅延が発生した場合には、シーン記述データとメディアオブジェクトデータの同期が取れなくなるという問題がある。
本実施形態における受信装置101は、イベント発生回路105を備えることで、上記した遅延の発生する環境においても、シーン記述データとメディアオブジェクトデータを同期して再生を行うことができる。以下に、イベント発生回路105の発生するイベントを利用してシーン記述データに基づき複数のメディアオブジェクトデータを合成する処理について、図7及び図8のフローチャートを用いて説明する。
図7は、受信装置101がシーン記述データを受信した際に、シーン合成回路106がシーン記述データとメディアオブジェクトデータを合成する処理示すフローチャートである。図7では、特にシーン合成回路106の処理について説明しているが、図7のステップS701の前に、逆多重化回路102が、受信したマルチメディアデータに対して逆多重化処理を行い、シーン記述データ復号回路103及びメディア復号回路104が、逆多重化処理された各データに復号処理を行っている。尚、マルチメディアデータに含まれるシーン記述データは、前述したようにメディアオブジェクトデータよりも先に送信されるか、又は送信側からシーンを意図的に更新するために再送される。
まず、シーン合成回路106は、シーン記述データ復号回路103から、復号されたシーン記述データを読み込む(ステップS701)。次に、シーン合成回路106は、読み込んだシーン記述データからシーンを解析する(ステップS702)。次に、シーン合成回路106は、解析の結果、シーン記述データが動画像や音声、静止画像などのメディアデータを参照するか否かを判断する(ステップS703)。この判断は、例えばシーン記述データとしてBIFSを用いた場合には、MovieTexture/AudioClip/ImageTextureノードに代表される、メディアデータを参照するノードが含まれるか否かにより、判断する。
例えば図3に示したBIFSデータ300の例では、MovieTextureノード303が含まれているので、シーン合成回路106は、メディアデータを参照すると判断する(ステップS703の“はい”)。
上記ステップS703において、シーン中にメディアデータの参照がないと判断した場合(ステップS703の“いいえ”)には、シーン合成回路106は、メディアデータを合成する必要はなく、ステップS701で読み込んだシーン記述データをそのまま合成し、出力する(ステップS707)。
また、上記ステップS703において、シーン中にメディアデータの参照があると判断した場合(ステップS703の“はい”)には、シーン合成回路106は、現在の時刻が当該メディアデータの再生開始時刻になったか否かを判断する(ステップS704)。この判断には、例えば前述のAudioClipノードの場合には、startTimeフィールドから判断することができ、現時刻がstartTimeを超えた時点でメディアデータの開始時刻になったと判断する。又、前述のMovieTextureノードの場合には、開始時刻でなくとも、逆方向の再生が指定されていなければ、現時刻で開始時刻になったと判断する。その理由は、MovieTextureノードは、現時刻がstartTimeを超えていても、speedフィールドの値が負でなければ、動画像の最初のフレーム(図4の例では、Frame0(401))を表示する必要があるからである。又、前述のImageTextureノードには開始時刻を表すフィールドはないため、同様に現時刻で開始時刻であると判断する。
上記ステップS704で現時刻が当該メディアデータの開始時刻になっていないと判断された場合(ステップS704の“いいえ”)には、シーン合成回路106は、現時刻において当該メディアデータを合成する必要はなく、シーン記述データが他にメディアデータを参照するかどうかを判断する(ステップS708)。一方、現時刻が当該メディアデータの開始時刻であると判断された場合(ステップS704の“はい”)には、シーン合成回路106は、イベント発生回路105から送信されるイベントを受信したかどうかを判断する(ステップS705)。
この判断処理の内容は、逆多重化回路102がシーン中のメディアデータの読み込みを開始することで、イベント発生回路105が、シーン合成回路106へ送信するイベントが用いられる。例えばシーン記述データとしてBIFSを用いた場合には、MovieTextureノードやAudioClipノードのduration_changedイベントがイベント発生回路105からシーン合成回路106へ送信され、判断に用いられる。逆多重化回路102は各々のノードに関連する動画像や音声の読み込みを開始すると、イベント発生回路105へイベント発行命令を送信する。イベント発行命令を受信したイベント発生回路105はシーン合成回路106へduration_changedイベントを送信する。duration_changedイベントは動画像や音声の継続時間を秒で示したものであるが、値が−1のときは、動画像、音声がまだ読み込まれていないか、何らかの理由で使用できないことを意味する。
例えば、図3に示したBIFSデータ300の例では、逆多重化回路102は動画像オブジェクトデータ"test.mpeg"の読み込みを開始すると、イベント発生回路105へイベント発行命令を送信する。イベント発行命令を受信したイベント発生回路105は、シーン合成回路106へMovieTextureノードのduration_changedイベントを送信することになる。
イベント発生回路105からイベントを受信したと判断した場合(ステップS705の“はい”)には、シーン合成回路106は、メディア復号回路104から復号されたメディアオブジェクトデータを読み込む(ステップS707)。次に、ステップS708に進み、シーンが他にメディアデータを参照するかどうかを判断する。ここで、参照が無いと判断した場合(ステップS708の“いいえ”)には、シーン合成回路106は、ステップS707で読み込んだメディアデータをシーン記述データと共に合成して、出力機器107へ出力する(ステップS709)。
イベント発生回路105からイベントを受信していないと判断した場合(ステップS705の“いいえ”)とは、回線状況の混雑や受信装置101の処理能力が低い為、メディアデータの読み込みが開始していないか、その他何らかの理由で使用できない場合である。この場合、シーン合成回路106は、メディア復号回路104から復号されたメディアオブジェクトデータを読み込むことはできず、イベント発生回路105からイベントが送信されるのを待機して(ステップS706)、再度ステップS705の処理を行う。イベントが送信されるまでの間、シーンは時間が経過しても変化せず、フィールド値も更新しない。よって図3のBIFSデータ300の例では、TIMER304は時刻500msecを経過するまでの間fraction_changedイベントの出力を行わない。
又、ステップS708で、シーンが他のメディアデータを参照する場合(ステップS708の“はい”)には、シーン合成回路106は、当該メディアオブジェクトデータの開始時刻になったかどうかを判断するべく、ステップS704へと処理を移行する。
図8は、既にシーン記述データを読み込み済みの場合に、受信装置101のシーン合成回路106がシーン記述データとメディアオブジェクトデータを合成する処理を示すフローチャートである。すなわち、図8の処理は、図7に示した処理に続く処理である。
まず、シーン合成回路106は、既に読み込み済みのシーン記述データのフィールド値を、時間経過と共に変化させる(ステップS801)。図3のBIFSデータ300の例では、TIMER304が経過した時間に従ってfraction_changedイベントを出力する。
次に、シーン合成回路106は、シーン中のメディアデータで未開始のメディアデータがあるか否かを判断する(ステップS802)。図3のBIFSデータ300にはMovieTextureノード303が含まれるが、図7に示したステップS704で既に再生が開始されていると判断され、未開始のメディアデータは無いと判断する。
このように、未開始のメディアデータがないと判断された場合(ステップS802の“いいえ”)には、シーン中にメディアデータの参照がないか、既に全てのメディアデータの再生を開始しているので、シーン合成回路106は、シーン記述データを合成して出力する(ステップS808)。
また、シーン中に未開始のメディアデータがあると判断された場合(ステップS802の“はい”)には、シーン合成回路106は、現在の時刻が当該メディアデータの開始時刻になったかどうかを判断する(ステップS803)。この判断は、図7に示したステップS704と同様の処理である。
現時刻が当該メディアデータの開示時刻になっていないと判断された場合(ステップS803の“いいえ”)には、シーン合成回路106は、現時刻において当該メディアデータを合成する必要はなく、ステップS807へと処理を進める。
又、現時刻が当該メディアデータの開始時刻であると判断された場合(ステップS803の“はい”)には、当該メディアデータの読み込みが開始したかどうかを判断する為、シーン合成回路106は、イベント発生回路105からのイベント受信が完了したかどうかを判断する(ステップS804)。この判断は、図7に示したステップS705と同様の処理である。
上記イベント受信が完了したと判断された場合には、シーン合成回路106は、メディア復号回路104から復号されたメディアオブジェクトデータを読み込み(ステップS806)、シーン中に他に未開始のメディアデータがあるか否かを判断し(ステップS807)、無ければシーン記述データと共に合成して、出力機器107へ出力する(ステップS808)。
一方、イベント受信が未完了と判断された場合には、図7に示したステップS706と同様に、シーン合成回路106は、イベント発生回路105からイベントが送信されるのを待機する(ステップS805)。
又、ステップS807で、他に未開始のメディアデータが存在する場合(ステップS807の“はい”)には、シーン合成回路106は、当該メディアデータが開始時刻になったかどうかを判断するべく、ステップS803へと処理を移行する。
図9は、図7、図8のフローチャートに基づいて、前述した遅延の発生する環境において、マルチメディアデータ400が時間経過と共に再生される画面例を示した図である。
図9に示すように、時刻0msec時には、BIFSデータ300は復号されているが、動画像オブジェクトデータの復号が完了していない為、何も表示されない(画面600)。時刻500msec時には、動画像オブジェクトデータFrame0(401)が幅、高さのスケールがそれぞれ等倍で表示される(画面500)。動画像オブジェクトデータFrame0(401)の読み込みが開始されるまで、シーン合成回路106は時間が経過してもシーンを変化しない(TIMER304がfraction_changedイベントを出力しない)為、MOVIE302のscaleフィールド値は(1,1)のままである。
図9に示すように、時刻0msec時には、BIFSデータ300は復号されているが、動画像オブジェクトデータの復号が完了していない為、何も表示されない(画面600)。時刻500msec時には、動画像オブジェクトデータFrame0(401)が幅、高さのスケールがそれぞれ等倍で表示される(画面500)。動画像オブジェクトデータFrame0(401)の読み込みが開始されるまで、シーン合成回路106は時間が経過してもシーンを変化しない(TIMER304がfraction_changedイベントを出力しない)為、MOVIE302のscaleフィールド値は(1,1)のままである。
時刻1000msec時には、動画像オブジェクトデータFrame10(402)が幅、高さのスケールがそれぞれ1.5倍で表示される(画面501)。時刻1500msec時には、動画像オブジェクトデータFrame20(403)が幅、高さのスケールがそれぞれ2倍で表示される(画面502)。時刻2000msec時には、動画像オブジェクトデータFrame30(404)が幅、高さのスケールがそれぞれ2倍で表示される(画面503)。
このように、本実施形態の受信装置101によれば、シーン合成回路106は、メディアデータの開始時間となっても、イベント発生回路105からのイベントを受信するまでシーンを停止して待機することができる。これにより、図9に示すように、動画像フレームFrame0の復号処理を待つために、最初の画面(画面500)の再生処理において500msecの遅延はあるものの、以降の画面(画面501〜503の画面)は図5で示される理想環境と同様に再生することができる。すなわち、本実施形態の受信装置101によれば、複数のオブジェクトから構成されるマルチメディアデータから各オブジェクトを分離し、再生する際に、動画像や音声等のメディアオブジェクトデータとシーン記述データで管理されるシーンとが同期した合成や再生を、通信回線の種類や回線状況や端末の処理能力に関わらず、確実に行うことができる。
上述した実施形態において図3、図4に示した例では説明を分かり易くする為に、シーンの構成は動画像だけとしたが、シーンを構成するメディアオブジェクトとしては、動画像に限られるものではなく、音声や静止画等を用いることが可能である。よって、シーンとの同期を取るための制御対象物も動画像に限られるものではなく、動画像を構成するオブジェクトや、音声、静止画等のいずれであっても適用可能である。
[第2の実施形態]
上述した第1の実施形態では、受信装置101がマルチメディアデータを受信すると、逆多重化回路102が受信したマルチメディアデータをシーン記述データとメディアオブジェクトデータに分離し、それぞれの復号回路103、104へ入力する構成としたが、その構成と異なる構成である第2の実施形態における受信装置1000について以下に説明する。
上述した第1の実施形態では、受信装置101がマルチメディアデータを受信すると、逆多重化回路102が受信したマルチメディアデータをシーン記述データとメディアオブジェクトデータに分離し、それぞれの復号回路103、104へ入力する構成としたが、その構成と異なる構成である第2の実施形態における受信装置1000について以下に説明する。
図10は、第2の実施形態における受信装置1000の概略構成を示す図である。図10に示すように、受信装置1000は、シーン記述データをメディアオブジェクトデータと異なる経路(伝送路100)で受信する構成である。尚、図10において符号100、102〜107に示すように、図1と同じ機能のものには同じ符号を付与している。
本実施形態の受信装置1000は、シーン記述データを受信すると、メディアオブジェクトデータとは異なる伝送路100(図10の上側)を介してシーン記述データ復号回路103へ入力する。また、シーン記述データと異なる伝送路100(図10の下側)を介して多重化されたメディアオブジェクトデータは、第1の実施形態と同様に、逆多重化回路102へ入力する。入力されたメディアオブジェクトデータは、逆多重化回路102おいて逆多重化され、それぞれのメディア復号回路104へ入力される。また、本実施形態の受信装置1000における処理フローは、図7、図8に示した第1の実施形態における受信装置101の処理フローと同様である。
本実施形態で示した受信装置1000によると、シーン記述データとしてVRMLやSMIL等を用い、シーン記述データと符号化されたメディアデータを同一のストリームに多重化しない構成のマルチメディアデータを再生するに際して、第1の実施形態の目的と同様に、シーンとメディアオブジェクトデータとの同期した合成、再生を、通信回線や回線状況、端末の処理能力に関わらず、確実に行うことが可能になる。
[第3の実施形態]
第1の実施形態では、イベント発生回路105は、逆多重化回路102がシーン中のメディアデータの読み込みを開始すると、シーン合成回路106へイベントを送信する構成としたが、その構成と異なる構成である第3の実施形態における受信装置1100について以下に説明する。
第1の実施形態では、イベント発生回路105は、逆多重化回路102がシーン中のメディアデータの読み込みを開始すると、シーン合成回路106へイベントを送信する構成としたが、その構成と異なる構成である第3の実施形態における受信装置1100について以下に説明する。
図11は、第3の実施形態における受信装置1100の概略構成を示す図である。図11に示すように、受信装置1100のイベント発生回路105は、メディア復号回路114におけるメディアデータ復号処理の状況に応じてイベントを発生する構成である。尚、図11において符号100、102、103、105〜107に示すように、図1と同じ機能のものには同じ符号を付与している。
図1に示した第1の実施形態における受信装置101の処理能力が低い場合、メディア復号回路104は復号処理に時間を要する為、シーンとメディアデータ間の同期が取れなくなる可能性がある。そこで本実施形態では、メディア復号回路114が、メディアデータの復号処理を完了すると、イベント発生回路105へイベント発行命令を送信する機能(発行命令手段)を有する。イベント発行命令を受信したイベント発生回路105は、シーン合成回路106へイベントを送信する構成とする。また、本実施形態の受信装置1100における処理は、図7、図8に示した第1の実施形態における受信装置101の処理と同様である。
以上より、本実施形態で示した受信装置1100によれば、メディアオブジェクトデータの復号処理の進捗を考慮してシーンの進行を制御するので、複数のオブジェクトから構成される符号化されたマルチメディアデータを再生するに際して、特に動画や音声等のメディアオブジェクトデータの復号に時間を要しても、シーンとメディアオブジェクトデータとの同期した合成、再生を、通信回線や回線状況、端末の処理能力に関わらず、確実に行うことが可能になる。
[第4の実施形態]
上述した第2の実施形態では、イベント発生回路105は、逆多重化回路102がシーン中のメディアデータの読み込みを開始すると、シーン合成回路106へイベントを送信する構成としたが、その構成と異なる構成である第4の実施形態における受信装置1200について以下に説明する。
上述した第2の実施形態では、イベント発生回路105は、逆多重化回路102がシーン中のメディアデータの読み込みを開始すると、シーン合成回路106へイベントを送信する構成としたが、その構成と異なる構成である第4の実施形態における受信装置1200について以下に説明する。
図12は、第4の実施形態における受信装置1200の概略構成を示す図である。図12に示すように、受信装置1200のイベント発生回路105は、メディア復号回路114のメディアデータ復号処理の状況に応じてイベントを発生する構成である。尚、図12において符号100、102、103、105〜107に示すように、図10と同じ機能のものには同じ符号を付与している。
図10に示した第2の実施形態における受信装置1000の処理能力が低い場合、メディア復号回路104は復号処理に時間を要する為、シーンとメディアデータ間の同期が取れなくなる可能性がある。そこで本実施形態では、メディア復号回路114がメディアデータの復号処理を完了すると、イベント発生回路105へイベント発行命令を送信し、イベント発行命令を受信したイベント発生回路105は、シーン合成回路106へイベントを送信する構成とする。
以上より、本実施形態で示した受信装置1200によれば、メディアオブジェクトデータの復号処理の進捗を考慮してシーンの進行を制御するので、複数のオブジェクトから構成される符号化されたマルチメディアデータを再生するに際して、特に動画や音声等のメディアオブジェクトデータの復号に時間を要しても、シーンとメディアオブジェクトデータとの同期した合成、再生を、通信回線や回線状況、端末の処理能力に関わらず、確実に行うことが可能になる。
[その他の実施形態]
また、上述した実施形態では、受信装置内の各機能を回路により実現したが、これに限定されるものではない。受信装置内の各機能を実現するためのソフトウェアのプログラムコードを記録した記録媒体をシステムあるいは装置に提供し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによって受信装置内の各機能を実現してもよい。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現するためのものであり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、上述した実施形態では、受信装置内の各機能を回路により実現したが、これに限定されるものではない。受信装置内の各機能を実現するためのソフトウェアのプログラムコードを記録した記録媒体をシステムあるいは装置に提供し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによって受信装置内の各機能を実現してもよい。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現するためのものであり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
上述した、プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれていることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されてもよい。
また、上記のプログラムコードを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
100 伝送路
101 マルチメディアデータ受信装置
102 逆多重化回路
103 シーン記述データ復号回路
104、114 メディア復号回路
105 イベント発生回路
106 シーン合成回路
107 出力機器
1000、1100、1200 マルチメディアデータ受信装置(受信装置)
101 マルチメディアデータ受信装置
102 逆多重化回路
103 シーン記述データ復号回路
104、114 メディア復号回路
105 イベント発生回路
106 シーン合成回路
107 出力機器
1000、1100、1200 マルチメディアデータ受信装置(受信装置)
Claims (6)
- 符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置であって、
受信した前記マルチメディアデータを前記オブジェクトデータ単位で分離する分離手段と、
前記分離手段が分離した複数の前記オブジェクトデータを復号化する一つ又は複数の第1の復号化手段と、
前記マルチメディアデータに含まれる一部のデータとして又は前記ネットワークと異なる通信経路で独立したデータとして符号化された前記シーン記述データを受信した場合に、前記シーン記述データを復号化する第2の復号化手段と、
前記分離手段が前記オブジェクトデータの読み込みを開始するタイミング又は、前記第1の復号化手段が前記オブジェクトデータを復号化するタイミングに応じてイベントを発生するイベント発生手段と、
前記イベント発生手段が発生する前記イベントを受信したタイミングに応じて、前記第2の復号化手段が復号化した前記シーン記述データを基に、前記第1の復号化手段が復号化した複数の前記オブジェクトデータの合成処理を行うシーン合成手段と
を備えることを特徴とするデータ処理装置。 - 前記シーン合成手段は、前記イベント発生手段が発生する前記イベントを受信するまで前記合成処理を待機することを特徴とする請求項1に記載のデータ処理装置。
- 前記マルチメディアデータは、MPEG(Motion Picture Experts Group)−4の規格に準じたデータであり、前記シーン記述データが、BIFS(Binary Format for Scenes)、VRML(Virtual Reality Modeling Language)、SMIL(Synchronized Multimedia Integration Language)、又はXMT(eXtensible MPEG−4 Textual Format)のいずれかにより記述されたデータである場合に、前記イベント発生手段は、前記BIFS、前記VRML、前記SMIL、又は前記XMTにおいて定義される動画像又は音声に関連するノードに対する所定のイベントを発生することを特徴とする請求項1又は2に記載のデータ処理装置。
- 符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置を用いたデータ処理方法であって、
受信した前記マルチメディアデータを前記オブジェクトデータ単位で分離する分離ステップと、
前記分離ステップで分離した複数の前記オブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、
前記マルチメディアデータに含まれる一部のデータとして又は前記ネットワークと異なる通信経路で独立したデータとして符号化された前記シーン記述データを受信した場合に、前記シーン記述データを復号化する第2の復号化ステップと、
前記分離ステップで前記オブジェクトデータの読み込みを開始するタイミング又は、前記第1の復号化ステップで前記オブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、
前記イベント発生ステップで発生する前記イベントを受信したタイミングに応じて、前記第2の復号化ステップで復号化した前記シーン記述データを基に、前記第1の復号化ステップで復号化した複数の前記オブジェクトデータの合成処理を行うシーン合成ステップと
を有することを特徴とするデータ処理方法。 - 符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置用のプログラムであって、
受信した前記マルチメディアデータを前記オブジェクトデータ単位で分離する分離ステップと、
前記分離ステップで分離した複数の前記オブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、
前記マルチメディアデータに含まれる一部のデータとして又は前記ネットワークと異なる通信経路で独立したデータとして符号化された前記シーン記述データを受信した場合に、前記シーン記述データを復号化する第2の復号化ステップと、
前記分離ステップで前記オブジェクトデータの読み込みを開始するタイミング又は、前記第1の復号化ステップで前記オブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、
前記イベント発生ステップで発生する前記イベントを受信したタイミングに応じて、前記第2の復号化ステップで復号化した前記シーン記述データを基に、前記第1の復号化ステップで復号化した複数の前記オブジェクトデータの合成処理を行うシーン合成ステップと
をコンピュータに実行させるためのプログラム。 - 符号化された動画像及び/又は音声に関するオブジェクトデータを一つ又は複数含むマルチメディアデータをネットワーク経由で受信してシーン記述データに応じて再生処理するデータ処理装置用のプログラムを記録した記録媒体であって、
受信した前記マルチメディアデータを前記オブジェクトデータ単位で分離する分離ステップと、
前記分離ステップで分離した複数の前記オブジェクトデータを復号化する一つ又は複数の第1の復号化ステップと、
前記マルチメディアデータに含まれる一部のデータとして又は前記ネットワークと異なる通信経路で独立したデータとして符号化された前記シーン記述データを受信した場合に、前記シーン記述データを復号化する第2の復号化ステップと、
前記分離ステップで前記オブジェクトデータの読み込みを開始するタイミング又は、前記第1の復号化ステップで前記オブジェクトデータを復号化するタイミングに応じてイベントを発行するイベント発行ステップと、
前記イベント発生ステップで発生する前記イベントを受信したタイミングに応じて、前記第2の復号化ステップで復号化した前記シーン記述データを基に、前記第1の復号化ステップで復号化した複数の前記オブジェクトデータの合成処理を行うシーン合成ステップと
をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004191539A JP2006014180A (ja) | 2004-06-29 | 2004-06-29 | データ処理装置、データ処理方法及びそのプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004191539A JP2006014180A (ja) | 2004-06-29 | 2004-06-29 | データ処理装置、データ処理方法及びそのプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006014180A true JP2006014180A (ja) | 2006-01-12 |
Family
ID=35780825
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004191539A Pending JP2006014180A (ja) | 2004-06-29 | 2004-06-29 | データ処理装置、データ処理方法及びそのプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006014180A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101040086B1 (ko) * | 2009-05-20 | 2011-06-09 | 전자부품연구원 | 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 |
-
2004
- 2004-06-29 JP JP2004191539A patent/JP2006014180A/ja active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101040086B1 (ko) * | 2009-05-20 | 2011-06-09 | 전자부품연구원 | 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8290353B2 (en) | Data processing device and method | |
| JP2001359072A (ja) | データ変換装置及び方法、データ配信装置及び方法、データ配信システム | |
| EP1956848A2 (en) | Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method | |
| US20120179475A1 (en) | Reproducing apparatus and method, and recording medium | |
| JPWO2013136754A1 (ja) | 表示装置、及び送信装置 | |
| US20060140591A1 (en) | Systems and methods for load balancing audio/video streams | |
| JP2007511992A (ja) | 動画撮影装置および動画撮影方法、動画撮影装置により映像信号が記録された記録媒体、記録媒体に記録された映像信号を再生する動画再生装置および動画再生方法 | |
| JP4724919B2 (ja) | 記録装置および記録方法、再生装置および再生方法、並びに記録媒体 | |
| US20080198921A1 (en) | Method and apparatus for reproducing digital broadcasting | |
| CA2490879C (en) | Reproducing apparatus and method, and recording medium | |
| US6122020A (en) | Frame combining apparatus | |
| JP4715306B2 (ja) | ストリーム制御装置、ストリーム再生方法、映像記録再生システム | |
| JP2006014180A (ja) | データ処理装置、データ処理方法及びそのプログラム | |
| JPH104539A (ja) | データ多重化方法及び多重データ再生装置 | |
| JP2006190213A (ja) | メディア再生装置 | |
| JPWO2004034616A1 (ja) | 放送データ送受信システム及び放送データ送受信方法 | |
| JPH10271482A (ja) | 符号化映像の同期再生制御方法およびシステム | |
| JP2005176094A (ja) | データ処理装置及びデータ処理方法、並びにプログラム、記憶媒体 | |
| CA2725177C (en) | Reproducing apparatus and method, and recording medium | |
| JP3894362B2 (ja) | 複数動画像の閲覧装置および記録媒体 | |
| JP2005159878A (ja) | データ処理装置及びデータ処理方法、並びにプログラム、記憶媒体 | |
| JP3979566B2 (ja) | 動画像付帯時変テキスト情報分割装置 | |
| JP2007195064A (ja) | 画像情報伝送装置、画像情報伝送方法、プログラム及び記憶媒体 | |
| JP2006180091A (ja) | コンテンツ合成装置及び方法 | |
| JP2007036539A (ja) | デコード方法、デコード合成制御装置及び画像合成システム |