[go: up one dir, main page]

JP2014509111A - 複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法 - Google Patents

複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法 Download PDF

Info

Publication number
JP2014509111A
JP2014509111A JP2013550392A JP2013550392A JP2014509111A JP 2014509111 A JP2014509111 A JP 2014509111A JP 2013550392 A JP2013550392 A JP 2013550392A JP 2013550392 A JP2013550392 A JP 2013550392A JP 2014509111 A JP2014509111 A JP 2014509111A
Authority
JP
Japan
Prior art keywords
data
real
time
stream
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013550392A
Other languages
English (en)
Other versions
JP5977760B2 (ja
Inventor
リ,ジェ−ジュン
ジャン,ムン−ソク
パク,ホン−ソク
ジュ,ユ−ソン
キム,ヒ−ジン
リ,デ−ジョン
ジャン,ヨン−ソク
キム,ヨン−テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014509111A publication Critical patent/JP2014509111A/ja
Application granted granted Critical
Publication of JP5977760B2 publication Critical patent/JP5977760B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6112Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving terrestrial transmission, e.g. DVB-T
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

受信装置が開示される。本装置は、第1リアルタイム伝送ストリームを放送網を通じて受信する第1受信部と、第2リアルタイム伝送ストリームを通信網を通じて受信する第2受信部と、第1および第2リアルタイム伝送ストリームの少なくとも一方をディレイ(delay)させて同期化する遅延処理部と、第1リアルタイム伝送ストリームから第1データを検出する第1検出部と、第2リアルタイム伝送ストリームから第2データを検出する第2検出部と、第1データおよび第2データを組み合わせてマルチメディアコンテンツを構成する信号処理部と、マルチメディアコンテンツを再生する再生部とを含む。それにより、安定的にマルチメディアコンテンツを再生することができる。

Description

本発明は、複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法に関し、より詳細には、一つのマルチメディアコンテンツを相互異なる経路を通じて送受信する受信装置および送信装置とその再生方法に関する。
電子技術の発達により、多様な電子装置が開発および普及されている。これらの電子装置の代表的な例として、テレビのような受信装置を挙げることができる。
最近は、テレビの性能が向上することにより、3Dコンテンツのようなマルチメディアコンテンツまでもサービスされている。3Dコンテンツは、左眼映像および右眼映像を含むため、従来の2Dコンテンツよりコンテンツのサイズが大きい。
しかし、放送網で使用される伝送帯域幅は制限的である。単一放送網で3Dコンテンツを提供するためには、解像度を減らす必要があり、それにより、画質が劣化してしまうという問題点があった。
このとうな問題点を克服するために、左眼映像および右眼映像を互いに異なる経路を通じて伝送し、受信装置でそれを組み合わせて3Dコンテンツを再生するようにする技術が必要となっている。それにより、このような映像のうち、少なくとも一つを非リアルタイムで予めダウンロードして再生する方法が工夫されている。
しかし、このような方法の場合、予めダウンロードされるコンテンツのセキュリティが問題となる可能性があり、それを保存すべき大容量保存装置を追加しなければならないという不都合があった。なお、生放送環境では、非リアルタイムデータを予めダウンロードすることができないため、遅延が避けられないという問題点があった。
よって、マルチメディアコンテンツが受信装置で効果的に再生できるようにする技術が求められている。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、互いに異なる経路を通じて伝送される複数のリアルタイム伝送ストリームを受信してマルチメディアコンテンツを再生することができる受信装置と、そのマルチメディアコンテンツ再生方法およびその伝送ストリームを伝送する送信装置を提供することにある。
以上のような目的を達成するための本発明の一実施形態に係る受信装置は、第1リアルタイム伝送ストリームを放送網を通じて受信する第1受信部と、第2リアルタイム伝送ストリームを通信網を通じて受信する第2受信部と、前記第1および第2リアルタイム伝送ストリームの少なくとも一方をディレイ(delay)させて同期化する遅延処理部と、前記第1リアルタイム伝送ストリームから第1データを検出する第1検出部と、前記第2リアルタイム伝送ストリームから第2データを検出する第2検出部と、前記第1データおよび前記第2データを組み合わせてマルチメディアコンテンツを構成する信号処理部と、前記マルチメディアコンテンツを再生する再生部とを含む。
ここで、前記第1リアルタイム伝送ストリームはアドレス情報を含み、前記第2受信部は、前記アドレス情報を用いて前記通信網内のサーバにアクセスして前記サーバからメタデータファイルを受信し、前記メタデータファイルを用いて前記第2リアルタイム伝送ストリームを受信し、前記メタデータファイルは前記第2リアルタイム伝送ストリームのソースに対する情報を含んでよい。
そして、前記アドレス情報は、前記第1リアルタイム伝送ストリームのPMT内のリザーブ領域、PMT内のdescriptor領域、前記第1リアルタイム伝送ストリームのリザーブ領域、前記第1リアルタイム伝送ストリームのプライベートデータ領域、前記第1リアルタイム伝送ストリームのPES内のリザーブ領域、前記第1リアルタイム伝送ストリームのPES内のプライベートデータ領域、ESヘッダ内のユーザ領域、ESヘッダ内のプライベート領域、H.264規格である場合にSEIのうち、少なくとも一つに記録されてよい。
なお、前記第2データは、前記通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットを含んでよい。
ここで、前記第1データおよび前記第2データのいずれか一方は左眼映像を含み、他方は右眼映像を含み、前記マルチメディアコンテンツは3Dコンテンツであってよい。
なお、前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差値、フレームインデックスのうち、少なくとも一つを含んでよい。
そして、本受信装置は、前記第1および第2同期化情報を用いて、前記第1データに含まれた各フレームのタイムスタンプおよび前記第2データに含まれた各フレームのタイムスタンプのうち、少なくとも一方を補正し、補正されたタイムスタンプに応じて前記第1および第2データの各フレームを組み合わせ、前記マルチメディアコンテンツを構成するように前記信号処理部を制御する制御部を更に含んでよい。
前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は映像フレームのタイムコード情報であってよい。
一方、本発明の一実施形態に係る送信装置は、第1データおよび第1同期化情報を含む第1リアルタイム伝送ストリームを構成するストリーム構成部と、前記第1リアルタイム伝送ストリームを出力する出力部と、第2リアルタイム伝送ストリームを出力する他送信装置の出力タイミングに合わせて、前記第1リアルタイム伝送ストリームの出力タイミングをディレイさせるように前記出力部を制御する制御部とを含む。
そして、前記第2リアルタイム伝送ストリームは、第2データおよび第2同期化情報を含み、前記第1および第2データは、一つのマルチメディアコンテンツを構成するためのデータであり、前記第1同期化情報および前記第2同期化情報は、前記第1データおよび前記第2データの同期化のために伝送される情報であってよい。
または、送信装置は、第1データおよびアドレス情報を含む第1リアルタイム伝送ストリームを構成するストリーム構成部と、前記第1リアルタイム伝送ストリームを出力する出力部とを含み、前記アドレス情報は、前記第1データとともにマルチメディアコンテンツを構成する第2データを通信網から獲得できるメタデータファイルに対するアドレス情報であってよい。
一方、本発明の一実施形態に係る受信装置のマルチメディアコンテンツ再生方法は、第1リアルタイム伝送ストリームを放送網を通じて受信するステップと、第2リアルタイム伝送ストリームを通信網を通じて受信するステップと、前記第1および第2リアルタイム伝送ストリームの少なくとも一方をディレイ(delay)させて同期化するステップと、前記第1リアルタイム伝送ストリームから第1データを検出し、前記第2リアルタイム伝送ストリームから第2データを検出するステップと、前記第1データおよび前記第2データを組み合わせてマルチメディアコンテンツを構成するステップと、前記マルチメディアコンテンツを再生するステップとを含む。
そして、前記第2リアルタイム伝送ストリームを通信網を通じて受信するステップは、前記第1リアルタイム伝送ストリームに含まれたアドレス情報を検出するステップと、前記アドレス情報を用いて前記通信網内のサーバにアクセスし、前記サーバからメタデータファイルを受信するステップと、前記メタデータファイルを用いて前記第2リアルタイム伝送ストリームのソースにアクセスし、前記第2リアルタイム伝送ストリームを受信するステップとを含む。
そして、前記第1データおよび前記第2データのいずれか一方は左眼映像を含み、他方は右眼映像を含み、前記マルチメディアコンテンツは3Dコンテンツであってよい。
なお、前記第2データは、前記通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットを含んでよい。
そして、前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差値、フレームインデックス、タイムコードのうち、少なくとも一つを含んでよい。
以上説明したように、本発明によれば、リアルタイム伝送ストリームを複数の互いに異なる経路を通じて受信して同期化させ、高品質のマルチメディアコンテンツを再生することができるようになる。
本発明の一実施形態に係るマルチメディアコンテンツ送受信システムの構成を示す図である。 本発明の一実施形態に係る受信装置の構成を示す図である。 受信装置で伝送ストリームを同期化させて再生する過程を説明するための図である。 遅延時間を最小限化しつつ同期化させる過程を説明するための図である。 放送網および通信網を通じて複数のリアルタイム伝送ストリームを伝送される動作を説明するための図である。 HTTP方式でアドレス情報を伝達する方法を説明するための図である。 HTTP方式でアドレス情報を伝達する方法を説明するための図である。 HTTP方式でアドレス情報を伝達する方法を説明するための図である。 HTTP方式でアドレス情報を伝達する方法を説明するための図である。 MPDファイルを含むHTTPストリームの構成を示す図である。 同期化情報を含むHTTPストリームの構成を示す図である。 マルチメディアコンテンツを複数のストリームで区分されて伝送する送信過程を説明するための図である。 マルチメディアコンテンツ送受信システムにおける伝送ストリーム獲得過程を説明するための図である。 同期化情報がPMTに含まれたストリームの構成を示す図である。 同期化情報が記録されたPMTの構成を示す図である。 TSアダプテーションフィールドを用いた同期化情報伝達方法を説明するための図である。 PESヘッダを利用した同期化情報伝達方法を説明するための図である。 EITを利用した同期化情報伝達方法を説明するための図である。 プライベートストリームを利用した同期化情報伝達方法を説明するための図である。 PMTを利用したフレームインデックス伝達方法を説明するための図である。 プライベートストリームを利用したフレームインデックス伝達方法を説明するための図である。 タイムコードがそれぞれ与えられた複数の伝送ストリームを示す図である。 各種同期化情報の伝送方法の多様な例を示す図である。 各種同期化情報の伝送方法の多様な例を示す図である。 各種同期化情報の伝送方法の多様な例を示す図である。 各種同期化情報の伝送方法の多様な例を示す図である。 本発明の多様な実施形態に係る送信装置の構成を示すブロック図である。 本発明の多様な実施形態に係る送信装置の構成を示すブロック図である。 本発明の多様な実施形態に係る送信装置の構成を示すブロック図である。 本発明の一実施形態に係るマルチメディアコンテンツ再生方法を説明するためのフローチャートである。 第1リアルタイム伝送ストリームに含まれたアドレス情報を用いて第2リアルタイム伝送ストリームを獲得する方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係るマルチメディアコンテンツ送受信システムの構成を示す図である。同図によると、マルチメディアコンテンツ再生システムは、複数の送信装置200−1、200−2と、受信装置100とを含む。
送信装置1、2(200−1、200−2)は、互いに異なる信号を異なる経路で伝送する。図1の場合を例えると、送信装置1(200−1)は、放送網を通じて第1信号を伝送し、送信装置2(200−2)は、通信網10を通じて第2信号を伝送する。
第1信号および第2信号は、一つのマルチメディアコンテンツを構成する互いに異なるデータをそれぞれ含むリアルタイム伝送ストリームで構成されてよい。例えば、3Dコンテンツの場合には、左眼映像または右眼映像が第1リアルタイム伝送ストリームに含まれて放送網を通じて伝送され、もう一つの映像が第2リアルタイム伝送ストリームに含まれて通信網を通じて伝送されてよい。第1信号に含まれる第1データと、第2信号に含まれる第2データは左眼映像および右眼映像以外にも、多様な種類のデータで実現されてよい。例えば、ビデオデータおよびオーディオデータに区分されたり、動画データおよび字幕データ、その他のデータ等に区分されてそれぞれ第1および第2リアルタイム伝送ストリームで伝送されてよい。
受信装置100は、送信装置1、2からそれぞれ送信されるリアルタイム伝送ストリームを受信してバッファリングする。この過程で、少なくとも一つのリアルタイム伝送ストリームを遅延させ、相互を同期化させる。
一方、通信網10を通じて伝送される第2リアルタイム伝送ストリームは、RTP(Real Time Protocol)や、HTTP(Hypertext Transfer Protocol)等のような多様なストリーミング方式を用いてストリーミングされてよい。第2リアルタイム伝送ストリームの獲得方法については、詳細に後述する。
なお、第1リアルタイム伝送ストリームには第1データとともに第1同期化情報が含まれ、第2リアルタイム伝送ストリームには第2データとともに第2同期化情報が含まれる。
第1および第2同期化情報としては、多様な情報が使用されてよい。具体的には、マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、第1データおよび第2データの間のタイムスタンプ差値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つが同期化情報として使用されてよい。
MPEG規格によると、放送データを伝送する伝送ストリームには、PCR(Program Clock Reference)およびPTS(Presentation Time Stamp)等が含まれる。PCRとは、MPEG規格による受信装置(セットトップボックスやテレビ等)で時刻基準を送信機側に合わせる参照時間情報を意味する。受信装置では、PCRに応じてSTC(System Time Clock)の値を合わせるようになる。PTSは、MPEG規格による放送システムで映像および音声の同期化のための再生時刻を報知するタイムスタンプを意味する。本明細書では、タイムスタンプと呼ぶ。互いに異なる信号が異なる送信装置100−1、100−2から伝送される場合には、送信装置100−1、100−2の特性に応じてPCRが異なってよい。そのため、PCRに合わせたタイムスタンプに応じて再生するとしても、同期化が行われないことがある。このようなことを考慮し、本システムで互いに異なる経路を通じて伝送される各リアルタイム伝送ストリームに同期化情報を含み、受信装置200はその同期化情報を用いて各伝送ストリームに含まれたイメージフレームのタイムススタンプを補正したり、同期化情報を直接比較して同期化再生することができる。
図2は、本発明の一実施形態に係る受信装置の構成を示すブロック図である。同図によると、受信装置100は、第1受信部110と、第2受信部120と、遅延処理部130と、第1検出部140と、第2検出部150と、信号処理部160と、再生部170および制御部180を含む。
第1受信部110は、放送網を通じて伝送される第1リアルタイム伝送ストリームを受信する。第1受信部110は、アンテナや、チューナ部や、復調部、等化部等を含む形態で実現されてよい。
第2受信部120は、通信網を通じて外部ソースにアクセスして第2リアルタイム伝送ストリームを受信する。第2受信部120は、ネットワークインターフェースカード等を含んでよい。
遅延処理部130は、第1および第2リアルタイム伝送ストリームの少なくとも一方を遅延させて相互を同期化させる。遅延処理部130は、PVR(Personal Video Recorder)、タイムシフト、メモリバッファリング等のような多様な方式を用いて伝送ストリームを遅延させることができる。
メモリバッファリングを利用する場合、遅延処理部130が受信装置100内に別途に設けられたバッファまたは遅延処理部130そのものに設けられたバッファを用いてストリームを遅延させることができる。仮に、第1リアルタイム伝送ストリームが先に受信され、第2リアルタイム伝送ストリームが未受信となっている場合、遅延処理部130は第1リアルタイム伝送ストリームをバッファに保存して遅延させる。このような状態で、第2リアルタイム伝送ストリームが受信されると、遅延された第1リアルタイム伝送ストリームをバッファから読み取って第2リアルタイム伝送ストリームとともに第1および第2検出部に同時に提供する。
遅延処理部130は、各ストリームを分析して第1および第2リアルタイム伝送ストリームが第1および第2検出部140、150にそれぞれ提供されるタイミングを合わせることができる。すなわち、遅延処理部130は、第1リアルタイム伝送ストリームと第2リアルタイム伝送ストリームのうち、少なくとも一方に対して、どのくらいディレイを与えるのかを判断するために、ストリームを分析することができる。一例として、遅延処理部130は、各ストリームのコンテンツスタート情報、タイムスタンプ差値と、タイムスタンプ等のような情報を用いて、第1リアルタイム伝送ストリームと第2リアルタイム伝送ストリーム内で互いに同期化させるべき部分を確認することができる。または、遅延処理部130は、両ストリームのフレームインデックスやタイムコード等のような情報を比較し、互いに同期化しなければならない部分を確認することができる。
遅延処理部130は、確認された部分が第1および第2検出部140、150に提供されるタイミングが互いにマッチングできるようにディレイ状態を調整する。
コンテンツスタート情報、タイムスタンプ差値、フレームインデックス、タイムコード等のような情報は、同期化情報として各ストリームに含まれて受信されたり、別途のプライベートストリーム形態で受信されてよい。遅延処理部130は、このような同期化情報を用いてディレイの程度を決定し、それに応じてディレイさせることができる。
第1検出部140は、第1リアルタイム伝送ストリームから第1データを検出し、第2検出部150は、第2リアルタイム伝送ストリームから第2データを検出した後、それぞれ第1および第2データを信号処理部160に提供する。
信号処理部160は、第1データおよび第2データを組み合わせてマルチメディアコンテンツを構成する。具体的には、第1データがビデオデータであり、第2データがオーディオデータである場合には、信号処理部160は各データをデコードした後、再生部170内のディスプレイユニットおよびスピーカにそれぞれ提供する。それにより、両データが同じタイミングで出力されるようにする。
または、第1データが左眼映像であり、第2データが右眼映像である場合には、信号処理部160は3Dディスプレイ方式に応じて多様にデータを処理することができる。すなわち、偏光方式の場合には、信号処理部160は同期化された左眼映像の一部および右眼映像の一部を交互に配列し、一つまたは二つのフレームで構成することができる。それにより、レンチキュラーレンズまたはパララックスバリアが付加されたディスプレイパネルを通じて当該フレームを出力することができる。一方、シャッタグラス方式の場合には、信号処理部160は、同期化された左眼映像および右眼映像を交互に配置してディスプレイパネルを通じて順次にディスプレイすることができる。
再生部170は、信号処理部160で処理されたマルチメディアコンテンツを再生する。再生部170は、受信装置100の種類に応じてディスプレイユニットおよびスピーカの少なくとも一方を含んでよく、外部ディスプレイ装置と接続されるインターフェース部で実現されてよい。
制御部180は、遅延処理部130を制御して、先に受信されたストリームを遅延させることができる。なお、制御部180は、第1データおよび第2データを組み合わせてマルチメディアコンテンツを再生する動作を実行するように信号処理部160を制御することもできる。
特に、第1および第2リアルタイム伝送ストリームにそれぞれ同期化情報が含まれている場合、制御部180は各同期化情報を用いて第1データに含まれた各フレームのタイムスタンプおよび前記第2データに含まれた各フレームのタイムスタンプのうち、少なくとも一方を補正し、補正されたタイムスタンプに応じて、第1および第2データの各フレームを組み合わせてマルチメディアコンテンツを構成するように信号処理部160を制御することもできる。
実施形態によっては、タイムスタンプを補正せずに、タイムコードまたはフレームインデックスを直接比較し、同じフレームが同時に再生処理されるように信号処理部160を制御することもできる。
その他に、制御部180は、受信装置100に含まれた各構成要素の動作を制御することができる。
第1および第2リアルタイム伝送ストリームに含まれた同期化情報を用いて、互いに対応するフレームが同期化再生されるようにする同期化作業は信号処理部160や制御部180によって行われてよい。
図3は、図2の受信装置で複数のリアルタイム伝送ストリームのいずれか一つを遅延させて同期を取る過程を説明する図である。同図によると、送信装置1(200−1)では放送網を通じてリアルタイム伝送ストリームを伝送し、送信装置2(200−2)では通信網を通じてリアルタイム伝送ストリームを伝送する。送信時点そのものが同じであるとしても、放送網と通信網との間の環境の違いにより、二つのうち一つが先に到達することができる。図3では、放送網を通じて伝送された第1リアルタイム伝送ストリームを2フレーム程度遅延させた後、第2リアルタイム伝送ストリームと同期化させることを図示している。それにより、2フレーム程度遅延された3D映像が再生される。
図4は、遅延時間を減少させる別の実施形態について説明するための図である。同図によると、第2リアルタイム伝送ストリームを伝送する送信装置2(200−2)では、伝送する映像を多様な大きさのアクセスユニットに分割し、その中で最も小さい映像を優先的に伝送して遅延時間を減らし、次第に通信状態を考慮して伝送する映像の画質を向上させる。図4では、1番目のフレームにはSD級のフレームを伝送し、2番目のフレームからHD級のフレームを伝送するものとして図示されている。図3と比較すると、1フレーム程度遅延時間が減っていることが分かる。
映像の解像度と同様のサイズは、通信網の状態に応じて異なってよい。すなわち、通信帯域幅が不足したり、通信速度が遅い場合、遅延時間を最小限化するために、図4のように、最も低い解像度のデータから伝送した後、次第に解像度を増大させることができる。このように、第2リアルタイム伝送ストリームには、通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットが含まれる。映像データだけでなく、オーディオデータである場合にも、通信網の状態に応じてデータのサイズを異なるように決定して伝送することができる。それにより、受信装置100は複数のリアルタイム伝送ストリームの遅延時間を最小限化しつつ、同期化を行うことができる。
一方、上述のように、第2リアルタイム伝送ストリームは、RTPやHTTPのようなプロトコールを用いて送受信されてよい。
HTTPを利用する場合には、第2リアルタイム伝送ストリームを獲得するためにメタデータファイルが提供されなければならない。
HTTPを利用したストリーミングは、クライアントの処理に依存してサーバの負担を最小限化させるストリーミング方式である。第2受信部120は、HTTPのファイル伝送要求またはファイルの一部伝送要求を使ってストリーミングを達成する。送信側では網の伝送率変化に適応的に対応するためには、一つのコンテンツに対して様々な伝送率で圧縮されたファイルをサーバに載せておかなければならない。なお、このような網の状態変化に迅速に対応するためには、全コンテンツファイルを複数個に分離してファイルを保存しておかなければならない。送信側では、このような分離された複数のファイルをどのように順番で呼び出してマルチメディアコンテンツを再生するかを報知するためのメタデータを受信側に提供しなければならない。
メタデータは、マルチメディアコンテンツをどこで受信することができるかを報知するための情報である。メタデータファイルは、HTTP基盤ストリーミングの種類に応じて多様に区分されてよい。
すなわち、スムーズストリーミング(smooth streaming)方式の場合、ism(Internet Information Service(IIS)Smooth streaming Media)ファイルがメタデータファイルとして使用される。
IETF(Internet Engineering Task Force)HTTPライブストリーミング(live streaming)方式の場合には、m3v8ファイルがメタデータファイルとして使用され、3GPPで採用された適応的(adaptive)HTTPストリーミングRel.9や、OIPFで採用された適応的(adaptive)HTTPストリーミングRel.2、MPEGで採用されたDynamic adaptive Streaming over HTTP方式の場合には、MPD(Media Presentation Description)がメタデータファイルとして使用されてよい。
メタデータファイルには、複数の分離された各ファイルに相応するコンテンツ時間上の位置、当該ファイルを提供するソースのURL、大きさ等、クライアントが予め知っておくべき情報等が込まれていてよい。
本発明の一実施形態によると、メタデータファイルを獲得できるソースに対するアドレス情報は第1リアルタイム伝送ストリームに含まれていてよい。
一方、RTPを利用する場合には、メタデータを受信する過程や、メタデータ情報を利用してストリームを要求する過程は省略される。しかし、一部のストリームを遅延処理する作業および同期化情報を用いて、同期化させる作業等はRTPを利用する実施形態でもそのまま適用されてよい。
図5は、本発明の一実施形態に係るメタデータファイル提供方法を説明するための図である。同図によると、送信装置1(200−1)は、アドレス情報を含む第1リアルタイム伝送ストリーム(TS)を放送網を通じて伝送する。
受信装置100は、アドレス情報を検出し、メタデータファイルを提供するサーバに対する情報を確認する。図2の構成を含む受信装置100で実現された場合、第1検出部140がアドレス情報を検出し、第2受信部120に提供することができる。
第2受信部120は、アドレス情報を用いて通信網内のサーバ200−3にアクセスする。サーバ200−3は、第2受信部120の要求に応じてメタデータファイルを伝送する。第2受信部120は、メタデータファイルを用いて第2リアルタイム伝送ストリームのソース200−2にアクセスし、第2リアルタイム伝送ストリームの伝送を要求し、受信する。上述のように、メタデータファイルは前記第2リアルタイム伝送ストリームのソースに対する情報を含む。
アドレス情報は、第1リアルタイム伝送ストリーム内で多様な領域に含まれて伝送されてよい。DASH(Dynamic Adaptive Streaming over HTTP)方式の場合、アドレス情報はHybrid3DURLまたはHybrid3DMetaURLのようなURL情報であってよい。このようなアドレス情報は、第1リアルタイム伝送ストリーム内の多様な区間に記録されて伝送されてよい。
図6ないし図9は、第1リアルタイム伝送ストリーム内の多様な領域を用いてアドレス情報が伝送される例を示す。
図6によると、アドレス情報はPMT内のリザーブ領域またはdescriptor領域に記録されてよい。
または、図7によると、アドレス情報は第1リアルタイム伝送ストリームのリザーブ領域または第1リアルタイム伝送ストリームのプライベートデータ領域に記録されてよい。
または、図8によると、アドレス情報はESヘッダ内のユーザ(user_data)領域またはプライベート領域に記録されてよい。
または、図9によると、アドレス情報は第1リアルタイム伝送ストリームのPES(Program Elementary Stream)内のリザーブ領域またはプライベートデータ領域に記録されてよい。
その他に、H.264規格の場合、アドレス情報はSEI(Supplemental Enhancement Information)のうち、少なくとも一つに記録されてよい。
このようなアドレス情報は、メタデータファイルを獲得できるソース、すなわち、サーバに対するアドレス情報を意味する。
受信装置100は、第1リアルタイム伝送ストリームに含まれたアドレス情報を用いて当該ソースにアクセスし、当該ソースからメタデータファイルを受信する。このように、メタデータファイルを管理する別途のサーバを利用するようになると、メタデータファイルを容易にアップデートすることができるようになる。
メタデータファイルは、基本的に、PID(Packet Identifier)情報を含んでよい。その他に、別のチャネル間の連動サービスのために提供する各種リンク情報が含まれてよい。このようなリンク情報としては、当該チャネルと連結された3D付加映像サービスの元ネットワークIDであるlink_original_network_id、3D映像サービスチャネルまたは付加映像サービスを提供する無線周波数値であるlinked_carrier_frequency、当該チャネルと連結された3D付加映像サービスを提供する論理チャネル数であるlink_logical_channel_number、伝送ストリームをネットワーク上で区別するための識別子であるlink_transport_Stream_id、伝送ストリーム内でサービスを区別するための識別子であるlink_service_id、url情報があることを報知する識別子であるlink_url_indicator、当該コンテンツの3D付加映像および情報を提供するurlアドレスであるlink_source_URL、ダウンロードおよびNRTサービスの場合、linkingサービスが提供される時間であるlink_service−start_time等があってよい。
その他に、メタデータファイルには提供される放送ストリームの変調(modulation)情報も含まれてよい。変調情報としては、SCTE_mode_1:64−QAM、SCTE_mode_2:256−QAM、ATSC(8VSB)、AVSB(16VSB)等があってよい。
一方、上述のように、通信網を通じて第2リアルタイム伝送ストリームが伝送されると、受信装置100はそれを直ちに再生せずに、第1リアルタイム伝送ストリームとともに同期化させて再生しなければならない。よって、第2リアルタイム伝送ストリームに含まれた第2データの再生時間を調整できる情報を必要とする。このような情報は、メタデータファイルに追加されてよい。具体的には、同期化再生が必要なコンテンツであることを指示するlinkedContents、同期化再生以前の時点にストリーミングチャネルを通じたコンテンツ要求が不可となるように指示するplayableRestriction、正確な再生開始時間を提供したり、スタートタイムオフセットを提供するdesignatedPlayTimeのような情報をメタデータファイルに追加して伝送することができる。
ここで、designatedPlayTimeは、UTC(Coordinated Universal Time)フォーマットによる。受信装置100では、designatedPlayTimeによって獲得した再生開始時間前までは第2データの再生を制限し、同期化再生のための同期化情報等を用いて同期化再生を行う。
一方、メタデータファイルには、同期化情報が追加されてよい。このような情報は、periodレベルの要素として追加されてよい。同期化情報としては、startPTS、PTSdiff、フレームインデックス等があってよい。
startPTSとは、マルチメディアコンテンツが開始される時点のタイムスタンプを示す。startPTSは、マルチメディアコンテンツの開始点を示す情報ということで、コンテンツスタート情報と呼ばれてよい。PTSdiffとは、第1リアルタイム伝送ストリームの各フレームに付与されたタイムスタンプと、第2リアルタイム伝送ストリームの各フレームに付与されたタイムスタンプ間の差値を示す。
フレームインデックスとは、第2リアルタイム伝送ストリーム内の各イメージフレームのインデックスを示す。いくつかのperiodに分けられている場合、各ピリオドの開始地点のフレームインデックスを示す。なお、インデックスの基準は、ストリーミングファイルの最初の1番目のフレームがインデックス=1となる。その後、順次に、フレームインデックスを付与する。このようなインデックス情報は、第1リアルタイム伝送ストリームで伝送されるイメージフレームのフレームインデックスと一致するように設定される。
図10は、フレームインデックス情報を含むMPDファイルの表記方式の一例を示す。同図によると、MPDファイルには、フレームインデックス情報が表記される。互いに異なる経路を通じて相違なる信号が受信される場合、その信号処理および送信過程における時間差によって同じコンテンツを実現するためのデータのタイムスタンプが互いに異なってよい。このとき、フレームインデックス情報が知られると、受信装置100は第1データおよび第2データで同じフレームインデックスを有するフレームのタイムスタンプを同じ値に補正したり、フレームインデックスそのものを比較して同じであれば、同時に再生して同期化を行うことができる。
図11は、同期化情報をセグメント単位で区分して伝送するHTTPストリーミングの構造を示す。同図によると、送信装置200−3は、MPDとともに同期化情報を提供することができる。上述のように、同期化情報は、マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、第1データおよび第2データの間のタイムスタンプ差値、フレームインデックス等を含んでよい。
以上のような同期化情報は、第1リアルタイム伝送ストリーム、第2リアルタイム伝送ストリームにもそれそれ含まれて伝送されてよいが、メタデータファイルに含まれる場合、第2リアルタイム伝送ストリームが伝送される前に予め同期化時点を知ることができるようになる。
以上のように、第1リアルタイム伝送ストリームおよび第2リアルタイム伝送ストリームにそれぞれ含まれる第1データおよび第2データは同時に処理され、一つのマルチメディアコンテンツを構成する。よって、第1および第2データは同時に製作されることが望ましい。
図12は、第1および第2データを同時に製作し、二つの互いに異なる経路を通じて伝送する送信過程を説明するための図である。同図によると、一つのカメラ310で撮影されたマルチメディアコンテンツを第1データおよび第2データに分離する。分離されたデータは、符号化器320によってそれぞれ符号化された後、互いに異なる送信装置200−1、200−2にそれぞれ提供される。すなわち、基準映像に該当する第1データは符号化器320で符号化された後、送信装置1(200−1)に提供される。送信装置1(200−1)は、当該データを伝送ストリームに変換してRF信号の形態で放送網を通じてブロードキャストする。
付加映像に該当する第2データは、アクセスユニット単位に分離されてエンコードされた後、送信装置2(200−2)に提供される。送信装置2(200−2)は、当該データをバッファリングし、通信網を通じて受信装置100側に伝送する。送信装置2(200−2)は、コンテンツ提供サーバ(Contents provide server)と呼ばれてよい。送信装置2(200−2)は、符号化器320から提供されるデータをバッファサイズだけ保存する。そして、受信装置100からの要求があれば、要求されたデータを受信装置100に提供する。
図12では、一つの符号化器320が図示されているが、符号化器320の個数はデータの個数だけ複数個で実現されてよい。
図13は、第1および第2データの送受信過程を説明するための図である。同図によると、第1データを含む第1リアルタイム伝送ストリームは送信装置1(200−1)によってブロードキャストされて受信装置100に伝送される。受信装置100は、第1リアルタイム伝送ストリームに含まれたアドレス情報を検出した後、当該アドレス情報を用いてメタデータファイルを獲得する。受信装置100は、メタデータファイルを用いて送信装置2(200−2)にアクセスして第2データを要求する。
送信装置2(200−2)は、要求に応じて第2データを含む第2リアルタイム伝送ストリームを受信装置100に伝送する。第2データは、通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットを含む。すなわち、送信装置2(200−2)は、通信網の状態、具体的には、通信帯域幅や通信速度等を考慮して、第2データのサイズを適応的に決定する。
第2データがビデオデータである場合、バッファに保存されている映像の解像度を通信帯域幅を考慮して決定することができる。すなわち、受信装置100および送信装置2(200−2)の間で要求等を送受信する過程で、通信帯域幅を測定することができる。送信装置2(200−2)は測定された帯域幅を考慮して網状に最適化されている映像(仮に、SD級またはHD級映像)を選択して受信装置100に伝送する。それにより、遅延を最小限化することができる。
一方、上述のように、第1および第2リアルタイム伝送ストリームには、データとともに同期化情報が含まれてよい。上述のように、同期化情報にはコンテンツスタート情報、第1データおよび第2データの間のタイムスタンプ差値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つがあってよい。
コンテンツスタート情報が同期化情報として使用される実施形態では、受信装置100はその情報を用いてマルチメディアコンテンツの開始時点を把握する。受信装置100が、図2のように実現される場合、信号処理部160がこのような動作を実行することができる。
信号処理部160は、第1データに含まれたフレームのタイムスタンプと第2データに含まれたフレームのタイムスタンプとを、開始時点とそれぞれ比較する。比較の結果によって、各データのフレームインデックスを抽出することができ、抽出されたフレームインデックスを用いて同期化を行う。
すなわち、第1信号のL2フレームのタイムスタンプと第2信号のR2フレームのタイムスタンプとが互いに異なるとしても、第1信号および第2信号が構成するコンテンツの開始時点とL2フレームのタイムスタンプの間の差、開始時点とR2フレームのタイムスタンプの間の差が同じである場合、L2フレームとR2フレームとを同期化してn+1フレームを生成する。
信号処理部160は、コンテンツスタート情報とタイムスタンプとを比較し、フレームインデックスを検出することができる。仮に、第1信号でコンテンツスタート情報(PTSH_Start)が100であり、左眼映像L1フレームのタイムスタンプ(PTS)が100であれば、PTS−PTSH_Start=0になる。次の左眼映像であるL2フレームのタイムスタンプ(PTS)が115であれば、PTS−PTSH_Start=15になる。この場合、信号処理部160は、タイムスタンプインターバルを15にしておき、L1フレームをn番目のフレーム、L2フレームをn+1フレームにマッチングする。一方、第2信号で、コンテンツスタート情報が300であり、R1フレームのタイムスタンプが300、R2フレームのタイムスタンプが330であると仮定すると、信号処理部160はタイムスタンプインターバルを30にしておき、R1フレームをn番目のフレーム、R2フレームをn+1フレームにマッチングする。
信号処理部160は、マッチングされる両フレームのタイムスタンプが同様になるように、右眼映像フレームのタイムスタンプまたは左眼映像フレームのタイムスタンプを補正する。
フレームのフレーム右眼映像フレームは左眼映像フレームの次のフレームにマッチングする。信号処理部160は、右眼映像フレームのタイムスタンプを左眼映像フレームイの次のフレームのタイムスタンプと同様になるように補正し、同期化させる。
別の実施形態では、両データ間のタイムスタンプ差値が同期化情報として使用されてよい。すなわち、第1同期化情報および第2同期化情報はそれぞれ左眼映像のタイムスタンプおよび右眼映像のタイムスタンプ間の差値を含んでよい。この場合、信号処理部160は、その差値を反映して左眼映像のタイムスタンプおよび右眼映像のタイムスタンプの少なくとも一方を補正して同期化させる。
コンテンツスタート情報、タイムスタンプ差値情報等は、EIT(Event Information Table)、PMT、プライベートストリーム、伝送ストリームヘッダ等に記録されてよい。なお、以上のような様々な実施形態では、リアルタイム伝送ストリームが伝送される場合を説明しているが、第1または第2データが非リアルタイムストリームであるMP4ファイルで伝送される場合には、このような同期化情報mdhdやsttsボックスに記録されてよい。MP4ファイルで伝送される場合、信号処理部160はタイムスケールやデュレーション(duration)を用いてフレームレートを算出し、算出されたフレームレートを比較して再生時間を同期化させることもできる。すなわち、MP4ファイルのヘッダ内のMedia Header Box(mdhd)内に記録されたタイムスケールが25000であり、Decoding Time to Sample Box(stts)内に記録されたデータが1000であれば、1000/25000がフレームレートで算出される。よって、1/25秒単位でフレームが再生されるため、両信号間の相対的な再生タイミング差を知ることができる。信号処理部160は、相対的な再生タイミングと開始タイミングとを用いて両信号を同期化させることができる。
更に別の実施形態では、フレームインデックス情報が同期化情報として使用されてよい。フレームインデックス情報は、各フレームごとに付与される識別情報を意味する。信号処理部160は、同じフレームインデックスを有するフレームのタイムスタンプが同様になるように補正を行うことができる。
図14は、プログラムマップテーブル(Program Map Table:PMT)を含むストリームの構成を示す。同図によると、PMTは、各送信装置200−1、200−2から伝送される第1信号、第2信号内に周期的に含まれて伝送される。上述のコンテンツスタート情報、タイムスタンプ差値、フレームインデックス等のような多様な同期化情報はこのようなPMT内に含まれて伝送されてよい。
図15は、PMTの構造を示す図である。同図によると、各種同期化情報はPMT内のリザーブ領域(Reserved area)や新規descriptor、既存descriptorの拡張領域等を用いて伝送されてよい。
図16は、伝送ストリームのアダプテーションフィールドを用いて各種同期化情報を伝送する方式を説明するための図である。同図では、アダプテーションフィールド内にrandom_access_indicator、transport_private_data_flag、private_data_byte等が設けられる。random_access_indicatorは、1ビットで実現され、1にセットされる場合、シーケンスヘッダの開始を意味する。すなわち、伝送ストリームの任意の接近時点を示す。transport_private_data_flagも、1ビットで実現され、1にセットされる場合、プライベートデータが1バイト以上存在することを意味する。private_data_byteは、4ないし5バイトで実現され、この部分にコンテンツスタート情報、タイムスタンプ差値、フレームインデックス等のような同期化情報が含まれてよい。
図17は、PESヘッダを利用した同期化情報伝達方法を示す。PESパケットヘッダはフレーム単位で提供されるため、PES_private_data部分に各種同期化情報を記録して伝送することができる。同図によると、PES_private_data_flagを1にセットし、PES_private_data部分に同期化情報を記録することができる。
図18は、イベント情報テーブル(Event Information Table:EIT)を用いてコンテンツスタート情報やタイムスタンプ差値、フレームインデックス等のような同期化情報を伝達する方法を示す。このような情報は、EITのreserved領域や新規または既存descriptor拡張領域に記録されて伝送されてよい。
図19は、プライベートストリームを利用した同期化情報方式を示す。同図に示すように、コンテンツスタート情報、タイムスタンプ情報、フレームインデックス情報等の同期化情報が記録されたプライベートストリーム、すなわち、データビットストリームを基礎ストリーム(Program Elementary Stream:PES)と別途に含めて伝送してよい。この場合、PESヘッダのストリームIDは、予め定義され0xBD、0xBF以外に予約されている値の使用も可能である。その他に、タイムコードやUTCやフレームカウント情報等もプライベートストリームを用いて伝送されてよい。それについては詳細に後述する。
図20は、同期化情報のうち、フレームインデックスを含む伝送ストリーム構成の一例を示す。MPEG規格によると、伝送ストリームは、ビデオ、オーディオ、その他のデータを伝送する。各プログラムの情報は、プログラムマップテーブル(Program Map Table:PMT)に記録される。
図20では、フレームインデックスがPMTに挿入された構造を示すが、別の実施形態では、ビデオストリームヘッダ、オーディオストリームヘッダ、TSヘッダ等に挿入されてよい。同図によると、各PMTには、その次のフレームのフレームインデックスが記録される。各フレームの間に2つ以上のPMTが提供される場合には、Hybridstream_Info_Descriptor()の値は、同じフレームインデックスを示すように定義する。送信装置のマルチプレクサでIフレーム単位でDescriptor()を挿入することができれば、データの重複を防止することもできる。
受信装置100では、各PMTを参考にしてフレームのインデックスを検出した後、それを用いて第1信号および第2信号の各フレームを同期化させることができる。一方、データがリアルタイム伝送ストリームではない非リアルタイムストリーム形態で伝送される場合には、フレームインデックスはそれと異なる方式で提供されてよい。
図21は、フレームインデックスが別途のプライベートストリームを通じて伝送される場合を示す図である。同図に示すように、第1信号でビデオまたはオーディオのようなマルチメディアストリームと別途にプライベートストリームが提供されてよく、当該プライベートストリームを通じて第2信号と同期化されるフレームインデックス値を提供することができる。この場合、第2信号も、図21のような構造のリアルタイム伝送ストリームであれば、当該伝送ストリームのプライベートストリームからフレームインデックスを検出し、同期化させることができる。
更に別の実施形態では、タイムコード、UTC(Coordinated Universal Time)情報、フレームカウント情報等も同期化情報として使用されてよい。
図22は、複数のカメラで撮影された映像のタイムコードを利用したリアルタイム伝送方式を説明するための図である。同図によると、複数のカメラで撮影された第1データおよび第2データはそれぞれ符号化された後、放送網または通信網を通じてそれぞれ伝送される。この場合、同一画面に対するデータである場合、当該データフレームに同じタイムコードが付与される。すなわち、第1データのフレーム51、52、53と、第2データのフレーム61、62、63はタイムスタンプ、すなわち、PTSは互いに異なるが、タイムコードは同様に生成される。このようなタイムコードは、受信端で同期化情報として使用されてよい。
タイムコードは、タイムコード生成器によって作られる一連のパルス信号として、容易な編集管理のために開発された信号規格である。コンテンツ製作および編集時には、左眼映像および右眼映像の同期化された管理のために、同じタイムコードを使用する。よって、タイムコードは、ストリーム生成または送出時点によらず同じペア(pair)を保持することができる。
具体的には、SMPTE(Society of Motion Picture and Television Engineers)タイムコードが使用されている。すなわち、SMPTE 12Mでは、“時:分:秒:フレーム”の形式でタイムコードを表現する。SMPTEタイムコードは、記録方式によってLTC(Longitude Time Code)またはVITC(Vertical Interval Time Code)に区分されてよい。LTCは、テープの進行方向によって記録される。LTCの場合、視覚情報(25bits)、ユーザ情報(32bits)、同期情報(16bits)、保存領域(4bits)、フレームモード表示(2bits)を含み、総80bitsのデータで構成されてよい。VITCは、ビデオ信号の垂直帰線期間内の2つの水平ラインに記録される。
SMPTE RP−188では、LTCまたはVITCタイプのタイムコードがancillary dataで伝送され得るインターフェース規格を定義している。タイムコードおよびタイムコードに関連する付加情報を新規定義し、このようなインターフェース規格に応じて伝送してよい。
タイムコードに関連する付加情報としては、左眼映像および右眼映像のタイムコードが一致していない場合に提供される他映像に対するタイムコード、現在の映像が立体映像か否かを報知するための2D/3D切り替え情報、立体映像の開始点情報等があってよい。このような付加情報は、ユーザ情報領域または保存領域(或いは、非割り当て領域)を通じて提供してよい。なお、タイムコードを含まないメディアの場合には、ネットワークプロトコールでタイムコード空間を拡張定義して使用することができる。例えば、RTP header extensionを通じてタイムコードを提供することもできる。
図23は、GoPヘッダ内にタイムコードが記録されたMPEGストリーム内でGoPヘッダのシンタックス構造の一例を示す。同図によると、タイムコードは、25bitsのデータで記録されてよい。同図に示すように、タイムコードはGoP単位で受信装置100に伝達されてよい。
または、タイムコードは、プライベートストリームに記録されて伝送されてよい。すなわち、タイムコードが記録されたプライベートストリーム、すなわち、データビットストリームを基礎ストリーム(Program Elementary Stream:PES)と別途に含めて伝送してよい。この場合、PESヘッダのストリームIDは、予め定義され0xBD、0xBF以外に予約されている値の使用も可能である。その他に、UTCやフレームカウント情報等もタイムコードと類似するように伝送されてよい。
図24は、ビデオストリームを利用してタイムコードを提供する場合のストリーム構造を示す。同図によると、タイムコードは、AVC(Advanced Video Coding:ISO/IEC 14496−10)で定義するSEI(Supplemental Enhancement Information)を用いて伝送してよい。すなわち、同図に示すように、Picture timing SEIで定義すseconds_value、minutes_value、hours_value、n_framesを利用してタイムコードを伝達することができる。
図25は、オーディオストリームを利用してタイムコードを提供する場合のストリーム構造を示す。同図に示すように、AC−3(ATSC A/52 : 2010)によると、オーディオストリームはシンクフレーム(Sync Frame)が連続的に並ぶ構造を有する。
シンクフレームの構成のうち、シンクフレームの情報を提供するbsi(Bit Stream Information)領域でタイムコードに対する情報を提供することができる。
図26は、タイムコードがPMTを通じて提供される場合のPMTシンタックス(syntax)を示す。同図によると、タイムコードは周期的に伝送されるPMTのリザーブ(reserved)またはdescriptorを通じて提供されてよい。PMT提供間隔は、同期化されたタイムコードを付与するためのGoP単位またはフレーム単位で構成されてよい。図20においては、2つのフレームごとにPMTが伝送されるとして示しているが、毎フレーム単位でタイムコードを含むPMTが提供されてよい。上述のように、多様な情報が同期化情報として使用されてよく、その位置も多様に設定されてよい。
図27は、リアルタイム伝送ストリームを送信する送信装置の一例を示すブロック図である。同図の送信装置は、図1のシステムで送信装置1、2のいずれか一方でも実現されてよいが、説明の便宜上、送信装置1で実現された場合を基準に説明する。送信装置は、ストリーム構成部710と、出力部720と、制御部730を含む。
ストリーム構成部710は、第1データおよび第1同期化情報を含む第1リアルタイム伝送ストリームを構成する。第1データとは、左眼映像および右眼映像のいずれか一方であってよい。この場合、左眼映像および右眼映像のいずれか他方の第2データは、他送信装置から受信装置に提供することができる。それにより、第1および第2データが組み合わせられて3Dイメージで表現されてよい。実施形態によっては、第1データはマルチメディアコンテンツを構成するビデオデータ、オーディオデータ、字幕データおよび付加データのうち、少なくとも一つのデータであってよい。なお、第1同期化情報とは、第1データおよび第2データの間の同期を取るための情報である。第1同期化情報の種類に対しては、上述しているため、繰り返し説明は省略する。
出力部720は、ストリーム構成部710で生成したストリームを受信装置100側に伝送する。出力部720の細部構成は、ストリームの種類に応じて異なるように実現されてよい。仮に、図27の送信装置が放送送信装置の場合、出力部420は、RSエンコーダ、インターリーバ、トレリスエンコーダ、変調器等を含む形態で実現されてよい。または、図27の送信装置がインターネットのようなネットワークを通じてストリームを伝送するウェブサーバである場合には、出力部720はHTTPプロトコールによって受信装置、すなわち、ウェブクライアントと通信するネットワークインターフェースモジュールで実現されてよい。
制御部730は、他送信装置の出力タイミングに合わせて第1リアルタイム伝送ストリームの出力タイミングを遅延させるように出力部720を制御する。ここで、他送信装置とは、第2データおよび第2同期化情報を含む第2リアルタイム伝送ストリームを送信する装置を意味する。第2データは、第1データとともに一つのマルチメディアコンテンツを構成するためのデータを意味する。
出力タイミングに対する情報は、放送番組時間情報を共有して合わせることができる。例えば、ビデオおよびオーディオを伝送する放送局、字幕のような付加データを伝送する第三者、関連するゲームを提供する第三者等のような多様なストリーム生成主体があってよい。このようなストリーム生成主体のうちの一つが、他の主体に対してタイムコードに基づいて時間計画を伝送することができる。各ストリーム生成主体は、時間計画を用いて同期化情報を生成して伝送ストリームに付加し、なお、伝送ストリームの伝送タイミングそのものを遅延させて他送信装置に合わせることができる。このような時間計画または同期化情報は、既存のEPGで提供する時間スケジュールと違って、ストリーム生成端同期化のために、正確度をもつフレーム単位情報である。
または、各ストリーム生成主体は、基準時間サーバを通じて、基準時間、すなわち、PCRを提供されて共有することもできる。それにより、同じタイミングに発信が行われるか、自分の通信速度が他送信装置より速い場合には、伝送速度を遅延させることができる。なお、同じコンテンツのフレームに対して、同じDTS、PTSを生成して付加することもできるようになる。
制御部730は、このような遅延動作および同期化情報生成作業を行うように、ストリーム構成部710および出力部720を制御する。
説明の便宜上、図27では、第1データを含むストリームを伝送する送信装置が伝送を遅延させるとして説明したが、第2データを含むストリームを伝送する他の送信装置が伝送を遅延させることもできる。この場合、その他の送信装置も図27のような構成を有してよい。
なお、図27のように、送信装置側でストリーム送信を遅延させるようになると、受信装置ではストリームを受信した後、遅延処理する必要がなくてよい。すなわち、送信装置と受信装置を含むシステム全体から考えると、ストリーム処理遅延作業は送信装置でのみ行われたり、受信装置でのみ行われてよい。よって、図27のように、送信装置そのものがストリーム送信を遅延させるようになると、受信装置は、図1のような構成で実現されなくてよい。
図28は、HTTPストリーミング方式でリアルタイム伝送ストリームを伝送する送信装置の構成を示すブロック図である。同図によると、送信装置はストリーム構成部710および出力部720を含み、ストリーム構成部710は、符号化部711および多重化部712を含む。
図28のストリーム構成部は、第1データおよびアドレス情報を含む第1リアルタイム伝送ストリームを構成する。アドレス情報は、第1データとともにマルチメディアコンテンツを構成する第2データを通信網から獲得することができるメタデータファイルに対するアドレス情報を意味する。具体的には、メタデータファイルを提供するサーバに対するURL情報であってよい。
符号化部711は、コンテンツ制作者から第1データを提供される。符号化処理部412は第1データをエンコードして多重化部712に提供する。多重化部712は、エンコードされた第1データおよびアドレス情報を多重化して第1リアルタイム伝送ストリームを生成する。
一方、同期化情報とともに伝送する場合、符号化部711は、コンテンツ制作者からシグナリング情報とともに提供されてよい。シグナリング情報とは、同期化情報を生成するのに必要な基礎情報を意味する。符号化部711は、シグナリング情報を用いて同期化情報を生成した後、エンコードされた第1データに付加する。
同期化情報がコンテンツスタート情報である場合、符号化部711は、PCRに基づいて最初のフレームのタイムスタンプを生成し、そのタイムスタンプを同期化情報として付加する。または、タイムスタンプ差値が同期化情報として使用される場合、シグナリング情報は第2データを生成および送信する別の送信装置のPCRに対する情報で実現されてよい。符号化部711は、シグナリング情報に基づいて第1および第2データ間のタイムスタンプ差値を同期化情報として生成した後、エンコードされた第1データに付加することができる。
一方、タイムコードが同期化情報として使用される場合、別途のシグナリング情報なしに第1データおよび同期化情報が符号化部711に入力されてよい。符号化処理部711は、第1データおよび同期化情報をそのままエンコードして多重化部413に提供する。なお、アドレス情報そのものも、符号化部711に同時に入力され、第1データ等とともにエンコードされてよい。
その他に、MPEG規格によるビデオデータ圧縮等を行う構成がストリーム構成部711に更に追加されてよいが、このような構成は図示および説明を省略する。
多重化部712は、符号化部711から生成されたデータに付加データをマキシングして伝送データを生成する。付加データとは、PSIP、EPG情報等であってよい。
出力部720は、多重化部712から提供される伝送ストリームに対してチャネル符号化、変調等の処理を行って伝送信号に変換した後、チャネルを通じて伝送する。変調には、地上放送方式で使用される8 VSB方式、ケーブルテレビのための高速データ率方式である16 VSB方式等が使用されてよい。
図29は、本発明の更に別の実施形態に係る送信装置の構成を示す。同図の送信装置は、タイムコードを別途のプライベートストリームで処理して伝送する。同図によると、送信装置はA/Vエンコーダ部510と、タイムコード検出部520と、タイムコードエンコーダ部530と、マルチプレクサ540を含む。
A/Vエンコーダ部510は、入力されるマルチメディアデータに含まれたA/Vデータをエンコードする。エンコード方式は、送信装置に適用された規格に応じて異なってよい。
タイムコード検出部520は、入力されるマルチメディアデータから映像のタイムコードを検出し、タイムコードエンコーダ部530に提供する。検出されるタイムコードは、タイムラインデータファイルで保存されてよい。この場合、タイムコードだけでなく、多様な付加情報も同時に検出されてタイムコードエンコーダ部530に同時に提供されてよい。
タイムコードエンコーダ部530は、検出されたタイムコードを適切な伝送フォーマットでエンカプセレート(encapsulate)し、A/Vエンコーダ部510と同様のプログラムシステムクロックを使用して算出されるプレゼンテーションタイムスタンプを組み合わせて、A/Vエンコーダ部510で処理するA/V(Audio/Video)データと同期化させる。
タイムコードエンコーダ部530で処理されたタイムコード情報は、A/Vエンコーダ部510で処理されたA/Vデータとともにマルチプレクサ540に提供される。マルチプレクサ540は、このようなデータをマルチプレキシングしてMPEG2−TSを出力する。
図29には示していないが、送信装置にはパイロット挿入部と、変調部、インターリーバ、ランダム化部と、RFアップコンバータ等のような多様な構成が追加されてよい。これらの構成は、送信装置の一般的な構成に該当するため、具体的な図示および説明は省略する。
図30は、本発明の一実施形態に係るマルチメディアコンテンツ再生方法を説明するためのフローチャートである。
同図によると、第1リアルタイム伝送ストリームを受信し(S2210)、それと異なる通信網を通じて第2リアルタイム伝送ストリームを受信し(S2220)、両ストリームのうち、少なくとも一方を遅延させて同期化させる(S2230)。
その後、各ストリームから第1データおよび第2データを検出する(S2240)。そのうえ、検出された第1および第2データを組み合わせてマルチメディアコンテンツを構成した後(S2250)、再生する(S2260)。
図31は、第2リアルタイム伝送ストリームを受信する方法を具体的に説明するためのフローチャートである。同図によると、第1リアルタイム伝送ストリームが受信されると、それを分析し(S2310)、アドレス情報を検出する(S2320)。そして、検出されたアドレス情報を用いて通信網にアクセスする(S2330)。
それにより、アドレス情報に対応するサーバからメタデータファイルを受信し(S2340)、そのメタデータファイルを用いてソースにアクセスする(S2350)。そして、当該ソースから第2リアルタイム伝送ストリームを受信する(S2360)。
第1および第2リアルタイム伝送ストリームは、それぞれ同期化情報を含んでよい。その他に、メタデータファイルの構成、ストリーム内でアドレス情報の記録位置等に対しては、既に具体的に説明しているため、繰り返し説明は省略する。
なお、第1および第2データは、左眼および右眼映像のように3Dコンテンツを構成するデータであってよく、各種ビデオ、オーディオ、字幕等のように、一つのマルチメディアコンテンツを構成する部分データであってよいことは、既に上述している。
上述の本発明の多様な実施形態に係る方法を実行するためのプログラムは、多様な記録媒体に保存して使用されてよい。
具体的には、上述の方法を実行するためのコードは、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROM等のように、端末機で読取可能な多様な記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1. 第1リアルタイム伝送ストリームを放送網を通じて受信する第1受信部と、
    第2リアルタイム伝送ストリームを通信網を通じて受信する第2受信部と、
    前記第1および第2リアルタイム伝送ストリームの少なくとも一方をディレイ(delay)させて同期化する遅延処理部と、
    前記第1リアルタイム伝送ストリームから第1データを検出する第1検出部と、
    前記第2リアルタイム伝送ストリームから第2データを検出する第2検出部と、
    前記第1データおよび前記第2データを組み合わせてマルチメディアコンテンツを構成する信号処理部と、
    前記マルチメディアコンテンツを再生する再生部と
    を含む受信装置。
  2. 前記第1リアルタイム伝送ストリームはアドレス情報を含み、
    前記第2受信部は、
    前記アドレス情報を用いて前記通信網内のサーバにアクセスして前記サーバからメタデータファイルを受信し、前記メタデータファイルを用いて前記第2リアルタイム伝送ストリームを受信し、前記メタデータファイルは前記第2リアルタイム伝送ストリームのソースに対する情報を含むことを特徴とする請求項1に記載の受信装置。
  3. 前記アドレス情報は、
    前記第1リアルタイム伝送ストリームのPMT内のリザーブ領域、PMT内のdescriptor領域、前記第1リアルタイム伝送ストリームのリザーブ領域、前記第1リアルタイム伝送ストリームのプライベートデータ領域、前記第1リアルタイム伝送ストリームのPES内のリザーブ領域、前記第1リアルタイム伝送ストリームのPES内のプライベートデータ領域、ESヘッダ内のユーザ領域、ESヘッダ内のプライベート領域、H.264規格である場合にSEIのうち、少なくとも一つに記録されることを特徴とする請求項2に記載の受信装置。
  4. 前記第2データは、
    前記通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットを含むことを特徴とする請求項1に記載の受信装置。
  5. 前記第1データおよび前記第2データのいずれか一方は左眼映像を含み、他方は右眼映像を含み、前記マルチメディアコンテンツは3Dコンテンツであることを特徴とする請求項1ないし4のいずれか一項に記載の受信装置。
  6. 前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差値、フレームインデックスのうち、少なくとも一つを含むことを特徴とする請求項5に記載の受信装置。
  7. 前記第1および第2同期化情報を用いて、前記第1データに含まれた各フレームのタイムスタンプおよび前記第2データに含まれた各フレームのタイムスタンプのうち、少なくとも一方を補正し、補正されたタイムスタンプに応じて前記第1および第2データの各フレームを組み合わせ、前記マルチメディアコンテンツを構成するように前記信号処理部を制御する制御部を更に含むことを特徴とする請求項6に記載の受信装置。
  8. 前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は映像フレームのタイムコード情報であることを特徴とする請求項5に記載の受信装置。
  9. 送信装置において、
    第1データおよび第1同期化情報を含む第1リアルタイム伝送ストリームを構成するストリーム構成部と、
    前記第1リアルタイム伝送ストリームを出力する出力部と、
    第2リアルタイム伝送ストリームを出力する他送信装置の出力タイミングに合わせて、前記第1リアルタイム伝送ストリームの出力タイミングを遅延させるように前記出力部を制御する制御部と
    を含み、
    前記第2リアルタイム伝送ストリームは、第2データおよび第2同期化情報を含み、前記第1および第2データは、一つのマルチメディアコンテンツを構成するためのデータであり、前記第1同期化情報および前記第2同期化情報は、前記第1データおよび前記第2データの同期化のために伝送される情報であることを特徴とする送信装置。
  10. 送信装置において、
    第1データおよびアドレス情報を含む第1リアルタイム伝送ストリームを構成するストリーム構成部と、
    前記第1リアルタイム伝送ストリームを出力する出力部と
    を含み、
    前記アドレス情報は、前記第1データとともにマルチメディアコンテンツを構成する第2データを通信網から獲得できるメタデータファイルに対するアドレス情報であることを特徴とする送信装置。
  11. 受信装置のマルチメディアコンテンツ再生方法において、
    第1リアルタイム伝送ストリームを放送網を通じて受信するステップと、
    第2リアルタイム伝送ストリームを通信網を通じて受信するステップと、
    前記第1および第2リアルタイム伝送ストリームの少なくとも一方をディレイ(delay)させて同期化するステップと、
    前記第1リアルタイム伝送ストリームから第1データを検出し、前記第2リアルタイム伝送ストリームから第2データを検出するステップと、
    前記第1データおよび前記第2データを組み合わせてマルチメディアコンテンツを構成するステップと、
    前記マルチメディアコンテンツを再生するステップと
    を含むマルチメディアコンテンツ再生方法。
  12. 前記第2リアルタイム伝送ストリームを通信網を通じて受信するステップは、
    前記第1リアルタイム伝送ストリームに含まれたアドレス情報を検出するステップと、
    前記アドレス情報を用いて前記通信網内のサーバにアクセスし、前記サーバからメタデータファイルを受信するステップと、
    前記メタデータファイルを用いて前記第2リアルタイム伝送ストリームのソースにアクセスし、前記第2リアルタイム伝送ストリームを受信するステップと
    を含むことを特徴とするマルチメディアコンテンツ再生方法。
  13. 前記第1データおよび前記第2データのいずれか一方は左眼映像を含み、他方は右眼映像を含み、前記マルチメディアコンテンツは3Dコンテンツであることを特徴とする請求項12に記載のマルチメディアコンテンツ再生方法。
  14. 前記第2データは、前記通信網の状態に応じて適応的に設定された少なくとも一つのサイズを有する複数のデータユニットを含むことを特徴とする請求項11に記載のマルチメディアコンテンツ再生方法。
  15. 前記第1リアルタイム伝送ストリームは第1同期化情報を含み、前記第2リアルタイム伝送ストリームは第2同期化情報を含み、前記第1および第2同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差値、フレームインデックス、タイムコードのうち、少なくとも一つを含むことを特徴とする請求項14に記載のマルチメディアコンテンツ再生方法。
JP2013550392A 2011-01-19 2012-01-11 複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法 Expired - Fee Related JP5977760B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161434107P 2011-01-19 2011-01-19
US61/434,107 2011-01-19
US201161450818P 2011-03-09 2011-03-09
US61/450,818 2011-03-09
KR10-2011-0128644 2011-12-02
KR1020110128644A KR20120084252A (ko) 2011-01-19 2011-12-02 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
PCT/KR2012/000271 WO2012099359A2 (ko) 2011-01-19 2012-01-11 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법

Publications (2)

Publication Number Publication Date
JP2014509111A true JP2014509111A (ja) 2014-04-10
JP5977760B2 JP5977760B2 (ja) 2016-08-24

Family

ID=46715247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550392A Expired - Fee Related JP5977760B2 (ja) 2011-01-19 2012-01-11 複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法

Country Status (7)

Country Link
US (1) US20130293677A1 (ja)
EP (1) EP2645727A4 (ja)
JP (1) JP5977760B2 (ja)
KR (1) KR20120084252A (ja)
CN (1) CN103329551A (ja)
BR (1) BR112013018340A2 (ja)
WO (1) WO2012099359A2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521500A (ja) * 2013-04-16 2016-07-21 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法
WO2017038481A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
JP2017512001A (ja) * 2014-04-18 2017-04-27 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
WO2017082077A1 (ja) * 2015-11-11 2017-05-18 ソニー株式会社 画像処理装置および画像処理方法
JP2017212544A (ja) * 2016-05-24 2017-11-30 キヤノン株式会社 制御装置、制御方法及びプログラム
JP2020010356A (ja) * 2013-10-31 2020-01-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 方法
WO2020116740A1 (ko) * 2018-12-07 2020-06-11 스타십벤딩머신 주식회사 실시간 방송 편집 시스템 및 편집 방법
JP2023099620A (ja) * 2013-07-25 2023-07-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法および受信方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101831775B1 (ko) * 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
WO2012077981A2 (ko) 2010-12-07 2012-06-14 삼성전자 주식회사 컨텐츠를 구성하는 데이터를 송신하는 송신 장치와 그 데이터를 수신하여 처리하는 수신 장치 및 그 방법
US9860293B2 (en) 2011-03-16 2018-01-02 Electronics And Telecommunications Research Institute Apparatus and method for providing streaming content using representations
WO2012174301A1 (en) 2011-06-14 2012-12-20 Related Content Database, Inc. System and method for presenting content with time based metadata
US12212791B2 (en) * 2011-06-14 2025-01-28 Comcast Cable Communications, Llc Metadata delivery system for rendering supplementary content
US9516086B2 (en) 2011-08-12 2016-12-06 Samsung Electronics Co., Ltd. Transmitting device, receiving device, and transceiving method thereof
KR20130018208A (ko) * 2011-08-12 2013-02-20 한국방송공사 송신 장치, 수신 장치 및 그 송수신 방법
US8948249B2 (en) * 2011-08-19 2015-02-03 Google Technology Holdings LLC Encoder-aided segmentation for adaptive streaming
EP2793479A4 (en) * 2011-12-12 2015-07-01 Lg Electronics Inc DEVICE AND METHOD FOR RECEIVING MEDIA CONTENT
US20150089564A1 (en) * 2012-04-23 2015-03-26 Lg Electronics Inc. Signal processing device and method for 3d service
US9426506B2 (en) * 2012-08-22 2016-08-23 University-Industry Cooperation Group Of Kyung Hee University Apparatuses for providing and receiving augmented broadcasting service in hybrid broadcasting environment
KR101385606B1 (ko) * 2012-08-28 2014-04-16 국민대학교산학협력단 3차원 스트리밍 방송 수신 방법 및 그 방법을 실행하는 멀티 모드 단말기
JP6122626B2 (ja) * 2012-12-06 2017-04-26 日本放送協会 復号装置およびプログラム
CN103024452A (zh) * 2012-12-21 2013-04-03 北京牡丹电子集团有限责任公司数字电视技术中心 一种3d立体电视节目复用方法及系统
US9813325B2 (en) 2012-12-27 2017-11-07 Comcast Cable Communications, Llc Information stream management
KR101591179B1 (ko) * 2013-06-28 2016-02-04 한국전자통신연구원 3d 영상 재생 장치 및 방법
JP6498882B2 (ja) * 2013-07-22 2019-04-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 蓄積方法、再生方法、蓄積装置、および再生装置
JP6625318B2 (ja) * 2013-08-29 2019-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法および受信方法
WO2015029401A1 (ja) 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法および受信方法ならびに送信装置および受信装置
JP6505996B2 (ja) * 2013-08-30 2019-04-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 受信方法、及び、受信装置
JP6510205B2 (ja) * 2013-10-11 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置および受信装置
WO2015052908A1 (ja) * 2013-10-11 2015-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置および受信装置
DE112013007509B4 (de) * 2013-10-16 2022-01-20 Intel Corporation Verfahren, Einrichtung und System zum Auswählen von Audio-Video-Daten zum Streamen
CN104601977A (zh) * 2013-10-31 2015-05-06 立普思股份有限公司 感测装置及其信号处理方法
KR20150057149A (ko) * 2013-11-18 2015-05-28 한국전자통신연구원 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
JP2017508327A (ja) * 2013-12-23 2017-03-23 エルジー エレクトロニクス インコーポレイティド 一つ以上のネットワークで放送コンテンツを送受信する装置及び方法
EP3095244A4 (en) 2014-01-13 2017-11-15 LG Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
US9560421B2 (en) * 2014-03-27 2017-01-31 Samsung Electronics Co., Ltd. Broadcast and broadband hybrid service with MMT and DASH
JP6358460B2 (ja) 2014-04-04 2018-07-18 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法
JP2017517180A (ja) * 2014-04-09 2017-06-22 エルジー エレクトロニクス インコーポレイティド 放送信号送/受信処理方法及び装置
KR102004837B1 (ko) 2014-04-09 2019-07-29 엘지전자 주식회사 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
DE102014109088A1 (de) * 2014-06-27 2015-12-31 Deutsche Telekom Ag Verfahren zum kontinuierlichen Überwachen einer Synchronität zwischen verschiedenen beim HTTP adaptiven Streaming verwendeten Qualitätsprofilen
CN104618673B (zh) * 2015-01-20 2018-05-01 武汉烽火众智数字技术有限责任公司 一种基于nvr的多路录像同步回放控制方法和装置
DE102015001622A1 (de) 2015-02-09 2016-08-11 Unify Gmbh & Co. Kg Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System
KR102111572B1 (ko) * 2015-02-13 2020-05-15 에스케이텔레콤 주식회사 저지연 생방송 컨텐츠 제공을 위한 프로그램을 기록한 기록매체 및 장치
WO2016129973A1 (ko) * 2015-02-15 2016-08-18 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
EP3280147A4 (en) * 2015-03-30 2018-08-15 LG Electronics Inc. Method and apparatus for transmitting and receiving broadcast signal
KR102387881B1 (ko) 2015-04-17 2022-04-18 삼성전자주식회사 방송 서비스를 구성하는 콘텐츠 관련 정보들을 제공하는 방법 및 장치
WO2016167632A1 (ko) * 2015-04-17 2016-10-20 삼성전자 주식회사 방송 서비스를 위한 서비스 시그널링을 송수신하는 방법 및 장치
WO2017058199A1 (en) * 2015-09-30 2017-04-06 Hewlett-Packard Development Company, L.P. Interactive display
CN106686523A (zh) * 2015-11-06 2017-05-17 华为终端(东莞)有限公司 数据处理方法及装置
US10764473B2 (en) * 2016-01-14 2020-09-01 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
SE541208C2 (en) * 2016-07-04 2019-04-30 Znipe Esports AB Methods and nodes for synchronized streaming of a first and a second data stream
US10148722B2 (en) 2016-07-04 2018-12-04 Znipe Esports AB Methods and nodes for synchronized streaming of a first and a second data stream
KR102263223B1 (ko) 2017-03-14 2021-06-09 삼성전자 주식회사 전자장치 및 그 제어방법
US10594758B2 (en) * 2017-12-15 2020-03-17 Cisco Technology, Inc. Latency reduction by sending audio and metadata ahead of time
KR102085441B1 (ko) 2017-12-26 2020-03-05 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
JP6504294B2 (ja) * 2018-03-23 2019-04-24 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN108737807B (zh) * 2018-05-10 2020-05-26 Oppo广东移动通信有限公司 一种数据处理方法、终端、服务器和计算机存储介质
CN108900928A (zh) * 2018-07-26 2018-11-27 宁波视睿迪光电有限公司 裸眼3d直播的方法及装置、3d屏客户端、流媒体云服务器
CN109194971B (zh) * 2018-08-27 2021-05-18 咪咕视讯科技有限公司 一种为多媒体文件的生成方法及装置
CN110418207B (zh) * 2019-03-29 2021-08-31 腾讯科技(深圳)有限公司 信息处理方法、装置及存储介质
KR102714326B1 (ko) * 2019-09-30 2024-10-07 한화비전 주식회사 비디오 데이터 및 메타 데이터를 실시간 동기화하는 영상 수신 장치 및 그 방법
KR102445069B1 (ko) * 2020-12-01 2022-09-21 주식회사 마젠타컴퍼니 복수의 미디어 소스를 동기화하여 통합 전송하는 시스템 및 그 방법
KR102445495B1 (ko) * 2021-02-17 2022-09-21 주식회사 엘지유플러스 3d 콘텐츠 재생 장치 및 방법
US11615727B2 (en) * 2021-04-12 2023-03-28 Apple Inc. Preemptive refresh for reduced display judder
WO2022218371A1 (en) 2021-04-16 2022-10-20 Beijing Bytedance Network Technology Co., Ltd. Minimizing initialization delay in live streaming
KR102555481B1 (ko) * 2021-10-25 2023-07-13 주식회사 픽스트리 멀티뷰 서비스를 위한 다중 입력 영상 동기화 방법 및 시스템
CN120416571A (zh) * 2024-01-31 2025-08-01 抖音视界有限公司 用于流媒体数据传输的方法、装置、设备和介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999066722A1 (fr) * 1998-06-17 1999-12-23 Hitachi, Ltd. Procede et recepteur de diffusion
JP2001136496A (ja) * 1999-11-05 2001-05-18 Nec Corp 受信機器、映像・データ同期装置及び方法
JP2002142233A (ja) * 2000-11-01 2002-05-17 Hitoshi Ishida 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
JP2002164915A (ja) * 2000-11-27 2002-06-07 Fujitsu Ltd 複数の通信を同期させるシステム及び方法
JP2004235734A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 受信機、放送送出装置及び補助コンテンツサーバ
JP2004266497A (ja) * 2003-02-28 2004-09-24 Rikogaku Shinkokai ステレオ映像放送受信用セットトップボックスおよびステレオ映像放送方法
JP2008060761A (ja) * 2006-08-30 2008-03-13 Nippon Television Network Corp 放送中継システム及びその方法
JP2010239360A (ja) * 2009-03-31 2010-10-21 Nippon Hoso Kyokai <Nhk> 連携受信システム及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149419A (ja) * 1995-11-24 1997-06-06 Ekushingu:Kk Mpeg2データの伝送システム及び伝送方法
JP3567696B2 (ja) * 1997-09-24 2004-09-22 松下電器産業株式会社 ソフトウェアダウンロードシステム
AU2007270227B2 (en) * 2006-07-06 2010-07-29 Lg Electronics, Inc. Method and apparatus for correcting errors in a multiple subcarriers communication system using multiple antennas
KR100864826B1 (ko) * 2006-09-29 2008-10-23 한국전자통신연구원 디지털 방송기반의 3차원 정지영상 서비스 방법 및 장치
WO2008056622A1 (en) * 2006-11-06 2008-05-15 Panasonic Corporation Receiver
KR100947737B1 (ko) * 2008-04-17 2010-03-17 에스케이 텔레콤주식회사 이동통신 방송 시스템과 동기 화면 검출 방법 및 방송컨텐츠와 부가 정보 간의 동기 방법
KR20100050426A (ko) * 2008-11-04 2010-05-13 한국전자통신연구원 3차원 방송 서비스 송수신 방법 및 시스템
KR100972792B1 (ko) * 2008-11-04 2010-07-29 한국전자통신연구원 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
WO2010076933A1 (ko) * 2008-12-30 2010-07-08 (주)엘지전자 이차원 영상과 3d 영상의 통합 서비스가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置
US8786670B2 (en) * 2010-10-14 2014-07-22 Cisco Technology, Inc. Network synchronization video for composite video streams

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999066722A1 (fr) * 1998-06-17 1999-12-23 Hitachi, Ltd. Procede et recepteur de diffusion
JP2001136496A (ja) * 1999-11-05 2001-05-18 Nec Corp 受信機器、映像・データ同期装置及び方法
JP2002142233A (ja) * 2000-11-01 2002-05-17 Hitoshi Ishida 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
JP2002164915A (ja) * 2000-11-27 2002-06-07 Fujitsu Ltd 複数の通信を同期させるシステム及び方法
JP2004235734A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 受信機、放送送出装置及び補助コンテンツサーバ
JP2004266497A (ja) * 2003-02-28 2004-09-24 Rikogaku Shinkokai ステレオ映像放送受信用セットトップボックスおよびステレオ映像放送方法
JP2008060761A (ja) * 2006-08-30 2008-03-13 Nippon Television Network Corp 放送中継システム及びその方法
JP2010239360A (ja) * 2009-03-31 2010-10-21 Nippon Hoso Kyokai <Nhk> 連携受信システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015042784; 松村欣司 他: 'Hybridcastの概要と技術' NHK技研R&D No.124, 20101115, p.10〜17, 日本放送協会 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521500A (ja) * 2013-04-16 2016-07-21 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法
JP2023099620A (ja) * 2013-07-25 2023-07-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法および受信方法
JP7509953B2 (ja) 2013-07-25 2024-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法および受信方法
JP2020010356A (ja) * 2013-10-31 2020-01-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 方法
US11272231B2 (en) 2014-04-18 2022-03-08 Lg Electronics Inc. Broadcast signal transmitting apparatus and broadcast signal transmitting method
JP2017512001A (ja) * 2014-04-18 2017-04-27 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
US11706467B2 (en) 2014-04-18 2023-07-18 Lg Electronics Inc. Broadcast signal transmitting apparatus and broadcast signal transmitting method
US10897636B2 (en) 2014-04-18 2021-01-19 Lg Electronics Inc. Broadcast signal transmitting apparatus and broadcast signal transmitting method
WO2017038481A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
JPWO2017038481A1 (ja) * 2015-09-01 2018-06-21 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
US10887644B2 (en) 2015-09-01 2021-01-05 Sony Corporation Reception device, data processing method, and program
WO2017082077A1 (ja) * 2015-11-11 2017-05-18 ソニー株式会社 画像処理装置および画像処理方法
JP7009996B2 (ja) 2015-11-11 2022-01-26 ソニーグループ株式会社 画像処理装置および画像処理方法
JPWO2017082077A1 (ja) * 2015-11-11 2018-08-30 ソニー株式会社 画像処理装置および画像処理方法
JP2017212544A (ja) * 2016-05-24 2017-11-30 キヤノン株式会社 制御装置、制御方法及びプログラム
WO2020116740A1 (ko) * 2018-12-07 2020-06-11 스타십벤딩머신 주식회사 실시간 방송 편집 시스템 및 편집 방법

Also Published As

Publication number Publication date
EP2645727A2 (en) 2013-10-02
BR112013018340A2 (pt) 2016-10-04
WO2012099359A3 (ko) 2012-12-06
WO2012099359A2 (ko) 2012-07-26
JP5977760B2 (ja) 2016-08-24
KR20120084252A (ko) 2012-07-27
US20130293677A1 (en) 2013-11-07
EP2645727A4 (en) 2015-01-21
CN103329551A (zh) 2013-09-25

Similar Documents

Publication Publication Date Title
JP5977760B2 (ja) 複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法
US9628771B2 (en) Transmitter and receiver for transmitting and receiving multimedia content, and reproduction method therefor
EP2728858B1 (en) Receiving apparatus and receiving method thereof
US11622163B2 (en) System and method for synchronizing metadata with audiovisual content
US20130271657A1 (en) Receiving apparatus for providing hybrid service, and hybrid service providing method thereof
US20120293618A1 (en) Image data transmission apparatus, image data transmission method and image data reception apparatus
US20130276046A1 (en) Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
EP2744214A2 (en) Transmitting device, receiving device, and transceiving method thereof
US9516086B2 (en) Transmitting device, receiving device, and transceiving method thereof
EP2690876A2 (en) Heterogeneous network-based linked broadcast content transmitting/receiving device and method
US20130271568A1 (en) Transmitting system and receiving apparatus for providing hybrid service, and service providing method thereof
US12010367B2 (en) Broadcast in-home streaming
US9615143B2 (en) Device and method for providing content by accessing content stream in hybrid 3D TV, and device and method for reproducing content
CN104247413A (zh) 用于3d服务的信号处理设备和方法
Kim et al. World's first hybrid 3DTV broadcasting experiment
KR102016674B1 (ko) 하이브리드 서비스를 제공하는 수신 장치 및 하이브리드 서비스 제공 방법
KR20130115975A (ko) 하이브리드 서비스를 제공하기 위한 송신 시스템과 수신 장치 및 그 서비스 제공 방법들
KR20130116154A (ko) 서로 다른 경로를 통해 복수의 신호를 수신하는 수신 장치 및 그 신호 처리 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees