[go: up one dir, main page]

JP2018517329A - Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method - Google Patents

Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method Download PDF

Info

Publication number
JP2018517329A
JP2018517329A JP2017553098A JP2017553098A JP2018517329A JP 2018517329 A JP2018517329 A JP 2018517329A JP 2017553098 A JP2017553098 A JP 2017553098A JP 2017553098 A JP2017553098 A JP 2017553098A JP 2018517329 A JP2018517329 A JP 2018517329A
Authority
JP
Japan
Prior art keywords
service
information
component
video
broadcast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017553098A
Other languages
Japanese (ja)
Inventor
ソチン ファン
ソチン ファン
チョンヨル ソ
チョンヨル ソ
セチン オ
セチン オ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2018517329A publication Critical patent/JP2018517329A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/806Broadcast or multicast traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/04Protocols for data compression, e.g. ROHC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本発明は、放送信号を送信する方法を提案する。本発明に係る放送信号を送信する方法は、地上波放送網及びインターネット網を用いる次世代ハイブリッド放送をサポートする環境で次世代放送サービスをサポートすることができるシステムを提案する。また、次世代ハイブリッド放送をサポートする環境で、地上波放送網とインターネット網の両方で利用可能な効率的なシグナリング方案を提案する。【選択図】図33The present invention proposes a method for transmitting a broadcast signal. The method of transmitting a broadcast signal according to the present invention proposes a system capable of supporting next-generation broadcasting services in an environment that supports next-generation hybrid broadcasting using a terrestrial broadcasting network and an Internet network. We also propose an efficient signaling scheme that can be used in both terrestrial broadcast networks and Internet networks in environments that support next-generation hybrid broadcasting. [Selection] Figure 33

Description

本発明は、放送信号送信装置、放送信号受信装置、及び放送信号を送受信する方法に関する。   The present invention relates to a broadcast signal transmitting apparatus, a broadcast signal receiving apparatus, and a method for transmitting and receiving broadcast signals.

アナログ放送信号の送信が終了するに伴い、デジタル放送信号を送受信するための様々な技術が開発されている。デジタル放送信号は、アナログ放送信号に比べてさらに多くの量のビデオ/オーディオデータを含むことができ、ビデオ/オーディオデータに加えて、様々なタイプの付加データをさらに含むことができる。   As the transmission of analog broadcast signals ends, various techniques for transmitting and receiving digital broadcast signals have been developed. The digital broadcast signal can include a larger amount of video / audio data than the analog broadcast signal, and can further include various types of additional data in addition to the video / audio data.

デジタル放送システムは、UHD(Ultra High Definition)イメージ、マルチチャネル(multi channel:多チャネル)オーディオ、及び様々な付加サービスを提供することができる。しかし、デジタル放送のためには、多量のデータ伝送に対するデータ伝送効率、送受信ネットワークのロバスト性(robustness)、及びモバイル受信装置を考慮したネットワーク柔軟性(flexibility)を向上させなければならない。   The digital broadcasting system can provide UHD (Ultra High Definition) image, multi-channel (multi-channel) audio, and various additional services. However, for digital broadcasting, it is necessary to improve data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility considering a mobile receiver.

本発明の目的によって、ここに含まれ、概略的に記載されたように、本発明は、地上波放送網及びインターネット網を用いる次世代ハイブリッド放送をサポートする環境で次世代放送サービスを効果的にサポートすることができるシステム及び関連するシグナリング方案を提案する。   In accordance with the purpose of the present invention, as included and generally described herein, the present invention effectively enables next-generation broadcasting services in an environment that supports next-generation hybrid broadcasting using a terrestrial broadcasting network and the Internet network. A system that can be supported and a related signaling scheme are proposed.

本発明は、地上波放送網及びインターネット網を用いる次世代ハイブリッド放送をサポートする環境で次世代放送サービスを効果的にサポートすることができる。   The present invention can effectively support next-generation broadcasting services in an environment that supports next-generation hybrid broadcasting using a terrestrial broadcasting network and an Internet network.

本発明は、放送サービスに含まれるサービスコンポーネントに対して、詳細なシグナリングを提供する方法をサポートすることができる。   The present invention can support a method for providing detailed signaling to a service component included in a broadcast service.

本発明は、放送サービスを伝達する方案において、3D、キャプション、WCG、HDRなどの様々な情報を効率的に提供する方法をサポートすることができる。   The present invention can support a method for efficiently providing various information such as 3D, caption, WCG, HDR, etc., in a method of transmitting a broadcast service.

本発明の更なる理解を提供するために含まれ、本出願に含まれ、その一部を構成する添付の図面は、本発明の原理を説明する詳細な説明と共に、本発明の実施例を示す。
本発明の一実施例に係るプロトコルスタックを示す図である。 本発明の一実施例に係るサービスディスカバリ手続を示す図である。 本発明の一実施例に係るLLS(Low Level Signaling)テーブル及びSLT(Service List Table)を示す図である。 本発明の一実施例に係る、ROUTEで伝達されるUSBD及びS−TSIDを示す図である。 本発明の一実施例に係る、MMTで伝達されるUSBDを示す図である。 本発明の一実施例に係るリンクレイヤ(Link Layer)動作を示す図である。 本発明の一実施例に係るLMT(Link Mapping Table)を示す図である。 本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す図である。 本発明の一実施例に係るタイムインタリーバの書き込み(writing)動作を示す図である。 本発明の一実施例に係る周波数インタリーバに含まれた各FFTモードによるメイン−PRBS生成器とサブ−PRBS生成器で構成されたインタリービングアドレス生成器のブロックダイヤグラムを示す図である。 本発明の一実施例に係るハイブリッド放送受信装置を示す図である。 本発明の一実施例に係るDASHベースの適応型(Adaptive)ストリーミングモデルの全般的な動作を示す図である。 本発明の一実施例に係る受信機のブロックダイヤグラムを示す図である。 本発明の一実施例に係るメディアファイルの構造を示す図である。 本発明の一実施例に係るSLTを介したブートストラッピング過程を示す図である。 本発明の一実施例に係るMMTプロトコルベースのシグナリングの流れを示す図である。 本発明の一実施例に係るケイパビリティディスクリプタを示す図である。 本発明の一実施例に係るケイパビリティコードを示す図である。 本発明の他の実施例に係るUSBDの一部を示す図である。 本発明の一実施例に係るMPテーブルの一部を示す図である。 本発明の一実施例に係るアセットグループディスクリプタを示す図である。 本発明の一実施例に係る接近(近接)性(accessibility)情報を示す図である。 本発明の一実施例に係る、USBD内のComponentInfoエレメントを示す図である。 本発明の一実施例に係るコンポーネント属性(Component Property)情報を示す図である。 本発明の一実施例に係るコンポーネント属性(Component Property)情報を示す図である。 本発明の一実施例に係るコンポーネント属性(Component Property)情報の活用を示す図である。 本発明の一実施例に係るHEVCビデオコンポーネントディスクリプション情報を示す図である。 本発明の一実施例に係るHEVCタイミング&HRD情報を示す図である。 本発明の一実施例に係るキャプション(caption)情報を示す図である。 本発明の一実施例に係るHDR情報を示す図である。 本発明の一実施例に係るWCG情報を示す図である。 本発明の一実施例に係るHFR情報/プルダウン(Pull Down)情報を示す図である。 本発明の一実施例に係る3Dサービス及びマルチビューサービス関連シグナリング情報を示す図である。 本発明の一実施例に係る、HDR情報処理能力に基づいた受信機のメディアエンジンの動作を示す図である。 本発明の一実施例に係る、WCG情報処理能力に基づいた受信機のメディアエンジンの動作を示す図である。 本発明の一実施例に係る、HFR情報処理能力に基づいた受信機のメディアエンジンの動作を示す図である。 本発明の一実施例に係る、プルダウンリカバリー情報処理能力に基づいた受信機のメディアエンジンの動作を示す図である。 本発明の一実施例に係る3Dサービスをサポートするためのメタデータを示す図である。 本発明の一実施例に係るバー(bar)に対するメタデータを示す図である。 本発明の一実施例に係るオリジナルソースフォーマットに関するメタデータを示す図である。 本発明の一実施例に係るバーデータ(bar data)を用いてレターボックスを生成する方法を示す図である。 本発明の他の実施例に係るバーデータ(bar data)を用いてレターボックスを生成する方法を示す図である。 本発明の一実施例に係るバーデータ(bar data)を用いてピラーボックス(pillarbox)を生成する方法を示す図である。 本発明の他の実施例に係るバーデータ(bar data)を用いてピラーボックスを生成する方法を示す図である。 本発明の一実施例に係る放送信号を送信する方法を示す図である。 本発明の一実施例に係る放送信号を送信する装置を示す図である。
The accompanying drawings, which are included to provide a further understanding of the invention and are included in and constitute a part of this application, illustrate embodiments of the invention, together with a detailed description that illustrates the principles of the invention. .
It is a figure which shows the protocol stack based on one Example of this invention. It is a figure which shows the service discovery procedure which concerns on one Example of this invention. It is a figure which shows the LLS (Low Level Signaling) table and SLT (Service List Table) which concern on one Example of this invention. It is a figure which shows USBD and S-TSID transmitted by ROUTE according to an embodiment of the present invention. FIG. 3 is a diagram illustrating USBD transmitted by MMT according to an embodiment of the present invention. It is a figure which shows the link layer (Link Layer) operation | movement which concerns on one Example of this invention. It is a figure which shows LMT (Link Mapping Table) which concerns on one Example of this invention. It is a figure which shows the structure of the broadcast signal transmitter with respect to the next-generation broadcast service which concerns on one Example of this invention. FIG. 6 is a diagram illustrating a writing operation of a time interleaver according to an embodiment of the present invention. FIG. 4 is a block diagram of an interleaving address generator including a main-PRBS generator and a sub-PRBS generator according to each FFT mode included in a frequency interleaver according to an embodiment of the present invention. It is a figure which shows the hybrid broadcast receiver which concerns on one Example of this invention. FIG. 3 is a diagram illustrating a general operation of a DASH-based adaptive streaming model according to an embodiment of the present invention. It is a figure which shows the block diagram of the receiver which concerns on one Example of this invention. It is a figure which shows the structure of the media file which concerns on one Example of this invention. FIG. 5 is a diagram illustrating a bootstrapping process through an SLT according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a flow of MMT protocol-based signaling according to an embodiment of the present invention. It is a figure which shows the capability descriptor based on one Example of this invention. It is a figure which shows the capability code which concerns on one Example of this invention. It is a figure which shows a part of USBD which concerns on the other Example of this invention. It is a figure which shows a part of MP table which concerns on one Example of this invention. It is a figure which shows the asset group descriptor which concerns on one Example of this invention. It is a figure which shows the accessibility (accessibility) information which concerns on one Example of this invention. It is a figure which shows the ComponentInfo element in USBD based on one Example of this invention. It is a figure which shows the component attribute (Component Property) information which concerns on one Example of this invention. It is a figure which shows the component attribute (Component Property) information which concerns on one Example of this invention. It is a figure which shows utilization of the component attribute (Component Property) information which concerns on one Example of this invention. It is a figure which shows HEVC video component description information based on one Example of this invention. It is a figure which shows HEVC timing & HRD information which concerns on one Example of this invention. FIG. 6 is a diagram illustrating caption information according to an embodiment of the present invention. It is a figure which shows the HDR information which concerns on one Example of this invention. It is a figure which shows the WCG information which concerns on one Example of this invention. FIG. 6 is a diagram illustrating HFR information / Pull Down information according to an embodiment of the present invention. FIG. 5 is a diagram illustrating signaling information related to 3D service and multi-view service according to an embodiment of the present invention. It is a figure which shows operation | movement of the media engine of the receiver based on HDR information processing capability based on one Example of this invention. It is a figure which shows operation | movement of the media engine of the receiver based on the WCG information processing capability based on one Example of this invention. It is a figure which shows operation | movement of the media engine of the receiver based on the HFR information processing capability based on one Example of this invention. It is a figure which shows operation | movement of the media engine of the receiver based on the pull-down recovery information processing capability based on one Example of this invention. FIG. 6 is a diagram illustrating metadata for supporting a 3D service according to an embodiment of the present invention. FIG. 5 is a diagram illustrating metadata for a bar according to an embodiment of the present invention. It is a figure which shows the metadata regarding the original source format which concerns on one Example of this invention. FIG. 5 is a diagram illustrating a method for generating a letterbox using bar data according to an embodiment of the present invention. FIG. 10 is a diagram illustrating a method of generating a letterbox using bar data according to another embodiment of the present invention. FIG. 5 is a diagram illustrating a method for generating a pillar box using bar data according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a method for generating a pillar box using bar data according to another embodiment of the present invention. FIG. 5 is a diagram illustrating a method for transmitting a broadcast signal according to an embodiment of the present invention. 1 is a diagram illustrating an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.

本発明の好適な実施例について具体的に説明し、その例を添付の図面に示す。添付の図面を参照した下記の詳細な説明は、本発明の具現可能な実施例を限定するものではなく、本発明の好適な実施例を説明するためのものである。下記の詳細な説明は、本発明に関する徹底した理解を提供するために細部事項を含む。しかし、当業者にとってはこれらの細部事項無しにも本発明の実行が可能であるということは明らかである。   Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. The following detailed description with reference to the accompanying drawings is intended to illustrate the preferred embodiments of the present invention, rather than to limit the possible embodiments of the present invention. The following detailed description includes details to provide a thorough understanding of the present invention. However, it will be apparent to those skilled in the art that the present invention may be practiced without these details.

本発明で使われる大部分の用語は、当該分野で広く使われる一般的なものから選択されるが、一部の用語は出願人によって任意に選択されてもよく、その意味は、必要時に次の説明で詳しく説明する。したがって、本発明は、用語の単純な名称や意味ではなく、用語の意図された意味に基づいて理解しなければならない。   Most of the terms used in the present invention are selected from common ones widely used in the field, but some of the terms may be arbitrarily selected by the applicant, and the meaning is as follows. This will be described in detail. Thus, the present invention should be understood based on the intended meaning of the term and not the simple name or meaning of the term.

本発明は、次世代放送サービスに対する放送信号の送信及び受信装置並びに方法を提供する。本発明の一実施例に係る次世代放送サービスは、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを含む。本発明は、一実施例によって、非−MIMO(non−Multiple Input Multiple Output)又はMIMO方式によって次世代放送サービスに対する放送信号を処理することができる。本発明の一実施例に係る非−MIMO方式は、MISO(Multiple Input Single Output)方式、SISO(Single Input Single Output)方式などを含むことができる。本発明は、特定の用途に要求される性能を達成すると共に、受信機の複雑度を最小化するために最適化されたフィジカルプロファイル(又はシステム)を提案する。   The present invention provides an apparatus and method for transmitting and receiving broadcast signals for next-generation broadcast services. The next generation broadcasting service according to an embodiment of the present invention includes a terrestrial broadcasting service, a mobile broadcasting service, a UHDTV service, and the like. According to an embodiment, the present invention can process a broadcast signal for a next-generation broadcast service using a non-MIMO (non-Multiple Input Multiple Output) or a MIMO scheme. The non-MIMO scheme according to an embodiment of the present invention may include a MISO (Multiple Input Single Output) scheme, a SISO (Single Input Single Output) scheme, and the like. The present invention proposes a physical profile (or system) that is optimized to achieve the performance required for a particular application and to minimize the complexity of the receiver.

図1は、本発明の一実施例に係るプロトコルスタックを示す図である。   FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.

サービスを複数個のレイヤを経て受信機に伝達することができる。まず、送信側ではサービスデータを生成することができる。送信側のデリバリレイヤでは、サービスデータに、伝送のための処理を行い、フィジカルレイヤでは、これを放送信号にエンコードして、放送網又はブロードバンドを介して伝送することができる。   The service can be transmitted to the receiver through a plurality of layers. First, service data can be generated on the transmission side. The delivery layer on the transmission side performs processing for transmission on the service data, and the physical layer can encode it into a broadcast signal and transmit it via a broadcast network or broadband.

ここで、サービスデータは、ISO BMFF(base media file format)によるフォーマットで生成することができる。ISO BMFFメディアファイルは、放送網/ブロードバンドデリバリ、メディアエンカプセレーション(media encapsulation)及び/又は同期化フォーマット(synchronization format)で用いることができる。ここで、サービスデータは、サービスに関連した全てのデータであり、リニアサービスを構成するサービスコンポーネント、それに対するシグナリング情報、NRT(Non Real Time)データ、その他のファイルなどを含む概念であってもよい。   Here, the service data can be generated in a format based on ISO BMFF (base media file format). ISO BMFF media files can be used in broadcast networks / broadband delivery, media encapsulation and / or synchronization format. Here, the service data is all data related to the service, and may be a concept including service components constituting the linear service, signaling information for the service component, NRT (Non Real Time) data, and other files. .

デリバリレイヤについて説明する。デリバリレイヤはサービスデータに対する伝送機能を提供することができる。サービスデータは、放送網及び/又はブロードバンドを介して伝達することができる。   The delivery layer will be described. The delivery layer can provide a transmission function for service data. Service data can be transmitted via a broadcast network and / or broadband.

放送網を介したサービスデリバリ(broadcast service delivery)において、2つの方法を挙げることができる。   There are two methods for service delivery via a broadcast network.

第一の方法は、MMT(MPEG Media Transport)に基づいて、サービスデータをMPU(Media Processing Units)として処理し、これをMMTP(MMT protocol)を用いて伝送することができる。この場合、MMTPによって伝達されるサービスデータは、リニアサービスのためのサービスコンポーネント及び/又はそれに関するサービスシグナリング情報などを含むことができる。   The first method can process service data as MPU (Media Processing Units) based on MMT (MPEG Media Transport) and transmit it using MMTP (MMT protocol). In this case, the service data transmitted by MMTP may include a service component for linear service and / or service signaling information related thereto.

第二の方法は、MPEG DASHに基づいて、サービスデータをDASHセグメントとして処理し、これをROUTE(Real time Object delivery over Unidirectional Transport)を用いて伝送することができる。この場合、ROUTEプロトコルによって伝達されるサービスデータは、リニアサービスのためのサービスコンポーネント、それに関するサービスシグナリング情報、及び/又はNRTデータなどを含むことができる。すなわち、NRTデータ及びファイルなどのノンタイムド(non timed)データは、ROUTEを用いて伝達することができる。   In the second method, service data is processed as a DASH segment based on MPEG DASH, and this data can be transmitted using ROUTE (Real time object delivery over Unidirectional Transport). In this case, the service data conveyed by the ROUTE protocol may include a service component for linear service, service signaling information related thereto, and / or NRT data. That is, non-timed data such as NRT data and files can be transmitted using ROUTE.

MMTP又はROUTEプロトコルによって処理されたデータは、UDP/IPレイヤを経てIPパケットとして処理することができる。放送網を介したサービスデータ伝達において、SLT(Service List Table)もUDP/IPレイヤを経て放送網を介して伝達することができる。SLTは、LLS(Low Level Signaling)テーブルに含めて伝達することができる。SLT、LLSテーブルについては後述する。   Data processed by the MMTP or ROUTE protocol can be processed as an IP packet through the UDP / IP layer. In service data transmission via the broadcast network, SLT (Service List Table) can also be transmitted via the broadcast network via the UDP / IP layer. The SLT can be transmitted by being included in an LLS (Low Level Signaling) table. The SLT and LLS tables will be described later.

IPパケットはリンクレイヤでリンクレイヤパケットとして処理されてもよい。リンクレイヤは、上位レイヤから伝達される様々なフォーマットのデータを、リンクレイヤパケットとしてエンカプセレーションした後、フィジカルレイヤに伝達することができる。リンクレイヤについては後述する。   The IP packet may be processed as a link layer packet at the link layer. The link layer can encapsulate data in various formats transmitted from an upper layer as a link layer packet, and then transmit the data to the physical layer. The link layer will be described later.

ハイブリッドサービスデリバリ(hybrid service delivery)においては、少なくとも1つのサービスエレメントをブロードバンドパス(path)を通じて伝達することができる。ハイブリッドサービスデリバリの場合、ブロードバンドで伝達されるデータは、DASHフォーマットのサービスコンポーネント、それに関するサービスシグナリング情報、及び/又はNRTデータなどを含むことができる。これらのデータはHTTP/TCP/IPを経て処理され、ブロードバンド伝送のためのリンクレイヤを経て、ブロードバンド伝送のためのフィジカルレイヤに伝達されてもよい。   In a hybrid service delivery, at least one service element can be transmitted through a broadband path. In the case of hybrid service delivery, data transmitted in broadband may include a service component in DASH format, service signaling information related thereto, and / or NRT data. These data may be processed via HTTP / TCP / IP and transmitted to the physical layer for broadband transmission via the link layer for broadband transmission.

フィジカルレイヤは、デリバリレイヤ(上位レイヤ及び/又はリンクレイヤ)から伝達されたデータを処理して、放送網又はブロードバンドを介して伝送することができる。フィジカルレイヤに関する詳細な事項は後述する。   The physical layer can process data transmitted from the delivery layer (upper layer and / or link layer) and transmit the processed data via a broadcast network or broadband. Detailed matters regarding the physical layer will be described later.

サービスについて説明する。サービスは、全体的にユーザに示すサービスコンポーネントのコレクションであり、コンポーネントは、様々なメディアタイプのものであり、サービスは、連続的又は間欠的であり、サービスは、実時間又は非実時間であってもよく、実時間サービスは、TV番組のシーケンスで構成することができる。   The service will be described. A service is a collection of service components that are generally presented to the user, components are of various media types, services are continuous or intermittent, and services can be real-time or non-real-time. Alternatively, the real-time service can consist of a sequence of TV programs.

サービスは種々のタイプを有することができる。第一に、サービスはアプリベースのエンハンスメントを有し得るリニアオーディオ/ビデオサービス又はオーディオだけのサービスであってもよい。第二に、サービスは、ダウンロードされたアプリケーションによってその再生/構成などが制御されるアプリベースのサービスであってもよい。第三に、サービスは、ESG(Electronic Service Guide)を提供するESGサービスであってもよい。第四に、緊急警報情報を提供するEA(Emergency Alert)サービスであってもよい。   Services can have different types. First, the service may be a linear audio / video service or an audio-only service that may have app-based enhancements. Second, the service may be an application-based service whose playback / configuration is controlled by a downloaded application. Third, the service may be an ESG service that provides an ESG (Electronic Service Guide). Fourth, it may be an EA (Emergency Alert) service that provides emergency alert information.

アプリベースのエンハンスメントを有しないリニアサービスを放送網を介して伝達する場合、サービスコンポーネントを、(1)1つ以上のROUTEセッション、又は(2)1つ以上のMMTPセッションで伝達することができる。   When delivering a linear service without app-based enhancement over a broadcast network, the service component can be delivered in (1) one or more ROUTE sessions, or (2) one or more MMTP sessions.

アプリベースのエンハンスメントを有するリニアサービスを放送網を介して伝達する場合、サービスコンポーネントを、(1)1つ以上のROUTEセッション、及び(2)0個以上のMMTPセッションで伝達してもよい。この場合、アプリベースのエンハンスメントに用いられるデータは、NRTデータ又はその他のファイルなどの形態でROUTEセッションを通じて伝達してもよい。本発明の一実施例において、1つのサービスのリニアサービスコンポーネント(ストリーミングメディアコンポーネント)が2つのプロトコルによって同時に伝達されることを許容しなくてもよい。   When transmitting a linear service with application-based enhancement over a broadcast network, the service component may be transmitted in (1) one or more ROUTE sessions and (2) zero or more MMTP sessions. In this case, data used for application-based enhancement may be transmitted through the ROUTE session in the form of NRT data or other files. In one embodiment of the present invention, the linear service component (streaming media component) of one service may not be allowed to be transmitted simultaneously by two protocols.

アプリベースのサービスを放送網を介して伝達する場合、サービスコンポーネントを、1つ以上のROUTEセッションで伝達することができる。この場合、アプリベースのサービスに用いられるサービスデータを、NRTデータ又はその他のファイルなどの形態でROUTEセッションを通じて伝達することができる。   When app-based services are communicated over a broadcast network, service components can be communicated in one or more ROUTE sessions. In this case, service data used for the application-based service can be transmitted through the ROUTE session in the form of NRT data or other files.

また、このようなサービスの一部のサービスコンポーネント又は一部のNRTデータ、ファイルなどをブロードバンドを介して伝達してもよい(ハイブリッドサービスデリバリ)。   Also, some service components of such services or some NRT data, files, etc. may be transmitted via broadband (hybrid service delivery).

すなわち、本発明の一実施例で、一つのサービスのリニアサービスコンポーネントをMMTプロトコルによって伝達することができる。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネントは、ROUTEプロトコルによって伝達してもよい。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネント及びNRTデータ(NRTサービスコンポーネント)は、ROUTEプロトコルによって伝達してもよい。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネントは、MMTプロトコルによって伝達し、NRTデータ(NRTサービスコンポーネント)は、ROUTEプロトコルによって伝達してもよい。これらの実施例において、サービスの一部のサービスコンポーネント又は一部のNRTデータは、ブロードバンドを介して伝達してもよい。ここで、アプリベースのサービス又はアプリベースのエンハンスメントに関するデータはNRTデータ形態で、ROUTEによる放送網を介して伝達したり、ブロードバンドを介して伝達してもよい。NRTデータは、ローカリキャッシュドデータ(Locally cashed data)などと呼ぶこともできる。   That is, in one embodiment of the present invention, a linear service component of one service can be transmitted using the MMT protocol. In another embodiment of the present invention, the linear service component of one service may be conveyed by the ROUTE protocol. In another embodiment of the present invention, the linear service component and NRT data (NRT service component) of one service may be transmitted by the ROUTE protocol. In another embodiment of the present invention, the linear service component of one service may be transmitted by the MMT protocol, and the NRT data (NRT service component) may be transmitted by the ROUTE protocol. In these embodiments, some service components of the service or some NRT data may be communicated via broadband. Here, the data relating to the application-based service or the application-based enhancement may be transmitted in the form of NRT data via a broadcast network based on ROUTE or via broadband. The NRT data can also be referred to as locally cached data.

それぞれのROUTEセッションは、サービスを構成するコンテンツコンポーネントを全体的に又は部分的に伝達する1つ以上のLCTセッションを含む。ストリーミングサービスデリバリにおいて、LCTセッションはオーディオ、ビデオ、又はクローズドキャプションストリームのようなユーザサービスの個別コンポーネントを伝達することができる。ストリーミングメディアはDASHセグメントとしてフォーマットされる。   Each ROUTE session includes one or more LCT sessions that convey, in whole or in part, the content components that make up the service. In streaming service delivery, LCT sessions can carry individual components of user services such as audio, video, or closed caption streams. Streaming media is formatted as a DASH segment.

それぞれのMMTPセッションは、MMTシグナリングメッセージ又は全体又は一部のコンテンツコンポーネントを伝達する1つ以上のMMTPパケットフローを含む。MMTPパケットフローは、MMTシグナリングメッセージ又はMPUとしてフォーマットされたコンポーネントを伝達することができる。   Each MMTP session includes one or more MMTP packet flows that carry MMT signaling messages or all or some content components. The MMTP packet flow can carry components formatted as MMT signaling messages or MPUs.

NRTユーザサービス又はシステムメタデータのデリバリのために、LCTセッションはファイルベースのコンテンツアイテムを伝達する。これらのコンテンツファイルは、NRTサービスの連続的(タイムド)又は離散的(ノンタイムド)メディアコンポーネント、サービスシグナリング、又はESGフラグメントのようなメタデータで構成することができる。サービスシグナリング又はESGフラグメントのようなシステムメタデータのデリバリも、MMTPのシグナリングメッセージモードで行うことができる。   For delivery of NRT user services or system metadata, LCT sessions carry file-based content items. These content files may consist of metadata such as continuous (timed) or discrete (non-timed) media components of NRT services, service signaling, or ESG fragments. Delivery of system metadata such as service signaling or ESG fragments can also be performed in the MMTP signaling message mode.

受信機では、チューナが周波数をスキャニングするが、特定周波数で放送シグナルを感知することができる。受信機は、SLTを抽出してその処理モジュールに送ることができる。SLTパーサーは、SLTをパースし、データを取得してチャネルマップに保存することができる。受信機は、SLTのブートストラップ情報を取得してROUTE又はMMTクライアントに伝達することができる。これによって受信機はSLSを取得して保存することができる。USBDなどを取得することができ、これはシグナリングパーサーによってパースされてもよい。   At the receiver, the tuner scans the frequency, but can sense the broadcast signal at a specific frequency. The receiver can extract the SLT and send it to its processing module. The SLT parser can parse the SLT, get the data and store it in the channel map. The receiver can obtain the SLT bootstrap information and communicate it to the ROUTE or MMT client. This allows the receiver to obtain and store the SLS. A USBD or the like can be obtained, which may be parsed by a signaling parser.

図2は、本発明の一実施例に係るサービスディスカバリ手続を示す図である。   FIG. 2 is a diagram illustrating a service discovery procedure according to an embodiment of the present invention.

フィジカルレイヤの放送信号フレームが伝達するブロードキャストストリームは、LLS(Low Level Signaling)を運搬することができる。LLSデータは、フェルノウン(well known)IPアドレス/ポートに伝達されるIPパケットのペイロードで運搬することができる。このLLSはそのタイプによってSLTを含むことができる。LLSデータは、LLSテーブルの形態にフォーマットすることができる。LLSデータを運搬する毎UDP/IPパケットの最初のバイトは、LLSテーブルの始めであってもよい。図示の実施例とは違い、LLSデータを伝達するIPストリームは、他のサービスデータと共に同一のPLPを介して伝達してもよい。   A broadcast stream transmitted by a broadcast signal frame of a physical layer can carry LLS (Low Level Signaling). LLS data can be carried in the payload of an IP packet that is conveyed to a well-known IP address / port. This LLS can include an SLT depending on its type. The LLS data can be formatted in the form of an LLS table. The first byte of every UDP / IP packet carrying LLS data may be the beginning of the LLS table. Unlike the illustrated embodiment, the IP stream for transmitting LLS data may be transmitted along with other service data via the same PLP.

SLTは、高速のチャネルスキャンによって受信機がサービスリストを生成できるようにし、SLSをロケーティング(locating)するためのアクセス情報を提供する。SLTは、ブートストラップ情報を含むが、このブートストラップ情報は、受信機がそれぞれのサービスに対するSLS(Service Layer Signaling)を取得できるようにする。SLS、すなわち、サービスシグナリング情報がROUTEで伝達される場合、ブートストラップ情報は、SLSを運搬するLCTチャネル又はそのLCTチャネルを含むROUTEセッションのデスティネーションIPアドレス及びデスティネーションポート情報を含むことができる。SLSがMMTで伝達される場合、ブートストラップ情報は、SLSを運搬するMMTPセッションのデスティネーションIPアドレス及びデスティネーションポート情報を含むことができる。   The SLT enables the receiver to generate a service list by high-speed channel scanning and provides access information for locating the SLS. The SLT includes bootstrap information, which allows the receiver to obtain a Service Layer Signaling (SLS) for each service. If the SLS, ie, service signaling information is conveyed in the ROUTE, the bootstrap information may include the destination IP address and destination port information of the LCT channel carrying the SLS or the ROUTE session that includes the LCT channel. When the SLS is transmitted in the MMT, the bootstrap information may include the destination IP address and destination port information of the MMTP session that carries the SLS.

図示された実施例で、SLTが記述するサービス#1のSLSはROUTEで伝達され、SLTは、当該SLSが伝達されるLCTチャネルを含むROUTEセッションに対するブートストラップ情報(sIP1,dIP1,dPort1)を含むことができる。SLTが記述するサービス#2のSLSはMMTで伝達され、SLTは、当該SLSが伝達されるMMTPパケットフローを含むMMTPセッションに対するブートストラップ情報(sIP2,dIP2,dPort2)を含むことができる。   In the illustrated embodiment, the SLS of service # 1 described by the SLT is conveyed by ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel to which the SLS is conveyed. be able to. The SLS of service # 2 described by the SLT is transmitted by the MMT, and the SLT can include bootstrap information (sIP2, dIP2, dPort2) for the MMTP session including the MMTP packet flow to which the SLS is transmitted.

SLSは、当該サービスに対する特性を記述するシグナリング情報であり、当該サービス及び当該サービスのサービスコンポーネントを取得するための情報を提供したり、当該サービスを有意に再生するための受信機キャパビリティ情報などを含むことができる。各サービスに対して別個のサービスシグナリングを有すると、受信機は、ブロードキャストストリーム内で伝達される全てのSLSをパースしないで、所望のサービスに対する適切なSLSを取得すればよい。   SLS is signaling information that describes the characteristics of the service, and provides information for acquiring the service and service components of the service, and receiver capability information for significantly reproducing the service. Can be included. Having separate service signaling for each service, the receiver need only obtain the appropriate SLS for the desired service without parsing all SLS conveyed in the broadcast stream.

SLSをROUTEプロトコルによって伝達する場合、SLSを、SLTが示すROUTEセッションの特定(dedicated)のLCTチャネルを介して伝達することができる。実施例によって、このLCTチャネルはtsi=0と識別されるLCTチャネルであってもよい。この場合、SLSは、USBD/USD(User Service Bundle Description/User Service Description)、S−TSID(Service−based Transport Session Instance Description)及び/又はMPD(Media Presentation Description)を含むことができる。   When SLS is communicated via the ROUTE protocol, the SLS can be communicated via the dedicated LCT channel of the ROUTE session indicated by the SLT. Depending on the embodiment, this LCT channel may be an LCT channel identified as tsi = 0. In this case, the SLS can include USBD / USD (User Service Bundle Description / User Service Description), S-TSID (Service-based Transport Session Indication / Migration PestM).

ここで、USBD又はUSDは、SLSフラグメントの一つであり、サービスの具体的な技術的情報を記述するシグナリングハブの役割を担うことができる。USBDは、サービス識別情報、デバイスキャパビリティ情報などを含むことができる。USBDは、他のSLSフラグメント(S−TSID、MPDなど)へのリファレンス情報(URIリファレンス)を含むことができる。すなわち、USBD/USDは、S−TSIDとMPDをそれぞれリファレンシングすることができる。また、USBDは、受信機が伝送モード(放送網/ブロードバンド)を決定できるようにするメタデータ情報をさらに含むことができる。USBD/USDの具体的な内容については後述する。   Here, USBD or USD is one of the SLS fragments, and can serve as a signaling hub that describes specific technical information of a service. The USBD can include service identification information, device capability information, and the like. The USBD can include reference information (URI reference) to other SLS fragments (S-TSID, MPD, etc.). That is, USBD / USD can refer to S-TSID and MPD, respectively. The USBD may further include metadata information that enables the receiver to determine the transmission mode (broadcast network / broadband). Specific contents of USBD / USD will be described later.

S−TSIDは、SLSフラグメントの一つであり、当該サービスのサービスコンポーネントを運搬する伝送セッションに対する全体的なセッションデスクリプション情報を提供することができる。S−TSIDは、当該サービスのサービスコンポーネントが伝達されるROUTEセッション及び/又はそのROUTEセッションのLCTチャネルに対する伝送セッションデスクリプション情報を提供することができる。S−TSIDは、一つのサービスと関連したサービスコンポーネントのコンポーネント取得(acquisition)情報を提供することができる。S−TSIDは、MPDのDASHリプレゼンテーション(Representation)と当該サービスコンポーネントのtsi間のマッピングを提供することができる。S−TSIDのコンポーネント取得情報は、tsi、関連DASHリプレゼンテーションの識別子の形態で提供することができ、実施例によってPLP IDを含んでも含まなくてもよい。コンポーネント取得情報を用いて、受信機は一つのサービスのオーディオ/ビデオコンポーネントを収集し、DASHメディアセグメントのバッファリング、デコーディングなどを行うことができる。S−TSIDは、前述したように、USBDによってリファレンシングされてもよい。S−TSIDの具体的な内容については後述する。   The S-TSID is one of the SLS fragments, and can provide overall session description information for a transmission session carrying the service component of the service. The S-TSID may provide transmission session description information for the ROUTE session to which the service component of the service is conveyed and / or the LCT channel of the ROUTE session. The S-TSID can provide component acquisition information for a service component associated with one service. The S-TSID can provide a mapping between the DPD representation of MPD and the tsi of the service component. S-TSID component acquisition information can be provided in the form of tsi, an associated DASH representation identifier, which may or may not include a PLP ID, depending on the embodiment. Using the component acquisition information, the receiver can collect the audio / video components of one service and perform buffering, decoding, etc. of the DASH media segment. As described above, the S-TSID may be referenced by USBD. Specific contents of the S-TSID will be described later.

MPDは、SLSフラグメントの一つであり、当該サービスのDASHメディアプレゼンテーションに関するデスクリプションを提供することができる。MPDは、メディアセグメントに対するリソース識別子(resource identifier)を提供し、識別されたリソースに対するメディアプレゼンテーション内におけるコンテクスト情報を提供することができる。MPDは、放送網を介して伝達されるDASHリプレゼンテーション(サービスコンポーネント)を記述し、またブロードバンドを介して伝達される追加的なDASHリプレゼンテーションを記述することができる(ハイブリッドデリバリ)。MPDは、前述したように、USBDによってリファレンシングされてもよい。   MPD is one of the SLS fragments, and can provide a description regarding the DASH media presentation of the service. The MPD may provide a resource identifier for the media segment and provide context information in the media presentation for the identified resource. The MPD can describe DASH representations (service components) communicated over the broadcast network and can describe additional DASH representations transmitted over broadband (hybrid delivery). The MPD may be referred to by USBD as described above.

SLSをMMTプロトコルによって伝達する場合、SLSは、SLTが示すMMTPセッションの特定(dedicated)MMTPパケットフローで伝達することができる。実施例によって、SLSを伝達するMMTPパケットのpacket_idは00の値を有することができる。この場合、SLSは、USBD/USD及び/又はMMT Package(MP)テーブルを含むことができる。   When the SLS is transmitted by the MMT protocol, the SLS can be transmitted in the MMTP packet flow indicated by the SLT. According to an embodiment, the packet_id of the MMTP packet carrying the SLS may have a value of 00. In this case, the SLS can include a USBD / USD and / or MMT Package (MP) table.

ここで、USBDは、SLSフラグメントの一つであり、ROUTEにおけるそれと同様にサービスの具体的な技術的情報を記述することができる。ここでのUSBDも、他のSLSフラグメントへのリファレンス情報(URIリファレンス)を含むことができる。MMTのUSBDは、MMTシグナリングのMPテーブルをリファレンシングすることができる。実施例によって、MMTのUSBDは、S−TSID及び/又はMPDへのリファレンス情報も含むことができる。ここで、S−TSIDは、ROUTEプロトコルによって伝達されるNRTデータのためのものであってもよい。MMTプロトコルによってリニアサービスコンポーネントが伝達される場合にも、NRTデータはROUTEプロトコルによって伝達され得るからである。MPDは、ハイブリッドサービスデリバリにおいて、ブロードバンドで伝達されるサービスコンポーネントのためのものであってもよい。MMTのUSBDの具体的な内容については後述する。   Here, USBD is one of the SLS fragments, and it can describe specific technical information of the service in the same way as in ROUTE. The USBD here can also include reference information (URI reference) to other SLS fragments. The MMT USBD can refer to the MP table of MMT signaling. Depending on the embodiment, the MMT USBD may also include S-TSID and / or reference information to the MPD. Here, the S-TSID may be for NRT data transmitted by the ROUTE protocol. This is because NRT data can be transmitted by the ROUTE protocol even when the linear service component is transmitted by the MMT protocol. The MPD may be for service components transmitted on broadband in hybrid service delivery. Specific contents of the MMT USBD will be described later.

MPテーブルは、MPUコンポーネントのためのMMTのシグナリングメッセージであり、当該サービスのサービスコンポーネントを運搬するMMTPセッションに対する全体的なセッションデスクリプション情報を提供することができる。また、MPテーブルは、このMMTPセッションを通じて伝達されるアセット(Asset)に対するデスクリプションを含むことができる。MPテーブルは、MPUコンポーネントのためのストリーミングシグナリング情報であり、一つのサービスに該当するアセットのリストとこれらのコンポーネントのロケーション情報(コンポーネント取得情報)を提供することができる。MPテーブルの具体的な内容は、MMTで定義された形態であってもよく、変形された形態であってもよい。ここでいうアセットは、マルチメディアデータエンティティであり、1つのユニークIDで連合し、1つのマルチメディアプレゼンテーションを生成するために用いられるデータエンティティを意味することができる。アセットは、一つのサービスを構成するサービスコンポーネントに該当してもよい。MPテーブルを用いて、所望のサービスに該当するストリーミングサービスコンポーネント(MPU)に接近することができる。MPテーブルは、前述したように、USBDによってリファレンシングされてもよい。   The MP table is an MMT signaling message for the MPU component and can provide overall session description information for the MMTP session carrying the service component of the service. In addition, the MP table may include a description for an asset (Asset) transmitted through the MMTP session. The MP table is streaming signaling information for an MPU component, and can provide a list of assets corresponding to one service and location information (component acquisition information) of these components. The specific contents of the MP table may be in a form defined by MMT or may be a modified form. As used herein, an asset is a multimedia data entity that can be associated with one unique ID and can be a data entity used to generate one multimedia presentation. An asset may correspond to a service component that constitutes one service. The MP table can be used to access a streaming service component (MPU) corresponding to a desired service. As described above, the MP table may be referred to by USBD.

その他のMMTシグナリングメッセージを定義することもできる。このようなMMTシグナリングメッセージによってMMTPセッション又はサービスに関連した追加の情報を記述することができる。   Other MMT signaling messages can also be defined. Such MMT signaling messages can describe additional information related to the MMTP session or service.

ROUTEセッションはソースIPアドレス、デスティネーションIPアドレス、デスティネーションポートナンバーによって識別される。LCTセッションはペアレントROUTEセッションの範囲内で唯一のTSI(transport session identifier)によって識別される。MMTPセッションはデスティネーションIPアドレス及びデスティネーションポートナンバーによって識別される。MMTPパケットフローはペアレントMMTPセッションの範囲内で唯一のpacket_idによって識別される。   A ROUTE session is identified by a source IP address, a destination IP address, and a destination port number. An LCT session is identified by a unique TSI (Transport Session Identifier) within the scope of the parent ROUTE session. The MMTP session is identified by the destination IP address and the destination port number. An MMTP packet flow is identified by a unique packet_id within the parent MMTP session.

ROUTEの場合、S−TSID、USBD/USD、MPD又はこれらを伝達するLCTセッションをサービスシグナリングチャネルと呼ぶことができる。MMTPの場合、USBD/UD、MMTシグナリングメッセージ、又はこれらを伝達するパケットフローをサービスシグナリングチャネルと呼ぶことができる。   In the case of ROUTE, S-TSID, USBD / USD, MPD, or an LCT session that carries these can be called a service signaling channel. In the case of MMTP, a USBD / UD, MMT signaling message, or a packet flow that carries them can be called a service signaling channel.

図示した実施例とは違い、1つのROUTE又はMMTPセッションは複数個のPLPで伝達されてもよい。すなわち、1つのサービスは1つ以上のPLPを介して伝達されてもよい。図示とは違い、実施例によって、1つのサービスを構成するコンポーネントが別個のROUTEセッションで伝達されてもよい。また、実施例によって、1つのサービスを構成するコンポーネントが別個のMMTPセッションで伝達されてもよい。実施例によって、1つのサービスを構成するコンポーネントがROUTEセッションとMMTPセッションとに分けて伝達されてもよい。図示してはいないが、1つのサービスを構成するコンポーネントがブロードバンドを介して伝達(ハイブリッドデリバリ)されてもよい。   Unlike the illustrated embodiment, one ROUTE or MMTP session may be transmitted by a plurality of PLPs. That is, one service may be transmitted via one or more PLPs. Unlike the illustration, according to the embodiment, components constituting one service may be conveyed in a separate ROUTE session. Also, according to the embodiment, components constituting one service may be transmitted in a separate MMTP session. According to the embodiment, components constituting one service may be transmitted separately in a ROUTE session and an MMTP session. Although not shown, components constituting one service may be transmitted (hybrid delivery) via broadband.

図3は、本発明の一実施例に係るLLS(Low Level Signaling)テーブル及びSLT(Service List Table)を示す図である。   FIG. 3 is a diagram illustrating an LLS (Low Level Signaling) table and an SLT (Service List Table) according to an embodiment of the present invention.

図示のLLSテーブルの一実施例(t3010)は、LLS_table_idフィールド、provider_idフィールド、LLS_table_versionフィールド及び/又はLLS_table_idフィールドによる情報を含むことができる。   One embodiment of the illustrated LLS table (t3010) may include information from the LLS_table_id field, the provider_id field, the LLS_table_version field, and / or the LLS_table_id field.

LLS_table_idフィールドは、当該LLSテーブルのタイプを識別し、provider_idフィールドは、当該LLSテーブルによってシグナルされるサービスに関連したサービスプロバイダを識別することができる。ここで、サービスプロバイダは、当該ブロードキャストストリームの全部又は一部を用いるブロードキャスタであり、provider_idフィールドは、当該ブロードキャストストリームを用いている複数のブロードキャスタのうち1つを識別することができる。LLS_table_versionフィールドは、当該LLSテーブルのバージョン情報を提供することができる。   The LLS_table_id field can identify the type of the LLS table, and the provider_id field can identify the service provider associated with the service signaled by the LLS table. Here, the service provider is a broadcaster that uses all or part of the broadcast stream, and the provider_id field can identify one of a plurality of broadcasters that use the broadcast stream. The LLS_table_version field can provide version information of the LLS table.

LLS_table_idフィールドの値によって、当該LLSテーブルは、前述したSLT、コンテンツアドバイザリレーティング(Content advisory rating)に関連した情報を含むRRT(Rating Region Table)、システムタイムに関連した情報を提供するSystemTime情報、緊急警報に関連した情報を提供するCAP(Common Alert Protocol)メッセージのうち1つを含むことができる。実施例によって、その他の情報がLLSテーブルに含まれてもよい。   Depending on the value of the LLS_table_id field, the LLS table may include RRT (Rating Region Table) including information related to the above-mentioned SLT and content advisory rating (Content advisory rating), System Time information that provides information related to the system time, and emergency One of CAP (Common Alert Protocol) messages providing information related to the alert may be included. Depending on the embodiment, other information may be included in the LLS table.

図示のSLTの一実施例(t3020)は、@bsid属性、@sltCapabilities属性、sltInetUrlエレメント及び/又はServiceエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   One embodiment of the illustrated SLT (t3020) may include a @bsid attribute, a @sltCapabilities attribute, a sltIntUrl element, and / or a Service element. Each field may be omitted depending on the value of the shown Use column, and a plurality of fields may exist.

@bsid属性は、ブロードキャストストリームの識別子であってもよい。@sltCapabilities属性は、当該SLTが記述する全てのサービスをデコードして有意に再生するために必要なキャパビリティ情報を提供することができる。sltInetUrlエレメントは、当該SLTのサービスのためのESG又はサービスシグナリング情報をブロードバンドを介して得るために用いられるベースURL情報を提供することができる。sltInetUrlエレメントは、@urlType属性をさらに含むことができるが、これは、当該URLから得られるデータのタイプを示すことができる。   The @bsid attribute may be an identifier of the broadcast stream. The @sltCapabilities attribute can provide capability information necessary to decode and significantly reproduce all services described by the SLT. The sltInetUrl element can provide base URL information used to obtain ESG or service signaling information for the service of the SLT via broadband. The sltIntUrl element can further include an @urlType attribute, which can indicate the type of data obtained from the URL.

Serviceエレメントは、当該SLTが記述するサービスに関する情報を含むエレメントであり、それぞれのサービスに対してServiceエレメントが存在してもよい。Serviceエレメントは、@serviceId属性、@sltSvcSeqNum属性、@protected属性、@majorChannelNo属性、@minorChannelNo属性、@serviceCategory属性、@shortServiceName属性、@hidden属性、@broadbandAccessRequired属性、@svcCapabilities属性、BroadcastSvcSignalingエレメント及び/又はsvcInetUrlエレメントを含むことができる。   The Service element is an element including information related to the service described by the SLT, and there may be a Service element for each service. Service elements, @ serviceId attribute, @ sltSvcSeqNum attribute, @ protected attribute, @ majorChannelNo attribute, @ minorChannelNo attribute, @ serviceCategory attribute, @ shortServiceName attribute, @ hidden attributes, @ broadbandAccessRequired attribute, @ svcCapabilities attribute, BroadcastSvcSignaling element and / or svcInetUrl Elements can be included.

@serviceId属性は、当該サービスの識別子であり、@sltSvcSeqNum属性は、当該サービスに対するSLT情報のシーケンスナンバーを示すことができる。@protected属性は、当該サービスの有意な再生のために必要な少なくとも1つのサービスコンポーネントが保護(protected)されているか否かを示すことができる。@majorChannelNo属性と@minorChannelNo属性はそれぞれ、当該サービスのメジャーチャネルナンバーとマイナーチャネルナンバーを示すことができる。   The @serviceId attribute is an identifier of the service, and the @sltSvcSeqNum attribute can indicate a sequence number of SLT information for the service. The @protecteded attribute can indicate whether at least one service component required for significant playback of the service is protected. The @majorChannelNo attribute and the @minorChannelNo attribute can indicate the major channel number and minor channel number of the service, respectively.

@serviceCategory属性は、当該サービスのカテゴリーを示すことができる。サービスのカテゴリーとしては、リニアA/Vサービス、リニアオーディオサービス、アプリベースのサービス、ESGサービス、EASサービスなどを挙げることができる。@shortServiceName属性は、当該サービスの短い名(Short name)を提供することができる。@hidden属性は、当該サービスがテスティング又は独占的(proprietary)な使用のためのサービスであるか否かを示すことができる。@broadbandAccessRequired属性は、当該サービスの有意な再生のためにブロードバンドアクセスが必要であるか否かを示すことができる。@svcCapabilities属性は、当該サービスのデコーディング及び有意な再生のために必要なキャパビリティ情報を提供することができる。   The @serviceCategory attribute can indicate the category of the service. The service category includes linear A / V service, linear audio service, application-based service, ESG service, EAS service, and the like. The @shortServiceName attribute can provide the short name of the service. The @hidden attribute may indicate whether the service is a service for testing or proprietary use. The @broadbandAccessRequired attribute can indicate whether broadband access is required for significant playback of the service. The @svcCapabilities attribute can provide capability information necessary for decoding and significant playback of the service.

BroadcastSvcSignalingエレメントは、当該サービスのブロードキャストシグナリングに関連した情報を提供することができる。このエレメントは、当該サービスの放送網を介したシグナリングに対して、ロケーション、プロトコル、アドレスなどの情報を提供することができる。詳細な事項は後述する。   The BroadcastSvcSignaling element can provide information related to the broadcast signaling of the service. This element can provide information such as a location, a protocol, and an address for signaling through the broadcasting network of the service. Details will be described later.

svcInetUrlエレメントは、当該サービスのためのシグナリング情報をブロードバンドを介してアクセスするためのURL情報を提供することができる。sltInetUrlエレメントは、@urlType属性をさらに含むことができるが、これは、当該URLから得られるデータのタイプを示すことができる。   The svcInetUrl element can provide URL information for accessing signaling information for the service via broadband. The sltIntUrl element can further include an @urlType attribute, which can indicate the type of data obtained from the URL.

前述したBroadcastSvcSignalingエレメントは、@slsProtocol属性、@slsMajorProtocolVersion属性、@slsMinorProtocolVersion属性、@slsPlpId属性、@slsDestinationIpAddress属性、@slsDestinationUdpPort属性、及び/又は@slsSourceIpAddress属性を含むことができる。   The above-mentioned BroadcastSvcSignaling element includes @slsProtocol attribute, @slsMajorProtocolVersion attribute, @slsMinorProtocolVersion attribute, @slsPlpId attribute, @slsDestinationIpAddress attribute, @slsAddress attribute, and

@slsProtocol属性は、当該サービスのSLSを伝達するために用いられるプロトコルを示すことができる(ROUTE、MMTなど)。@slsMajorProtocolVersion属性及び@slsMinorProtocolVersion属性はそれぞれ、当該サービスのSLSを伝達するために用いられるプロトコルのメジャーバージョンナンバー及びマイナーバージョンナンバーを示すことができる。   The @slsProtocol attribute can indicate the protocol used to convey the SLS for the service (ROUTE, MMT, etc.). The @slsMajorProtocolVersion attribute and the @slsMinorProtocolVersion attribute can indicate the major version number and minor version number of the protocol used to convey the SLS of the service, respectively.

@slsPlpId属性は、当該サービスのSLSを伝達するPLPを識別するPLP識別子を提供することができる。実施例によって、このフィールドは省略されてもよく、SLSが伝達されるPLP情報は、後述するLMT内の情報とSLTのブートストラップ情報とを組み合わせて確認してもよい。   The @slsPlpId attribute can provide a PLP identifier that identifies the PLP carrying the SLS for the service. Depending on the embodiment, this field may be omitted, and the PLP information to which the SLS is transmitted may be confirmed by combining information in the LMT described later and SLT bootstrap information.

@slsDestinationIpAddress属性、@slsDestinationUdpPort属性及び@slsSourceIpAddress属性はそれぞれ、当該サービスのSLSを伝達する伝送パケットのデスティネーションIPアドレス、デスティネーションUDPポート及びソースIPアドレスを示すことができる。これらは、SLSが伝達される伝送セッション(ROUTEセッション又はMMTPセッション)を識別することができる。これらはブートストラップ情報に含まれてもよい。   The @slsDestinationIpAddress attribute, the @slsDestinationUppPort attribute, and the @slsSourceIpAddress attribute can respectively indicate the destination IP address, the destination UDP port, and the source IP address of the transmission packet carrying the SLS of the service. These can identify the transmission session (ROUTE session or MMTP session) in which the SLS is carried. These may be included in the bootstrap information.

図4は、本発明の一実施例に係る、ROUTEで伝達されるUSBD及びS−TSIDを示す図である。   FIG. 4 is a diagram illustrating USBD and S-TSID transmitted by ROUTE according to an embodiment of the present invention.

図示されたUSBDの一実施例(t4010)は、bundleDescriptionルートエレメントを有することができる。bundleDescriptionルートエレメントは、userServiceDescriptionエレメントを有することができる。userServiceDescriptionエレメントは、1つのサービスに対するインスタンスであってもよい。   The illustrated USBD embodiment (t4010) may have a bundleDescription root element. The bundleDescription root element can have a userServiceDescription element. The userServiceDescription element may be an instance for one service.

userServiceDescriptionエレメントは、@globalServiceID属性、@serviceId属性、@serviceStatus属性、@fullMPDUri属性、@sTSIDUri属性、nameエレメント、serviceLanguageエレメント、capabilityCodeエレメント及び/又はdeliveryMethodエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   The userServiceDescription element includes an @globalServiceID attribute, an @serviceId attribute, an @serviceStatus attribute, an @fullMPDUri attribute, an @sTSIDURI attribute, a name element, a serviceLanguage element, and a capability element. Each field may be omitted depending on the value of the shown Use column, and a plurality of fields may exist.

@globalServiceID属性は、当該サービスのグローバルにユニークな(globally unique)識別子であり、ESGデータとリンクされる上で用いられてもよい(Service@globalServiceID)。@serviceId属性は、SLTの該当のサービスエントリーに対応するリファレンスであり、SLTのサービスID情報と同一であってもよい。@serviceStatus属性は、当該サービスの状態を示すことができる。このフィールドは、当該サービスがアクティブ状態かインアクティブ(inactive)状態かを示すことができる。   The @globalServiceID attribute is a globally unique identifier of the service, and may be used upon linking with ESG data (Service @ globalServiceID). The @serviceId attribute is a reference corresponding to the corresponding service entry of the SLT, and may be the same as the service ID information of the SLT. The @serviceStatus attribute can indicate the status of the service. This field can indicate whether the service is in an active state or an inactive state.

@fullMPDUri属性は、当該サービスのMPDフラグメントをリファレンシングすることができる。MPDは、前述したように、放送網又はブロードバンドを介して伝達されるサービスコンポーネントに対する再生デスクリプションを提供することができる。@sTSIDUri属性は、当該サービスのS−TSIDフラグメントをリファレンシングすることができる。S−TSIDは、前述したように、当該サービスを運搬する伝送セッションへのアクセスに関連したパラメータを提供することができる。   The @fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD can provide a playback description for a service component transmitted via a broadcast network or broadband. The @sTSIDUri attribute can refer to the S-TSID fragment of the service. The S-TSID can provide parameters related to access to the transmission session carrying the service, as described above.

nameエレメントは、当該サービスの名を提供することができる。このエレメントは、@lang属性をさらに含むことができるが、このフィールドは、nameエレメントが提供する名の言語を示すことができる。serviceLanguageエレメントは、当該サービスの利用可能な(available)言語を示すことができる。すなわち、このエレメントは、当該サービスを提供できる言語を羅列することができる。   The name element can provide the name of the service. This element can further include an @lang attribute, but this field can indicate the language of the name provided by the name element. The serviceLanguage element can indicate an available language of the service. That is, this element can enumerate languages that can provide the service.

capabilityCodeエレメントは、当該サービスを有意に再生する上で必要な受信機側のキャパビリティ又はキャパビリティグループ情報を示すことができる。これらの情報は、サービスアナウンスメント(announccement)から提供されるキャパビリティ情報フォーマットと互換されてもよい。   The capabilityCode element can indicate the capability or capability group information on the receiver side that is necessary for significantly reproducing the service. These pieces of information may be compatible with a capability information format provided by a service announcement.

deliveryMethodエレメントは、当該サービスの放送網又はブロードバンドを介してアクセスされるコンテンツに対して、伝送関連情報を提供することができる。deliveryMethodエレメントは、broadcastAppServiceエレメント及び/又はunicastAppServiceエレメントを含むことができる。このエレメントはそれぞれ、basePatternエレメントを下位エレメントとして有することができる。   The deliveryMethod element can provide transmission-related information for content accessed via the broadcast network or broadband of the service. The deliveryMethod element can include a broadcastAppService element and / or a unicastAppService element. Each of these elements can have a basePattern element as a lower element.

broadcastAppServiceエレメントは放送網を介して伝達されるDASHリプレゼンテーションに対する伝送関連情報を含むことができる。このDASHリプレゼンテーションは、当該サービスメディアプレゼンテーションの全てのピリオド(Period)にわたるメディアコンポーネントを含むことができる。   The broadcastAppService element can include transmission related information for the DASH representation transmitted over the broadcast network. This DASH representation can include media components that span all the periods of the service media presentation.

このエレメントのbasePatternエレメントは、受信機がセグメントURLとマッチするために用いるキャラクタパターンを示すことができる。これは、DASHクライアントが該当のリプレゼンテーションのセグメントを要求するために用いることができる。マッチされるということは、該当のメディアセグメントが放送網を介して伝達されるということを暗示することができる。   The basePattern element of this element can indicate the character pattern that the receiver uses to match the segment URL. This can be used by a DASH client to request a segment of the corresponding representation. Matching can imply that the corresponding media segment is transmitted over the broadcast network.

unicastAppServiceエレメントは、ブロードバンドを介して伝達されるDASHリプレゼンテーションに対する伝送関連情報を含むことができる。このDASHリプレゼンテーションは、該当のサービスメディアプレゼンテーションの全ピリオド(Period)にわたるメディアコンポーネントを含むことができる。   The unicastAppService element can contain transmission related information for DASH representations transmitted over broadband. This DASH representation may include media components that span all periods of the service media presentation of interest.

このエレメントのbasePatternエレメントは、受信機がセグメントURLとマッチするために用いるキャラクタパターンを示すことができる。これは、DASHクライアントが該当のリプレゼンテーションのセグメントを要求するために用いることができる。マッチされるということは、当該メディアセグメントがブロードバンドを介して伝達されるということを暗示することができる。   The basePattern element of this element can indicate the character pattern that the receiver uses to match the segment URL. This can be used by a DASH client to request a segment of the corresponding representation. Matching can imply that the media segment is transmitted over broadband.

図示のS−TSIDの一実施例(t4020)は、S−TSIDルートエレメントを有することができる。S−TSIDルートエレメントは、@serviceId属性及び/又はRSエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   One embodiment of the S-TSID shown (t4020) may have an S-TSID root element. The S-TSID root element can include an @serviceId attribute and / or an RS element. Each field may be omitted depending on the value of the shown Use column, and a plurality of fields may exist.

@serviceId属性は、当該サービスの識別子であり、USBD/USDの当該サービスをリファレンシングすることができる。RSエレメントは、当該サービスのサービスコンポーネントが伝達されるROUTEセッションに関する情報を記述することができる。このようなROUTEセッションの個数によって、このエレメントは複数個存在してもよい。RSエレメントは、@bsid属性、@sIpAddr属性、@dIpAddr属性、@dport属性、@PLPID属性及び/又はLSエレメントをさらに含むことができる。   The @serviceId attribute is an identifier of the service, and can refer to the USBD / USD service. The RS element can describe information about a ROUTE session to which a service component of the service is transmitted. There may be a plurality of such elements depending on the number of such ROUTE sessions. The RS element may further include an @bsid attribute, an @sIpAddr attribute, an @dIpAddr attribute, an @dport attribute, an @PLPID attribute, and / or an LS element.

@bsid属性は、当該サービスのサービスコンポーネントが伝達されるブロードキャストストリームの識別子であってもよい。このフィールドが省略された場合、デフォルトブロードキャストストリームは、当該サービスのSLSを伝達するPLPを含むブロードキャストストリームであってもよい。このフィールドの値は、SLTの@bsid属性と同じ値であってもよい。   The @bsid attribute may be an identifier of a broadcast stream to which a service component of the service is transmitted. If this field is omitted, the default broadcast stream may be a broadcast stream including a PLP that carries the SLS of the service. The value of this field may be the same value as the @bsid attribute of SLT.

@sIpAddr属性、@dIpAddr属性及び@dport属性はそれぞれ、該当のROUTEセッションのソースIPアドレス、デスティネーションIPアドレス及びデスティネーションUDPポートを示すことができる。このフィールドが省略される場合、デフォルト値は、該当のSLSを伝達する、すなわち、該当のS−TSIDを伝達している現在の、ROUTEセッションのソースIPアドレス、デスティネーションIPアドレス及びデスティネーションUDPポート値であってもよい。現在ROUTEセッションでない、当該のサービスのサービスコンポーネントを伝達する他のROUTEセッションに対しては、本フィールドが省略されなくてもよい。   The @sIpAddr attribute, @dIpAddr attribute, and @dport attribute may indicate the source IP address, destination IP address, and destination UDP port of the corresponding ROUTE session, respectively. If this field is omitted, the default value carries the corresponding SLS, i.e., the current IP address, destination IP address and destination UDP port of the current ROUTE session carrying the relevant S-TSID. It may be a value. This field may not be omitted for other ROUTE sessions that carry the service component of the service that is not currently a ROUTE session.

@PLPID属性は、該当のROUTEセッションのPLP ID情報を示すことができる。このフィールドが省略される場合、デフォルト値は、該当のS−TSIDが伝達されている現在PLPのPLP ID値であってもよい。実施例によって、このフィールドは省略され、該当のROUTEセッションのPLP ID情報は、後述するLMT内の情報と、RSエレメントのIPアドレス/UDPポート情報とを組み合わせて確認してもよい。   The @PLPID attribute can indicate PLP ID information of the corresponding ROUTE session. When this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding S-TSID is transmitted. Depending on the embodiment, this field may be omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining the information in the LMT described later and the IP address / UDP port information of the RS element.

LSエレメントは、当該サービスのサービスコンポーネントが伝達されるLCTチャネルに関する情報を記述することができる。このようなLCTチャネルの個数によって、このエレメントは複数個存在してもよい。LSエレメントは、@tsi属性、@PLPID属性、@bw属性、@startTime属性、@endTime属性、SrcFlowエレメント及び/又はRepairFlowエレメントを含むことができる。   The LS element can describe information on the LCT channel on which the service component of the service is transmitted. There may be a plurality of such elements depending on the number of such LCT channels. The LS element may include an @tsi attribute, an @PLPID attribute, an @bw attribute, an @startTime attribute, an @endTime attribute, an SrcFlow element, and / or a RepairFlow element.

@tsi属性は、該当のLCTチャネルのtsi情報を示すことができる。これによって、当該サービスのサービスコンポーネントが伝達されるLCTチャネルを識別することができる。@PLPID属性は、該当のLCTチャネルのPLP ID情報を示すことができる。実施例によって、このフィールドは省略されてもよい。@bw属性は、該当のLCTチャネルの最大の帯域幅を示すことができる。@startTime属性は、該当のLCTセッションのスタートタイムを示し、@endTime属性は、該当のLCTチャネルのエンドタイムを示すことができる。   The @tsi attribute can indicate tsi information of the corresponding LCT channel. As a result, the LCT channel to which the service component of the service is transmitted can be identified. The @PLPID attribute can indicate PLP ID information of the corresponding LCT channel. Depending on the embodiment, this field may be omitted. The @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel. The @startTime attribute can indicate the start time of the corresponding LCT session, and the @endTime attribute can indicate the end time of the corresponding LCT channel.

SrcFlowエレメントは、ROUTEのソースフローについて記述することができる。ROUTEのソースプロトコルは、デリバリオブジェクトを伝送するために用いられ、1つのROUTEセッション内で少なくとも1つのソースフローを設定(establish)することができる。これらのソースフローは、関連したオブジェクトをオブジェクトフローとして伝達することができる。   The SrcFlow element can describe the source flow of ROUTE. The ROUTE source protocol is used to carry delivery objects and can establish at least one source flow within one ROUTE session. These source flows can communicate related objects as object flows.

RepairFlowエレメントは、ROUTEのリペアフローについて記述することができる。ソースプロトコルによって伝達されるデリバリオブジェクトは、FEC(Forward Error Correction)によって保護されてもよいが、リペアプロトコルは、このようなFECプロテクションを可能にするFECフレームワーク(framework)を定義することができる。   The RepairFlow element can describe the ROUTE repair flow. The delivery object conveyed by the source protocol may be protected by FEC (Forward Error Correction), but the repair protocol can define an FEC framework that enables such FEC protection.

図5は、本発明の一実施例に係る、MMTで伝達されるUSBDを示す図である。   FIG. 5 is a diagram illustrating USBD transmitted by MMT according to an embodiment of the present invention.

図示されたUSBDの一実施例は、bundleDescriptionルートエレメントを有することができる。bundleDescriptionルートエレメントは、userServiceDescriptionエレメントを有することができる。userServiceDescriptionエレメントは、1つのサービスに対するインスタンスであってもよい。   One embodiment of the illustrated USBD may have a bundleDescription root element. The bundleDescription root element can have a userServiceDescription element. The userServiceDescription element may be an instance for one service.

userServiceDescriptionエレメントは、@globalServiceID属性、@serviceId属性、Nameエレメント、serviceLanguageエレメント、contentAdvisoryRatingエレメント、Channelエレメント、mpuComponentエレメント、routeComponentエレメント、broadbandComponentエレメント及び/又はComponentInfoエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   The userServiceDescription element includes an @globalServiceID attribute, an @serviceId attribute, a Name element, a serviceLanguage element, a contentAdvisoryRating element, a Channel element, a mumpcomponent element, a component element, a component element, a component element, a component element, Each field may be omitted depending on the value of the shown Use column, and a plurality of fields may exist.

@globalServiceID属性、@serviceId属性、Nameエレメント及び/又はserviceLanguageエレメントは、前述したROUTEで伝達されるUSBDの該当のフィールドと同一であってもよい。contentAdvisoryRatingエレメントは、当該サービスのコンテンツアドバイザリ(advisory)レーティングを示すことができる。これらの情報は、サービスアナウンスメント(announccement)から提供されるコンテンツアドバイザリレーティング情報フォーマットと互換されてもよい。Channelエレメントは、当該サービスに関連した情報を含むことができる。このエレメントの詳細な内容については後述する。   The @globalServiceID attribute, the @serviceId attribute, the Name element, and / or the serviceLanguage element may be the same as the corresponding field of the USBD transmitted by the ROUTE described above. The contentAdvisoryRating element can indicate the content advisory rating of the service. These pieces of information may be compatible with a content advisory rating information format provided from a service announcement. The Channel element can contain information related to the service. The detailed contents of this element will be described later.

mpuComponentエレメントは、当該サービスのMPUとして伝達されるサービスコンポーネントに関するデスクリプションを提供することができる。このエレメントは、@mmtPackageId属性及び/又は@nextMmtPackageId属性をさらに含むことができる。@mmtPackageId属性は、当該サービスのMPUとして伝達されるサービスコンポーネントのMMTパッケージ(Package)をリファレンシングすることができる。@nextMmtPackageId属性は、時間上、@mmtPackageId属性がリファレンシングするMMTパッケージの次に用いられるMMTパッケージをリファレンシングすることができる。このエレメントの情報を用いてMPテーブルをリファレンシングすることができる。   The mpuComponent element can provide a description regarding the service component transmitted as the MPU of the service. This element can further include an @mmtPackageId attribute and / or an @nextMmtPackageId attribute. The @mmtPackageId attribute can refer to the MMT package (Package) of the service component transmitted as the MPU of the service. The @nextMmtPackageId attribute can refer to an MMT package that is used next to the MMT package that the @mmtPackageId attribute references over time. The MP table can be referred to using the information of this element.

routeComponentエレメントは、ROUTEで伝達される当該サービスのサービスコンポーネントに関するデスクリプションを含むことができる。リニアサービスコンポーネントがMMTプロトコルで伝達される場合であっても、NRTデータは、前述したように、ROUTEプロトコルによって伝達されてもよい。このエレメントはこのようなNRTデータに関する情報を記述することができる。このエレメントの詳細な内容については後述する。   The routeComponent element can include a description related to the service component of the service conveyed by the ROUTE. Even when the linear service component is transmitted using the MMT protocol, the NRT data may be transmitted using the ROUTE protocol as described above. This element can describe information about such NRT data. The detailed contents of this element will be described later.

broadbandComponentエレメントは、ブロードバンドで伝達される当該サービスのサービスコンポーネントに関するデスクリプションを含むことができる。ハイブリッドサービスデリバリにおいて、一つのサービスの一部のサービスコンポーネント又はその他のファイルは、ブロードバンドを介して伝達されてもよい。このエレメントは、このようなデータに関する情報を記述することができる。このエレメントは、@fullMPDUri属性をさらに含むことができる。この属性は、ブロードバンドで伝達されるサービスコンポーネントについて記述するMPDをリファレンシングすることができる。ハイブリッドサービスデリバリの他にも、トンネル内の走行などによって放送信号が弱くなる場合において、放送網−ブロードバンド間のハンドオフ(handoff)を支援するためにこのエレメントが用いられてもよい。放送信号が弱くなる場合、ブロードバンドを介してサービスコンポーネントを取得するが、再び放送信号が強くなると、放送網を介してサービスコンポーネントを取得し、サービスの連続性を保障することができる。   The broadcastComponent element can contain a description for the service component of the service that is transmitted in broadband. In hybrid service delivery, some service components or other files of a service may be communicated via broadband. This element can describe information about such data. This element can further include an @fullMPDUri attribute. This attribute can refer to an MPD that describes a service component delivered over broadband. In addition to hybrid service delivery, this element may be used to support a handoff between the broadcast network and the broadband when the broadcast signal becomes weak due to traveling in a tunnel or the like. When the broadcast signal becomes weak, the service component is acquired via broadband. However, when the broadcast signal becomes strong again, the service component can be acquired via the broadcast network to ensure continuity of service.

ComponentInfoエレメントは、当該サービスのサービスコンポーネントに関する情報を含むことができる。サービスのサービスコンポーネントの個数によって、このエレメントは複数個存在してもよい。このエレメントは、各サービスコンポーネントのタイプ、ロール(role)、名、識別子、プロテクションの有無などの情報を記述することができる。このエレメントの詳細な情報については後述する。   The ComponentInfo element can include information regarding the service component of the service. There may be a plurality of elements depending on the number of service components of the service. This element can describe information such as the type, role, name, identifier, and presence / absence of protection of each service component. Detailed information on this element will be described later.

前述したChannelエレメントは、@serviceGenre属性、@serviceIcon属性及び/又はServiceDescriptionエレメントをさらに含むことができる。@serviceGenre属性は、当該サービスのジャンルを示し、@serviceIcon属性は、当該サービスを代表するアイコン(icon)のURL情報を含むことができる。ServiceDescriptionエレメントは、当該サービスのサービスデスクリプションを提供するが、このエレメントは、@serviceDescrText属性及び/又は@serviceDescrLang属性をさらに含むことができる。これらの属性はそれぞれ、当該サービスデスクリプションのテキスト及びそのテキストに用いられる言語を示すことができる。   The above-described Channel element may further include an @serviceGenre attribute, an @serviceIcon attribute, and / or a ServiceDescription element. The @serviceGenre attribute indicates the genre of the service, and the @serviceIcon attribute can include URL information of an icon (icon) representing the service. The ServiceDescription element provides a service description for the service, but this element may further include an @serviceDescrText attribute and / or an @serviceDescrLang attribute. Each of these attributes can indicate the text of the service description and the language used for the text.

前述したrouteComponentエレメントは、@sTSIDUri属性、@sTSIDDestinationIpAddress属性、@sTSIDDestinationUdpPort属性、@sTSIDSourceIpAddress属性、@sTSIDMajorProtocolVersion属性、及び/又は@sTSIDMinorProtocolVersion属性をさらに含むことができる。   The routeComponent element described above may include an @sTSIDUri attribute, an @sTSIDDestinationIpAddress attribute, an @sTSIDDestinationUppPort attribute, an @sTSIDSourceIpAddress attribute, an @sTSIDMajorProtocolVersion attribute, and / or an @sID attribute.

@sTSIDUri属性は、S−TSIDフラグメントをリファレンシングすることができる。このフィールドは、前述したROUTEで伝達されるUSBDの該当のフィールドと同一であってもよい。このS−TSIDは、ROUTEで伝達されるサービスコンポーネントに対するアクセス関連情報を提供することができる。このS−TSIDは、MMTプロトコルによってリニアサービスコンポーネントが伝達される状況で、ROUTEプロトコルによって伝達されるNRTデータのために存在してもよい。   The @sTSIDUri attribute can refer to the S-TSID fragment. This field may be the same as the corresponding field of USBD transmitted by ROUTE described above. This S-TSID can provide access related information for the service component conveyed in ROUTE. This S-TSID may be present for NRT data conveyed by the ROUTE protocol in situations where the linear service component is conveyed by the MMT protocol.

@sTSIDDestinationIpAddress属性、@sTSIDDestinationUdpPort属性及び@sTSIDSourceIpAddress属性はそれぞれ、前述したS−TSIDを運搬する伝送パケットのデスティネーションIPアドレス、デスティネーションUDPポート、ソースIPアドレスを示すことができる。すなわち、これらのフィールドは、前述したS−TSIDを運搬する伝送セッション(MMTPセッション又はROUTEセッション)を識別することができる。   The @sTSIDDestinationIpAddress attribute, the @sTSIDDestinationUppPort attribute, and the @sTSIDSourceIpAddress attribute can respectively indicate the destination IP address, the destination UDP port, and the source IP address of the transmission packet carrying the S-TSID. That is, these fields can identify a transmission session (MMTP session or ROUTE session) that carries the S-TSID described above.

@sTSIDMajorProtocolVersion属性及び@sTSIDMinorProtocolVersion属性は、前述したS−TSIDを伝達するために用いられる伝送プロトコルのメジャーバージョンナンバー及びマイナーバージョンナンバーを示すことができる。   The @sTSIDMajorProtocolVersion attribute and the @sTSIDMinorProtocolVersion attribute can indicate a major version number and a minor version number of a transmission protocol used to convey the above-described S-TSID.

前述したComponentInfoエレメントは、@componentType属性、@componentRole属性、@componentProtectedFlag属性、@componentId属性及び/又は@componentName属性をさらに含むことができる。   The above-described ComponentInfo element can further include an @componentType attribute, an @componentRole attribute, an @componentProtectedFlag attribute, an @componentId attribute, and / or an @componentName attribute.

@componentType属性は、当該コンポーネントのタイプを示すことができる。例えば、この属性は、当該コンポーネントがオーディオ、ビデオ、クローズドキャプションコンポーネントのいずれであるかを示すことができる。@componentRole属性は、当該コンポーネントのロール(役割)を示すことができる。例えば、この属性は、当該コンポーネントがオーディオコンポーネントである場合、メインオーディオ、ミュージック、コメンタリなどのいずれであるかを示すことができる。該当のコンポーネントがビデオコンポーネントである場合、プライマリビデオであるかなどを示すことができる。当該コンポーネントがクローズドキャプションコンポーネントである場合、ノーマルキャプションてあるか又はイージーリーダー(easy reader)タイプであるかなどを示すことができる。   The @componentType attribute can indicate the type of the component. For example, this attribute can indicate whether the component is an audio, video, or closed caption component. The @componentRole attribute can indicate the role of the component. For example, when the component is an audio component, this attribute can indicate main audio, music, commentary, or the like. If the corresponding component is a video component, it can indicate whether it is a primary video or the like. If the component is a closed caption component, it can indicate whether it is a normal caption or an easy reader type.

@componentProtectedFlag属性は、当該サービスコンポーネントが保護されたか、例えば暗号化されたかを示すことができる。@componentId属性は、当該サービスコンポーネントの識別子を示すことができる。この属性の値は、このサービスコンポーネントに該当するMPテーブルのasset_id(アセットID)と同じ値であってもよい。@componentName属性は、当該サービスコンポーネントの名を示すことができる。   The @componentProtectedFlag attribute can indicate whether the service component is protected, eg, encrypted. The @componentId attribute can indicate an identifier of the service component. The value of this attribute may be the same value as asset_id (asset ID) of the MP table corresponding to this service component. The @componentName attribute can indicate the name of the service component.

図6は、本発明の一実施例に係るリンクレイヤ(Link Layer)動作を示す図である。   FIG. 6 is a diagram illustrating a link layer operation according to an embodiment of the present invention.

リンクレイヤは、フィジカルレイヤとネットワークレイヤとの間のレイヤであり得る。送信側では、ネットワークレイヤからフィジカルレイヤにデータを伝送し、受信側では、フィジカルレイヤからネットワークレイヤにデータを伝送することができる(t6010)。リンクレイヤの目的は、フィジカルレイヤによる処理のために全入力パケットタイプを1つのフォーマットに圧縮(abstracting)すること、及びまだ定義されていない入力パケットタイプに対する柔軟性(flexibility)及び将来の拡張可能性を保障することにあり得る。また、リンクレイヤは、入力パケットのヘッダーの不要な情報を圧縮するオプションを提供することによって、入力データが効率的に伝送されるようにすることができる。リンクレイヤのオーバーヘッドリダクション、エンカプセレーションなどの動作は、リンクレイヤプロトコルと呼ばれ、当該プロトコルによって生成されたパケットは、リンクレイヤパケットと呼ぶことができる。リンクレイヤは、パケットエンカプセレーション(packet encapsulation)、オーバーヘッドリダクション(Overhead Reduction)及び/又はシグナリング伝送(Signaling Transmission)などの機能を有することができる。   The link layer may be a layer between the physical layer and the network layer. On the transmitting side, data can be transmitted from the network layer to the physical layer, and on the receiving side, data can be transmitted from the physical layer to the network layer (t6010). The purpose of the link layer is to abstract all input packet types into one format for processing by the physical layer, and flexibility and future expandability for undefined input packet types. It is possible to ensure that. In addition, the link layer can efficiently transmit input data by providing an option to compress unnecessary information in the header of the input packet. Operations such as link layer overhead reduction and encapsulation are called link layer protocols, and packets generated by the protocols can be called link layer packets. The link layer may have functions such as packet encapsulation, overhead reduction, and / or signaling transmission (Signaling Transmission).

送信側基準で、リンクレイヤ(ALP)は、入力パケットに対してオーバーヘッドリダクション過程を行った後、それらをリンクレイヤパケットにエンカプセレーションすることができる。また、実施例によって、リンクレイヤは、オーバーヘッドリダクション過程を行わないで、リンクレイヤパケットにエンカプセレーションしてもよい。リンクレイヤプロトコルの使用によって、フィジカルレイヤ上でデータの伝送に対するオーバーヘッドを大きく減少させることができ、本発明に係るリンクレイヤプロトコルは、IPオーバーヘッドリダクション及び/又はMPEG−2TSオーバーヘッドリダクションを提供することができる。   On the sender side, the link layer (ALP) can perform an overhead reduction process on input packets and then encapsulate them into link layer packets. In some embodiments, the link layer may encapsulate the link layer packet without performing an overhead reduction process. Through the use of the link layer protocol, overhead for data transmission on the physical layer can be greatly reduced, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG-2TS overhead reduction. .

図示の、IPパケットが入力パケットとして入力される場合において(t6010)、リンクレイヤは、IPヘッダー圧縮、アダプテーション及び/又はエンカプセレーション過程を順に行うことができる。実施例によって、一部の過程は省略されてもよい。まず、RoHCモジュールでIPパケットヘッダー圧縮を行って不要なオーバーヘッドを減らし、アダプテーション過程によってコンテクスト情報を抽出し、これを帯域外で伝送することができる。IPヘッダー圧縮及びアダプテーション過程を総称して、IPヘッダー圧縮ということもできる。その後、エンカプセレーション過程を経てIPパケットをリンクレイヤパケットにエンカプセレーションすることができる。   When an IP packet is input as an input packet (t6010), the link layer can perform IP header compression, adaptation, and / or encapsulation processes in order. Depending on the embodiment, some processes may be omitted. First, IP packet header compression is performed by the RoHC module to reduce unnecessary overhead, and context information can be extracted through an adaptation process and transmitted out of band. The IP header compression and adaptation process can be collectively referred to as IP header compression. Thereafter, the IP packet can be encapsulated into a link layer packet through an encapsulation process.

MPEG2TSパケットが入力パケットとして入力される場合において、リンクレイヤは、TSパケットに対するオーバーヘッドリダクション及び/又はエンカプセレーション過程を順に行うことができる。実施例によって、一部の過程は省略されてもよい。オーバーヘッドリダクションにおいて、リンクレイヤは、シンクバイトの除去、ヌルパケットの削除及び/又は共通(common)ヘッダー除去(圧縮)を提供することができる。シンクバイト除去によってTSパケット当たりに1バイトのオーバーヘッドリダクションを提供することができる。受信側で再挿入可能な方式でヌルパケットの削除を行ってもよい。また、連続したヘッダー間の共通した情報を、受信側で復旧可能な方式で削除(圧縮)してもよい。各オーバーヘッドリダクション過程の一部は省略されてもよい。その後、エンカプセレーション過程を経てTSパケットをリンクレイヤパケッにエンカプセレーションすることができる。TSパケットのエンカプセレーションに対するリンクレイヤパケット構造は、他のタイプのパケットとは異なってもよい。   When an MPEG2 TS packet is input as an input packet, the link layer can sequentially perform overhead reduction and / or encapsulation processes on the TS packet. Depending on the embodiment, some processes may be omitted. In overhead reduction, the link layer may provide sync byte removal, null packet removal and / or common header removal (compression). Sync byte removal can provide 1 byte overhead reduction per TS packet. The null packet may be deleted by a re-insertable method on the receiving side. Further, common information between consecutive headers may be deleted (compressed) by a method that can be restored on the receiving side. A part of each overhead reduction process may be omitted. Thereafter, the TS packet can be encapsulated into a link layer packet through an encapsulation process. The link layer packet structure for encapsulation of TS packets may be different from other types of packets.

まず、IPヘッダー圧縮(IP Header Compression)について説明する。   First, IP header compression is described.

IPパケットは、固定されたヘッダーフォーマットを有するが、通信環境で必要な一部の情報がブロードキャスト環境では不要な場合がある。リンクレイヤプロトコルは、IPパケットのヘッダーを圧縮することによって、ブロードキャストオーバーヘッドを減らすメカニズムを提供することができる。   An IP packet has a fixed header format, but some information necessary in a communication environment may not be necessary in a broadcast environment. The link layer protocol can provide a mechanism to reduce broadcast overhead by compressing the header of the IP packet.

IPヘッダー圧縮は、ヘッダーコンプレッサ/デコンプレッサ及び/又はアダプテーションモジュールを含むことができる。IPヘッダーコンプレッサ(RoHCコンプレッサ)は、RoHC方式に基づいて各IPパケットヘッダーのサイズを減少させることができる。その後、アダプテーションモジュールは、コンテクスト情報を抽出し、各パケットストリームからシグナリング情報を生成することができる。受信機は、該当のパケットストリームに関連したシグナリング情報をパースし、コンテクスト情報をそのパケットストリームに付加(attach)することができる。RoHCデコンプレッサは、パケットヘッダーを復旧して元来のIPパケットを再構成することができる。以下、IPヘッダー圧縮とは、ヘッダーコンプレッサによるIPヘッダー圧縮のみを意味してもよく、IPヘッダー圧縮とアダプテーションモジュールによるアダプテーション過程とを合わせた概念を意味してもよい。デコンプレッシング(decompressing)に対しても同様である。   IP header compression may include a header compressor / decompressor and / or an adaptation module. An IP header compressor (RoHC compressor) can reduce the size of each IP packet header based on the RoHC scheme. The adaptation module can then extract context information and generate signaling information from each packet stream. The receiver can parse the signaling information related to the corresponding packet stream and attach the context information to the packet stream. The RoHC decompressor can recover the packet header and reconstruct the original IP packet. Hereinafter, the IP header compression may mean only the IP header compression by the header compressor, or may mean a concept that combines the IP header compression and the adaptation process by the adaptation module. The same applies to decompressing.

以下、アダプテーション(Adaptation)について説明する。   Hereinafter, adaptation will be described.

単方向リンク上の伝送において、受信機がコンテクストの情報を有していないと、デコンプレッサは完全なコンテクストを受信するまでは、受信したパケットヘッダーを復旧することができない。これは、チャネル変更遅延及びターンオンディレー(turn−on delay)を招きうる。そこで、アダプテーション機能を用いて、コンプレッサ/デコンプレッサ間のコンフィギュレーションパラメータとコンテクスト情報を帯域外で伝送することができる。アダプテーションファンクション(function)は、コンテクスト情報及び/又はコンフィギュレーションパラメータを用いてリンクレイヤシグナリングを生成(construction)することができる。アダプテーションファンクションは、以前(previous)のコンフィギュレーションパラメータ及び/又はコンテクスト情報を用いて、それぞれのフィジカルフレームを介して周期的にリンクレイヤシグナリングを伝送することができる。   In transmission over a unidirectional link, if the receiver does not have context information, the decompressor cannot recover the received packet header until it receives the complete context. This can lead to channel change delay and turn-on delay. Therefore, using the adaptation function, configuration parameters and context information between the compressor / decompressor can be transmitted out of band. An adaptation function may generate link layer signaling using context information and / or configuration parameters. The adaptation function may transmit link layer signaling periodically through each physical frame using previous configuration parameters and / or context information.

圧縮されたIPパケットからコンテクスト情報を抽出するが、アダプテーションモードによって様々な方法を用いることができる。   Although context information is extracted from the compressed IP packet, various methods can be used depending on the adaptation mode.

モード#1は、圧縮されたパケットストリームに対していかなる動作も行わないモードであり、アダプテーションモジュールがバッファとして動作するモードであるといえる。   Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and it can be said that the adaptation module operates as a buffer.

モード#2は、圧縮されたパケットストリームのうち、IRパケットを検出してコンテクスト情報(スタティックチェーン)を抽出するモードであってもよい。抽出の後、IRパケットはIR−DYNパケットに変換され、IR−DYNパケットを元来のIRパケットに代えてパケットストリーム内で同じ順序で伝送することができる。   Mode # 2 may be a mode in which IR packets are detected in the compressed packet stream to extract context information (static chain). After extraction, the IR packet is converted to an IR-DYN packet, and the IR-DYN packet can be transmitted in the same order in the packet stream in place of the original IR packet.

モード#3(t6020)は、圧縮されたパケットストリームのうち、IR及びIR−DYNパケットを検出し、コンテクスト情報を抽出するモードであってもよい。IRパケットからスタティックチェーン及びダイナミックチェーンを、IR−DYNパケットからダイナミックチェーンを抽出することができる。抽出の後、IR及びIR−DYNパケットを一般圧縮パケットに変換することができる。変換されたパケットを、元来のIR及びIR−DYNパケットに代えてパケットストリーム内で同じ順序で伝送することができる。   Mode # 3 (t6020) may be a mode in which IR and IR-DYN packets are detected from the compressed packet stream and context information is extracted. A static chain and a dynamic chain can be extracted from the IR packet, and a dynamic chain can be extracted from the IR-DYN packet. After extraction, IR and IR-DYN packets can be converted into general compressed packets. The transformed packets can be transmitted in the same order in the packet stream instead of the original IR and IR-DYN packets.

各モードで、コンテクスト情報を抽出して残ったパケットは、圧縮されたIPパケットのためのリンクレイヤパケット構造によってエンカプセレーションして伝送することができる。コンテクスト情報は、リンクレイヤシグナリングであり、シグナリング情報のためのリンクレイヤパケット構造によってエンカプセレーションして伝送することができる。   In each mode, the packet remaining after extracting the context information can be encapsulated and transmitted by the link layer packet structure for the compressed IP packet. The context information is link layer signaling, which can be encapsulated and transmitted by a link layer packet structure for signaling information.

抽出されたコンテクスト情報は、RDT(RoHC−U Description Table)に含めてRoHCパケットフローとは別に伝送することができる。コンテクスト情報は、他のシグナリング情報と共に特定(specific)フィジカルデータ経路で伝送することができる。特定フィジカルデータ経路とは、実施例によって、一般PLPのうちの一つを意味することもでき、LLS(Low Level Signaling)が伝達されるPLPを意味することもでき、指定された(dedicated)PLPであってもよく、L1シグナリングパス(path)を意味することもできる。ここで、RDTは、コンテクスト情報(スタティックチェーン及び/又はダイナミックチェーン)及び/又はヘッダーコンプレッションに関連した情報を含むシグナリング情報であってもよい。実施例によって、RDTは、コンテクスト情報が変わる度に伝送されてもよい。また、実施例によって、RDTは、毎フィジカルフレームで伝送されてもよい。毎フィジカルフレームでRDTを伝送するために、以前(previous)のRDTが再利用(re−use)され得る。   The extracted context information can be included in RDT (RoHC-U Description Table) and transmitted separately from the RoHC packet flow. Context information can be transmitted along with specific signaling information on a specific physical data path. The specific physical data path may refer to one of general PLPs or a PLP to which LLS (Low Level Signaling) is transmitted according to an embodiment, and is designated (dedicated) PLP. It may also mean the L1 signaling path. Here, the RDT may be signaling information including information related to context information (static chain and / or dynamic chain) and / or header compression. Depending on the embodiment, the RDT may be transmitted each time context information changes. Further, depending on the embodiment, the RDT may be transmitted in each physical frame. In order to transmit the RDT in each physical frame, the previous RDT can be re-used.

受信機はパケットストリームを取得する前に、最初のPLPを選択してSLT、RDT、LMTなどのシグナリング情報をまず取得することができる。受信機は、このシグナリング情報が取得されると、これらを組み合わせてサービス−IP情報−コンテクスト情報−PLP間のマッピングを取得することができる。すなわち、受信機は、どのようなサービスがどのIPストリームで伝送されるのか、どのようなPLPでどのようなIPストリームが伝達されるのか、などを知ることができ、また、PLPの当該コンテクスト情報を取得することができる。受信機は、特定のパケットストリームを運搬するPLPを選択してデコードすることができる。アダプテーションモジュールは、コンテクスト情報をパースし、これを圧縮されたパケットと組み合わせることができる。これによってパケットストリームを復旧することができ、これをRoHCデコンプレッサに伝達することができる。その後、デコンプレッションを始めることができる。このとき、受信機は、アダプテーションモードに応じて、IRパケットをディテクトして、最初に受信されたIRパケットからデコンプレッションを開始したり(モード1)、IR−DYNパケットをディテクトして、最初に受信されたIR−DYNパケットからデコンプレッションを開始したり(モード2)、どの一般の圧縮パケット(compressed packet)からデコンプレッションを開始してもよい(モード3)。   The receiver can first obtain signaling information such as SLT, RDT, LMT by selecting the first PLP before obtaining the packet stream. When this signaling information is acquired, the receiver can combine these to acquire a mapping between service-IP information-context information-PLP. That is, the receiver can know what service is transmitted in which IP stream, what IP stream is transmitted in which PLP, and the context information of the PLP. Can be obtained. The receiver can select and decode the PLP that carries a particular packet stream. The adaptation module can parse the context information and combine it with the compressed packet. As a result, the packet stream can be recovered and transmitted to the RoHC decompressor. After that, decompression can begin. At this time, the receiver detects the IR packet in accordance with the adaptation mode, starts the decompression from the first received IR packet (mode 1), detects the IR-DYN packet, Decompression may be started from the received IR-DYN packet (mode 2), or decompression may be started from any general compressed packet (mode 3).

以下、パケットエンカプセレーションについて説明する。   Hereinafter, packet encapsulation will be described.

リンクレイヤプロトコルは、IPパケット、TSパケットなどの全てのタイプのインプットパケットをリンクレイヤパケットにエンカプセレーションすることができる。これによって、フィジカルレイヤは、ネットワークレイヤのプロトコルタイプとは独立して1つのパケットフォーマットだけを処理すればいい(ここでは、ネットワークレイヤパケットの一種としてMPEG−2TSパケットを考慮)。各ネットワークレイヤパケット又は入力パケットは、ゼネリックリンクレイヤパケットのペイロードに変形される。   The link layer protocol can encapsulate all types of input packets such as IP packets and TS packets into link layer packets. Thus, the physical layer only needs to process one packet format independently of the network layer protocol type (in this case, an MPEG-2 TS packet is considered as a kind of network layer packet). Each network layer packet or input packet is transformed into a generic link layer packet payload.

パケットエンカプセレーション過程では分割(segmentation)を活用することができる。ネットワークレイヤパケットが大きすぎてフィジカルレイヤで処理できない場合、ネットワークレイヤパケットを2つ以上のセグメントに分割することができる。リンクレイヤパケットヘッダーは、送信側で分割を実行し、受信側で再結合を実行するためのフィールドを含むことができる。各セグメントを、元来の位置と同じ順序でリンクレイヤパケットにエンカプセレーションすることができる。   Segmentation can be used in the packet encapsulation process. If the network layer packet is too large to be processed by the physical layer, the network layer packet can be divided into two or more segments. The link layer packet header may include fields for performing splitting on the transmitting side and performing recombination on the receiving side. Each segment can be encapsulated into a link layer packet in the same order as the original location.

パケットエンカプセレーション過程で連鎖(concatenation)を活用することもできる。リンクレイヤパケットのペイロードが複数のネットワークレイヤパケットを含む程度にネットワークレイヤパケットが十分に小さい場合、連鎖を行ってもよい。リンクレイヤパケットヘッダーは、連鎖を実行するためのフィールドを含むことができる。連鎖の場合、各入力パケットを、元来の入力順序と同じ順序でリンクレイヤパケットのペイロードにエンカプセレーションすることができる。   Concatenation can also be used in the packet encapsulation process. If the network layer packet is sufficiently small that the payload of the link layer packet includes a plurality of network layer packets, chaining may be performed. The link layer packet header may include a field for performing chaining. In the case of chaining, each input packet can be encapsulated in the payload of the link layer packet in the same order as the original input order.

リンクレイヤパケットは、ヘッダー及びペイロードを含むことができ、ヘッダーは、ベースヘッダー、追加(additional)ヘッダー及び/又はオプショナルヘッダーを含むことができる。追加ヘッダーは、連鎖又は分割などの状況によってさらに追加することができるが、追加ヘッダーには状況に応じて、必要なフィールドを含めることができる。また、追加的な情報の伝達のためにオプショナルヘッダーをさらに追加することもできる。それぞれのヘッダー構造は既に定義されていてもよい。前述したように、入力パケットがTSパケットである場合には、他のパケットとは異なるリンクレイヤヘッダー構造を用いることができる。   The link layer packet can include a header and a payload, and the header can include a base header, an additional header, and / or an optional header. Additional headers can be further added depending on the situation such as chaining or splitting, but the additional header can include necessary fields depending on the situation. In addition, an optional header can be added to convey additional information. Each header structure may already be defined. As described above, when the input packet is a TS packet, a link layer header structure different from other packets can be used.

以下、リンクレイヤシグナリングについて説明する。   Hereinafter, link layer signaling will be described.

リンクレイヤシグナリングは、IPレイヤよりも下位レベルで動作することができる。受信側では、LLS、SLT、SLSなどのIPレベルシグナリングよりもリンクレイヤシグナリングを先に取得することができる。このため、リンクレイヤシグナリングをセッション設定(establishment)の前に取得することができる。   Link layer signaling can operate at a lower level than the IP layer. On the receiving side, link layer signaling can be acquired earlier than IP level signaling such as LLS, SLT, and SLS. For this reason, link layer signaling can be obtained before session establishment.

リンクレイヤシグナリングには、インターナルリンクレイヤシグナリングとエクスターナルリンクレイヤシグナリングがあり得る。インターナルリンクレイヤシグナリングは、リンクレイヤで生成されたシグナリング情報を意味することができる。前述したRDT又は後述するLMTなどがこれに当たる。エクスターナルリンクレイヤシグナリングは、外部のモジュール又は外部のプロトコル、上位レイヤから伝達されたシグナリング情報であってもよい。リンクレイヤは、リンクレイヤシグナリングをリンクレイヤパケットにエンカプセレーションして伝達することができる。リンクレイヤシグナリングのためのリンクレイヤパケット構造(ヘッダー構造)を定義することができ、この構造によって、リンクレイヤシグナリング情報をエンカプセレーションすることができる。   Link layer signaling can include internal link layer signaling and external link layer signaling. Internal link layer signaling may refer to signaling information generated at the link layer. The RDT mentioned above or the LMT described later corresponds to this. The external link layer signaling may be signaling information transmitted from an external module, an external protocol, or an upper layer. The link layer may encapsulate and transmit link layer signaling into link layer packets. A link layer packet structure (header structure) for link layer signaling can be defined, and the link layer signaling information can be encapsulated by this structure.

図7は、本発明の一実施例に係るLMT(Link Mapping Table)を示す図である。   FIG. 7 is a diagram illustrating an LMT (Link Mapping Table) according to an embodiment of the present invention.

LMTは、PLPで運搬される上位レイヤセッションのリストを提供することができる。また、LMTは、上位レイヤセッションを伝達するリンクレイヤパケットをプロセシングするための追加的な情報を提供することができる。ここで、上位レイヤセッションは、マルチキャスト(multicast)と呼ぶこともできる。LMTから、特定のPLPを介していかなるIPストリーム、いかなる伝送セッションが伝送されているかに関する情報を取得することができる。逆に、特定の伝送セッションがどのPLPで伝達されるかに関する情報も取得することができる。   The LMT can provide a list of higher layer sessions carried by the PLP. The LMT can also provide additional information for processing link layer packets carrying higher layer sessions. Here, the upper layer session can also be referred to as multicast. From the LMT, it is possible to obtain information regarding what IP stream and what transmission session is being transmitted via a specific PLP. Conversely, information on which PLP a particular transmission session is carried on can also be obtained.

LMTは、LLSを運搬するものと識別されたいかなるPLPでも伝達可能である。ここで、LLSが伝達されるPLPは、フィジカルレイヤのL1ディテールシグナリング情報のLLSフラグによって識別され得る。LLSフラグは、それぞれのPLPに対して、当該PLPでLLSが伝達されるか否かを示すフラグフィールドであってもよい。ここで、L1ディテールシグナリング情報は、後述するPLS2データに該当してもよい。   The LMT can transmit any PLP identified as carrying LLS. Here, the PLP to which the LLS is transmitted can be identified by the LLS flag of the physical layer L1 detail signaling information. The LLS flag may be a flag field indicating whether or not LLS is transmitted by the PLP to each PLP. Here, the L1 detail signaling information may correspond to PLS2 data described later.

すなわち、LMTは、LLSと共に、同じPLPで伝達され得る。それぞれのLMTは、前述したように、PLPとIPアドレス/ポートとの間のマッピングを記述することができる。前述したように、LLSはSLTを含むことができ、LMTが記述するこのIPアドレス/ポートは、当該LMTと同じPLPで伝達されるSLTが記述する、あらゆる(any)サービスと関連するあらゆる(any)IPアドレス/ポートであってもよい。   That is, the LMT can be transmitted in the same PLP along with the LLS. Each LMT can describe the mapping between the PLP and the IP address / port as described above. As described above, an LLS can include an SLT, and this IP address / port described by the LMT is any associated with any service described by the SLT carried on the same PLP as the LMT. IP address / port.

実施例によって、前述したSLT、SLS等におけるPLP識別子情報を用いて、SLT、SLSが示す特定伝送セッションがどのPLPで伝送されているかに関する情報を確認することができる。   According to the embodiment, by using the PLP identifier information in the above-described SLT, SLS, etc., it is possible to confirm information related to which PLP the specific transmission session indicated by the SLT, SLS is transmitted.

他の実施例によって、前述したSLT、SLS等におけるPLP識別子情報は省略され、SLT、SLSが示す特定伝送セッションに対するPLP情報は、LMT内の情報を参照することによって確認することもできる。この場合、受信機は、LMTと他のIPレベルシグナリング情報とを組み合わせて、所望のPLPを識別することができる。この実施例においても、SLT、SLS等におけるPLP情報は省略されず、SLT、SLS等に残っていてもよい。   According to another embodiment, the PLP identifier information in the above-described SLT, SLS, etc. is omitted, and the PLP information for a specific transmission session indicated by the SLT, SLS can be confirmed by referring to the information in the LMT. In this case, the receiver can combine the LMT and other IP level signaling information to identify the desired PLP. Also in this embodiment, PLP information in SLT, SLS, etc. is not omitted and may remain in SLT, SLS, etc.

同図の実施例に係るLMTは、signaling_typeフィールド、PLP_IDフィールド、num_sessionフィールド及び/又はそれぞれのセッションに関する情報を含むことができる。同図の実施例のLMTは、1つのPLPに対して、そのPLPで伝送されるIPストリームを記述しているが、実施例によって、LMTにPLPループを追加し、複数個のPLPに関する情報を記述してもよい。この場合、LMTは、前述したように、共に伝達されるSLTが記述するあらゆるサービスと関連するあらゆるIPアドレス/ポートに対するPLPを、PLPループに記述することができる。   The LMT according to the embodiment of the figure may include a signaling_type field, a PLP_ID field, a num_session field, and / or information on each session. The LMT of the embodiment in the figure describes an IP stream transmitted by the PLP for one PLP. However, according to the embodiment, a PLP loop is added to the LMT, and information on a plurality of PLPs is displayed. May be described. In this case, the LMT can describe the PLP for any IP address / port associated with any service described by the SLT communicated together in the PLP loop, as described above.

signaling_typeフィールドは、当該テーブルによって伝達されるシグナリング情報のタイプを示すことができる。LMTに対するsignaling_typeフィールドの値は、0x01に設定することができる。signaling_typeフィールドは省略されてもよい。PLP_IDフィールドは、記述しようとする対象PLPを識別することができる。PLPループが用いられる場合、それぞれのPLP_IDフィールドは、それぞれの対象PLPを識別することができる。PLP_IDフィールドからはPLPループ内に含まれてもよい。後述するPLP_IDフィールドは、PLPループにおける一つのPLPに対する識別子であり、以下で説明するフィールドは、その当該PLPに対するフィールドであってもよい。   The signaling_type field can indicate the type of signaling information conveyed by the table. The value of the signaling_type field for the LMT can be set to 0x01. The signaling_type field may be omitted. The PLP_ID field can identify the target PLP to be described. If a PLP loop is used, each PLP_ID field can identify each target PLP. From the PLP_ID field, it may be included in the PLP loop. A PLP_ID field which will be described later is an identifier for one PLP in the PLP loop, and a field described below may be a field for the PLP.

num_sessionフィールドは、当該PLP_IDフィールドによって識別されるPLPで伝達される上位レイヤセッションの個数を示すことができる。num_sessionフィールドが示す個数によって、各セッションに関する情報が含まれてもよい。この情報は、src_IP_addフィールド、dst_IP_addフィールド、src_UDP_portフィールド、dst_UDP_portフィールド、SID_flagフィールド、compressed_flagフィールド、SIDフィールド及び/又はcontext_idフィールドを含むことができる。   The num_session field can indicate the number of upper layer sessions transmitted by the PLP identified by the PLP_ID field. Information regarding each session may be included depending on the number indicated by the num_session field. This information may include a src_IP_add field, a dst_IP_add field, a src_UDP_port field, a dst_UDP_port field, a SID_flag field, a compressed_flag field, a SID field and / or a context_id field.

src_IP_addフィールド、dst_IP_addフィールド、src_UDP_portフィールド及びdst_UDP_portフィールドは、当該PLP_IDフィールドによって識別されるPLPで伝達される上位レイヤセッションのうち、当該伝送セッションに対するソースIPアドレス、デスティネーションIPアドレス、ソースUDPポート、デスティネーションUDPポートを示すことができる。   The src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are a source IP address, a destination IP address, a source UDP port, and a destination for the transmission session among upper layer sessions transmitted by the PLP identified by the PLP_ID field. A UDP port can be indicated.

SID_flagフィールドは、当該伝送セッションを伝達するリンクレイヤパケットがそのオプショナルヘッダーにSIDフィールドを有するか否かを示すことができる。上位レイヤセッションを伝達するリンクレイヤパケットは、そのオプショナルヘッダーにSIDフィールドを有することができ、そのSIDフィールドの値は後述するLMT内のSIDフィールドと同一であってもよい。   The SID_flag field can indicate whether a link layer packet carrying the transmission session has a SID field in its optional header. A link layer packet carrying an upper layer session can have an SID field in its optional header, and the value of the SID field may be the same as the SID field in the LMT described later.

compressed_flagフィールドは、当該伝送セッションを伝達するリンクレイヤパケットのデータにヘッダーコンプレッションが適用されたか否かを示すことができる。また、本フィールドの値によって、後述するcontext_idフィールドの存否が決定されてもよい。ヘッダーコンプレッションが適用された場合(compressed_flag=1)、RDTが存在し得、そのRDTのPLP IDフィールドは、本compressed_flagフィールドに関連する当該PLP_IDフィールドと同じ値を有することができる。   The compressed_flag field can indicate whether header compression has been applied to the data of the link layer packet carrying the transmission session. The presence or absence of a context_id field to be described later may be determined by the value of this field. If header compression is applied (compressed_flag = 1), there may be an RDT, and the PLP ID field of that RDT may have the same value as the PLP_ID field associated with this compressed_flag field.

SIDフィールドは、当該伝送セッションを伝達するリンクレイヤパケットに対するSID(sub stream ID)を示すことができる。このリンクレイヤパケットは、そのオプショナルヘッダーに本SIDフィールドと同一の値を有するSIDを含んでいてもよい。これを通じて、受信機は、リンクレイヤパケットを全部パーシングする必要がなく、LMTの情報及びリンクレイヤパケットヘッダーのSID情報を用いて、リンクレイヤパケットをフィルタリングすることができる。   The SID field can indicate an SID (sub stream ID) for a link layer packet carrying the transmission session. This link layer packet may include an SID having the same value as the present SID field in its optional header. Through this, the receiver does not need to parse all the link layer packets, and can filter the link layer packets using the LMT information and the SID information of the link layer packet header.

context_idフィールドは、RDT内のCID(context id)に対するリファレンスを提供することができる。RDTのCID情報は、該当する圧縮IPパケットストリームに対するコンテクストIDを示すことができる。RDTは、該当する圧縮IPパケットストリームに対するコンテクスト情報を提供することができる。本フィールドによってRDTとLMTとが関連付けられてもよい。   The context_id field can provide a reference to a CID (context id) in the RDT. The CID information of the RDT can indicate a context ID for the corresponding compressed IP packet stream. The RDT can provide context information for the corresponding compressed IP packet stream. RDT and LMT may be associated by this field.

前述した、本発明のシグナリング情報/テーブルの実施例において、それぞれのフィールド、エレメント、属性を省略したり他のフィールドに置き換えてもよく、実施例によって、更なるフィールド、エレメント、属性を追加してもよい。   In the above-described embodiment of the signaling information / table of the present invention, each field, element, and attribute may be omitted or replaced with another field. Depending on the embodiment, additional fields, elements, and attributes may be added. Also good.

本発明の一実施例で、一つのサービスのサービスコンポーネントを複数個のROUTEセッションで伝達することができる。この場合、SLTのブートストラップ情報を用いてSLSを取得することができる。このSLSのUSBDを用いてS−TSIDとMPDをリファレンシングすることができる。S−TSIDは、SLSを伝達しているROUTEセッションだけでなく、サービスコンポーネントを伝達している他のROUTEセッションに対する伝送セッションデスクリプション情報も記述することができる。これによって、複数個のROUTEセッションで伝達されるサービスコンポーネントを全て収集することができる。このような事項は、一つのサービスのサービスコンポーネントが複数個のMMTPセッションで伝達される場合にも同様に適用することができる。参考として、1つのサービスコンポーネントが複数個のサービスによって同時に用いられてもよい。   In one embodiment of the present invention, a service component of one service can be transmitted in a plurality of ROUTE sessions. In this case, the SLS can be acquired using the bootstrap information of the SLT. The SLS TSID and MPD can be referred to using this SLS USBD. The S-TSID can describe not only a ROUTE session carrying SLS but also transmission session description information for other ROUTE sessions carrying service components. As a result, all service components transmitted in a plurality of ROUTE sessions can be collected. Such a matter can be similarly applied when a service component of one service is transmitted in a plurality of MMTP sessions. As a reference, one service component may be used simultaneously by multiple services.

本発明の他の実施例で、ESGサービスに対するブートストラピングは放送網又はブロードバンドで行われてもよい。ブロードバンドを介してESGを取得し、SLTのURL情報を活用することができる。このURLにESG情報などを要求することができる。   In other embodiments of the present invention, bootstrapping for ESG services may be performed over a broadcast network or broadband. ESG can be acquired via broadband and URL information of SLT can be used. ESG information or the like can be requested from this URL.

本発明の他の実施例で、一つのサービスのいずれか一つのサービスコンポーネントは放送網で、いずれか他のサービスコンポーネントはブロードバンドで伝達することができる(ハイブリッド)。S−TSIDは、放送網で伝達されるコンポーネントについて記述して、ROUTEクライアントが所望のサービスコンポーネントを取得できるようにする。また、USBDは、ベースパターン情報を有しており、どのセグメントが(どのコンポーネントが)どの経路で伝達されるかを記述することができる。したがって、受信機は、これを用いて、ブロードバンドサーバーに要求すべきセグメント、及び放送ストリームから見つけるべきセグメントを識別することができる。   In another embodiment of the present invention, any one service component of a service can be transmitted by a broadcasting network, and any other service component can be transmitted by broadband (hybrid). The S-TSID describes a component transmitted on the broadcast network so that a ROUTE client can obtain a desired service component. Further, the USBD has base pattern information and can describe which segment (which component) is transmitted by which route. Thus, the receiver can use this to identify the segment to request from the broadband server and the segment to find from the broadcast stream.

本発明の他の実施例で、サービスに対するスケーラブル(scalable)コーディングを行うこともできる。USBDは、当該サービスをレンダリングするために必要な全てのキャパビリティ情報を有することができる。例えば、一つのサービスがHD又はUHDで提供される場合、USBDのキャパビリティ情報は、“HD又はUHD”値を有することができる。受信機は、MPDから、UHD又はHDサービスをレンダリングするためにはどのコンポーネントを再生しなければならないかが分かる。   In other embodiments of the present invention, scalable coding for services may be performed. The USBD can have all the capability information necessary to render the service. For example, when one service is provided in HD or UHD, the capability information of USBD may have an “HD or UHD” value. The receiver knows from the MPD which components must be played in order to render a UHD or HD service.

本発明の他の実施例で、SLSを伝達するLCTチャネルで伝達されるLCTパケットのTOIフィールドから、当該LCTパケットがどのSLSフラグメントを伝達しているか(USBD、S−TSID、MPDなど)を識別することができる。   In another embodiment of the present invention, the SLS fragment transmitted by the LCT packet (USBD, S-TSID, MPD, etc.) is identified from the TOI field of the LCT packet transmitted through the LCT channel carrying the SLS. can do.

本発明の他の実施例で、アプリベースのエンハンスメント/アプリベースのサービスに用いられるアプリコンポーネントを、NRTコンポーネントとして放送網で伝達されたり、又はブロードバンドで伝達してもよい。また、アプリベースのエンハンスメントに対するアプリシグナリングは、SLSと共に伝達されるAST(Application Signaling Table)によって行われてもよい。また、アプリが行う動作に対するシグナリングであるイベントは、SLSと共にEMT(Event Message Table)の形態で伝達されたり、MPD内にシグナルされたり、DASHリプレゼンテーション内にbox形態でインバンド(in−band)シグナルされてもよい。AST、EMTなどはブロードバンドを介して伝達されてもよい。収集されたアプリコンポーネントとこのようなシグナリング情報を用いてアプリベースのエンハンスメントなどを提供することができる。   In another embodiment of the present invention, an application component used for an application-based enhancement / application-based service may be transmitted as an NRT component in a broadcast network or in broadband. Further, application signaling for application-based enhancement may be performed by an AST (Application Signaling Table) transmitted together with SLS. In addition, events that are signaling for operations performed by the application are transmitted together with SLS in the form of an EMT (Event Message Table), signaled in the MPD, or in-band in the form of a box in the DASH representation. It may be signaled. AST, EMT, etc. may be transmitted via broadband. Application-based enhancements and the like can be provided using the collected application components and such signaling information.

本発明の他の実施例で、緊急警報のためにCAPメッセージを前述のLSテーブルに含めて提供することができる。緊急警報のためのリーチメディア(Rich Media)コンテンツも提供することができる。リーチメディアは、CAPメッセージによってシグナルすることができ、リーチメディアが存在する場合、これは、SLTによってシグナルされるEASサービスとして提供することができる。   In another embodiment of the present invention, a CAP message may be provided in the aforementioned LS table for an emergency alert. Reach media content for emergency alerts can also be provided. The reach media can be signaled by a CAP message, and if a reach media is present, this can be provided as an EAS service signaled by the SLT.

本発明の他の実施例で、MMTプロトコルによってリニアサービスコンポーネントを放送網を介して伝達することができる。この場合、当該サービスに対するNRTデータ(例えば、アプリコンポーネント)をROUTEプロトコルによって放送網で伝達することができる。また、当該サービスに対するデータをブロードバンドで伝達することができる。受信機は、SLTのブートストラップ情報を用いてSLSを伝達するMMTPセッションに接近することができる。MMTによるSLSのUSBDは、MPテーブルをリファレンシングして、受信機がMMTプロトコルによって伝達されるMPUにフォーマットされたリニアサービスコンポーネントを取得できるようにする。また、USBDは、S−TSIDをさらにリファレンシングして、受信機がROUTEプロトコルによって伝達されるNRTデータを取得するようにしてもよい。また、USBDは、MPDをさらにリファレンシングして、ブロードバンドを介して伝達されるデータに対する再生デスクリプションを提供することができる。   In another embodiment of the present invention, the linear service component can be transmitted through the broadcast network by the MMT protocol. In this case, NRT data (for example, application component) for the service can be transmitted on the broadcast network by the ROUTE protocol. In addition, data for the service can be transmitted by broadband. The receiver can use the SLT bootstrap information to access the MMTP session that carries the SLS. The MLS SLS USBD references the MP table to allow the receiver to obtain a linear service component formatted into an MPU carried by the MMT protocol. The USBD may further refer to the S-TSID so that the receiver acquires NRT data transmitted by the ROUTE protocol. USBD can further refer to MPD to provide a playback description for data transmitted via broadband.

本発明の他の実施例で、受信機はそのコンパニオンデバイスに、ストリーミングコンポーネント及び/又はファイルコンテンツアイテム(ファイルなど)を取得できるロケーションURL情報を、ウェブソケットなどの方法で伝達することができる。コンパニオンデバイスのアプリケーションはこのURLにHTTP GETなどを用いて要求して該当のコンポーネント、データなどを取得することができる。その他にも、受信機はシステムタイム情報、緊急警報情報などの情報をコンパニオンデバイス側に伝達することができる。   In another embodiment of the present invention, the receiver can communicate to its companion device location URL information from which a streaming component and / or file content item (such as a file) can be obtained in a manner such as a web socket. An application of the companion device can request the URL using HTTP GET or the like to acquire the corresponding component, data, and the like. In addition, the receiver can transmit information such as system time information and emergency alert information to the companion device side.

図8は、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す。   FIG. 8 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.

本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、インプットフォーマットブロック(Input Format block)1000、BICM(bit interleaved coding & modulation)ブロック1010、フレームビルディングブロック(Frame building block)1020、OFDM(orthogonal frequency division multiplexing)生成ブロック(OFDM generation block)1030、及びシグナリング生成ブロック1040を含むことができる。放送信号送信装置の各ブロックの動作について説明する。   A broadcast signal transmitting apparatus for a next generation broadcasting service according to an embodiment of the present invention includes an input format block (1000), a BICM (bit interleaved coding & modulation) block 1010, a frame building block (Frame building block) 1020, An OFDM (orthogonal frequency division multiplexing) generation block (OFDM generation block) 1030 and a signaling generation block 1040 may be included. The operation of each block of the broadcast signal transmitting apparatus will be described.

本発明の一実施例に係る入力データは、IPストリーム/パケット及びMPEG2−TSが主な入力フォーマットであり得、他のストリームタイプは一般ストリームとして扱われる。   The input data according to an embodiment of the present invention may be IP stream / packet and MPEG2-TS as main input formats, and other stream types are treated as general streams.

インプットフォーマットブロック1000は、それぞれの入力ストリームを独立したコーディング及び変調が適用される1つ又は多数のデータパイプに逆多重化することができる。データパイプは、ロバスト性(robustness)の制御のための基本単位であり、これは、QoS(Quality of Service)に影響を及ぼす。1つ又は多数のサービス又はサービスコンポーネントが一つのデータパイプによって伝達されてもよい。データパイプは、1つ又は多数のサービス又はサービスコンポーネントを伝達できるサービスデータ又は関連メタデータを伝達する物理層(physical layer)での論理チャネルである。   The input format block 1000 can demultiplex each input stream into one or multiple data pipes to which independent coding and modulation is applied. The data pipe is a basic unit for control of robustness, which affects QoS (Quality of Service). One or many services or service components may be conveyed by one data pipe. A data pipe is a logical channel at the physical layer that carries service data or related metadata that can carry one or many services or service components.

QoSが、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置によって提供されるサービスの特性に依存するため、それぞれのサービスに該当するデータは、互いに異なる方式を用いて処理されなければならない。   Since QoS depends on the characteristics of the service provided by the broadcast signal transmission apparatus for the next-generation broadcast service according to an embodiment of the present invention, data corresponding to each service must be processed using different methods. I must.

BICMブロック1010は、MIMOが適用されないプロファイル(又はシステム)に適用される処理ブロック、及び/又はMIMOが適用されるプロファイル(又はシステム)の処理ブロックを含むことができ、それぞれのデータパイプを処理するための複数の処理ブロックを含むことができる。   The BICM block 1010 may include a processing block applied to a profile (or system) to which MIMO is not applied and / or a processing block of a profile (or system) to which MIMO is applied to process each data pipe. A plurality of processing blocks can be included.

MIMOが適用されないBICMブロックの処理ブロックは、データFECエンコーダ、ビットインタリーバ、コンステレーションマッパー(mapper)、SSD(signal space diversity)エンコーディングブロック、及びタイムインタリーバを含むことができる。MIMOが適用されるBICMブロックの処理ブロックは、セルワードデマルチプレクサ及びMIMOエンコーディングブロックをさらに含むという点で、MIMOが適用されないBICMの処理ブロックと区別される。   Processing blocks of the BICM block to which MIMO is not applied may include a data FEC encoder, a bit interleaver, a constellation mapper, an SSD (signal space diversity) encoding block, and a time interleaver. The processing block of the BICM block to which MIMO is applied is distinguished from the processing block of the BICM to which MIMO is not applied in that it further includes a cell word demultiplexer and a MIMO encoding block.

データFECエンコーダは、外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために、入力BBFにFECエンコーディングを実行する。外部コーディング(BCH)は選択的なコーディング方法である。ビットインタリーバは、データFECエンコーダの出力をインタリーブして、LDPCコード及び変調方式の組み合わせにより最適化された性能を達成することができる。コンステレーションマッパーは、QPSK、QAM−16、不均一QAM(NUQ−64、NUQ−256、NUQ−1024)又は不均一コンステレーション(NUC−16、NUC−64、NUC−256、NUC−1024)を用いて、ビットインタリーバ又はセルワードデマルチプレクサからのセルワードを変調して、電力が正規化されたコンステレーションポイントを提供することができる。NUQが任意の形状を有する反面、QAM−16及びNUQは正方形の形状を有することが観察される。NUQ及びNUCはいずれも各コードレート(code rate)に対して特別に定義され、PLS2データのパラメータDP_MODによってシグナリングされる。タイムインタリーバは、データパイプレベルで動作することができる。タイムインタリービングのパラメータは、それぞれのデータパイプに対して異ならせて設定されてもよい。   The data FEC encoder performs FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC). Outer coding (BCH) is a selective coding method. The bit interleaver can interleave the output of the data FEC encoder to achieve optimized performance by a combination of LDPC code and modulation scheme. The constellation mapper can be QPSK, QAM-16, non-uniform QAM (NUQ-64, NUQ-256, NUQ-1024) or non-uniform constellation (NUC-16, NUC-64, NUC-256, NUC-1024). The cell word from the bit interleaver or cell word demultiplexer can be used to provide a power normalized constellation point. While NUQ has an arbitrary shape, it is observed that QAM-16 and NUQ have a square shape. Both NUQ and NUC are specifically defined for each code rate and are signaled by the parameter DP_MOD of the PLS2 data. The time interleaver can operate at the data pipe level. The time interleaving parameter may be set differently for each data pipe.

本発明のタイムインタリーバは、BICMチェーン(BICM chain)ブロックとフレームビルダー(Frame Builder)との間に位置し得る。この場合、本発明のタイムインタリーバは、PLP(Physical Layer Pipe)モードに応じて、コンボリューションインタリーバ(Convolution Interleaver、CI)とブロックインタリーバ(Block Interleaver、BI)を選択的に使用してもよく、両方とも使用してもよい。本発明の一実施例に係るPLPは、上述したDPと同じ概念で使用されるフィジカルパス(physical path)であって、呼称は設計者の意図によって変更可能である。本発明の一実施例に係るPLPモードは、放送信号送信機又は放送信号送信装置で処理するPLPの個数に応じて、シングルPLP(single PLP)モード又はマルチプルPLP(multiple PLP)モードを含むことができる。本発明では、PLPモードに応じて互いに異なるタイムインタリービング方法を適用するタイムインタリービングを、ハイブリッドタイムインタリービング(Hybrid Time Interleaving)と呼ぶことができる。   The time interleaver of the present invention may be located between a BICM chain block and a frame builder. In this case, the time interleaver according to the present invention may selectively use a convolution interleaver (CI) and a block interleaver (BI) according to a PLP (Physical Layer Pipe) mode. May also be used. The PLP according to an embodiment of the present invention is a physical path used in the same concept as the DP described above, and the name can be changed according to the intention of the designer. The PLP mode according to an embodiment of the present invention may include a single PLP mode or a multiple PLP mode according to the number of PLPs processed by the broadcast signal transmitter or the broadcast signal transmission apparatus. it can. In the present invention, time interleaving in which different time interleaving methods are applied according to the PLP mode can be referred to as hybrid time interleaving (Hybrid Time Interleaving).

ハイブリッドタイムインタリーバは、ブロックインタリーバ(BI)及びコンボリューションインタリーバ(CI)を含むことができる。PLP_NUM=1である場合、ブロックインタリーバは適用されず(ブロックインタリーバオフ(off))、コンボリューションインタリーバのみが適用される。PLP_NUM>1である場合、ブロックインタリーバ及びコンボリューションインタリーバが両方とも適用(ブロックインタリーバオン(on))されてもよい。PLP_NUM>1である場合に適用されるコンボリューションインタリーバの構造及び動作は、PLP_NUM=1である場合に適用されるコンボリューションインタリーバの構造及び動作と異なってもよい。ハイブリッドタイムデインターリーバは、上述したハイブリッドタイムインタリーバの逆動作に相応する動作を行うことができる。   The hybrid time interleaver can include a block interleaver (BI) and a convolution interleaver (CI). When PLP_NUM = 1, the block interleaver is not applied (block interleaver off (off)), and only the convolution interleaver is applied. When PLP_NUM> 1, both a block interleaver and a convolution interleaver may be applied (block interleaver on (on)). The structure and operation of the convolution interleaver applied when PLP_NUM> 1 may be different from the structure and operation of the convolution interleaver applied when PLP_NUM = 1. The hybrid time deinterleaver can perform an operation corresponding to the reverse operation of the hybrid time interleaver described above.

セルワードデマルチプレクサは、MIMO処理のために、単一のセルワードストリームを二重セルワードストリームに分離するのに用いられる。MIMOエンコーディングブロックは、MIMOエンコーディング方式を用いてセルワードデマルチプレクサの出力を処理することができる。本発明のMIMOエンコーディング方式は、受信機側での比較的小さい複雑度の増加で容量増加を提供するためのFR−SM(full−rate spatial multiplexing)として定義できる。MIMO処理はデータパイプレベルで適用される。コンステレーションマッパー出力のペア(pair、対)であるNUQ(e1,i及びe2,i)は、MIMOエンコーダの入力として供給されると、MIMOエンコーダ出力ペア(pair、対)(g1,i及びg2,i)は、それぞれの送信アンテナの同じキャリアk及びOFDMシンボルlによって伝送される。   A cell word demultiplexer is used to separate a single cell word stream into dual cell word streams for MIMO processing. The MIMO encoding block can process the output of the cell word demultiplexer using a MIMO encoding scheme. The MIMO encoding scheme of the present invention can be defined as FR-SM (full-rate spatial multiplexing) to provide increased capacity with a relatively small increase in complexity on the receiver side. MIMO processing is applied at the data pipe level. When a NUQ (e1, i and e2, i), which is a pair of constellation mapper outputs, is supplied as an input of a MIMO encoder, the MIMO encoder output pair (pair, pair) (g1, i and g2) , I) are transmitted by the same carrier k and OFDM symbol l of each transmit antenna.

フレームビルディングブロック1020は、一つのフレーム内で入力データパイプのデータセルをOFDMシンボルにマッピングし、周波数領域ダイバーシチのために周波数インタリービングを行うことができる。   The frame building block 1020 may map the data cells of the input data pipe to OFDM symbols within one frame and perform frequency interleaving for frequency domain diversity.

本発明の一実施例に係るフレームは、プリアンブル、1つ以上のFSS(frame signaling symbol)、ノーマルデータシンボルに分離される。プリアンブルは、信号の効率的な送信及び受信のための基本伝送パラメータの集合を提供する特別なシンボルである。プリアンブルは、フレームの基本伝送パラメータ及び伝送タイプをシグナリングすることができる。特に、プリアンブルは、EAS(emergency alert service)が現フレームに提供されるか否かを示すことができる。FSSの主な目的はPLSデータを伝達することである。高速同期化及びチャネル推定、PLSデータの高速デコーディングのために、FSSは、ノーマルデータシンボルよりも高密度のパイロットパターンを有する。   A frame according to an embodiment of the present invention is separated into a preamble, one or more FSSs (frame signaling symbols), and normal data symbols. The preamble is a special symbol that provides a set of basic transmission parameters for efficient transmission and reception of signals. The preamble can signal basic transmission parameters and transmission type of the frame. In particular, the preamble may indicate whether an EAS (emergency alert service) is provided in the current frame. The main purpose of FSS is to convey PLS data. For fast synchronization and channel estimation, fast decoding of PLS data, the FSS has a higher density of pilot patterns than normal data symbols.

フレームビルディングブロックは、データパイプと該当するPLSデータとの間のタイミングを調節して、送信機側でデータパイプと該当するPLSデータとの間の同時性(co−time)を保障するためのディレイコンペンセーション(delay compensation、遅延補償)ブロック、PLS、データパイプ、補助ストリーム、及びダミーセルなどをフレーム内でOFDMシンボルのアクティブ(active)キャリアにマッピングするためのセルマッパー(cell mapper)、及び周波数インタリーバ(frequency interleaver)を含むことができる。   The frame building block adjusts the timing between the data pipe and the corresponding PLS data so as to ensure the co-time between the data pipe and the corresponding PLS data on the transmitter side. A cell mapper for mapping the compensation (delay compensation) block, PLS, data pipe, auxiliary stream, dummy cell, etc. to the active carrier of the OFDM symbol in the frame, and a frequency interleaver (frequency) interleaver).

周波数インタリーバは、セルマッパーから受信されたデータセルをランダムにインタリーブして周波数ダイバーシチを提供することができる。また、周波数インタリーバは、単一のフレームで最大のインタリービング利得を得るために、異なるインタリービングシード(seed)順序を用いて、2つの順次的なOFDMシンボルで構成されたOFDMシンボルペア(pair、対)に対応するデータ又は一つのOFDMシンボルに対応するデータに対して動作することができる。   The frequency interleaver can provide frequency diversity by randomly interleaving data cells received from the cell mapper. In addition, the frequency interleaver uses an OFDM symbol pair (pair, pair, which is composed of two sequential OFDM symbols using different interleaving seed orders in order to obtain the maximum interleaving gain in a single frame. Can operate on data corresponding to a pair) or data corresponding to one OFDM symbol.

OFDM生成ブロック1030は、フレームビルディングブロックによって生成されたセルによってOFDMキャリアを変調し、パイロットを挿入し、伝送のための時間領域信号を生成する。また、当該ブロックは、順次にガードインターバルを挿入し、PAPR減少処理を適用して最終RF信号を生成する。   An OFDM generation block 1030 modulates an OFDM carrier with cells generated by the frame building block, inserts pilots, and generates a time domain signal for transmission. Further, the block sequentially inserts guard intervals and applies a PAPR reduction process to generate a final RF signal.

シグナリング生成ブロック1040は、各機能ブロックの動作に用いられる物理層(physical layer)シグナリング情報を生成することができる。本発明の一実施例に係るシグナリング情報はPLSデータを含むことができる。PLSは、受信機で物理層(physical layer)データパイプに接続できる手段を提供する。PLSデータはPLS1データ及びPLS2データで構成される。   The signaling generation block 1040 may generate physical layer signaling information used for the operation of each functional block. The signaling information according to an embodiment of the present invention may include PLS data. PLS provides a means by which a receiver can connect to a physical layer data pipe. The PLS data is composed of PLS1 data and PLS2 data.

PLS1データは、PLS2データをデコードするのに必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するフレームにおいてFSSで伝達されるPLSデータの1番目の集合である。PLS1データは、PLS2データの受信及びデコーディングを可能にするのに要求されるパラメータを含む基本送信パラメータを提供する。PLS2データは、データパイプ及びシステムに関するさらに詳細なPLSデータを伝達し、FSSで伝送されるPLSデータの2番目の集合である。さらに、PLS2シグナリングは、PLS2スタティック(static、静的)データ(PLS2−STATデータ)、及びPLS2ダイナミック(dynamic、動的)データ(PLS2−DYNデータ)の2種類のパラメータで構成される。PLS2スタティック(static、静的)データは、フレームグループのデュレーションの間にスタティック(static、静的)なPLS2データであり、PLS2ダイナミック(dynamic、動的)データは、フレーム毎にダイナミック(dynamic、動的)に変化するPLS2データである。   PLS1 data is the first set of PLS data that is transmitted in FSS in a frame with a fixed size, coding and modulation that conveys basic information about the system as well as the parameters needed to decode PLS2 data is there. The PLS1 data provides basic transmission parameters including parameters required to enable reception and decoding of PLS2 data. PLS2 data conveys more detailed PLS data for data pipes and systems and is the second set of PLS data transmitted in FSS. Furthermore, PLS2 signaling is composed of two types of parameters: PLS2 static data (PLS2-STAT data) and PLS2 dynamic data (PLS2-DYN data). The PLS2 static data is static PLS2 data during the duration of the frame group, and the PLS2 dynamic data is dynamic for each frame. PLS2 data that changes.

PLS2データはFIC_FLAG情報を含むことができる。FIC(Fast Information Channel)は、速いサービス取得及びチャネルスキャン(fast service acquisition and channel scanning)を可能にするクロスレイヤ(cross−layer)情報を伝送するための専用チャネル(dedicated channel)である。FIC_FLAG情報は、1ビットのフィールドであって、FIC(fast information channel、高速情報チャネル)が現フレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、FICは現フレームで提供される。当該フィールドの値が0に設定されると、FICは現フレームで伝達されない。BICMブロック1010は、PLSデータの保護のためのBICMブロックを含むことができる。PLSデータの保護のためのBICMブロックは、PLS FECエンコーダ、ビットインタリーバ、及びコンステレーションマッパーを含むことができる。   The PLS2 data can include FIC_FLAG information. FIC (Fast Information Channel) is a dedicated channel for transmitting cross-layer information that enables fast service acquisition and channel scanning (fast service acquisition and channel scanning). The FIC_FLAG information is a 1-bit field and indicates whether or not FIC (fast information channel) is used in the current frame group. If the value of this field is set to 1, the FIC is provided in the current frame. If the value of this field is set to 0, the FIC is not transmitted in the current frame. The BICM block 1010 can include a BICM block for protection of PLS data. A BICM block for protection of PLS data may include a PLS FEC encoder, a bit interleaver, and a constellation mapper.

PLS FECエンコーダは、PLS1データ及びPLS2データをスクランブルするためのスクランブラ、PLS保護のためのショートニングされたBCHコードを用いてスクランブルされたPLS1,2データに外部エンコーディングを行い、BCHエンコーディング後にゼロビットを挿入するためのBCHエンコーディング/ゼロ挿入ブロック、LDPCコードを用いてエンコーディングを行うためのLDPCエンコーディングブロック、及びLDPCパリティパンクチャリング(puncturing)ブロックを含むことができる。PLS1データに対してのみ、ゼロ挿入の出力ビットがLDPCエンコーディングの前にパーミュテーション(permutation)され得る。ビットインタリーバは、それぞれのショートニング及びパンクチャリングされたPLS1データ及びPLS2データをインタリーブし、コンステレーションマッパーは、ビットインタリーブされたPLS1データ及びPLS2データをコンステレーションにマッピングすることができる。   The PLS FEC encoder externally encodes the scrambled PLS1 and 2 data using a scrambler for scrambling PLS1 data and PLS2 data, and a shortened BCH code for PLS protection, and inserts zero bits after BCH encoding. A BCH encoding / zero insertion block, an LDPC encoding block for encoding using an LDPC code, and an LDPC parity puncturing block. For PLS1 data only, zero insertion output bits can be permuted prior to LDPC encoding. The bit interleaver can interleave the respective shortened and punctured PLS1 data and PLS2 data, and the constellation mapper can map the bit interleaved PLS1 data and PLS2 data to the constellation.

本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、図8を参照して説明した次世代放送サービスに対する放送信号送信装置の逆過程を行うことができる。   The broadcast signal receiver for the next-generation broadcast service according to an embodiment of the present invention may perform the reverse process of the broadcast signal transmitter for the next-generation broadcast service described with reference to FIG.

本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、放送信号送信装置によって行われる手順の逆過程に該当する復調を行う同期及び復調モジュール(synchronization & demodulation module)、入力信号フレームをパーシングし、ユーザによって選択されたサービスが伝送されるデータを抽出するフレームパーシングモジュール(frame parsing module)、入力信号をビット領域データに変換した後、必要によってビット領域データをデインタリーブし、伝送効率のために適用されたマッピングに対するデマッピングを行い、デコーディングを介して伝送チャネルで発生した誤りを訂正するデマッピング及びデコーディングモジュール(demapping & decoding module)、放送信号送信装置によって適用される様々な圧縮/信号処理手順の逆過程を行う出力プロセッサ(output processor)、及び同期及び復調モジュールによって復調された信号からPLS情報を取得、処理するシグナリングデコーディングモジュール(signaling decoding module)を含むことができる。フレームパーシングモジュール、デマッピング及びデコーディングモジュール、及び出力プロセッサは、シグナリングデコーディングモジュールから出力されたPLSデータを用いてその機能を実行することができる。   A broadcast signal receiving apparatus for a next generation broadcasting service according to an embodiment of the present invention includes a synchronization and demodulation module that performs demodulation corresponding to the reverse process of a procedure performed by a broadcast signal transmitting apparatus, and an input signal frame. A frame parsing module that extracts data transmitted by the service selected by the user, converts the input signal into bit area data, and then deinterleaves the bit area data as necessary to improve transmission efficiency. A demapping and decoding module that performs demapping on the mapping applied for the transmission and corrects errors generated in the transmission channel through decoding. & Decoding module), obtaining and processing PLS information from signals demodulated by the synchronization and demodulation module, and an output processor that performs the reverse process of various compression / signal processing procedures applied by the broadcast signal transmitting apparatus A signaling decoding module may be included. The frame parsing module, the demapping and decoding module, and the output processor can perform their functions using the PLS data output from the signaling decoding module.

以下、タイムインタリーバを説明する。本発明の一実施例に係るタイムインタリービンググループは、一つのフレームに直接マッピングされるか、またはPI個のフレームにわたって拡散される。また、それぞれのタイムインタリービンググループは、一つ以上(NTI個)のタイムインタリービングブロックに分離される。ここで、それぞれのタイムインタリービングブロックは、タイムインタリーバメモリの一つの使用に該当する。タイムインタリービンググループ内のタイムインタリービングブロックは、互いに異なる個数のXFECBLOCKを含むことができる。一般に、タイムインタリーバは、フレーム生成過程の前にデータパイプデータに対するバッファとしても機能することができる。   Hereinafter, the time interleaver will be described. A time interleaving group according to an embodiment of the present invention is mapped directly to one frame or spread over PI frames. Each time interleaving group is divided into one or more (NTI) time interleaving blocks. Here, each time interleaving block corresponds to one use of the time interleaver memory. The time interleaving blocks in the time interleaving group can include different numbers of XFECBLOCKs. In general, the time interleaver can also function as a buffer for data pipe data before the frame generation process.

本発明の一実施例に係るタイムインタリーバは、ツイストされた行−列ブロックインタリーバである。本発明の一実施例に係るツイストされた行−列ブロックインタリーバは、1番目のXFECBLOCKをタイムインタリービングメモリの1番目の列に列方向に書き込み、2番目のXFECBLOCKは、次の列に書き込み、同じ方式でタイムインタリービングブロック内の残りのXFECBLOCKを書き込むことができる。そして、インタリービングアレイにおいて、セルは、1番目の行から(最も左側の列から始まって行に沿って右側に)最後の行まで対角線方向に読み取られ得る。この場合、タイムインタリービングブロック内のXFECBLOCKの個数に関係なく受信機側で単一のメモリデインタリービングを達成するために、ツイストされた行−列ブロックインタリーバ用インタリービングアレイは、仮想XFECBLOCKをタイムインタリービングメモリに挿入することができる。この場合、受信機側で単一のメモリデインタリービングを達成するために、仮想XFECBLOCKは、他のXFECBLOCKの最も前に挿入されなければならない。   The time interleaver according to one embodiment of the present invention is a twisted row-column block interleaver. The twisted row-column block interleaver according to an embodiment of the present invention writes the first XFECBLOCK in the first column of the time interleaving memory in the column direction, and the second XFECBLOCK writes in the next column, The remaining XFECBLOCK in the time interleaving block can be written in the same manner. Then, in the interleaving array, cells can be read diagonally from the first row (starting from the leftmost column to the right along the row) to the last row. In this case, to achieve a single memory deinterleaving on the receiver side regardless of the number of XFECBLOCKs in the time interleaving block, the twisted row-column block interleaving array times the virtual XFECBLOCK. Can be inserted into the interleaving memory. In this case, to achieve a single memory deinterleaving at the receiver side, the virtual XFECBLOCK must be inserted before the other XFECBLOCK.

図9は、本発明の一実施例に係るタイムインタリーバの書き込み(writing)動作を示す。   FIG. 9 illustrates a time interleaver writing operation according to an embodiment of the present invention.

図中の左側に示されたブロックはTIメモリアドレスアレイ(memory address array)を示し、図中の右側に示されたブロックは、連続した2つのTIグループに対して、それぞれ仮想(virtual)FECブロックがTIグループの最も前にそれぞれ2個及び1個が挿入された場合の書き込み(writing)動作を示す。   The block shown on the left side of the figure shows a TI memory address array, and the block shown on the right side of the figure shows virtual FEC blocks for two consecutive TI groups. Shows a writing operation when two and one are inserted in front of the TI group, respectively.

本発明の一実施例に係る周波数インタリーバは、シンボルペアに対応するデータに適用するためのインタリービングアドレスを生成するためのインタリービングアドレス生成器を含むことができる。   The frequency interleaver according to an embodiment of the present invention may include an interleaving address generator for generating an interleaving address to be applied to data corresponding to a symbol pair.

図10は、本発明の一実施例に係る周波数インタリーバに含まれた各FFTモードによるメインPRBS生成器とサブPRBS生成器で構成されたインタリービングアドレス生成器のブロックダイヤグラムを示す図である。   FIG. 10 is a block diagram of an interleaving address generator including a main PRBS generator and a sub-PRBS generator in each FFT mode included in a frequency interleaver according to an embodiment of the present invention.

(a)は、8K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示し、(b)は、16K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示し、(c)は、32K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示す。   (A) shows the block diagram of the interleaving address generator for 8K FFT mode, (b) shows the block diagram of the interleaving address generator for 16K FFT mode, and (c) shows the interface diagram for 32K FFT mode. 2 shows a block diagram of a leaving address generator.

OFDMシンボルペアに対するインタリービング過程は、一つのインタリービングシーケンスを用い、次のように説明される。まず、一つのOFDMシンボルOm,lでインタリーブされる利用可能なデータセル(セルマッパーからの出力セル)は、l=0,…,Nsym−1に対してOm,l=[xm,l,0,…,xm,l,p,…,xm,l,Ndata−1]として定義される。このとき、xm,l,pは、m番目のフレームでl番目のOFDMシンボルのp番目のセルであり、Ndataは、データセルの個数である。フレームシグナリングシンボルに対してNdata=CFSSであり、ノーマルデータに対してNdata=Cdataであり、フレームエッジシンボルに対してNdata=CFESである。また、インタリーブされたデータセルは、l=0,…,Nsym−1に対してPm,l=[vm,l,0,…,vm,l,Ndata−1]として定義される。   The interleaving process for the OFDM symbol pair is described as follows using one interleaving sequence. First, the available data cells (output cells from the cell mapper) interleaved with one OFDM symbol Om, l are Om, l = [xm, l, 0, ..., xm, l, p, ..., xm, l, Ndata-1]. At this time, xm, l, p is the pth cell of the lth OFDM symbol in the mth frame, and Ndata is the number of data cells. Ndata = CFSS for frame signaling symbols, Ndata = Cdata for normal data, and Ndata = CFES for frame edge symbols. The interleaved data cell is defined as Pm, l = [vm, l, 0, ..., vm, l, Ndata-1] for l = 0, ..., Nsym-1.

OFDMシンボルペアに対して、インタリーブされたOFDMシンボルペアは、各ペアの1番目のOFDMシンボルに対してvm,l,Hi(p)=xm,l,p,p=0,…,Ndata−1として与えられ、各ペアの2番目のOFDMシンボルに対してvm,l,p=xm,l,Hi(p),p=0,…,Ndata−1として与えられる。このとき、Hl(p)は、PRBS生成器及びサブPRBS生成器の巡回シフト値(シンボルオフセット)に基づいて生成されたインタリービングアドレスである。   For an OFDM symbol pair, the interleaved OFDM symbol pair is vm, l, Hi (p) = xm, l, p, p = 0, ..., Ndata-1 for the first OFDM symbol of each pair. Are given as vm, l, p = xm, l, Hi (p), p = 0,..., Ndata-1 for the second OFDM symbol of each pair. At this time, Hl (p) is an interleaving address generated based on the cyclic shift value (symbol offset) of the PRBS generator and the sub-PRBS generator.

図11は、本発明の一実施例に係るハイブリッド放送受信装置を示す図である。   FIG. 11 is a diagram illustrating a hybrid broadcast receiving apparatus according to an embodiment of the present invention.

ハイブリッド放送システムは、地上波放送網及びインターネット網を連動して放送信号を送信することができる。ハイブリッド放送受信装置は、地上波放送網(ブロードキャスト)及びインターネット網(ブロードバンド)を介して放送信号を受信することができる。ハイブリッド放送受信装置は、フィジカルレイヤモジュール、フィジカルレイヤI/Fモジュール、サービス/コンテンツ取得コントローラ、インターネットアクセス制御モジュール、シグナリングデコーダ、サービスシグナリングマネジャー、サービスガイドマネジャー、アプリケーションシグナリングマネジャー、警報信号マネジャー、警報信号パーサー、ターゲッティング信号パーサー、ストリーミングメディアエンジン、非リアルタイムファイルプロセッサ、コンポーネントシンクロナイザ、ターゲッティングプロセッサ、アプリケーションプロセッサ、A/Vプロセッサ、デバイスマネジャー、データシェアリング及びコミュニケーションユニット、再分配モジュール、コンパニオンデバイス及び/又は外部モジュールを含むことができる。   The hybrid broadcast system can transmit a broadcast signal in conjunction with a terrestrial broadcast network and an Internet network. The hybrid broadcast receiving apparatus can receive broadcast signals via a terrestrial broadcast network (broadcast) and an internet network (broadband). Hybrid broadcast receiving apparatus includes physical layer module, physical layer I / F module, service / content acquisition controller, Internet access control module, signaling decoder, service signaling manager, service guide manager, application signaling manager, alarm signal manager, alarm signal parser , Targeting signal parser, streaming media engine, non-real time file processor, component synchronizer, targeting processor, application processor, A / V processor, device manager, data sharing and communication unit, redistribution module, companion device and / or external module Including It can be.

フィジカルレイヤモジュール(Physical Layer Module(s))は、地上波放送チャネルを介して放送関連信号を受信及び処理し、これを適切な形態に変換してフィジカルレイヤI/Fモジュールに伝達することができる。   The physical layer module (s) can receive and process broadcast-related signals via a terrestrial broadcast channel, convert the signals into an appropriate form, and transmit them to the physical layer I / F module. .

フィジカルレイヤI/Fモジュール(Physical Layer I/F Module(s))は、フィジカルレイヤモジュールから取得した情報からIPデータグラムを取得することができる。また、フィジカルレイヤI/Fモジュールは、取得されたIPデータグラムなどを特定のフレーム(例えば、RS Frame、GSEなど)に変換することができる。   The physical layer I / F module (Physical Layer I / F Module (s)) can acquire an IP datagram from information acquired from the physical layer module. Further, the physical layer I / F module can convert the acquired IP datagram or the like into a specific frame (for example, RS Frame, GSE, or the like).

サービス/コンテンツ取得コントローラ(Service/Content Acquisition Controller)は、ブロードキャスト(broadcast)及び/又はブロードバンド(broadband)チャネルを介したサービス、コンテンツ及びこれに関連するシグナリングデータの取得のための制御動作を行うことができる。   A service / content acquisition controller may perform a control operation for acquiring a service, content, and related signaling data through a broadcast and / or a broadband channel. it can.

インターネットアクセス制御モジュール(Internet Access Control Module(s))は、ブロードバンドチャネルを介してサービス、コンテンツなどを取得するための受信機の動作を制御することができる。   An Internet Access Control Module (s) can control the operation of a receiver for obtaining services, content, etc. via a broadband channel.

シグナリングデコーダ(Signaling Decoder)は、ブロードキャストチャネルなどを介して取得したシグナリング情報をデコードすることができる。   A signaling decoder can decode the signaling information acquired through a broadcast channel or the like.

サービスシグナリングマネジャー(Service Signaling Manager)は、IPデータグラムなどからサービススキャン及びサービス/コンテンツなどに関連するシグナリング情報を抽出、パーシング及び管理することができる。   A service signaling manager can extract, parse and manage signaling information related to service scans and services / contents from IP datagrams and the like.

サービスガイドマネジャー(Service Guide Manager)は、IPデータグラムなどからアナウンス(announcement)情報を抽出し、SG(Service Guide)データベース(database)を管理し、サービスガイドを提供することができる。   A service guide manager (Service Guide Manager) can extract announcement information from an IP datagram or the like, manage an SG (Service Guide) database (database), and provide a service guide.

アプリケーションシグナリングマネジャー(App Signaling Manager)は、IPデータグラムなどからアプリケーション取得などに関連するシグナリング情報を抽出、パーシング及び管理することができる。   An application signaling manager (App Signaling Manager) can extract, parse and manage signaling information related to application acquisition from an IP datagram.

警報信号パーサー(Alert Signaling Parser)は、IPデータグラムなどから警報(alerting)に関連するシグナリング情報を抽出、パーシング及び管理することができる。   An alert signal parser can extract, parse and manage signaling information related to alerts from IP datagrams and the like.

ターゲッティング信号パーサー(Targeting Signaling Parser)は、IPデータグラムなどからサービス/コンテンツの個人化あるいはターゲッティングに関連するシグナリング情報を抽出、パーシング及び管理することができる。また、ターゲッティング信号パーサーは、パーシングされたシグナリング情報をターゲッティングプロセッサに伝達することができる。   A Targeting Signal Parser can extract, parse and manage signaling information related to service / content personalization or targeting from IP datagrams and the like. The targeting signal parser can also transmit the parsed signaling information to the targeting processor.

ストリーミングメディアエンジン(Streaming Media Engine)は、IPデータグラムなどからA/Vストリーミングのためのオーディオ/ビデオデータを抽出及びデコードすることができる。   A streaming media engine can extract and decode audio / video data for A / V streaming from an IP datagram or the like.

非リアルタイムファイルプロセッサ(Non−real time File Processor)は、IPデータグラムなどからNRTデータ及びアプリケーション(application)などのファイル形態のデータを抽出、デコーディング、及び管理することができる。   A non-real time file processor can extract, decode, and manage data in the form of files such as NRT data and applications from IP datagrams.

コンポーネントシンクロナイザ(Component Synchronizer)は、ストリーミングオーディオ/ビデオデータ及びNRTデータなどのコンテンツ及びサービスを同期化することができる。   A component synchronizer can synchronize content and services such as streaming audio / video data and NRT data.

ターゲッティングプロセッサ(Targeting Processor)は、ターゲッティング信号パーサーから受信したターゲッティングシグナリングデータに基づいてサービス/コンテンツの個人化関連演算を処理することができる。   A targeting processor may process service / content personalization related operations based on the targeting signaling data received from the targeting signal parser.

アプリケーションプロセッサ(App Processor)は、アプリケーション関連情報、ダウンロードされたアプリケーションの状態及びディスプレイパラメータを処理することができる。   An application processor (App Processor) can process application related information, downloaded application status and display parameters.

A/Vプロセッサ(A/V Processor)は、デコードされたオーディオ及びビデオデータ、アプリケーションデータなどに基づいてオーディオ/ビデオレンダリング関連動作を行うことができる。   An A / V processor can perform audio / video rendering-related operations based on decoded audio and video data, application data, and the like.

デバイスマネジャー(Device Manager)は、外部装置との接続及びデータ交換動作を行うことができる。また、デバイスマネジャーは、連動可能な外部装置の追加/削除/更新など、外部装置に対する管理動作を行うことができる。   A device manager can connect to external devices and exchange data. In addition, the device manager can perform management operations on external devices such as adding / deleting / updating external devices that can be linked.

データシェアリング及びコミュニケーションユニット(Data Sharing & Comm.)は、ハイブリッド放送受信機と外部装置との間のデータ伝送及び交換に関連する情報を処理することができる。ここで、伝送及び交換可能なデータはシグナリング、A/Vデータなどであり得る。   A data sharing and communication unit (Data Sharing & Comm.) Can process information related to data transmission and exchange between a hybrid broadcast receiver and an external device. Here, the data that can be transmitted and exchanged may be signaling, A / V data, and the like.

再分配モジュール(Redistribution Module(s))は、放送受信機が地上波放送信号を直接受信できない場合、次世代放送サービス及びコンテンツに対する関連情報を取得することができる。また、再分配モジュールは、放送受信機が地上波放送信号を直接受信できない場合、次世代放送システムによる放送サービス及びコンテンツ取得をサポートすることができる。   The redistribution module (s) can acquire related information for the next-generation broadcast service and content when the broadcast receiver cannot directly receive the terrestrial broadcast signal. In addition, the redistribution module can support broadcasting service and content acquisition by the next generation broadcasting system when the broadcasting receiver cannot directly receive the terrestrial broadcasting signal.

コンパニオンデバイス(Companion device(s))は、本発明の放送受信機に接続されて、オーディオ、ビデオ、またはシグナリングを含むデータを共有することができる。コンパニオンデバイスは、放送受信機と接続された外部装置を指すことができる。   Companion devices (s) can be connected to the broadcast receiver of the present invention to share data including audio, video, or signaling. A companion device can refer to an external device connected to a broadcast receiver.

外部モジュール(External Module(Management))は、放送サービス/コンテンツの提供のためのモジュールを指すことができ、例えば、次世代放送サービス/コンテンツサーバーであってもよい。外部モジュールは、放送受信機と接続された外部装置を指すことができる。   An external module (External Module (Management)) may refer to a module for providing a broadcast service / content, and may be a next-generation broadcast service / content server, for example. An external module can refer to an external device connected to a broadcast receiver.

図12は、本発明の一実施例に係るDASHベースの適応型(Adaptive)ストリーミングモデルの全般的な動作を示した図である。   FIG. 12 is a diagram illustrating a general operation of a DASH-based adaptive streaming model according to an embodiment of the present invention.

本発明は、HDR(High Dynamic Range)をサポートできるコンテンツを提供する次世代メディアサービス提供方案を提案する。豊かな明るさの表現が可能なHDRコンテンツが提供される場合において、本発明は、これに関連するメタデータ及びその伝達方案を提案する。これを通じて、コンテンツの様々な場面別の特性に応じて適応的にコンテンツを調整することができ、コンテンツを改善された画質で提供することができる。   The present invention proposes a next-generation media service provision method that provides content capable of supporting HDR (High Dynamic Range). In the case where HDR content capable of expressing rich brightness is provided, the present invention proposes related metadata and a transmission method thereof. Through this, it is possible to adaptively adjust the content according to the various scene characteristics of the content, and to provide the content with improved image quality.

UHD放送などの場合、既存のコンテンツが表現できなかった明るさを表現できるため、高度の臨場感を提供することができる。HDRの導入でコンテンツ映像の明るさの表現範囲が増加して、コンテンツの場面別特性の差が以前よりも大きくなり得る。コンテンツの場面別特徴を効果的にディスプレイに示すために、メタデータが定義され、これらが受信機に伝達され得る。受信機では、伝達されたメタデータに基づいて、サービスプロバイダの意図に従ってコンテンツの映像を適切に提供することができる。   In the case of UHD broadcasting or the like, brightness that cannot be expressed by existing content can be expressed, so that a high level of realism can be provided. With the introduction of HDR, the expression range of the brightness of the content video is increased, and the difference in the characteristics of the content according to the scene can be larger than before. In order to effectively show the scene-specific features of the content on the display, metadata can be defined and communicated to the receiver. Based on the transmitted metadata, the receiver can appropriately provide the content video according to the intention of the service provider.

図示された実施例に係るDASHベースの適応型ストリーミングモデルは、HTTPサーバーとDASHクライアントとの間の動作を記述している。ここで、DASH(Dynamic Adaptive Streaming over HTTP)は、HTTPベースの適応型ストリーミングをサポートするためのプロトコルであって、ネットワークの状況に応じて動的にストリーミングをサポートすることができる。これによって、AVコンテンツの再生が途切れることなく提供され得る。   The DASH-based adaptive streaming model according to the illustrated embodiment describes the operation between an HTTP server and a DASH client. Here, DASH (Dynamic Adaptive Streaming over HTTP) is a protocol for supporting HTTP-based adaptive streaming, and can dynamically support streaming according to network conditions. Thereby, the reproduction of AV content can be provided without interruption.

まず、DASHクライアントはMPDを取得することができる。MPDは、HTTPサーバーなどのサービスプロバイダから伝達され得る。MPDは、前述したデリバリの実施例に従って伝達されてもよい。DASHクライアントは、MPDに記述されたセグメントへの接近(近接)情報を用いてサーバーに当該セグメントを要求することができる。ここで、この要求は、ネットワークの状態を反映して行われ得る。   First, the DASH client can obtain the MPD. The MPD may be communicated from a service provider such as an HTTP server. The MPD may be communicated according to the delivery embodiment described above. The DASH client can request the segment from the server using the approach (proximity) information to the segment described in the MPD. Here, this request may be made reflecting the state of the network.

DASHクライアントは、当該セグメントを取得した後、これをメディアエンジンで処理して画面にディスプレイすることができる。DASHクライアントは、再生時間及び/又はネットワークの状況などをリアルタイムに反映して、必要なセグメントを要求、取得することができる(Adaptive Streaming)。これを通じて、コンテンツが途切れることなく再生され得る。   After acquiring the segment, the DASH client can process it with the media engine and display it on the screen. The DASH client can request and acquire a necessary segment by reflecting the playback time and / or network status in real time (Adaptive Streaming). Through this, the content can be reproduced without interruption.

MPD(Media Presentation Description)は、DASHクライアントがセグメントを動的に取得できるようにするための詳細情報を含むファイルであって、XMLの形態で表現されてもよい。このMPDは、実施例によって、前述したMPDと同一であってもよい。   MPD (Media Presentation Description) is a file containing detailed information for allowing a DASH client to dynamically acquire a segment, and may be expressed in the form of XML. This MPD may be the same as the above-described MPD depending on the embodiment.

DASHクライアントコントローラ(DASH Client Controller)は、ネットワークの状況を反映して、MPD及び/又はセグメントを要求するコマンドを生成することができる。また、このコントローラは、取得された情報をメディアエンジンなどの内部ブロックで利用可能なように制御することができる。   A DASH client controller can generate commands that request MPDs and / or segments, reflecting network conditions. The controller can also control the acquired information so that it can be used by an internal block such as a media engine.

MPDパーサー(Parser)は、取得したMPDをリアルタイムでパーシングすることができる。これを通じて、DASHクライアントコントローラは、必要なセグメントを取得できるコマンドを生成できるようになる。   The MPD parser (Parser) can parse the acquired MPD in real time. Through this, the DASH client controller can generate a command that can acquire a necessary segment.

セグメントパーサー(Parser)は、取得したセグメントをリアルタイムでパーシングすることができる。セグメントに含まれた情報によって、メディアエンジンなどの内部ブロックは特定の動作を行うことができる。   The segment parser (Parser) can parse the acquired segment in real time. Depending on the information contained in the segment, an internal block such as a media engine can perform a specific operation.

HTTPクライアントは、必要なMPD及び/又はセグメントなどをHTTPサーバーに要求することができる。また、HTTPクライアントは、サーバーから取得したMPD及び/又はセグメントをMPDパーサー又はセグメントパーサーに伝達することができる。   The HTTP client can request the necessary MPD and / or segment from the HTTP server. In addition, the HTTP client can transmit the MPD and / or the segment acquired from the server to the MPD parser or the segment parser.

メディアエンジン(Media Engine)は、セグメントに含まれたメディアデータを用いてコンテンツを画面上に表示することができる。このとき、MPDの情報が活用され得る。   A media engine can display content on a screen using media data included in a segment. At this time, MPD information can be utilized.

図13は、本発明の一実施例に係る受信機のブロックダイヤグラムを示した図である。   FIG. 13 is a block diagram of a receiver according to an embodiment of the present invention.

図示された実施例に係る受信機は、チューナー(Tuner)、フィジカルレイヤコントローラ(Physical Layer Controller)、フィジカルフレームパーサー(Physical Frame Parser)、リンクレイヤフレームプロセッサ(Link Layer Frame Processor)、IP/UDPデータグラムフィルター(IP/UDP Datagram Filter)、DTVコントロールエンジン(DTV Control Engine)、ROUTEクライアント(Route Client)、セグメントバッファコントロール(Segment Buffer Control)、MMTクライアント(MMT Client)、MPUリコンストラクション(MPU reconstruction)、メディアプロセッサ(Media Processor)、シグナリングパーサー(Signaling Parser)、DASHクライアント(DASH Client)、ISO BMFFパーサー(ISO BMFF Parser)、メディアデコーダ(Media Decoder)及び/又はHTTPアクセスクライアント(HTTP Access Client)を含むことができる。受信機の各細部ブロック(block)は、ハードウェアであるプロセッサであってもよい。   The receiver according to the illustrated embodiment includes a tuner, a physical layer controller, a physical frame parser, a link layer frame processor, and IP / UDP data. Filter (IP / UDP Datagram Filter), DTV Control Engine (DTV Control Engine), ROUTE Client (Route Client), Segment Buffer Control (Segment Buffer Control), MMT Client (MMT Client), MPU Reconstruction (MPU Reco) instruction), media processor (Media Processor), signaling parser (Signaling Parser), DASH client (DASH Client), ISO BMFF parser (ISO BMFF Parser), media decoder (Media Decoder) and / or HTTP access client (HTTP Ccc) Can be included. Each detail block of the receiver may be a hardware processor.

チューナーは、地上波放送チャネルを介して放送信号を受信及び処理し、これを適切な形態(Physical Frameなど)に変換することができる。フィジカルレイヤコントローラは、受信しようとする放送チャネルのRF情報などを用いて、チューナー、フィジカルフレームパーサーなどの動作を制御することができる。フィジカルフレームパーサーは、受信されたフィジカルフレームをパーシングし、これと関連するプロセッシングを通じてリンクレイヤフレームなどを取得することができる。   The tuner can receive and process the broadcast signal via the terrestrial broadcast channel and convert it into an appropriate form (such as Physical Frame). The physical layer controller can control operations of a tuner, a physical frame parser, and the like using RF information of a broadcast channel to be received. The physical frame parser can parse the received physical frame and obtain a link layer frame or the like through processing associated therewith.

リンクレイヤフレームプロセッサは、リンクレイヤフレームからリンクレイヤシグナリングなどを取得するか、またはIP/UDPデータグラムを取得し、関連する演算を行うことができる。IP/UDPデータグラムフィルターは、受信されたIP/UDPデータグラムから特定のIP/UDPデータグラムをフィルタリングすることができる。DTVコントロールエンジンは、各構成間のインターフェースを担当し、パラメータなどの伝達を通じて各構成の動作を制御することができる。   The link layer frame processor may obtain link layer signaling or the like from the link layer frame or obtain an IP / UDP datagram and perform related operations. The IP / UDP datagram filter can filter specific IP / UDP datagrams from received IP / UDP datagrams. The DTV control engine is in charge of an interface between the components, and can control the operation of each component through transmission of parameters and the like.

ROUTEクライアントは、リアルタイムオブジェクト伝送をサポートするROUTE(Real−Time Object Delivery over Unidirectional Transport)パケットを処理し、多数のパケットを収集及び処理して一つ以上のISOBMFF(ISO Base Media File Format)オブジェクトを生成することができる。セグメントバッファコントロールは、ROUTEクライアントとDashクライアントとの間のセグメント(segment)伝送に関連するバッファを制御することができる。   A ROUTE client processes a ROUTE (Real-Time Object Delivery over Unidirectional Transport) packet that supports real-time object transmission, collects and processes a large number of packets, and generates one or more ISO BMF objects (ISO Base Media File Format). can do. The segment buffer control can control a buffer related to segment transmission between the ROUTE client and the Dash client.

MMTクライアントは、リアルタイムオブジェクト伝送をサポートするMMT(MPEG Media Transport)伝送プロトコルパケットを処理し、多数のパケットを収集及び処理することができる。MPUリコンストラクションは、MMTPパケットからMPU(Media Processing Unit)を再構成することができる。メディアプロセッサは、再構成されたMPUを収集し、処理することができる。   The MMT client processes MMT (MPEG Media Transport) transmission protocol packets supporting real-time object transmission, and can collect and process a large number of packets. The MPU reconstruction can reconstruct an MPU (Media Processing Unit) from the MMTP packet. The media processor can collect and process the reconstructed MPU.

シグナリングパーサーは、DTV放送サービス関連シグナリング(Link Layer/ Service Layer Signaling)を取得及びパーシングし、これに基づいてチャネルマップなどを生成及び/又は管理することができる。この構成は、ローレベルシグナリング及びサービスレベルシグナリングを処理することができる。   The signaling parser may acquire and parse DTV broadcast service related signaling (Link Layer / Service Layer Signaling), and generate and / or manage a channel map or the like based on the acquired and parsed signaling parser. This configuration can handle low level signaling and service level signaling.

DASHクライアントは、リアルタイムストリーミングあるいは適応的ストリーミング関連演算及び取得したDASHセグメントなどを処理することができる。ISO BMFFパーサーは、ISO BMFFオブジェクトからオーディオ/ビデオのデータ及び関連パラメータなどを抽出することができる。メディアデコーダは、受信されたオーディオ及びビデオデータをデコーディング及び/又はプレゼンテーション(presentation)処理することができる。HTTPアクセスクライアントは、HTTPサーバーから特定の情報を要求し、要求に対する応答を処理することができる。   The DASH client can process real-time streaming or adaptive streaming-related operations and acquired DASH segments. The ISO BMFF parser can extract audio / video data and related parameters from the ISO BMFF object. The media decoder can decode and / or present the received audio and video data. The HTTP access client can request specific information from the HTTP server and process the response to the request.

図14は、本発明の一実施例に係るメディアファイルの構造を示した図である。   FIG. 14 is a diagram illustrating the structure of a media file according to an embodiment of the present invention.

オーディオ又はビデオなどのメディアデータを格納し、伝送するために、定型化されたメディアファイルフォーマットが定義され得る。実施例によって、本発明のメディアファイルは、ISO BMFF(ISO base media file format)に基づいたファイルフォーマットを有してもよい。   A stylized media file format may be defined for storing and transmitting media data such as audio or video. Depending on the embodiment, the media file of the present invention may have a file format based on ISO BMFF (ISO base media file format).

本発明に係るメディアファイルは、少なくとも1つ以上のボックスを含むことができる。ここで、ボックス(box)は、メディアデータ又はメディアデータに関連するメタデータなどを含むデータブロック乃至オブジェクトであってもよい。ボックスは、互いに階層的構造をなすことができ、これによって、データが分類されて、メディアファイルが大容量メディアデータの格納及び/又は伝送に適した形態を有するようになる。また、メディアファイルは、ユーザがメディアコンテンツの特定の地点に移動するなど、メディア情報に接近するにおいて容易な構造を有することができる。   The media file according to the present invention may include at least one box. Here, the box may be a data block or an object including media data or metadata related to the media data. The boxes can be hierarchically structured with respect to each other so that the data is classified and the media file has a form suitable for storing and / or transmitting large-capacity media data. In addition, the media file may have an easy structure in accessing the media information, such as the user moving to a specific point of the media content.

本発明に係るメディアファイルは、ftypボックス、moovボックス及び/又はmdatボックスを含むことができる。   The media file according to the present invention may include an ftyp box, a moov box, and / or an mdat box.

ftypボックス(ファイルタイプボックス)は、当該メディアファイルに対するファイルタイプ又は互換性関連情報を提供することができる。ftypボックスは、当該メディアファイルのメディアデータに対する構成バージョン情報を含むことができる。復号器は、ftypボックスを参照して当該メディアファイルを区分することができる。   The ftyp box (file type box) can provide file type or compatibility related information for the media file. The ftyp box can include configuration version information for the media data of the media file. The decoder can classify the media file with reference to the ftyp box.

moovボックス(ムービーボックス)は、当該メディアファイルのメディアデータに対するメタデータを含むボックスであり得る。moovボックスは、全てのメタデータのためのコンテナの役割を果たすことができる。moovボックスは、メタデータ関連ボックスのうち最上位層のボックスであり得る。実施例によって、moovボックスはメディアファイル内に一つのみが存在してもよい。   The moov box (movie box) may be a box including metadata for the media data of the media file. The moov box can act as a container for all metadata. The moov box may be a top layer box among the metadata related boxes. Depending on the embodiment, there may be only one moov box in a media file.

mdatボックス(メディアデータボックス)は、当該メディアファイルの実際のメディアデータを入れるボックスであり得る。メディアデータは、オーディオサンプル及び/又はビデオサンプルを含むことができ、mdatボックスは、このようなメディアサンプルを入れるコンテナの役割を果たすことができる。   The mdat box (media data box) may be a box for storing actual media data of the media file. The media data can include audio samples and / or video samples, and the mdat box can act as a container for placing such media samples.

実施例によって、前述したmoovボックスは、mvhdボックス、trakボックス及び/又はmvexボックスなどを下位ボックスとしてさらに含んでもよい。   Depending on the embodiment, the moov box described above may further include an mvhd box, a trak box, and / or an mvex box as a lower box.

mvhdボックス(ムービーヘッダーボックス)は、当該メディアファイルに含まれるメディアデータのメディアプレゼンテーション関連情報を含むことができる。すなわち、mvhdボックスは、当該メディアプレゼンテーションのメディア生成時間、変更時間、時間規格、期間などの情報を含むことができる。   The mvhd box (movie header box) can include media presentation related information of media data included in the media file. That is, the mvhd box can include information such as media generation time, change time, time standard, and duration of the media presentation.

trakボックス(トラックボックス)は、当該メディアデータのトラックに関連する情報を提供することができる。trakボックスは、オーディオトラック又はビデオトラックに対するストリーム関連情報、プレゼンテーション関連情報、アクセス関連情報などの情報を含むことができる。trakボックスは、トラックの個数に応じて複数個存在してもよい。   The trak box (track box) can provide information related to the track of the media data. The trak box may include information such as stream related information, presentation related information, and access related information for an audio track or a video track. There may be a plurality of trak boxes depending on the number of tracks.

trakボックスは、実施例によって、tkhdボックス(トラックヘッダーボックス)を下位ボックスとしてさらに含んでもよい。tkhdボックスは、trakボックスが示す当該トラックに関する情報を含むことができる。tkhdボックスは、当該トラックの生成時間、変更時間、トラック識別子などの情報を含むことができる。   The trak box may further include a tkhd box (track header box) as a lower box according to an embodiment. The tkhd box can include information regarding the track indicated by the trak box. The tkhd box can include information such as the generation time, change time, and track identifier of the track.

mvexボックス(ムービーエクステンドボックス)は、当該メディアファイルに後述するmoofボックスが存在し得ることを示すことができる。特定のトラックの全てのメディアサンプルを知るために、moofボックスがスキャンされなければならない。   The mvex box (movie extend box) can indicate that a moof box described later can exist in the media file. In order to know all the media samples of a particular track, the moof box must be scanned.

本発明に係るメディアファイルは、実施例によって、複数個のフラグメントに分けられてもよい(t14010)。これを通じて、メディアファイルが分割されて格納又は伝送され得る。メディアファイルのメディアデータ(mdatボックス)は複数個のフラグメントに分けられ、それぞれのフラグメントは、moofボックス及び分けられたmdatボックスを含むことができる。実施例によって、フラグメントを活用するためには、ftypボックス及び/又はmoovボックスの情報が必要となり得る。   The media file according to the present invention may be divided into a plurality of fragments according to an embodiment (t14010). Through this, the media file can be divided and stored or transmitted. The media data (mdat box) of the media file is divided into a plurality of fragments, and each fragment may include a moof box and a divided mdat box. Depending on the embodiment, information of the ftyp box and / or the moov box may be required to take advantage of the fragment.

moofボックス(ムービーフラグメントボックス)は、当該フラグメントのメディアデータに対するメタデータを提供することができる。moofボックスは、当該フラグメントのメタデータ関連ボックスのうち最上位層のボックスであり得る。   The moof box (movie fragment box) can provide metadata for the media data of the fragment. The moof box may be a top layer box among the metadata related boxes of the fragment.

mdatボックス(メディアデータボックス)は、前述したように、実際のメディアデータを含むことができる。このmdatボックスは、それぞれの当該フラグメントに該当するメディアデータのメディアサンプルを含むことができる。   The mdat box (media data box) can include actual media data as described above. The mdat box can include media samples of media data corresponding to each of the fragments.

実施例によって、前述したmoofボックスは、mfhdボックス及び/又はtrafボックスなどを下位ボックスとしてさらに含んでもよい。   Depending on the embodiment, the moof box described above may further include an mfhd box and / or a traf box as a lower box.

mfhdボックス(ムービーフラグメントヘッダーボックス)は、分割された複数個のフラグメント間の連関性に関連する情報を含むことができる。mfhdボックスは、シーケンス番号(sequence number)を含むことで、当該フラグメントのメディアデータが分割された何番目のデータであるかを示すことができる。また、mfhdボックスを用いて、分割されたデータのうち抜け落ちたものがあるかどうかを確認できる。   The mfhd box (movie fragment header box) may include information related to the association between a plurality of divided fragments. The mfhd box can indicate the number of data obtained by dividing the media data of the relevant fragment by including a sequence number (sequence number). In addition, it is possible to check whether there is any missing data among the divided data using the mfhd box.

trafボックス(トラックフラグメントボックス)は、当該トラックフラグメントに対する情報を含むことができる。trafボックスは、当該フラグメントに含まれる分割されたトラックフラグメントに対するメタデータを提供することができる。trafボックスは、当該トラックフラグメント内のメディアサンプルが復号化/再生され得るようにメタデータを提供することができる。trafボックスは、トラックフラグメントの個数に応じて複数個存在してもよい。   The traf box (track fragment box) can include information on the track fragment. The traf box can provide metadata for the divided track fragments included in the fragment. The traf box can provide metadata so that the media samples in the track fragment can be decoded / played. There may be a plurality of traf boxes depending on the number of track fragments.

実施例によって、前述したtrafボックスは、tfhdボックス及び/又はtrunボックスなどを下位ボックスとしてさらに含んでもよい。   Depending on the embodiment, the above-described traf box may further include a tfhd box and / or a trun box as a lower box.

tfhdボックス(トラックフラグメントヘッダーボックス)は、当該トラックフラグメントのヘッダー情報を含むことができる。tfhdボックスは、前述したtrafボックスが示すトラックフラグメントのメディアサンプルに対して、基本的なサンプルのサイズ、期間、オフセット、識別子などの情報を提供することができる。   The tfhd box (track fragment header box) can include header information of the track fragment. The tfhd box can provide information such as a basic sample size, a period, an offset, and an identifier for the media sample of the track fragment indicated by the traf box.

trunボックス(トラックフラグメントランボックス)は、当該トラックフラグメント関連情報を含むことができる。trunボックスは、メディアサンプル毎の期間、サイズ、再生時点などのような情報を含むことができる。   The trun box (track fragment run box) can include information related to the track fragment. The trun box may contain information such as the duration, size, playback time, etc. for each media sample.

前述したメディアファイル乃至メディアファイルのフラグメントは、セグメントとして処理されて伝送され得る。セグメントには、初期化セグメント(initialization segment)及び/又はメディアセグメント(media segment)があり得る。   The aforementioned media file or media file fragment can be processed and transmitted as a segment. The segment can be an initialization segment and / or a media segment.

図示された実施例(t14020)のファイルは、メディアデータは除いて、メディアデコーダの初期化に関連する情報などを含むファイルであり得る。このファイルは、例えば、前述した初期化セグメントに該当してもよい。初期化セグメントは、前述したftypボックス及び/又はmoovボックスを含むことができる。   The file of the illustrated embodiment (t14020) may be a file including information related to initialization of the media decoder, etc., except for media data. This file may correspond to, for example, the initialization segment described above. The initialization segment can include the ftyp box and / or the moov box described above.

図示された実施例(t14030)のファイルは、前述したフラグメントを含むファイルであり得る。このファイルは、例えば、前述したメディアセグメントに該当してもよい。メディアセグメントは、前述したmoofボックス及び/又はmdatボックスを含むことができる。また、メディアセグメントは、stypボックス及び/又はsidxボックスをさらに含むことができる。   The file of the illustrated embodiment (t14030) can be a file containing the aforementioned fragment. This file may correspond to, for example, the media segment described above. The media segment may include the moof box and / or the mdat box described above. The media segment may further include a styp box and / or a sidx box.

stypボックス(セグメントタイプボックス)は、分割されたフラグメントのメディアデータを識別するための情報を提供することができる。stypボックスは、分割されたフラグメントに対して、前述したftypボックスと同様の役割を果たすことができる。実施例によって、stypボックスは、ftypボックスと同じフォーマットを有してもよい。   The type box (segment type box) can provide information for identifying media data of divided fragments. The styp box can play the same role as the above-described ftyp box for the divided fragments. Depending on the embodiment, the styp box may have the same format as the ftyp box.

sidxボックス(セグメントインデックスボックス)は、分割されたフラグメントに対するインデックスを示す情報を提供することができる。これを通じて、当該分割されたフラグメントが何番目のフラグメントであるかを示すことができる。   The sidx box (segment index box) can provide information indicating an index for the divided fragment. Through this, it is possible to indicate the number of the fragment that has been divided.

実施例によって(t14040)、ssixボックスがさらに含まれてもよく、ssixボックス(サブセグメントインデックスボックス)は、セグメントがサブセグメントにさらに分けられる場合において、そのサブセグメントのインデックスを示す情報を提供することができる。   Depending on the embodiment (t14040), a ssix box may further be included, the ssix box (sub-segment index box) providing information indicating an index of the sub-segment when the segment is further divided into sub-segments. Can do.

メディアファイル内のボックスは、図示された実施例(t14050)のようなボックス乃至フルボックス(FullBox)の形態をベースとして、さらに拡張された情報を含むことができる。この実施例において、sizeフィールド及びlargesizeフィールドは、当該ボックスの長さをバイト単位などで示すことができる。versionフィールドは、当該ボックスのフォーマットのバージョンを示すことができる。typeフィールドは、当該ボックスのタイプ乃至識別子を示すことができる。flagsフィールドは、当該ボックスに関連するフラグなどを示すことができる。   The box in the media file may include further expanded information based on a form of a box or a full box (FullBox) like the illustrated embodiment (t14050). In this embodiment, the size field and the largeize field can indicate the length of the box in bytes. The version field can indicate the format version of the box. The type field can indicate the type or identifier of the box. The flags field can indicate a flag related to the box.

図15は、本発明の一実施例に係るSLTを介したブートストラッピング過程を示した図である。   FIG. 15 is a diagram illustrating a bootstrapping process through an SLT according to an embodiment of the present invention.

前述したように、SLTのブートストラップ情報を介してSLSブートストラッピングが行われてもよい。前述したように、SLTは、IP/UDPで処理されて伝送されてもよく、実施例によって、IP/UDPで処理されずに伝送されてもよい。一般に、SLTなどのLLS(Low Level Signaling)は、当該伝送において最も堅固な(robust)方法により伝達され得る。   As described above, SLS bootstrapping may be performed via SLT bootstrap information. As described above, the SLT may be transmitted after being processed by IP / UDP, or may be transmitted without being processed by IP / UDP according to an embodiment. Generally, LLS (Low Level Signaling) such as SLT can be transmitted by the most robust method in the transmission.

SLSがROUTEプロトコルによって伝送される場合、受信機は、SLTのブートストラップ情報を介して当該SLSに接近することができる。ROUTE SLSの情報を用いて当該サービスのサービスコンポーネントを取得することができる。ここで、SLS及びサービスコンポーネントは、ROUTE、UDP、及びIPプロトコルによって伝送され得る。   When the SLS is transmitted by the ROUTE protocol, the receiver can approach the SLS via the SLT bootstrap information. The service component of the service can be acquired using the information of the ROUTE SLS. Here, the SLS and service components may be transmitted by ROUTE, UDP, and IP protocols.

SLSがMMTプロトコルによって伝送される場合、受信機は、SLTのブートストラップ情報を介して当該SLSに接近することができる。MMTP SLSの情報を用いて当該サービスのサービスコンポーネントを取得することができる。MMTP SLSには、USBD及び/又はMMTPメッセージが含まれてもよい。前述したように、USBDは、MMTPメッセージをリファレンスすることができ、MMTPメッセージにおいてMPTメッセージは、MMTプロトコルによって伝達されるストリーミングコンポーネントを取得するための情報を提供することができる。MMTのUSBDは、ROUTEプロトコルで伝達される当該サービスのNRTコンポーネントを取得するためのS−TSIDをさらにリファレンスすることができる。前述したMPTメッセージ以外にも、他の情報を提供するための他のMMTPメッセージが定義されてもよい。ここで、SLS及びストリーミングコンポーネントは、MMT、UDP、及びIPプロトコルによって伝達されてもよい。ここで、NRTコンポーネントは、ROUTE、UDP、及びIPプロトコルによって伝送されてもよい。詳細なブートストラッピングの過程は、前述した通りである。   If the SLS is transmitted according to the MMT protocol, the receiver can access the SLS via the bootstrap information of the SLT. The service component of the service can be acquired using the MMTP SLS information. The MMTP SLS may include USBD and / or MMTP messages. As described above, the USBD can refer to the MMTP message, and the MPT message in the MMTP message can provide information for obtaining the streaming component conveyed by the MMT protocol. The MMT USBD can further reference the S-TSID for acquiring the NRT component of the service transmitted by the ROUTE protocol. In addition to the MPT message described above, other MMTP messages for providing other information may be defined. Here, the SLS and streaming components may be conveyed by MMT, UDP, and IP protocols. Here, the NRT component may be transmitted by ROUTE, UDP, and IP protocols. The detailed bootstrapping process is as described above.

図16は、本発明の一実施例に係るMMTプロトコルベースのシグナリングの流れを示した図である。   FIG. 16 is a diagram illustrating an MMT protocol-based signaling flow according to an embodiment of the present invention.

まず、SLTを取得し、これを用いてSLSを取得する過程は同一であってもよい。MMTベースのシグナリングの場合、SLSは、USBD及び/又はMMTPメッセージを含むことができる。USBDから、当該サービスに関連するMMTパッケージ(Package)に関する情報を取得することができる。これを用いて、サービスシグナリングチャネルなどからMPT(MP Table)メッセージを取得することができる。MPTメッセージを介して、当該サービスのサービスコンポーネントを取得することができる。図示された実施例において、スケーラブルコーディングコンテンツのベースレイヤに対するアセット(Asset)及び/又はエンハンスメントレイヤに対するアセットに関する情報を取得することができる。また、各アセットを取得できる経路(伝送セッションなど...)が取得され得る。ここで、アセットは、サービスのサービスコンポーネントに該当し得る。当該経路を介してMPUを取得し、これをデコードして再生することができる。詳細なブートストラッピングの過程は、前述した通りである。   First, the process of acquiring the SLT and using this to acquire the SLS may be the same. For MMT-based signaling, the SLS can include USBD and / or MMTP messages. Information about the MMT package (Package) related to the service can be acquired from the USBD. By using this, an MPT (MP Table) message can be acquired from a service signaling channel or the like. The service component of the service can be acquired via the MPT message. In the illustrated embodiment, information about assets for the base layer of scalable coding content (Asset) and / or assets for the enhancement layer can be obtained. In addition, a route (such as a transmission session) in which each asset can be acquired can be acquired. Here, the asset may correspond to a service component of the service. The MPU can be acquired via the path, and can be decoded and reproduced. The detailed bootstrapping process is as described above.

実施例によって、MPTメッセージ以外の他のMMTPメッセージが定義されてもよい。これらのメッセージを介して、当該サービスに対する付加的な情報を伝達することができる。例えば、スケーラブルコーディング関連情報、3D関連情報、HDR関連情報、カラーガマット関連情報、サービスコンポーネントに対する付加情報などが、これらのメッセージを介して伝達されてもよい。実施例によって、ブロードバンドを介して伝達されるサービスコンポーネントのためのMPD、またはアプリケーションシグナリングのためのテーブル、イベント情報もまた、このメッセージを介して伝達されてもよい。   Depending on the embodiment, MMTP messages other than MPT messages may be defined. Additional information about the service can be transmitted via these messages. For example, scalable coding related information, 3D related information, HDR related information, color gamut related information, additional information for service components, and the like may be transmitted via these messages. Depending on the embodiment, MPD for service components communicated via broadband, or table for application signaling, event information may also be communicated via this message.

図17は、本発明の一実施例に係るケイパビリティディスクリプタを示した図である。   FIG. 17 is a diagram illustrating a capability descriptor according to an embodiment of the present invention.

本発明は、放送サービス又はサービスに含まれるサービスコンポーネントのケイパビリティ情報をシグナリングする方案を提案する。サービス/サービスコンポーネントに対するケイパビリティ又はケイパビリティグループに対してシグナリングを行うことができ、ターゲットデバイス(target device)に応じて、ケイパビリティ情報がシグナリングされてもよい。   The present invention proposes a method of signaling capability information of a service component included in a broadcast service or service. Signaling may be performed for capabilities or capability groups for services / service components, and capability information may be signaled depending on the target device.

前述したSLTにはケイパビリティ情報が含まれてもよい。SLTが記述するサービス全体に対するケイパビリティ情報であってもよく、SLTが記述するそれぞれのサービスに対するサービスレベルのケイパビリティ情報であってもよい。前述した@sltCapabilities属性又は@svcCapabilities属性がここに該当し得る。SLTがバイナリフォーマットを有する場合、ケイパビリティ情報は、SLTレベルのディスクリプタ又はSLSレベルのディスクリプタとしてSLTに含まれてもよい。   The aforementioned SLT may include capability information. It may be capability information for the entire service described by the SLT, or may be capability information of a service level for each service described by the SLT. The above-mentioned @sltCapabilities attribute or @svcCapabilities attribute may correspond here. If the SLT has a binary format, capability information may be included in the SLT as an SLT level descriptor or an SLS level descriptor.

図示されたケイパビリティディスクリプタは、前述したケイパビリティ情報をディスクリプタの形態で示したものである。しかし、実施例によって、ケイパビリティ情報は、XMLなどの他のフォーマットで表現されてもよい。また、実施例によって、図示されたケイパビリティディスクリプタ内の情報のような情報が、前述したSLTの@sltCapabilities属性又は@svcCapabilities属性に含まれてもよい。この場合、ディスクリプタタグ、ディスクリプタの長さ情報などは省略されてもよい。以下では、ディスクリプタを基準として、このケイパビリティ情報を説明する。   The capability descriptor shown in the figure represents the above-described capability information in the form of a descriptor. However, according to the embodiment, the capability information may be expressed in other formats such as XML. Also, depending on the embodiment, information such as information in the illustrated capability descriptor may be included in the above-described SLT @sltCapabilities attribute or @svcCapabilities attribute. In this case, the descriptor tag, descriptor length information, and the like may be omitted. Below, this capability information is demonstrated on the basis of a descriptor.

図示された実施例のケイパビリティディスクリプタは、descriptor_tagフィールド、descriptor_lengthフィールド及び/又はnum_capability_codesフィールドを含むことができる。descriptor_tagフィールド及びdescriptor_lengthフィールドは、それぞれ、当該ディスクリプタがケイパビリティディスクリプタであることを識別する情報、及び当該ディスクリプタの長さ情報を提供することができる。   The capability descriptor of the illustrated embodiment may include a descriptor_tag field, a descriptor_length field, and / or a num_capability_codes field. The descriptor_tag field and the descriptor_length field can respectively provide information for identifying that the descriptor is a capability descriptor, and length information of the descriptor.

num_capability_codesフィールドは、当該ディスクリプタが含むケイパビリティ情報の個数を示すことができる。実施例によって、このフィールドは、当該ディスクリプタが含むケイパビリティコードの個数を示してもよい。num_capability_codesフィールドの値に応じて、それぞれのケイパビリティ情報に対する細部フィールドがさらに含まれてもよい。細部フィールドとしては、essential_indicatorフィールド、capability_categoryフィールド及び/又はcapability_codeフィールドがあり得る。実施例によって、essential_indicatorフィールドは省略されてもよい。   The num_capability_codes field can indicate the number of capability information included in the descriptor. Depending on the embodiment, this field may indicate the number of capability codes included in the descriptor. Depending on the value of the num_capability_codes field, a detail field for each capability information may be further included. The detail field may include an essential_indicator field, a capability_category field, and / or a capability_code field. Depending on the embodiment, the essential_indicator field may be omitted.

essential_indicatorフィールドは、後続するケイパビリティコードが当該サービス又はサービスコンポーネントを再生する際に必ずサポートされなければならないケイパビリティであるか否かを示すことができる。このフィールドの値が1である場合、当該サービス又はサービスコンポーネントを再生する際に、後続するケイパビリティが必ずサポートされなければならないことを知ることができる。   The essential_indicator field may indicate whether a subsequent capability code is a capability that must be supported when playing the service or service component. If the value of this field is 1, it can be known that the following capabilities must be supported when playing the service or service component.

capability_categoryフィールドは、後続するケイパビリティ情報のカテゴリを示すことができる。実施例によって、本フィールドは、後続するケイパビリティ情報が適用される対象を示してもよい。ケイパビリティカテゴリ情報は、ケイパビリティのカテゴリを分類するためであり得る。実施例によって、ケイパビリティカテゴリ情報は、当該サービス又はサービスコンポーネントに対して同一に適用できるケイパビリティをグループ化するためであってもよい。これを通じて、サービス内のコンポーネントに同一に適用されるケイパビリティ或いはコンポーネント別に適用されるケイパビリティ情報などがシグナリングされ得る。   The capability_category field can indicate a category of capability information that follows. Depending on the embodiment, this field may indicate a target to which subsequent capability information is applied. The capability category information may be for classifying capability categories. Depending on the embodiment, the capability category information may be for grouping capabilities that can be equally applied to the service or service component. Through this, capabilities that are applied to the components in the service in the same manner or capability information that is applied to each component can be signaled.

例えば、本フィールドの値が0x02である場合、当該ケイパビリティは、ビデオコンポーネントに関連するケイパビリティであってもよい。すなわち、後続するケイパビリティコードがビデオ関連ケイパビリティに対するケイパビリティコードであることを知ることができる。例えば、ビデオコーデック、レゾリューション、ビデオプロビジョンメソッド(provision method)、伝送プロトコル、FECアルゴリズム、ターゲットデバイスなどに関連するケイパビリティコードが後続してもよい。   For example, when the value of this field is 0x02, the capability may be a capability related to the video component. That is, it can be known that the following capability code is a capability code for the video-related capability. For example, a capability code associated with a video codec, resolution, video provision method, transmission protocol, FEC algorithm, target device, etc. may follow.

本フィールドの値が0x03である場合、当該ケイパビリティは、オーディオコンポーネントに関連するケイパビリティであってもよい。すなわち、後続するケイパビリティコードがオーディオ関連ケイパビリティに対するケイパビリティコードであることを知ることができる。例えば、オーディオコーデック、オーディオチャネル、伝送プロトコル、FECアルゴリズム、ターゲットデバイスなどに関連するケイパビリティコードが後続してもよい。   When the value of this field is 0x03, the capability may be a capability related to the audio component. That is, it can be known that the following capability code is a capability code for the audio-related capability. For example, capability codes associated with audio codecs, audio channels, transmission protocols, FEC algorithms, target devices, etc. may follow.

本フィールドの値が0x04である場合、当該ケイパビリティは、クローズドキャプション(closed caption)に関するケイパビリティであってもよい。例えば、クローズドキャプションのタイプ、伝送プロトコル、FECアルゴリズム、ターゲットデバイスなどに関連するケイパビリティコードが後続してもよい。   When the value of this field is 0x04, the capability may be a capability related to a closed caption. For example, the capability code associated with the type of closed caption, transmission protocol, FEC algorithm, target device, etc. may follow.

本フィールドの値が0x05である場合、当該ケイパビリティは、アプリケーションに関連するケイパビリティであってもよい。例えば、アプリケーションのタイプ、伝送プロトコル、FECアルゴリズム、ターゲットデバイスなどに関連するケイパビリティコードが後続してもよい。   When the value of this field is 0x05, the capability may be a capability related to the application. For example, the capability code associated with the type of application, transmission protocol, FEC algorithm, target device, etc. may be followed.

本フィールドの値が0x06〜0x08である場合、当該ケイパビリティは、それぞれ、伝送プロトコル、FECアルゴリズム、ターゲットデバイスに関するケイパビリティであってもよい。すなわち、ビデオ/オーディオ/クローズドキャプション/アプリケーションに関連するケイパビリティではない。この場合、後続するケイパビリティコードによって指示される伝送プロトコル、FECアルゴリズム及びターゲットデバイスに対する事項は、当該サービス内の全てのコンポーネント(ビデオ/オーディオ/クローズドキャプション/アプリケーション)に同一に適用できる。   When the value of this field is 0x06 to 0x08, the capability may be a capability related to a transmission protocol, an FEC algorithm, and a target device, respectively. That is, it is not a capability associated with video / audio / closed caption / application. In this case, the transmission protocol, FEC algorithm and items for the target device indicated by the following capability code can be applied to all components (video / audio / closed caption / application) in the service.

capability_codeフィールドは、当該サービス又はサービスコンポーネントに対するケイパビリティ情報を示すケイパビリティコードを指示することができる。ここで、ケイパビリティコードは、それぞれのケイパビリティに対して指定されたコード値であってもよい。これについては後述する。   The capability_code field can indicate a capability code indicating capability information for the service or service component. Here, the capability code may be a code value designated for each capability. This will be described later.

例えば、ある放送サービスが、HEVCをベースとするUHDビデオ、MPEG−Hをベースとする7.1チャネルオーディオ、及びSMPTEタイムドテキスト(Timed Text)をベースとするクローズドキャプションを提供する場合、当該ディスクリプタは、これを示すケイパビリティコードを有することができる。この場合、num_capability_codeは、0x05の値を有することができる。5個のcapability_codeは、それぞれ0x13(HEVC)、0x22(ultra high definition video)、0x40(MPEG−H audio)、0x52(7.1channel)及び/又は0x60(SMPTE timed text)の値を有することができる。ここで、essential_indicatorフィールドは省略されてもよい。   For example, if a broadcast service provides UVC video based on HEVC, 7.1 channel audio based on MPEG-H, and closed caption based on SMPTE timed text (Timed Text), the descriptor May have a capability code indicating this. In this case, num_capability_code may have a value of 0x05. The five capability_codes can have values of 0x13 (HEVC), 0x22 (ultra high definition video), 0x40 (MPEG-H audio), 0x52 (7.1 channel) and / or 0x60 (SMPTE timed text), respectively. . Here, the essential_indicator field may be omitted.

図18は、本発明の一実施例に係るケイパビリティコードを示した図である。   FIG. 18 is a diagram illustrating a capability code according to an embodiment of the present invention.

ケイパビリティコードは、前述したように、当該サービス又はサービスコンポーネントに対するケイパビリティを示すコードであってもよい。図示されたケイパビリティコードは、前述したcapability_codeフィールドに使用可能な値であり得る。図示されたケイパビリティコードの各分類(ビデオ、オーディオなど...)は、前述したcapability_categoryフィールドに使用可能な値であり得る。   As described above, the capability code may be a code indicating the capability for the service or service component. The illustrated capability code may be a value that can be used in the capability_code field described above. Each classification (video, audio, etc.) of the illustrated capability codes may be a value that can be used in the capability_category field described above.

実施例によって、図示されたケイパビリティコードの前部のディジット(例えば、0x01,0x02,0x03...)を、ケイパビリティのカテゴリを識別するのに使用してもよい。この場合、当該ケイパビリティコードの残りのディジットは、当該カテゴリ内で当該ケイパビリティを識別するのに使用することができる。本発明の一実施例に係るケイパビリティコードは、ハイクオリティビデオエンハンスメントタイプ(High Quality Video Enhancement Type)に対するケイパビリティコードを含むことができる。例えば、ケイパビリティコードが0xA0である場合、HDR(high dynamic range)、0xA1である場合、WCG(wide color gamut)、0xA2である場合、HFR(high frame rate)を示すことができる。   Depending on the embodiment, the digits at the front of the illustrated capability code (eg, 0x01, 0x02, 0x03 ...) may be used to identify a capability category. In this case, the remaining digits of the capability code can be used to identify the capability within the category. The capability code according to an exemplary embodiment of the present invention may include a capability code for a high quality video enhancement type (High Quality Video Enhancement Type). For example, when the capability code is 0xA0, HDR (high dynamic range), when it is 0xA1, when it is WCG (wide color gamut), and when it is 0xA2, it can indicate HFR (high frame rate).

図19は、本発明の他の実施例に係るUSBDの一部を示した図である。   FIG. 19 is a diagram showing a part of a USBD according to another embodiment of the present invention.

本発明は、放送サービス又はサービスに含まれるサービスコンポーネントのケイパビリティ情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対するビデオ/オーディオ/クローズドキャプション情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対するHEVCビデオ関連情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対するSMPTE−TT又はCEA−809ベースのクローズドキャプションに関する情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対する3D、スケーラブルコンテンツ、コンポーネントグループ、リアルタイムコンテンツであるか又は非リアルタイムコンテンツであるか、接近(近接)性(accessibility)、ディスプレイ領域に対するビューコンフィギュレーション、及びターゲットスクリーンに関する情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対するHDR(High Dynamic Range)、WCG(wide color gamut)、HFR(High Frame Rate)、及びプルダウンリカバリーコンフィギュレーション(Pull Down Recovery Configuration)情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに対する3Dオーディオ、AC−4、及びMPEG−H関連情報をシグナリングする方案を提案する。また、本発明は、サービス/サービスコンポーネントに関連して、PIP(Picture in Picture)関連情報をシグナリングする方案を提案する。これと関連して、PIPのSRD(Spatial Relationship Description)関連情報、ディスプレイプライオリティー(priority)情報、互いに異なるコンテンツソース間のSRDシグナリング情報、各ビュー(view)のディスプレイ領域に対するシグナリング情報、及び各ビュー(view)の役割に関するシグナリング情報がシグナリングされ得る。   The present invention proposes a method of signaling capability information of a service component included in a broadcast service or service. The present invention also proposes a scheme for signaling video / audio / closed caption information for a service / service component. The present invention also proposes a scheme for signaling HEVC video related information for a service / service component. The present invention also proposes a scheme for signaling information on SMPTE-TT or CEA-809 based closed captions for services / service components. The present invention also provides 3D for services / service components, scalable content, component groups, real-time or non-real-time content, accessibility, view configuration for display area, and target A method for signaling information about the screen is proposed. The present invention also provides a method for signaling HDR (High Dynamic Range), WCG (Wide Color Gamut), HFR (High Frame Rate), and Pull Down Recovery Configuration (Pull Down Recovery Configuration) information for a service / service component. To do. The present invention also proposes a scheme for signaling 3D audio, AC-4, and MPEG-H related information for services / service components. In addition, the present invention proposes a scheme for signaling PIP (Picture in Picture) related information in relation to a service / service component. In this connection, PIP SRD (Spatial Relationship Description) related information, display priority information, SRD signaling information between different content sources, signaling information for the display area of each view, and each view Signaling information regarding the role of (view) may be signaled.

前述した情報は、実施例によって、SLT又は他のサービスシグナリング情報に含まれて伝達されてもよい。実施例によって、これらの情報は、ROUTE又はMMTによるUSBDに含まれて伝達されてもよい。また、実施例によって、これらの情報は、ROUTE SLSの一つとして定義されて、他のSLSと共に伝達されてもよく、MMTP SLSの一つとして定義されて、前述したMMTPメッセージのうち1つに含まれて伝達されてもよい。実施例によって、これらの情報は、MPD内に含まれて伝達されてもよく、この場合、前述したエッセンシャルプロパティ(EssentialProperty)及び/又はサプリメンタルプロパティ(SupplementalProperty)に含まれて伝達されてもよい。実施例によって、これらの情報は、MMTPメッセージにおいて前述したMPTメッセージに含まれたり、別に定義されたMMTPメッセージのうち1つに含まれて伝達されてもよい。実施例によって、これらの情報は、XML又はバイナリ形態の様々なディスクリプタで定義されて伝達されてもよく、エレメントで構成されてROUTE、MMT、3GPPなどによるシグナリング情報に含まれて伝達されてもよい。この情報については詳細に後述する。   The information described above may be transmitted by being included in SLT or other service signaling information according to an embodiment. Depending on the embodiment, the information may be transmitted by being included in USBD by ROUTE or MMT. Also, depending on the embodiment, this information may be defined as one of the ROUTE SLS and may be transmitted along with other SLS, and may be defined as one of the MMTP SLS and be included in one of the MMTP messages described above. It may be included and communicated. Depending on the embodiment, these pieces of information may be included and transmitted in the MPD. In this case, the information may be included and transmitted in the above-described essential property (EssentialProperty) and / or supplemental property (SupplementalProperty). Depending on the embodiment, the information may be included in the MPT message described above in the MMTP message, or may be included in one of the separately defined MMTP messages. Depending on the embodiment, these pieces of information may be defined and transmitted in various descriptors in XML or binary form, or may be included in signaling information formed by elements, such as ROUTE, MMT, 3GPP, etc. . This information will be described later in detail.

前述したROUTE又はMMTのUSBDは、実施例によって、ComponentInfoエレメントを含んでもよい。ComponentInfoエレメントについては、前述した通りである。実施例によって、ComponentInfoエレメントは、図示されたフィールドをさらに含むように拡張されてもよい。   The ROUTE or MMT USBD described above may include a ComponentInfo element, depending on the embodiment. The ComponentInfo element is as described above. Depending on the embodiment, the ComponentInfo element may be extended to further include the illustrated fields.

図示された実施例において、ComponentInfoエレメントは、@componentGroupId、@essentialIndicator、@dependentComponentID、@protocolType、@rt、@targetDevice、@componentCodec、@componentProfile、@componentLang、@width、@height、Accessibility、Capability、Rating、Targeting、ComponentDescription及び/又はComponentPropertyをさらに含むことができる。実施例によって、この追加されたフィールドの一部のみがComponentInfoエレメントに追加されてもよい。   In the illustrated example, the ComponentInfo elements are @componentGroupId, @essentialIndicator, @dependentComponentID, @protocolTypeType, @rt, @ targetDevice @ componentCode, @componentProh, It may further include Targeting, Component Description and / or ComponentProperty. Depending on the embodiment, only a portion of this added field may be added to the ComponentInfo element.

@componentGroupIdは、コンポーネントグループの識別子であってもよい。ここで、コンポーネントグループはコンポーネントのコレクションであり得る。コンポーネントグループに含まれるコンポーネントは、同じシーン(scene)を示す、またはプレゼンテーションを生成するために組み合わされるコンポーネントであってもよい。例えば、完成されたオーディオを提供するために使用されるミュージック、ダイアログ、及び音響エフェクトを含むサービスコンポーネントは、一つのコンポーネントグループにグループ化することができる。また、3D映像の左映像及び右映像を含むサービスコンポーネントは、一つのコンポーネントグループにグループ化することができる。   @ComponentGroupId may be an identifier of a component group. Here, a component group can be a collection of components. Components included in a component group may be components that show the same scene or are combined to generate a presentation. For example, service components including music, dialogs, and sound effects used to provide completed audio can be grouped into a component group. In addition, service components including a left video and a right video of 3D video can be grouped into one component group.

@essentialIndicatorは、当該コンポーネントが当該サービスにおいて必須のコンポーネントであるか否かを示すことができる。このフィールドの値が1である場合、当該コンポーネントは、当該サービスにおいて必須のコンポーネントであってもよい。@dependentComponentIDは、従属的なコンポーネントに対する識別子を示すことができる。例えば、エンハンスドビデオコンポーネントにおいて、このフィールドはベースビデオコンポーネントの識別子を示すことができる。   @EssentialIndicator can indicate whether the component is an essential component in the service. When the value of this field is 1, the component may be an essential component in the service. @DependentComponentID can indicate an identifier for a dependent component. For example, in the enhanced video component, this field can indicate the identifier of the base video component.

@protocolTypeは、当該コンポーネントを伝達する伝送プロトコルを示すことができる。例えば、ROUTE又はMMTプロトコルを示すことができる。@rtは、当該コンポーネントがリアルタイムコンポーネントであるか否かを示すことができる。   @ProtocolType may indicate a transmission protocol that conveys the component. For example, a ROUTE or MMT protocol can be indicated. @Rt can indicate whether the component is a real-time component.

@targetDeviceは、当該コンポーネントがターゲットとするターゲットデバイスを示すことができる。例えば、このフィールドの値が0、1、2、3である場合、当該コンポーネントは、それぞれプライマリデバイス、コンパニオンデバイス、プライマリ&コンパニオンデバイス、プライマリスクリーンのインセットのためのコンポーネントであることを示すことができる。   @TargetDevice can indicate the target device targeted by the component. For example, if the value of this field is 0, 1, 2, 3, it may indicate that the component is a component for the primary device, companion device, primary & companion device, and primary screen inset, respectively. it can.

@componentCodecは、当該コンポーネントのためのコーデック情報を提供することができる。@componentProfileは、当該コンポーネントのプロファイルを示すことができる。@componentLangは、当該コンポーネントで使用される言語を示すことができる。このフィールドは、特にオーディオ及びクローズドキャプションコンポーネントにおいて使用することができる。@widthは、当該ビデオコンポーネントが伝達するビデオメディアプレゼンテーションの水平幅を示すことができる。@heightは、当該ビデオコンポーネントが伝達するビデオメディアプレゼンテーションの垂直高さを示すことができる。   @ComponentCodec can provide codec information for the component. @ComponentProfile can indicate the profile of the component. @ComponentLang can indicate the language used in the component. This field can be used especially in audio and closed caption components. @Width can indicate the horizontal width of the video media presentation transmitted by the video component. @Height can indicate the vertical height of the video media presentation conveyed by the video component.

Accessibilityは、当該コンポーネントの接近性(accessibility)関連情報を提供することができる。Capabilityは、当該コンポーネントのケイパビリティ関連情報を提供することができる。Ratingは、当該コンポーネントのレーティング関連情報を提供することができる。Targetingは、当該コンポーネントのターゲッティング又は個人化(personalization)関連情報を提供することができる。ComponentDescriptionは、当該コンポーネントのコンポーネントディスクリプション情報を提供することができる。この情報には、コーデックに従属的なエンコーディングパラメータ(codec dependent encoding parameters)が含まれてもよい。ComponentPropertyは、当該コンポーネントを処理するためのコンポーネント属性を提供することができる。   Accessibility can provide accessibility related information for the component. Capability can provide capability-related information for the component. Rating can provide rating related information for the component. Targeting can provide information related to targeting or personalization of the component. ComponentDescription can provide component description information for the component. This information may include codec dependent encoding parameters. ComponentProperty can provide component attributes for processing the component.

また、ComponentInfoエレメント内の前述した@componentTypeフィールドは、当該コンポーネントのタイプを示すことができ、0、1、2、3の値を有する場合、当該コンポーネントは、それぞれオーディオ、ビデオ、キャプション、アプリケーションコンポーネントであることを示すことができる。   In addition, the above-mentioned @componentType field in the ComponentInfo element can indicate the type of the component. When the component has a value of 0, 1, 2, or 3, the component is an audio, video, caption, or application component, respectively. You can show that there is.

また、@componentRoleフィールドは、当該コンポーネントの役割(role)を示すことができる。この役割は、指示されたコンポーネントタイプに応じて示すことができ、オーディオコンポーネントである場合、本フィールドが1、2、3、4、5、6、7の値を有すると、当該オーディオコンポーネントは、それぞれコンプリートメイン(complete main)、ミュージック、エフェクト、ダイアログ、コメンタリ、ビジュアリインペアード(visually impaired)、ヒアリングインペアード(hearing impaired)、ボイスオーバー(voice over)、サブセット(subset)の役割を果たすことができる。ここで、ビジュアリ/ヒアリングインペアードとは、それぞれ当該オーディオコンポーネントが視覚/聴覚障害者のためのオーディオコンポーネントであることを意味し得る。ボイスオーバーとは、当該オーディオコンポーネントがビデオコンポーネントをデスクライブする役割を果たすことを意味し得る。   Also, the @componentRole field can indicate the role of the component. This role can be indicated according to the indicated component type. In the case of an audio component, if this field has a value of 1, 2, 3, 4, 5, 6, 7, the audio component is Can play the role of complete main, music, effects, dialog, commentary, visually implied, hearing impaired, voice over, and subset it can. Here, visual / hearing impair may mean that the audio component is an audio component for a visually impaired person. Voice over may mean that the audio component serves to desk video components.

ビデオコンポーネントである場合、本フィールドの値に応じて、当該ビデオコンポーネントは、プライマリビデオ、代替カメラビュー、手話、3D左映像、3D右映像、3Dビデオの奥行き(depth)情報、キャプションを含むビデオなどの役割を果たすことを示すことができる。キャプションコンポーネントである場合、本フィールドの値に応じて、当該キャプションコンポーネントは、メイン、代替、付加(supplementary)、ノーマル、イージーリーダーなどの役割を果たすことを意味し得る。   In the case of a video component, depending on the value of this field, the video component may include primary video, alternative camera view, sign language, 3D left video, 3D right video, 3D video depth information, video including caption, etc. Can show that In the case of a caption component, depending on the value of this field, it may mean that the caption component plays a role of main, alternative, supplement, normal, easy reader, and the like.

実施例によって、前述したROUTE又はMMTのUSBDの残りの部分も変更可能である。このような変更は、それぞれの場合の数に応じて互いに組み合わされてもよい。実施例によって、USBDは、@providerid、@serviceCategory、@spIndicator、@serviceStatus、@shortServiceName及び/又はcapabilityCodeをさらに含むことができる。   Depending on the embodiment, the rest of the ROUTE or MMT USBD described above can also be modified. Such changes may be combined with each other depending on the number of cases. Depending on the embodiment, the USBD may further include @providerid, @serviceCategory, @spIndicator, @serviceStatus, @shortServiceName, and / or capabilityCode.

@provideridは、当該サービスのサービスプロバイダを識別することができる。@serviceCategoryは、当該サービスのカテゴリを示すことができる。@spIndicatorは、前述した@protected属性と同一であってもよい。@serviceStatusは、前述した@servicestatus属性と同一であってもよい。@shortServiceNameは、当該サービスの短い名(Short name)を示すことができる。capabilityCodeは、当該サービスの有意なメディアプレゼンテーションを受信機が提供するために必要なケイパビリティ又はケイパビリティグループを示すことができる。   @Providerid can identify the service provider of the service. @ServiceCategory can indicate the category of the service. @SpIndicator may be the same as the above-mentioned @protected attribute. @ServiceStatus may be the same as the @servicestatus attribute described above. @ShortServiceName can indicate the short name of the service. The capabilityCode may indicate a capability or capability group that is required for the receiver to provide a meaningful media presentation of the service.

実施例によって、USBDは、前述したChannelエレメントに@majorChannelNo、@minorChannelNo及び/又は@serviceLangをさらに含んでもよい。   Depending on the embodiment, the USBD may further include @majorChannelNo, @minorChannelNo, and / or @serviceLange in the above-described Channel element.

@majorChannelNo、@minorChannelNoは、当該サービスのメジャー/マイナーチャネルナンバーを示すことができる。@serviceLangは、当該サービスの主な使用言語(primary language)を示すことができる。   @MajorChannelNo, @minorChannelNo can indicate the major / minor channel number of the service. @ServiceLange can indicate the primary language of the service.

実施例によって、USBDは、前述したrouteComponent及びbroadbandComponentの代わりに、dashComponentエレメントをさらに含んでもよい。dashComponentエレメントは、@fullMPDUri、@sTSIDUri及び/又はdeliveryMethodエレメントを含むことができる。   Depending on the embodiment, the USBD may further include a dashComponent element instead of the above-described routeComponent and broadcastComponent. The dashComponent element can include an @fullMPDUri, @sTSIDUri, and / or deliveryMethod element.

@fullMPDUriは、放送網又はブロードバンドを介して伝達されるサービスコンポーネントのためのMPDへのリファレンス情報を提供することができる。@sTSIDUriは、当該サービスのサービスコンポーネントに対する伝送セッション関連情報を提供することができる。deliveryMethodは、当該サービスのサービスコンポーネントの伝送関連情報を提供することができる。前述したように、放送網/ブロードバンドを介して伝達されるコンポーネントのそれぞれに対するエレメント、及び/又はそれに対するbasePattern情報がさらに含まれてもよい。   @FullMPDUri can provide reference information to the MPD for service components delivered over a broadcast network or broadband. @STSIDUri can provide transmission session related information for the service component of the service. The deliveryMethod can provide transmission related information of the service component of the service. As described above, elements for each of the components transmitted via the broadcast network / broadband and / or basePattern information for the elements may be further included.

図20は、本発明の一実施例に係るMPテーブルの一部を示した図である。   FIG. 20 is a diagram showing a part of an MP table according to an embodiment of the present invention.

前述したMPTメッセージはMPテーブルを伝達することができる。前述したように、接近(近接)性、3D、キャプションなどの情報は、MMTPメッセージを介して伝達されてもよい。図示のように、MPTメッセージ内に一部として含まれて伝達されてもよく、別個に定義されるMMTPメッセージを介してMMTシグナリングとして伝達されてもよい。これらの情報及び伝達形態については詳細に後述する。   The MPT message described above can carry the MP table. As described above, information such as proximity (proximity), 3D, and caption may be transmitted via the MMTP message. As illustrated, it may be transmitted as part of the MPT message, or may be transmitted as MMT signaling via a separately defined MMTP message. These information and transmission modes will be described later in detail.

これらの情報は、MPTメッセージ又はその他のMMTPメッセージ内にディスクリプタの形態で伝達され得、実施例によって、このディスクリプタはアセットディスクリプタに該当してもよい。また、このディスクリプタは、SDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。   Such information may be conveyed in the form of a descriptor in an MPT message or other MMTP message, and according to an embodiment, this descriptor may correspond to an asset descriptor. The descriptor may be transmitted by being included in DVB SI service signaling such as SDT or EIT, or may be transmitted together.

実施例によって、MMT上で、サービスコンポーネント(アセット(asset)に該当する)に関する情報は、図示のようにシグナリングされてもよい。MMTPメッセージに、後述するフィールドがさらに追加されてもよい。   According to an embodiment, information on a service component (corresponding to an asset) on the MMT may be signaled as illustrated. A field to be described later may be further added to the MMTP message.

service_typeフィールドは、当該サービスのタイプを示すことができる。すなわち、当該MPテーブルに含まれた少なくとも1つのアセット(asset)を組み合わせて提供できる最終サービスを意味し得る。例えば、当該フィールドは、ステレオスコピック3Dサービス、マルチビューサービス、パノラマサービスなどを示すことができる。   The service_type field can indicate the type of the service. That is, it may mean a final service that can be provided in combination with at least one asset included in the MP table. For example, the field may indicate a stereoscopic 3D service, a multi-view service, a panorama service, or the like.

asset_role_flagフィールドは、当該サービスコンポーネント(アセット)に対する役割(role)情報が含まれるか否かを示すことができる。asset_target_flagフィールドは、当該サービスコンポーネントに対するターゲットスクリーン情報が含まれるか否かを示すことができる。asset_group_flagフィールドは、当該サービスコンポーネントが特定のコンポーネントグループに属するか否かを示すことができる。特定のコンポーネントグループに含まれる場合、本フィールドの値が1であってもよい。rt_flagフィールドは、当該サービスコンポーネントがリアルタイムで伝送されるか、または非リアルタイムで伝送されるかを示すことができる。本フィールドの値が1である場合、当該サービスコンポーネントはリアルタイムで伝送されてもよい。   The asset_role_flag field can indicate whether role information for the service component (asset) is included. The asset_target_flag field can indicate whether target screen information for the service component is included. The asset_group_flag field can indicate whether the service component belongs to a specific component group. When included in a specific component group, the value of this field may be 1. The rt_flag field may indicate whether the service component is transmitted in real time or non-real time. When the value of this field is 1, the service component may be transmitted in real time.

asset_roleフィールドは、当該サービスコンポーネントの役割(role)を示すことができる。例えば、本フィールドの値が0、1、2、3、4、5、6、又は7である場合、当該サービスコンポーネントは、プライマリビデオ、代替カメラビュー、他の代替ビデオコンポーネント、手話、フォローサブジェクトビデオ(Follow subject video)、3D左映像、3D右映像、3D奥行き情報などの役割を果たすことを示すことができる。   The asset_role field can indicate the role of the service component. For example, when the value of this field is 0, 1, 2, 3, 4, 5, 6, or 7, the service component includes primary video, alternative camera view, other alternative video components, sign language, and follow subject video. (Follow subject video) 3D left image, 3D right image, 3D depth information, and the like can be shown.

asset_targetフィールドは、当該サービスコンポーネントがターゲットとするターゲットデバイスを示すことができる。前述した@targetDeviceの定義と同一であってもよい。asset_group_idフィールドは、当該サービスコンポーネントが含まれるコンポーネントグループの識別子を提供することができる。コンポーネントグループについては、前述した通りである。   The asset_target field can indicate a target device targeted by the service component. It may be the same as the definition of @targetDevice described above. The asset_group_id field can provide an identifier of a component group that includes the service component. The component group is as described above.

図21は、本発明の一実施例に係るアセットグループディスクリプタを示した図である。   FIG. 21 is a diagram illustrating an asset group descriptor according to an embodiment of the present invention.

アセットグループディスクリプタは、サービスがMMTプロトコルを介して伝達される場合において、コンポーネントグループ(アセットグループ)に対して記述することができる。このディスクリプタは、前述したものと同一の経路を介して伝達されてもよい。   The asset group descriptor can be described for a component group (asset group) when the service is transmitted via the MMT protocol. This descriptor may be transmitted via the same path as described above.

アセットグループディスクリプタは、当該コンポーネントグループを識別するasset_group_idフィールド、当該コンポーネントグループに含まれるコンポーネント(アセット)の個数を示すnum_of_accessiblityフィールド、及び/又はそれぞれのコンポーネントを識別するasset_id()フィールドを含むことができる。   The asset group descriptor may include an asset_group_id field that identifies the component group, a num_of_accessibility field that indicates the number of components (assets) included in the component group, and / or an asset_id () field that identifies each component.

図22は、本発明の一実施例に係る接近(近接)性(accessibility)情報を示した図である。   FIG. 22 is a diagram illustrating accessibility information according to an embodiment of the present invention.

接近(近接)性情報は、当該サービス又はサービスコンポーネントの接近性に関連する情報を含むことができる。接近性情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。   The proximity information may include information related to the proximity of the service or service component. The accessibility information may have one form of the descriptors according to the above-described embodiments, or may have an element form.

図示された実施例(t25010)において、接近性情報は、ディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタが接近性情報に関連する接近性スキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:accessibility:201xの値を有することができる。@valueは、接近性スキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t25010), the accessibility information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has an accessibility scheme related to the accessibility information. In this case, @schemIdId can have a value of urn: atsc3.0: accessibility: 201x. @Value can have a value whose meaning is defined according to the accessibility scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t25020)は、前述した@valueの各パラメータを示すことができる。Visually impairedは、当該サービスコンポーネントが視覚障害又は視力の弱い視聴者をターゲットとするサービスコンポーネントであるか否かを示すことができる。Hearing impairedは、当該サービスコンポーネントが聴覚障害又は聴力の弱い視聴者をターゲットとするサービスコンポーネントであるか否かを示すことができる。enhanced−audio−intelligibilityは、当該オーディオサービスコンポーネントが了解度(intelligibility)の面で強化された(enhanced)形態のオーディオサービスコンポーネントであるか否かを示すことができる。3D supportedは、当該サービスコンポーネントが3D機能をサポートするサービスコンポーネントであるか否かを示すことができる。実施例によって、当該サービスコンポーネントが3Dサービスに含まれるサービスコンポーネントであるか否かを示してもよい。Normalは、(主にクローズドキャプションコンポーネントに対して)当該サービスコンポーネントが一般の視聴者のためのサービスコンポーネントであるか否かを示すことができる。Easy readerは、(主にクローズドキャプションコンポーネントに対して)当該サービスコンポーネントがイージーリーダー(easy reader)形態のサービスコンポーネントであるか否かを示すことができる。イージーリーダーは、読みやすい形態のクローズドキャプションを意味し得る。   The illustrated example (t25020) can indicate each parameter of @value described above. Visually implied may indicate whether the service component is a service component that targets a visually impaired or a viewer with low vision. “Healing impaired” may indicate whether the service component is a service component that targets a hearing impaired or a weakly hearing audience. Enhanced-audio-integrity may indicate whether the audio service component is an enhanced audio service component in terms of intelligibility. 3D supported may indicate whether the service component is a service component that supports 3D functions. Depending on the embodiment, it may be indicated whether the service component is a service component included in the 3D service. Normal can indicate whether the service component is a service component for a general audience (mainly for closed caption components). Easy reader can indicate whether the service component is a service component in the form of an easy reader (mainly for closed caption components). Easy reader may mean a closed caption in a form that is easy to read.

実施例によって、接近性情報は、前述した@valueの各パラメータをサブフィールドとして有する接近性エレメントの形態で定義されてもよい。   Depending on the embodiment, the accessibility information may be defined in the form of an accessibility element having each parameter of @value described above as a subfield.

図示された実施例(t25030)において、接近性情報は、ディスクリプタの形態で定義さできる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。   In the illustrated embodiment (t25030), the accessibility information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor.

num_of_accessiblityフィールドは、後続する接近(近接)性コード(accessiblity_code)の個数を示すことができる。accessiblity_codeフィールドは接近(近接)性関連情報を示すことができる。接近性関連情報は、接近性コードによって表現されてもよい。例えば、接近性コードが0x00、0x01、0x02の値を有する場合、これは、それぞれビジュアリインペアード、ヒアリングインペアード、3Dサポートなどの意味を有することができる。これらの接近性情報については、前述した通りである。0x03〜0xFFの値は、将来の使用のために残すことができる。   The num_of_accessibility field may indicate the number of subsequent accessibility codes (accessibility_code). The accessibility_code field may indicate proximity (proximity) related information. The accessibility related information may be expressed by an accessibility code. For example, if the accessibility code has the values 0x00, 0x01, 0x02, this can have the meaning of visual impair, hearing impair, 3D support, etc., respectively. The accessibility information is as described above. Values between 0x03 and 0xFF can be left for future use.

図23は、本発明の一実施例に係る、USBD内のComponentInfoエレメントを示した図である。   FIG. 23 is a diagram illustrating a ComponentInfo element in USBD according to an embodiment of the present invention.

図示された実施例(t26010)において、3Dビデオをなすそれぞれのコンポーネントに対するシグナリングが行われている。1番目のコンポーネントは、ビデオコンポーネントであって(0x02,Video)、3D左映像としての役割を果たすことを示し(@componentRole=3D video left view)、0x01のコンポーネントIDを有することができる。2番目のコンポーネントもまた、ビデオコンポーネントであって(0x02,Video)、3D右映像としての役割を果たすことを示し(@componentRole=3D video right view)、0x02のコンポーネントIDを有することができる。   In the illustrated embodiment (t26010), signaling is performed for each component of the 3D video. The first component is a video component (0x02, Video) indicating that it plays the role of 3D left video (@ componentRole = 3D video left view), and may have a component ID of 0x01. The second component is also a video component (0x02, Video), indicating that it plays the role of 3D right video (@ componentRole = 3D video right view), and can have a component ID of 0x02.

2つのサービスコンポーネントは、一つの3Dビデオをなすサービスコンポーネントであって、互いに関連があるので、同じコンポーネントグループにグループ化することができる。このコンポーネントグループは、0x01の識別子を有することができ、この内容が各componentInfo.エレメントでシグナリングされ得る。2番目のコンポーネントが1番目のコンポーネントに対して従属性(dependencyu)がある場合、2番目のコンポーネントの@dependentComponentIDは0x01の値を有することで、1番目のコンポーネントのコンポーネントIDを示すことができる。   The two service components are service components that form one 3D video and are related to each other, and thus can be grouped into the same component group. This component group can have an identifier of 0x01, the contents of which are each componentInfo. Can be signaled at the element. When the second component has a dependency on the first component, the @dependentComponentID of the second component has a value of 0x01, thereby indicating the component ID of the first component.

図示された実施例(t26020)において、特定のビデオコンポーネントに対する、他のコンポーネント上のフォローサブジェクトメタデータ(follow−subject metadata)がシグナリングされ得る。1番目のコンポーネントは、ビデオコンポーネントであって、プライマリビデオの役割を果たすことをシグナリングすることができる。2番目のコンポーネントは、1番目のコンポーネントに対するフォローサブジェクトメタデータの役割を果たすコンポーネントであり得る。この役割をシグナリングすることができ、@dependentComponentIDは、1番目のコンポーネントのコンポーネントIDを示すことができる。また、関連するコンポーネントとして、1番目/2番目のコンポーネントは、同じコンポーネントグループに含まれ得る(0x01)。   In the illustrated example (t26020), follow-subject metadata on other components for a particular video component may be signaled. The first component is a video component and can signal that it plays the role of primary video. The second component may be a component that serves as follow subject metadata for the first component. This role can be signaled, and @dependentComponentID can indicate the component ID of the first component. In addition, as the related components, the first / second component may be included in the same component group (0x01).

図示された実施例(t26030)において、一つのベースビデオコンポーネント及び2つのエンハンスドビデオコンポーネントがシグナリングされている。一つのエンハンスドビデオがベースビデオに対して従属性を有し、他のエンハンスドビデオが1番目のエンハンスドビデオに対して従属性を有する場合、図示のように、@dependentComponentIDフィールドを用いてこの関係がシグナリングされ得る。また、それぞれのビデオコンポーネントが同じシーンを構成できるところ、同じコンポーネントグループに含まれ得る。   In the illustrated embodiment (t26030), one base video component and two enhanced video components are signaled. If one enhanced video has a dependency on the base video and the other enhanced video has a dependency on the first enhanced video, this relationship is signaled using the @dependentComponentID field as shown. Can be done. Also, where each video component can constitute the same scene, it can be included in the same component group.

図示された実施例(t26040)において、2つのサービスコンポーネントに対する3Dコンポーネントとしての役割及びスケーラブルコーディングの面での役割がシグナリングされている。これらのコンポーネントは同じシーンを構成できるところ、同じコンポーネントグループに含まれ得る。   In the illustrated example (t26040), the role as a 3D component and the role in scalable coding for the two service components are signaled. These components can be included in the same component group where they can constitute the same scene.

1番目のサービスコンポーネント(ID=0x01)は、ベースビデオコンポーネントであると同時に、3Dサービスの右映像としての役割を果たすことができる。1番目のサービスコンポーネントに対して2つのComponentInfoエレメントが記述することができる。それぞれのエレメントは、同じサービスコンポーネントIDを有することができる(ID=0x01)。   The first service component (ID = 0x01) is a base video component and can simultaneously serve as a right image of the 3D service. Two ComponentInfo elements can be described for the first service component. Each element can have the same service component ID (ID = 0x01).

2番目のサービスコンポーネント(ID=0x02)は、エンハンスドビデオコンポーネントであると同時に、3Dサービスの左映像としての役割を果たすことができる。同様に、2つのComponentInfoエレメントが2番目のサービスコンポーネントを記述することができる。これらのエレメントは、同じサービスコンポーネントIDを有することができる(ID=0x02)。また、2番目のサービスコンポーネントは、1番目のコンポーネントに対して従属性を有することができる。@dependentComponentIDが1番目のサービスコンポーネントのIDを示すことができる。   The second service component (ID = 0x02) is an enhanced video component and can serve as a left image of the 3D service. Similarly, two ComponentInfo elements can describe the second service component. These elements can have the same service component ID (ID = 0x02). Also, the second service component can have a dependency on the first component. @DependentComponentID can indicate the ID of the first service component.

図24は、本発明の一実施例に係るコンポーネント属性(Component Property)情報を示した図である。   FIG. 24 is a diagram illustrating component attribute information according to an embodiment of the present invention.

コンポーネント属性情報は、当該サービス又はサービスコンポーネントの属性に関連する情報を含むことができる。コンポーネント属性情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。   The component attribute information can include information related to the attribute of the service or service component. The component attribute information may have one form of the descriptors according to the above-described embodiments, or may have an element form.

コンポーネント属性情報は、実施例によって、ビューコンフィギュレーション情報と呼ぶこともできる。実施例によって、コンポーネント属性情報は、ビデオコンポーネントに対するビューコンフィギュレーション情報を意味してもよい。ここで、当該コンポーネントは、ビデオコンポーネントであって、マルチビューの一部であり得る。ビデオコンポーネントがビデオアレイの一部である場合、ビューコンフィギュレーション情報の@role属性は、当該コンポーネントが<n,m>アレイの<x,y>番目のビデオコンポーネントであることを示すことができる。   Component attribute information may also be referred to as view configuration information, depending on the embodiment. Depending on the embodiment, component attribute information may refer to view configuration information for a video component. Here, the component is a video component and may be part of a multiview. If the video component is part of a video array, the @role attribute of the view configuration information can indicate that the component is the <x, y> th video component of the <n, m> array.

図示された実施例(t27010)において、コンポーネント属性情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがコンポーネント属性情報に関連するコンポーネント属性スキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:view−conf:201xの値を有することができる。@valueは、コンポーネント属性スキームに応じてその意味が定義される値(value)を有することができる。これらの値は、パラメータと呼ぶことができ、それぞれ‘,’によって区分することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t27010), component attribute information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a component attribute scheme related to the component attribute information. In this case, @schemIdId can have a value of urn: atsc3.0: view-conf: 201x. @Value can have a value whose meaning is defined according to the component attribute scheme. These values can be called parameters and can be distinguished by ',' respectively. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t27020)は、前述した@valueの各パラメータを示すことができる。View_x及び/又はView_yは、画面の左側上端(left−top)を基準として当該ビデオコンポーネントの映像の原点を示すことができる。それぞれのフィールドは、映像の原点のx座標及びy座標を示すことができる。View_width及び/又はView_heightは、当該ビデオコンポーネントの映像の幅(width)及び/又は高さ(height)を示すことができる。View_total_width及び/又はView_total_heightは、画面の左側上端(left−top)を基準としてビデオアレイがディスプレイされる領域全体の幅(width)及び/又は高さ(height)を示すことができる。View_display_priorityは、当該ビデオコンポーネントの映像の優先順位を示すことができる。優先順位とは、当該映像がディスプレイされる際の優先順位であり得る。映像が重なる場合において、優先順位が高いほど他の映像よりも前にディスプレイされ得る。すなわち、他の映像を重なる部分だけ覆うことができる。本フィールドの値が小さいほど優先順位は高いものと見なすことができる。値が0である場合、画面上で最も前にディスプレイされ得る。Source_idは、当該ビデオコンポーネントのソースに対する識別子であってもよい。同時にディスプレイされるマルチビュー(ビデオアレイ)が複数のビデオコンポーネントに分けられて伝達される場合、各ビデオコンポーネントのソースIDは同一であってもよい。   The illustrated example (t27020) can indicate each parameter of @value described above. View_x and / or View_y may indicate the video origin of the video component with reference to the upper left corner (left-top) of the screen. Each field can indicate the x and y coordinates of the origin of the video. View_width and / or View_height may indicate the width (width) and / or height (height) of the video of the video component. View_total_width and / or View_total_height may indicate the width and / or height of the entire area in which the video array is displayed with reference to the upper left corner (left-top) of the screen. View_display_priority can indicate the priority of the video of the video component. The priority order may be a priority order when the video is displayed. In the case where the images overlap, the higher the priority, the more images can be displayed before the other images. That is, it is possible to cover only the overlapping portions with other images. The smaller the value of this field, the higher the priority order. If the value is 0, it can be displayed on the screen the most forward. Source_id may be an identifier for the source of the video component. When a multi-view (video array) displayed at the same time is divided into a plurality of video components and transmitted, the source ID of each video component may be the same.

実施例によって、このコンポーネント属性情報は、前述した@valueの各パラメータをサブフィールドとして有するコンポーネント属性エレメントの形態で定義されてもよい。   Depending on the embodiment, the component attribute information may be defined in the form of a component attribute element having each parameter of @value described above as a subfield.

図示された実施例(t27030)において、コンポーネント属性情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。   In the illustrated embodiment (t27030), component attribute information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor.

view_x、view_y、view_width、view_height、total_width、total_height、source_id及び/又はview_priorityは、前述した定義と同一であってもよい。total_width、total_height、及びview_priorityは、それぞれview_total_width、view_total_height、及びview_display_priorityと同一であってもよい。   view_x, view_y, view_width, view_height, total_width, total_height, source_id, and / or view_priority may be the same as described above. total_width, total_height, and view_priority may be the same as view_total_width, view_total_height, and view_display_priority, respectively.

source_id_flagは、source_idの存否を示すことができる。view_total_info_flagフィールドは、同時に表示されるマルチビューがディスプレイされる領域に対する情報が含まれるかを示すことができる。このフィールドに応じて、total_width、total_heightが存在し得る。view_priority_flagフィールドは、当該ビデオコンポーネントの映像の優先順位情報が含まれるか否かを示すことができる。このフィールドに応じて、view_priorityが存在し得る。   The source_id_flag can indicate whether or not the source_id exists. The view_total_info_flag field may indicate whether information regarding an area where a multi-view to be displayed at the same time is displayed is included. Depending on this field, total_width, total_height may exist. The view_priority_flag field can indicate whether or not priority information of the video of the video component is included. Depending on this field, view_priority may exist.

図25は、本発明の一実施例に係るコンポーネント属性(Component Property)情報を示した図である。   FIG. 25 is a diagram illustrating component attribute information according to an embodiment of the present invention.

コンポーネント属性情報は、当該サービス又はサービスコンポーネントの属性に関連する情報を含むことができる。コンポーネント属性情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。   The component attribute information can include information related to the attribute of the service or service component. The component attribute information may have one form of the descriptors according to the above-described embodiments, or may have an element form.

コンポーネント属性情報は、実施例によって、ビューポジションコンフィギュレーション(view position configuration)情報と呼ぶこともできる。実施例によって、コンポーネント属性情報は、ビデオコンポーネントに対するビューポジションコンフィギュレーション情報を意味してもよい。ここで、当該コンポーネントはビデオコンポーネントであって、ステレオスコピック3Dサービスの一部であり得る。   Component attribute information may also be referred to as view position configuration information, depending on the embodiment. Depending on the embodiment, component attribute information may refer to view position configuration information for a video component. Here, the component is a video component and may be part of a stereoscopic 3D service.

図示された実施例(d25010)において、コンポーネント属性情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがコンポーネント属性情報に関連するコンポーネント属性スキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:view−position−conf:201xの値を有することができる。@valueは、コンポーネント属性スキームに応じてその意味が定義される値(value)を有することができる。これらの値は、パラメータと呼ぶことができ、それぞれ‘,’によって区分することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (d25010), component attribute information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a component attribute scheme related to the component attribute information. In this case, @schemIdUri can have a value of urn: atsc3.0: view-position-conf: 201x. @Value can have a value whose meaning is defined according to the component attribute scheme. These values can be called parameters and can be distinguished by ',' respectively. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(d25020)は、前述した@valueの各パラメータを示すことができる。right_view_flagフィールドは、当該ビデオコンポーネント(video component)が右側視点(right view)であるか、または左側視点(left view)であるかを知らせることができる。ビデオコンポーネントが左側視点である場合は0の値、右側視点である場合は1の値を有する。ステレオスコピック(Stereoscopic)3Dサービスを構成するそれぞれの左側/右側視点のビデオコンポーネント(left/right video component)が分けられて伝達される場合、各ビデオコンポーネントに対するビューポジションコンフィギュレーション(view position configuration)情報は、前記のコンポーネント属性情報(component property element)を用いてd25040のようにシグナリングされ得る。各左側/右側視点のビデオコンポーネント(left/right video component)は、一つのシーン(scene)を構成するので、同一のコンポーネントグループID(componentGroupId)値を有することができる。   The illustrated example (d25020) can indicate each parameter of @value described above. The right_view_flag field may indicate whether the video component is a right view or a left view. It has a value of 0 if the video component is the left viewpoint, and a value of 1 if it is the right viewpoint. When the left / right video components constituting the stereoscopic 3D service are transmitted separately, the view position configuration information for each video component is transmitted. May be signaled as d25040 using the component property element. Since each left / right viewpoint video component (left / right video component) constitutes one scene, it can have the same component group ID (componentGroupId) value.

コンポーネント属性情報は、実施例によって、ビューポジションコンフィギュレーション(view position2 configuration)情報と呼ぶこともできる。実施例によって、コンポーネント属性情報は、ビデオコンポーネントに対するビューポジションコンフィギュレーション情報を意味してもよい。ここで、当該コンポーネントはビデオコンポーネントであって、マルチビューサービスの一部であり得る。   The component attribute information may be referred to as view position configuration information according to an embodiment. Depending on the embodiment, component attribute information may refer to view position configuration information for a video component. Here, the component is a video component and may be part of a multi-view service.

図示された実施例(d25010)において、コンポーネント属性情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがコンポーネント属性情報に関連するコンポーネント属性スキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:view−position2−conf:201xの値を有することができる。@valueは、コンポーネント属性スキームに応じてその意味が定義される値(value)を有することができる。これらの値は、パラメータと呼ぶことができ、それぞれ‘,’によって区分することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (d25010), component attribute information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a component attribute scheme related to the component attribute information. In this case, @schemIdUri can have a value of urn: atsc3.0: view-position2-conf: 201x. @Value can have a value whose meaning is defined according to the component attribute scheme. These values can be called parameters and can be distinguished by ',' respectively. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(d25030)は、前述した@valueの各パラメータを示すことができる。視点位置情報(view_positionフィールド)は、マルチビュー(Multiview)サービスにおいて当該ビデオコンポーネント(video component)のビューポジション(view position)情報を意味してもよい。視点位置情報(view_positionフィールド)は、マルチビューのうち最も左側に位置した1番目の視点に対して0に設定されてもよい。また、視点位置情報は、1番目の視点から次の視点に左側から右側に移動する度に1ずつ増加する値に設定されてもよい。ここで、マルチビュー(Multiview)は、3Dマルチビュー(Multiview)又はパノラマ(panorama)のためのマルチビュー(Multiview)であってもよい。ここで、3Dマルチビューである場合、前述したビューポジション(view position)情報は、各視点(view)に対する左側視点(left view)又は右側視点(right view)の意味を含むことができる。すなわち、数字で表現されるビューポジション(view position)情報から、当該コンポーネントに含まれた視点(view)が3Dサービスを提供するための左側視点(left view)であるか又は右側視点(right view)であるかを確認することができる。マルチビューサービスを構成するそれぞれの視点(view)に該当するビデオコンポーネントが分けられて伝達される場合、各ビデオコンポーネントに対するビューポジションコンフィギュレーション(view position2 configuration)情報は、前記のコンポーネント属性情報(component property element)を用いてd25040のようにシグナリングされ得る。マルチビューのうち1つのシーン(scene)を構成するビデオコンポーネントは、同一のコンポーネントグループID(componentGroupId)値を有することができる。また、その他のシーン(scene)を構成するビデオコンポーネントは、異なるコンポーネントグループID(componentGroupID)値を有することができる。   The illustrated example (d25030) can indicate each parameter of @value described above. The viewpoint position information (view_position field) may mean view position information of the video component in the multi-view service. The viewpoint position information (view_position field) may be set to 0 for the first viewpoint located on the leftmost side of the multiview. In addition, the viewpoint position information may be set to a value that increases by 1 each time the first viewpoint moves to the next viewpoint from the left side to the right side. Here, the multiview may be a 3D multiview or a multiview for panorama. Here, in the case of 3D multi-view, the above-described view position information may include the meaning of the left viewpoint or the right viewpoint for each viewpoint. That is, from the view position information represented by numbers, the viewpoint (view) included in the component is the left viewpoint (left view) for providing the 3D service, or the right viewpoint (right view). Can be confirmed. When the video components corresponding to the respective viewpoints constituting the multi-view service are transmitted separately, the view position configuration (view position2 configuration) information for each video component is the component attribute information (component property). element) and can be signaled as d25040. Video components constituting one scene in the multi-view can have the same component group ID (componentGroupId) value. In addition, video components constituting other scenes may have different component group ID (componentGroupID) values.

図26は、本発明の一実施例に係るコンポーネント属性(Component Property)情報の活用を示した図である。   FIG. 26 is a diagram illustrating utilization of component property information according to an embodiment of the present invention.

図示された実施例(t28010)において、一つの画面が2つのビデオコンポーネントに分けられて伝達され得る。この場合、各ビデオコンポーネントに対するビューコンフィギュレーション情報は、前述したように、componentPropertyエレメントを用いてシグナリングされ得る。これらは一つのシーンを構成するので、同一のcomponentGroupId値を有することができる。各コンポーネントに対するComponentInfoエレメントのcomponentPropertyエレメントは、前述したビューコンフィギュレーション情報を有することができる。   In the illustrated embodiment (t28010), one screen can be transmitted in two video components. In this case, the view configuration information for each video component may be signaled using the componentProperty element as described above. Since these constitute one scene, they can have the same componentGroupId value. The componentProperty element of the ComponentInfo element for each component can have the above-described view configuration information.

両方ともurn:atsc3.0:view−conf:201xのスキームIDを有し、@valueは、それぞれ“1920,0,1920,2160,3840,2160”、“0,0,1920,2160,3840,2160”を有することができる。この@valueのパラメータは、順に、前述したパラメータの定義による意味を有することができる。   Both have scheme IDs of urn: atsc3.0: view-conf: 201x, and @value is “1920, 0, 1920, 2160, 3840, 2160”, “0, 0, 1920, 2160, 3840, respectively”. 2160 ". The parameter of @value can have a meaning according to the definition of the parameter described above in order.

図示された実施例(t28020)において、一つのメインビデオを提供するビデオコンポーネントと共に、別途の手話(sign language)を含むビデオコンポーネントが伝達され得る。この場合、手話ビデオコンポーネントは、当該手話映像が、メインビデオがディスプレイされる領域のどの位置にディスプレイされるかに関する情報を提供することができる。この情報は、前述したビューコンフィギュレーション情報の形態でシグナリングされ得る。   In the illustrated example (t28020), a video component including a separate sign language can be transmitted along with a video component that provides one main video. In this case, the sign language video component can provide information on where the sign language image is displayed in the area where the main video is displayed. This information can be signaled in the form of the view configuration information described above.

同様に、PIP(Picture in Picture)の場合にも、手話の場合と同様の方法でビューコンフィギュレーション情報が提供され得る。ここで、手話映像又はPIP映像の場合、メインビデオよりも前にディスプレイされなければならないため、メインビデオよりも高い優先順位を有することができる。このコンポーネントは、同一のコンポーネントグループに含まれ得、手話コンポーネント又はPIPコンポーネントは、@targetDevice属性が“プライマリスクリーンのインセット”を示すことができる。   Similarly, in the case of PIP (Picture in Picture), view configuration information can be provided in the same manner as in the case of sign language. Here, in the case of a sign language video or a PIP video, since it must be displayed before the main video, it can have a higher priority than the main video. This component may be included in the same component group, and the sign language component or the PIP component may indicate that the @targetDevice attribute is “primary screen inset”.

手話コンポーネント又はPIPコンポーネントのビューコンフィギュレーション情報は、urn:atsc3.0:view−conf:201xのスキームIDを有し、@valueは“1200,50,1024,768,3840,2160,0”を有することができる。この@valueのパラメータは、順に、前述したパラメータの定義による意味を有することができる。   The view configuration information of the sign language component or PIP component has a scheme ID of urn: atsc3.0: view-conf: 201x, and @value has “1200, 50, 1024, 768, 3840, 2160, 0”. be able to. The parameter of @value can have a meaning according to the definition of the parameter described above in order.

前述したケイパビリティ情報もまたシグナリングされ得る。ケイパビリティ情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。ケイパビリティ情報もまた、それによるケイパビリティスキームIDが定義され、その値(value)が定義され得る。また、@valueの各パラメータをサブフィールドとして有するケイパビリティエレメントの形態で定義されてもよい。ケイパビリティ情報は、ディスクリプタの形態で定義され、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。ケイパビリティ情報の詳細なフィールド、パラメータ、及び構造についての内容は、既に前述した。   The capability information described above may also be signaled. The capability information may have one form of the descriptors according to the above-described embodiments, or may have an element form. Capability information may also define a capability scheme ID according to which capability value may be defined. Moreover, you may define in the form of the capability element which has each parameter of @value as a subfield. The capability information is defined in the form of a descriptor, and may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor. The detailed fields, parameters, and structure of the capability information have already been described above.

図27は、本発明の一実施例に係るHEVCビデオコンポーネントディスクリプション情報を示した図である。   FIG. 27 is a diagram illustrating HEVC video component description information according to an embodiment of the present invention.

HEVCビデオコンポーネントディスクリプション情報は、当該サービス又はサービスコンポーネントのHEVCビデオに関連する情報を含むことができる。HEVCビデオコンポーネントディスクリプション情報は、HEVCビデオ情報と呼ぶこともできる。HEVCビデオ情報は、コンポーネント関連エンコーディングパラメータ、或いは当該コンポーネントをレンダリングするためのパラメータなどを含むことができる。HEVCビデオ情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。   The HEVC video component description information may include information related to the HEVC video of the service or service component. The HEVC video component description information can also be referred to as HEVC video information. The HEVC video information may include component-related encoding parameters, parameters for rendering the component, or the like. The HEVC video information may have one of the descriptors according to the above-described embodiments, or may have an element.

図示された実施例(t29010)において、HEVCビデオ情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがHEVCビデオ情報に関連するHEVCビデオスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:hevc:201xの値を有することができる。@valueは、HEVCビデオ情報スキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t29010), HEVC video information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a HEVC video scheme associated with HEVC video information. In this case, @schemIdId can have a value of urn: atsc3.0: hevc: 201x. @Value can have a value whose meaning is defined according to the HEVC video information scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t29020)は、前述した@valueの各パラメータを示すことができる。   The illustrated example (t29020) can indicate each parameter of @value described above.

profile_spaceは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_profile_spaceの値と同一であってもよい。HEVCテンポラルビデオサブセット(temporal video subset)またはHEVCテンポラルビデオサブ−ビットストリーム(temporal video sub−bitstream)である場合、ビットストリームのSPSに含まれたsub_layer_profile_spaceの値と同一であってもよい。   The profile_space may be the same as the value of general_profile_space included in the SPS of the bitstream for the HEVC video stream. In the case of the HEVC temporal video subset or the HEVC temporal video sub-bitstream, it may be the same as the value of the sub_layer_profile_space included in the SPS of the bitstream.

tier_flagは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_tier_flagの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_tier_flagの値と同一であってもよい。   The tier_flag may be the same as the value of the general_tier_flag included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_tier_flag included in the SPS of the bitstream.

profile_idcは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_profile_idcの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_profile_idcの値と同一であってもよい。   The profile_idc may be the same as the value of general_profile_idc included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_profile_idc included in the SPS of the bitstream.

profile_compatibility_indicationは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_profile_compatibility_flag[i]の値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_profile_compatibility_flag[i]の値と同一であってもよい。   The profile_compatibility_indication may be the same as the value of general_profile_compatibility_flag [i] included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_profile_compatibility_flag [i] included in the SPS of the bitstream.

progressive_source_flagは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_progressive_source_flagの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_progressive_source_flagの値と同一であってもよい。   progressive_source_flag may be the same as the value of general_progressive_source_flag included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_progressive_source_flag included in the SPS of the bitstream.

interlaced_source_flagは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_interlaced_source_flagの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_interlaced_source_flagの値と同一であってもよい。   The interlaced_source_flag may be the same as the value of general_interlaced_source_flag included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_interlaced_source_flag included in the SPS of the bitstream.

non_packed_constraint_flagは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_non_packed_constraint_flagの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_non_packed_constraint_flagの値と同一であってもよい。   The non_packed_constraint_flag may be the same as the value of general_non_packed_constraint_flag included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_non_packed_constraint_flag included in the SPS of the bitstream.

frame_only_constraint_flagは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_frame_only_constraint_flagの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_frame_only_constraint_flagの値と同一であってもよい。   For the HEVC video stream, frame_only_constraint_flag may be the same as the value of general_frame_only_constraint_flag included in the SPS of the bitstream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_frame_only_constraint_flag included in the SPS of the bitstream.

reserved_zero_44bitsは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_reserved_zero_44bitsの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_reserved_zero_44bitsの値と同一であってもよい。   reserved_zero_44 bits may be the same as the value of general_reserved_zero_44 bits included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_reserved_zero_44 bits included in the SPS of the bitstream.

level_idcは、HEVCビデオストリームに対しては、ビットストリームのSPSに含まれたgeneral_level_idcの値と同一であってもよい。HEVCテンポラルビデオサブセットまたはHEVCテンポラルビデオサブ−ビットストリームである場合、ビットストリームのSPSに含まれたsub_layer_level_idcの値と同一であってもよい。   level_idc may be the same as the value of general_level_idc included in the SPS of the bitstream for the HEVC video stream. In the case of HEVC temporal video subset or HEVC temporal video sub-bitstream, it may be the same as the value of sub_layer_level_idc included in the SPS of the bitstream.

HEVC_still_present_flagは、HEVCビデオストリームまたはHEVCハイエストテンポラルサブ−レイヤリプレゼンテーション(highest temporal sub−layer representation)がHEVCスティルピクチャーズ(still pictures)を含むか否かを示すことができる。   HEVC_still_present_flag may indicate whether the HEVC video stream or HEVC high temporal sub-layer representation can include HEVC still pictures.

HEVC_24hr_picture_present_flagは、HEVCビデオストリームまたはHEVCハイエストテンポラルサブ−レイヤリプレゼンテーション(highest temporal sub−layer representation)がHEVC24アワーズピクチャーズ(24−hours pictures)を含むか否かを示すことができる。   HEVC_24hr_picture_present_flag indicates whether the HEVC video stream or HEVC high temporal sub-layer representation can include HEVC24 hour pictures (24-hours).

temporal_id_min及び/又はtemporal_id_maxは、HEVCビデオストリームに含まれるHEVC AUのうち最も小さいtemporalId値及び/又は最も大きいtemporalId値を示すことができる。   temporal_id_min and / or temporal_id_max may indicate the smallest temporalId value and / or the largest temporalId value of HEVC AUs included in the HEVC video stream.

実施例によって、HEVCビデオ情報は、前述した@valueの各パラメータをサブフィールドとして有するHEVCビデオ情報エレメントの形態で定義されてもよい。   According to an embodiment, HEVC video information may be defined in the form of HEVC video information element having each parameter of @value described above as a subfield.

図示された実施例(t29030)において、HEVCビデオ情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。MMTアセットがHEVCビデオストリームコンポーネントである場合、MPテーブルのアセットタイプをHEVCビデオストリームに該当する値を割り当てることができる。   In the illustrated embodiment (t29030), HEVC video information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor. When the MMT asset is a HEVC video stream component, the value corresponding to the HEVC video stream can be assigned to the asset type of the MP table.

profile_space、tier_flag、profile_idc、profile_compatibility_indication、progressive_source_flag、interlaced_source_flag、non_packed_constraint_flag、frame_only_constraint_flag、reserved_zero_44bits、level_idc、HEVC_still_present_flag、HEVC_24hr_picture_present_flag、temporal_id_min及び/又はtemporal_id_maxが当該ディスクリプタに含まれてもよく、その意味は前述した通りである。   profile_space, tier_flag, profile_idc, profile_compatibility_indication, progressive_source_flag, interlaced_source_flag, non_packed_constraint_flag, frame_only_constraint_flag, reserved_zero_44bits, level_idc, HEVC_still_present_flag, HEVC_24hr_picture_present_flag, may temporal_id_min and / or temporal_id_max is included in the descriptor, the meaning is as described above.

図28は、本発明の一実施例に係るHEVCタイミング&HRD情報を示した図である。   FIG. 28 is a diagram illustrating HEVC timing & HRD information according to an embodiment of the present invention.

HEVCタイミング&HRD情報は、HEVCビデオストリームコンポーネントに関連するタイミング情報乃至HRDディスクリプションを含むことができる。HEVCタイミング&HRD情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメントなどで示されてもよい。   The HEVC timing & HRD information may include timing information or an HRD description related to the HEVC video stream component. The HEVC timing & HRD information may have one of the descriptors according to the above-described embodiments, or may have an element. This may be indicated by the componentProperty element described above.

図示された実施例において、HEVCタイミング&HRD情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがHEVCタイミング&HRD情報に関連するスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:hevc−timing:201xの値を有することができる。@valueは、スキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment, HEVC timing & HRD information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a scheme related to HEVC timing & HRD information. In this case, @schemaIdUri can have a value of urn: atsc3.0: hevc-timing: 201x. @Value can have a value whose meaning is defined according to the scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t30010)は、前述した@valueの各パラメータを示すことができる。hrd_management_valid_flagは、HEVCビデオストリーム又はHEVCハイエストテンポラルサブ−レイヤリプレゼンテーション内にバッファリングピリオドSEI(Buffering Period SEI)及びピクチャタイミングSEI(Picture Timing SEI)メッセージが存在するか否かを示すことができる。picture_and_timing_info_present_flagは、90kHzのシステムクロックとの正確なマッピングのための90kHz_flag及びそれと関連するパラメータが当該ディスクリプタに含まれるか否かを示すことができる。90kHz_flagは、HEVCビデオストリームのタイムベースの周波数(frequency)が90kHzであるか否かを示すことができる。N及び/又はKは、タイムスケールに関連するN、Kパラメータ値を提供することができる。HEVCビデオストリーム又はHEVCハイエストテンポラルサブ−レイヤリプレゼンテーションにおいて、HEVCタイムベースの周波数は、VUIパラメータのvui_time_scaleエレメントによって定義され得る。HEVC time_scaleとSTCとの関係はN、Kパラメータ値によって定義され得、HEVC time_scale=(N x system_clock_frequency)/Kのように表現することができる。90kHz_flagが1である場合、Nは1、Kは300の値を有することができる。90kHz_flagが0である場合、N、Kの値はN、Kフィールドによって提供され得る。num_units_in_tickは、VUIパラメータのvui_num_units_in_tickフィールドと同様の方式でコーディングすることができ、本フィールドの値は、当該HEVCタイミング&HRDディスクリプション情報に関連するHEVCビデオストリーム又はHEVCハイエストテンポラルサブ−レイヤリプレゼンテーション全体に適用できる。   The illustrated example (t30010) can indicate each parameter of @value described above. The hrd_management_valid_flag may indicate whether a buffering period SEI (Picture Period SEI) message and a picture timing SEI (Picture Timing SEI) message are present in the HEVC video stream or HEVC high temporal sub-layer representation. picture_and_timing_info_present_flag can indicate whether the descriptor includes 90 kHz_flag for accurate mapping with the 90 kHz system clock and its associated parameters. The 90 kHz_flag may indicate whether the time base frequency of the HEVC video stream is 90 kHz. N and / or K may provide N, K parameter values related to the time scale. In the HEVC video stream or HEVC high temporal sub-layer representation, the HEVC time base frequency may be defined by the vui_time_scale element of the VUI parameter. The relationship between HEVC time_scale and STC can be defined by N and K parameter values, and can be expressed as HEVC time_scale = (N x system_clock_frequency) / K. If 90 kHz_flag is 1, N may have a value of 1 and K may have a value of 300. If 90 kHz_flag is 0, N, K values may be provided by the N, K fields. The num_units_in_tick can be coded in the same manner as the vui_num_units_in_tick field of the VUI parameter, and the value of this field is applied to the entire HEVC video stream or HEVC high-temporal sub-layer representation related to the HEVC timing & HRD description information. it can.

実施例によって、HEVCタイミング&HRD情報は、前述した@valueの各パラメータをサブフィールドとして有するHEVCタイミング&HRD情報エレメントの形態で定義されてもよい。   According to an embodiment, HEVC timing & HRD information may be defined in the form of HEVC timing & HRD information element having each parameter of @value described above as a subfield.

図示された実施例(t30020)において、HEVCタイミング&HRD情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。   In the illustrated embodiment (t30020), HEVC timing & HRD information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor.

hrd_management_valid_flag、picture_and_timing_info_present_flag、90kHz_flag、N、K及び/又はnum_units_in_tickが当該ディスクリプタに含まれてもよく、その意味は前述した通りである。   hr_management_valid_flag, picture_and_timing_info_present_flag, 90 kHz_flag, N, K and / or num_units_in_tick may be included in the descriptor, and the meaning thereof is as described above.

図29は、本発明の一実施例に係るキャプション(caption)情報を示した図である。   FIG. 29 is a diagram illustrating caption information according to an embodiment of the present invention.

キャプション情報は、当該サービスコンポーネントがクローズドキャプションストリームコンポーネントである場合、それに関連するキャプションディスクリプション情報を含むことができる。キャプション情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメントなどで示されてもよい。   If the service component is a closed caption stream component, the caption information can include caption description information related to the service component. The caption information may have one form of the descriptors according to the above-described embodiments, or may have an element form. This may be indicated by the componentProperty element described above.

図示された実施例において、キャプション情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがキャプション情報に関連するキャプションスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:caption:201xの値を有することができる。@valueは、キャプションスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment, caption information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a caption scheme associated with the caption information. In this case, @schemIdId can have a value of urn: atsc3.0: caption: 201x. @Value can have a value whose meaning is defined according to the caption scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t31010)は、前述した@valueの各パラメータを示すことができる。caption_codecは、当該キャプションコンポーネントのエンコーディングタイプを示すことができる。実施例によって、“CEA−608”、“CEA−708”、“SMPTE−TT”などが示されてもよい。langは、当該キャプションコンポーネントの言語情報を含むことができる。caption_service_numberは、当該キャプションコンポーネントのタイプがCEA−708である場合、当該キャプションのサービスナンバーを含むことができる。easy_reader_flagは、当該キャプションコンポーネントがイージーリーダータイプであるか否かを示すことができる。aspect_ratioは、当該キャプションコンポーネントのディスプレイの縦横比(display aspect ratio)を示すことができる。実施例によって、“4:3”又は“16:9”などが示されてもよい。3D supportedは、当該キャプションコンポーネントが3Dをサポートするか否かを示すことができる。   The illustrated example (t31010) can indicate each parameter of @value described above. The caption_codec can indicate the encoding type of the caption component. Depending on the embodiment, “CEA-608”, “CEA-708”, “SMPTE-TT”, etc. may be indicated. The lang can include language information of the caption component. The caption_service_number may include the service number of the caption when the caption component type is CEA-708. easy_reader_flag can indicate whether or not the caption component is an easy reader type. The aspect_ratio may indicate a display aspect ratio of the caption component. Depending on the embodiment, “4: 3” or “16: 9” may be indicated. 3D supported may indicate whether the caption component supports 3D.

実施例によって、キャプション情報は、前述した@valueの各パラメータをサブフィールドとして有するキャプションエレメントの形態で定義されてもよい。   Depending on the embodiment, the caption information may be defined in the form of a caption element having each parameter of @value described above as a subfield.

図示された実施例(t31020)において、キャプション情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。MMTアセットがクローズドキャプションコンポーネントである場合、MPテーブルのアセットタイプをクローズドキャプションストリームに該当する値を割り当てることができる。実施例によって、MPテーブルのアセットタイプは、HEVCビデオストリームに該当する値を示しながら、アセットディスクリプタとして図示されたディスクリプタが含まれてもよい。この場合、HEVCビデオビットストリーム内にクローズドキャプションデータが含まれたことが示されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。   In the illustrated embodiment (t31020), caption information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. When the MMT asset is a closed caption component, the value corresponding to the closed caption stream can be assigned to the asset type of the MP table. According to the embodiment, the asset type of the MP table may include a descriptor illustrated as an asset descriptor while indicating a value corresponding to the HEVC video stream. In this case, it may be indicated that closed caption data is included in the HEVC video bitstream. This descriptor may be one type of asset descriptor.

caption_lang、caption_codec、easy_reader、wide_aspect_ratio、3d_supported及び/又はcaption_service_numberが当該ディスクリプタに含まれてもよく、その意味は、前述した通りである。caption_lang、easy_reader、wide_aspect_ratioは、それぞれ、前述したlang、easy_reader_flag、aspect_ratioと同一であってもよい。caption_codecの場合、その値が0x01、0x02、0x03、0x04、0x05であると、それぞれ、“CEA−608”、“CEA−708”、“SMPTE timed text”、“EBU−TT−D”、“CFF−TT”のエンコーディングタイプが用いられたことを示すことができる。url_flag、URL_length、及びURL_textフィールドは、前述したキャプション情報でのそれと同一であってもよい。   Caption_lang, caption_codec, easy_reader, wide_aspect_ratio, 3d_supported, and / or caption_service_number may be included in the descriptor, and the meaning thereof is as described above. The caption_lang, easy_reader, and wide_aspect_ratio may be the same as the above-mentioned lang, easy_reader_flag, and aspect_ratio, respectively. In the case of the caption_codec, if the values are 0x01, 0x02, 0x03, 0x04, 0x05, respectively, “CEA-608”, “CEA-708”, “SMPTE timed text”, “EBU-TT-D”, “CFF”, respectively. It can be shown that the encoding type “TT” was used. The url_flag, URL_length, and URL_text fields may be the same as those in the caption information described above.

例えば、クローズドキャプションコンポーネントがSMPTE−TTをベースとして英語字幕を含む場合、ディスクリプタは、“urn:atsc3.0:caption:201x”のスキームIDを有し、@valueは、それぞれ“SMPTE−TT,ENG,false,4:3,false”の値を有することができる。この@valueのパラメータは、順に、前述したパラメータの定義による意味を有することができる。   For example, when the closed caption component includes English subtitles based on SMPTE-TT, the descriptor has a scheme ID of “urn: atsc3.0: caption: 201x”, and @value is “SMPTE-TT, ENG”, respectively. , False, 4: 3, false ”. The parameter of @value can have a meaning according to the definition of the parameter described above in order.

また、HEVCビデオストリームコンポーネントのビットストリーム内にCEA−708などをベースとしてクローズドキャプションデータが含まれた場合、上述したHEVCビデオデータ関連情報と共に、クローズドキャプション関連情報が、前述した方法により共にシグナリングされ得る。   Further, when closed caption data is included in the bit stream of the HEVC video stream component based on CEA-708, the closed caption related information can be signaled together with the above-described HEVC video data related information by the above-described method. .

図30は、本発明の一実施例に係るHDR情報を示した図である。   FIG. 30 is a diagram illustrating HDR information according to an embodiment of the present invention.

HDR情報は、当該サービスコンポーネントがビデオコンポーネントである場合、それに関連するHDRパラメータ情報を含むことができる。HDR情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメント又はComponentDescriptionエレメントなどで示されてもよい。   The HDR information may include HDR parameter information related to the service component if the service component is a video component. The HDR information may have one form of the descriptors according to the above-described embodiments, or may have an element form. This may be indicated by the above-described componentProperty element or ComponentDescription element.

図示された実施例において、HDR情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがHDR情報に関連するHDRスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:hdr:201xの値を有することができる。@valueは、HDRスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment, HDR information can be defined in the form of descriptors. @SchemeIdUri may be a URI for identifying that the descriptor has an HDR scheme related to the HDR information. In this case, @schemIdId can have a value of urn: atsc3.0: hdr: 201x. @Value can have a value whose meaning is defined according to the HDR scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t32010)は、前述した@valueの各パラメータを示すことができる。OETF_typeは、当該ビデオデータのソースOETF(opto−electronic transfer function)のタイプを示すことができる。本フィールドの値が1、2、3である場合、それぞれITU−R BT.1886、ITU−R BT.709、ITU−R BT.2020タイプに該当してもよい。他の値は、将来の使用のために残すことができる。   The illustrated example (t32010) can indicate each parameter of @value described above. The OETF_type can indicate the type of the source OETF (opt-electronic transfer function) of the video data. When the value of this field is 1, 2, or 3, ITU-R BT. 1886, ITU-R BT. 709, ITU-R BT. It may correspond to the 2020 type. Other values can be left for future use.

max_mastering_display_luminanceは、当該ビデオデータのマスタリングディスプレイのピークルミナンス(peak luminance)値を示すことができる。この値は、100〜1000の間の整数値であってもよい。min_mastering_display_luminanceは、当該ビデオデータのマスタリングディスプレイの最小ルミナンス(minimum luminance)値を示すことができる。この値は、0〜0.1の間の分数(fractional number)値であってもよい。   max_mastering_display_luminance may indicate a peak luminance value of a mastering display of the video data. This value may be an integer value between 100 and 1000. The min_mastering_display_luminance may indicate a minimum luminance value of the mastering display of the video data. This value may be a fractional value between 0 and 0.1.

average_frame_luminance_levelは、一つのビデオサンプルに対してはルミナンスレベルの平均値を示すことができる。また、本フィールドは、サンプルグループ又はビデオトラック(ストリーム)に対しては、それに属するサンプルのそれぞれのルミナンスレベルの平均値のうちの最大値を示すことができる。max_frame_pixel_luminanceは、一つのビデオサンプルに対しては、ピクセルルミナンス値のうちの最大値を示すことができる。また、本フィールドは、サンプルグループ又はビデオトラック(ストリーム)に対しては、それに属するサンプルのそれぞれのピクセルルミナンスの最大値のうち最も大きい値を示すことができる。   average_frame_luminance_level may indicate an average luminance level for one video sample. In addition, this field can indicate the maximum value of the average values of the luminance levels of the samples belonging to the sample group or video track (stream). max_frame_pixel_luminance may indicate a maximum value of pixel luminance values for one video sample. In addition, this field can indicate the largest value among the maximum values of the pixel luminance of each sample belonging to the sample group or video track (stream).

hdr_type_transition_flagは、当該ビデオデータに対するHDR情報が変更されて他のタイプのHDR情報が適用されるか否かを示すフラグであってもよい。例えば、oeft:3,max_lum:100,min_lum:0.5,max_frame_lum:0,max_pixel_lum:0であったHDRパラメータが、oeft:1,max_lum:1000,min_lum:0.05,max_frame_lum:0,max_pixel_lum:0などに変更されると、本フィールドがtrue値を有することができる。hdr_sdr_transition_flagは、当該ビデオデータがHDRからSDRに切り替わるか否かを示すフラグであってもよい。sdr_hdr_transition_flagは、当該ビデオデータがSDRからHDRに切り替わるか否かを示すフラグであってもよい。sdr_compatibility_flagは、当該ビデオデータがSDRデコーダ乃至SDRディスプレイと互換可能であるか否かを示すフラグであってもよい。   The hdr_type_transition_flag may be a flag indicating whether HDR information for the video data is changed and another type of HDR information is applied. For example, HDR parameters that were oeft: 3, max_lum: 100, min_lum: 0.5, max_frame_lum: 0, max_pixel_lum: 0 are oft: 1, max_lum: 1000, min_lum: 0.05, max_frame_lum: 0, max_pixel_lum: If changed to 0, etc., this field can have a true value. The hdr_sdr_transition_flag may be a flag indicating whether or not the video data is switched from HDR to SDR. The sdr_hdr_transition_flag may be a flag indicating whether or not the video data is switched from SDR to HDR. The sdr_compatibility_flag may be a flag indicating whether or not the video data is compatible with an SDR decoder or an SDR display.

実施例によって、HDR情報は、前述した@valueの各パラメータをサブフィールドとして有するHDRエレメントの形態で定義されてもよい。   Depending on the embodiment, the HDR information may be defined in the form of an HDR element having each parameter of @value described above as a subfield.

図示された実施例(t32020)において、HDR情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。このディスクリプタは、アセットディスクリプタの一つの種類であってもよい。また、このディスクリプタは、SDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。   In the illustrated embodiment (t32020), the HDR information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. This descriptor may be one type of asset descriptor. The descriptor may be transmitted by being included in DVB SI service signaling such as SDT or EIT, or may be transmitted together.

OETF_type、max_mastering_display_luminance、min_mastering_display_luminance、average_frame_luminance_level、max_frame_pixel_luminance、hdr_type_transition_flag、hdr_sdr_transition_flag、sdr_hdr_transition_flag及び/又はsdr_compatibility_flagが当該ディスクリプタに含まれてもよく、その意味は、前述した通りである。   OETF_type, max_mastering_display_luminance, min_mastering_display_luminance, average_frame_luminance_level, max_frame_pixel_luminance, hdr_type_transition_flag, hdr_sdr_transition_flag, may sdr_hdr_transition_flag and / or sdr_compatibility_flag is included in the descriptor, the meaning is the same as described above.

実施例によって、HDRTypeTransitionFlag、HDRSDRTransitionFlag、及びSDRHDRTransitionFlagは、同時に1つ以上がtrueとならなくてもよい。例えば、HDRSDRTransitionFlagの値がtrueである場合、HDRTypeTransitionFlag及びSDRHDRTransitionFlagの値がfalseとなり得る。   Depending on the embodiment, one or more of the HDRTypeTransitionFlag, the HDRSDRTTransitionFlag, and the SDRHDRTransitionFlag may not be true at the same time. For example, when the value of HDRSDRTTransitionFlag is true, the values of HDRTypeTransitionFlag and SDRHDRTransitionFlag can be false.

図31は、本発明の一実施例に係るWCG情報を示した図である。   FIG. 31 is a diagram illustrating WCG information according to an embodiment of the present invention.

WCG情報は、当該サービスコンポーネントがビデオコンポーネントである場合、それに関連するWCG情報を含むことができる。WCG情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメント又はComponentDescriptionエレメントなどで示されてもよい。   If the service component is a video component, the WCG information may include WCG information related to the service component. The WCG information may have one form of the descriptors according to the above-described embodiments, or may have an element form. This may be indicated by the above-described componentProperty element or ComponentDescription element.

WCG情報はカラーガマット(color gamut)情報と呼ぶこともできる。カラーガマット情報は、2つの形態があり得、一つはコンテナカラーガマット(container color gamut)であり、他の一つはコンテンツカラーガマット(content color gamut)であり得る。コンテナカラーガマットは、エンコーディング、デコーディングステップ及び/又はデコードされた画素値をマッピングする過程で用いられるカラーガマット関連情報を含むことができる。コンテンツカラーガマットは、オリジナルソース(original source)のカラーガマットに関する情報を含むことができる。すなわち、コンテンツカラーガマットは、実際のコンテンツに適用された有効なカラースペースボリューム(color space volume)を示すことができる。   WCG information can also be referred to as color gamut information. The color gamut information can take two forms, one being a container color gamut and the other being a content color gamut. The container color gamut may include color gamut related information used in the process of mapping the encoding, decoding step and / or decoded pixel value. The content color gamut may include information regarding the color gamut of the original source. That is, the content color gamut can indicate an effective color space volume applied to actual content.

図示された実施例(t33010)において、コンテンツWCG情報は、ディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがコンテンツWCG情報に関連するコンテンツWCGスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:wcg:content:201xの値を有することができる。@valueは、コンテンツWCGスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t33010), the content WCG information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a content WCG scheme related to the content WCG information. In this case, @schemIdId can have a value of urn: atsc3.0: wcg: content: 201x. @Value can have a value whose meaning is defined according to the content WCG scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t33010)は、前述した@valueの各パラメータを示すことができる。   The illustrated example (t33010) can indicate each parameter of @value described above.

contentColorGamutTypeは、当該ビデオデータに対するカラーガマットのタイプを示すことができる。すなわち、このフィールドは、ソースプライマリ(primaries)のクロマティシティコーディネート(chromaticity coordinates)を示すことができる。この値は、VUI(video usability information)のカラープライマリ(colour primaries)値と同一であってもよい。VUIパラメータの値が存在しない場合、VUIのカラープライマリ値は特定されず(unspecified)、以下の8個のパラメータが値(value)を有することができる。   The contentColorGamutType can indicate the type of color gamut for the video data. That is, this field can indicate chromaticity coordinates of the source primaries. This value may be the same as the color primary value of VUI (video usability information). If the value of the VUI parameter does not exist, the color primary value of the VUI is not specified (unspecified), and the following eight parameters can have values.

contentColorPrimaryRx及びcontentColorPrimaryRyは、それぞれ当該ビデオソースのRカラーに対するx座標値及びy座標値を示すことができる。これは、0と1との間の分数(fractional number)の形態であってもよい。contentColorPrimaryGx及びcontentColorPrimaryGyは、それぞれ当該ビデオソースのGカラーに対するx座標値及びy座標値を示すことができる。これは、0と1との間の分数(fractional number)の形態であってもよい。contentColorPrimaryBx及びcontentColorPrimaryByは、それぞれ当該ビデオソースのBカラーに対するx座標値及びy座標値を示すことができる。これは、0と1との間の分数(fractional number)の形態であってもよい。contentWhitePx及びcontentWhitePyは、それぞれ当該ビデオソースのホワイトポイント(White point)に対するx座標値及びy座標値を示すことができる。これは、0と1との間の分数(fractional number)の形態であってもよい。   The contentColorPrimaryRx and the contentColorPrimaryRy can respectively indicate an x coordinate value and ay coordinate value for the R color of the video source. This may be in the form of a fractional number between 0 and 1. The contentColorPrimaryGx and the contentColorPrimaryGy can respectively indicate an x coordinate value and ay coordinate value for the G color of the video source. This may be in the form of a fractional number between 0 and 1. contentColorPrimaryBx and contentColorPrimaryBy can indicate an x-coordinate value and a y-coordinate value for the B color of the video source, respectively. This may be in the form of a fractional number between 0 and 1. The contentWhitePx and the contentWhitePy can respectively indicate an x coordinate value and a y coordinate value with respect to a white point (White point) of the video source. This may be in the form of a fractional number between 0 and 1.

contentWCGTransitionは、当該ビデオデータのコンテンツカラーガマットがWCG(Wide Color Gamut)からSCG(Standard Color Gamut)に切り替わるか否かを示すフラグであってもよい。実施例によって、WCGをサポートするビデオデータの終わりが当該ビデオコンポーネントに含まれることを示してもよい。contentSCGCompatibilityは、当該WCGビデオのコンテンツカラーガマットがSCGベースのデコーダ及びディスプレイと互換可能であるか否かを示すフラグであってもよい。   The content WCG Transition may be a flag indicating whether or not the content color gamut of the video data is switched from WCG (Wide Color Gamut) to SCG (Standard Color Gamut). An embodiment may indicate that the end of video data supporting WCG is included in the video component. The contentSCGCompatibility may be a flag indicating whether or not the content color gamut of the WCG video is compatible with an SCG-based decoder and display.

図示された実施例(t33020)において、コンテナWCG情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがコンテナWCG情報に関連するコンテナWCGスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:wcg:container:201xの値を有することができる。@valueは、コンテナWCGスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t33020), the container WCG information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a container WCG scheme related to the container WCG information. In this case, @schemIdId can have a value of urn: atsc3.0: wcg: container: 201x. @Value can have a value whose meaning is defined according to the container WCG scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t33020)は、前述した@valueの各パラメータを示すことができる。このパラメータは、前述したコンテンツカラーガマットに対するパラメータと同一であってもよい。但し、このパラメータは、コンテナカラーガマットについて記述することができる。例えば、containerColorGamutTypeは、当該ビデオのコンテナカラーガマットのタイプを示すことができる。すなわち、エンコーディング時に使用した、またはデコーディング時に使用し得るカラープライマリ(color primaries)に対するクロマティシティコーディネートを示すことができる。   The illustrated example (t33020) can indicate each parameter of @value described above. This parameter may be the same as the parameter for the content color gamut described above. However, this parameter can be described for the container color gamut. For example, containerColorGamutType can indicate the container color gamut type of the video. That is, it is possible to indicate chromaticity coordinates for color primaries that are used during encoding or that can be used during decoding.

containerColorPrimaryRx、containerColorPrimaryRy、containerColorPrimaryGx、containerColorPrimaryGy、containerColorPrimaryBx、containerColorPrimaryBy、containerWhitePx、containerWhitePyは、それぞれエンコーディング/デコーディング時に使用した/使用し得るカラープライマリ(color primaries)のRGBカラー及びホワイトポイントのx,y座標を示すことができる。すなわち、コンテナのカラーガマットの座標を示すことができる。   containerColorPrimaryRx, containerColorPrimaryRy, containerColorPrimaryGx, containerColorPrimaryGy, containerColorPrimaryBx, containerColorPrimaryBy, containerWhitePx, containerWhitePy is, RGB color and the white point x of the respective encoding / decoding is used when coding / usable color primary (color primaries), to exhibit y-coordinate it can. That is, the coordinates of the color gamut of the container can be shown.

containerWCGTransitionは、当該ビデオデータのコンテナカラーガマットがWCGからSCGに切り替わるか否かを示すフラグであってもよい。実施例によって、コンテナのWCGをサポートするビデオデータの終わりが当該ビデオコンポーネントに含まれることを示してもよい。containerSCGCompatibilityは、当該WCGビデオのコンテナカラーガマットがSCGベースのデコーダ及びディスプレイと互換可能であるか否かを示すフラグであってもよい。   The container WCG Transition may be a flag indicating whether or not the container color gamut of the video data is switched from WCG to SCG. An embodiment may indicate that the video component includes an end of video data that supports the WCG of the container. The containerSCGCompatibility may be a flag indicating whether the container color gamut of the WCG video is compatible with an SCG-based decoder and display.

実施例によって、コンテンツ/コンテナWCG情報は、前述した@valueの各パラメータをサブフィールドとして有するコンテンツ/コンテナWCGエレメントの形態で定義されてもよい。   Depending on the embodiment, the content / container WCG information may be defined in the form of a content / container WCG element having each parameter of @value described above as a subfield.

図示された実施例(t33030)において、コンテンツ/コンテナWCG情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。MMTアセットが、WCGをサポートするコンテンツを含むビデオストリームコンポーネントである場合、アセットディスクリプタとして図示されたディスクリプタが含まれてもよい。また、このディスクリプタは、SDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。   In the illustrated embodiment (t33030), content / container WCG information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. If the MMT asset is a video stream component that includes content that supports WCG, a descriptor illustrated as an asset descriptor may be included. The descriptor may be transmitted by being included in DVB SI service signaling such as SDT or EIT, or may be transmitted together.

このディスクリプタ(t33030)は、コンテンツWCG情報とコンテナWCG情報を共に含むこともできる。   This descriptor (t33030) can also include both content WCG information and container WCG information.

color_gamut_typeは、前述したcontainerColorGamutTypeと同一であってもよい。color_space_transition_flagは、当該ビデオコンポーネントのビデオサンプルに対して、エンコーディング時に使用した/デコーディング時に使用し得るカラープライマリ(color primaries)に対するクロマティシティコーディネートが他のクロマティシティコーディネートに変更されるか否かを示すフラグであってもよい。wcg_scg_transition_flagは、当該ビデオコンポーネントのビデオサンプルのコンテナカラーガマットがWCGからSCGに切り替わるか否かを示すフラグであってもよい。例えば、BT.2020からBT.709にコンテナカラーガマットが変化するか否かを示すことができる。scg_wcg_transition_flagは、当該ビデオコンポーネントのビデオサンプルのコンテナカラーガマットがSCGからWCGに切り替わるか否かを示すフラグであってもよい。scg_compatibility_flagは、当該ビデオコンポーネントのビデオサンプルのコンテナカラーガマットがSCGベースのデコーダ及びディスプレイと互換可能であるか否かを示すフラグであってもよい。すなわち、既存のSCGデコーダ又はディスプレイが使用される場合において、別途のマッピング情報やアップグレードがなくても当該WCGビデオをクオリティ問題なしに出力可能であるか否かを、このフィールドによって確認することができる。コンテナカラーガマットに関する情報であるため、このフィールドは、SCGベースのデコーダ/ディスプレイがBT.2020のようなカラーガマットを知らなくても当該ビデオデータをデコードすることができるか否かを示すことができる。color_primary_flagは、当該ビデオコンポーネントのビデオサンプルのエンコーディング/デコーディング時に使用し得るカラープライマリ(color primaries)のクロマティシティコーディネートに関する細部情報が存在するか否かを示すフラグであってもよい。color_primary_flagの値に応じて、color_primaryRxフィールド、color_primaryRyフィールド、color_primaryGxフィールド、color_primaryGyフィールド、color_primaryBxフィールド、color_primaryByフィールド、color_whitePxフィールド及び/又はcolor_whitePyフィールドが含まれ得る。このフィールドは、それぞれエンコーディング/デコーディング時に使用した/使用し得るカラープライマリ(color primaries)のRGBカラー及びホワイトポイントのx,y座標を示すことができる。   The color_gamut_type may be the same as the containerColorGamutType described above. The color_space_transition_flag is a flag indicating whether or not the chromaticity coordinates for the color primaries used during encoding / decoding for the video samples of the video component are changed to other chromaticity coordinates. It may be. The wcg_scg_transition_flag may be a flag indicating whether or not the container color gamut of the video sample of the video component is switched from WCG to SCG. For example, BT. 2020 to BT. Reference numeral 709 denotes whether or not the container color gamut changes. The scg_wcg_transition_flag may be a flag indicating whether or not the container color gamut of the video sample of the video component is switched from SCG to WCG. The scg_compatibility_flag may be a flag indicating whether the container color gamut of the video sample of the video component is compatible with the SCG-based decoder and display. That is, when an existing SCG decoder or display is used, it is possible to confirm whether or not the WCG video can be output without quality problems without additional mapping information or upgrade. . Since this is information about the container color gamut, this field indicates that the SCG-based decoder / display is BT. Whether the video data can be decoded without knowing the color gamut such as 2020 can be shown. The color_primary_flag may be a flag indicating whether or not there is detailed information regarding chromaticity coordinates of color primaries that can be used when encoding / decoding the video sample of the video component. Depending on the value of the color_primary_flag, the color_primaryRx field, the color_primaryRy field, the color_primaryGx field, the color_primaryGy field, the color_primary field, the color_primWritable field, and the color_primWritable field. This field can indicate the color primaries RGB color and white point x and y coordinates used / available for encoding / decoding, respectively.

content_wcg_flagは、当該ビデオコンポーネントに対して、コンテンツカラーガマットに関する細部情報が当該ディスクリプタに含まれたか否かを示すことができる。content_color_gamut_typeは、当該ビデオストリームのコンテンツカラーガマットのタイプを示すことができる。すなわち、このフィールドは、当該ビデオデータのオリジナルソースプライマリ(original source primaries)に対するクロマティシティコーディネートを示すことができる。content_color_space_transition_flagは、当該ビデオコンポーネントのビデオデータのオリジナルソースプライマリ(original source primaries)に対して、これらのクロマティシティコーディネートが他のクロマティシティコーディネートに変更されるか否かを示すフラグであってもよい。content_wcg_scg_transition_flagは、当該ビデオコンポーネントのビデオデータのコンテンツカラーガマットがWCGからSCGに切り替わるか否かを示すフラグであってもよい。content_scg_wcg_transition_flagフィールドは、当該ビデオコンポーネントのビデオデータのコンテンツカラーガマットがSCGからWCGに切り替わるか否かを示すフラグであってもよい。content_scg_compatibility_flagフィールドは、当該ビデオコンポーネントのビデオデータのコンテンツカラーガマットがSCGベースのデコーダ及びディスプレイと互換可能であるか否かを示すフラグであってもよい。すなわち、このフィールドの値が1である場合、当該ビデオデータの有効色表現範囲がSCGと互換可能であり、別途のマッピングなどが不要であることを示すことができる。content_color_primary_flagフィールドは、当該ビデオコンポーネントのビデオデータのオリジナルソースプライマリ(original source primaries)のクロマティシティコーディネートに関する細部情報が存在するか否かを示すフラグであってもよい。content_color_primary_flagフィールドの値に応じて、content_color_primaryRxフィールド、content_color_primaryRyフィールド、content_color_primaryGxフィールド、content_color_primaryGyフィールド、content_color_primaryBxフィールド、content_color_primaryByフィールド、content_color_whitePxフィールド及び/又はcontent_color_whitePyフィールドが含まれ得る。このフィールドは、それぞれオリジナルソースプライマリ(original source primaries)のRGBカラー及びホワイトポイントのx,y座標を示すことができる。   The content_wcg_flag can indicate to the video component whether or not detailed information regarding the content color gamut is included in the descriptor. The content_color_gamut_type can indicate the content color gamut type of the video stream. That is, this field can indicate a chromaticity coordinate with respect to the original source primaries of the video data. The content_color_space_transition_flag may be a flag indicating whether or not these chromaticity coordinates are changed to other chromaticity coordinates with respect to the original source primaries of the video data of the video component. The content_wcg_scg_transition_flag may be a flag indicating whether or not the content color gamut of the video data of the video component is switched from WCG to SCG. The content_scg_wcg_transition_flag field may be a flag indicating whether or not the content color gamut of the video data of the video component is switched from SCG to WCG. The content_scg_compatibility_flag field may be a flag indicating whether the content color gamut of the video data of the video component is compatible with the SCG-based decoder and display. That is, when the value of this field is 1, it can be shown that the effective color expression range of the video data is compatible with SCG, and that separate mapping or the like is unnecessary. The content_color_primary_flag field may be a flag indicating whether or not there is detailed information related to chromaticity coordination of the original source primary of the video data of the video component. Depending on the value of content_color_primary_flag field Content_color_primaryRx field, Content_color_primaryRy field, Content_color_primaryGx field, Content_color_primaryGy field, Content_color_primaryBx field, Content_color_primaryBy field can include content_color_whitePx field and / or content_color_whitePy field. This field can indicate the RGB color of the original source primaries and the x and y coordinates of the white point, respectively.

実施例によって、前述したcolor_gamut_type及び/又はcontent_color_gamut_typeは、次のような意味を有することができる。   Depending on the embodiment, the color_gamut_type and / or content_color_gamut_type described above may have the following meanings.

0:reserved/1:Rec.ITU−R BT.709−5,Rec.ITU−R BT.1361 conventional colour gamut system and extended colour gamut system,IEC 61966−2−1(sRGB or sYCC),IEC 61966−2−4,Society of Motion Picture and Television Engineers RP 177(1993)/2:unspecified/3:Reserved for future use/4:Rec.ITU−R BT.470−6 System M(historical),United States National Television System Committee 1953 Recommendation for transmission standards for colour television,United States Federal Communications Commission Title 47 Code of Federal Regulations(2003) 73.682(a)/5:Rec.ITU−R BT.470−6 System B,G(historical),Rec.ITU−R BT.601−6 625,Rec.ITU−R BT.1358 625,Rec.ITU−R BT.1700 625 PAL and 625 SECAM/6:Rec.ITU−R BT.601−6 525,Rec.ITU−R BT.1358 525,Rec.ITU−R BT.1700 NTSC,Society of Motion Picture and Television Engineers 170M(2004)/7:Society of Motion Picture and Television Engineers 240M(1999)/8:Generic film(colour filters using Illuminant C)/9:Rec.ITU−R BT.2020/10−255:Reserved for future use   0: reserved / 1: Rec. ITU-R BT. 709-5, Rec. ITU-R BT. 1361 conventional color gamut system and extended color gamut system, IEC 61966-2-1 (sRGB or s Yc), IEC 61966-2-4, Society of Motion 17 for future use / 4: Rec. ITU-R BT. 470-6 System M (historical), United States National Television System Committee 1953 Recommendation for transmission standards for colour television, United States Federal Communications Commission Title 47 Code of Federal Regulations (2003) 73.682 (a) / 5: Rec. ITU-R BT. 470-6 System B, G (historical), Rec. ITU-R BT. 601-6 625, Rec. ITU-R BT. 1358 625, Rec. ITU-R BT. 1700 625 PAL and 625 SECAM / 6: Rec. ITU-R BT. 601-6 525, Rec. ITU-R BT. 1358 525, Rec. ITU-R BT. 1700 NTSC, Society of Motion Picture and Television Engineers 170M (2004) / 7: Society of Motion Picture and Television Engineers il il. ITU-R BT. 2020 / 10-255: Reserved for future use

図32は、本発明の一実施例に係るHFR情報/プルダウン(Pull Down)情報を示した図である。   FIG. 32 is a diagram illustrating HFR information / Pull Down information according to an embodiment of the present invention.

HFR情報は、当該ビデオサービスコンポーネントがHFRをサポートする場合、それに関連するHFR情報を含むことができる。HFR情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメント又はComponentDescriptionエレメントなどで示されてもよい。前述したように、HFR情報はMPDなどにも含まれてもよい。   The HFR information may include HFR information associated with the video service component if the video service component supports HFR. The HFR information may have one form of the descriptors according to the above-described embodiments, or may have an element form. This may be indicated by the above-described componentProperty element or ComponentDescription element. As described above, the HFR information may be included in the MPD.

図示された実施例(t34010)において、HFR情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがHFR情報に関連するHFRスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:hfr:201xの値を有することができる。@valueは、HFRスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t34010), the HFR information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has an HFR scheme related to the HFR information. In this case, @schemIdId can have a value of urn: atsc3.0: hfr: 201x. @Value can have a value whose meaning is defined according to the HFR scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t34010)は、前述した@valueの各パラメータを示すことができる。SFRCompatibilityは、当該ビデオコンポーネントがSFR(Standard Frame Rate)又はレガシーフレームレートと互換されるか否かを示すことができる。SFR_HFR_Transitionは、当該ビデオコンポーネントが一般のフレームレート(SFR又はレガシーフレームレート)からHFRへのトランジション(transition)を含むか否かを示すことができる。HFR_SFR_Transitionは、当該ビデオコンポーネントがHFRから一般のフレームレート(SFR又はレガシーフレームレート)へのトランジション(transition)を含むか否かを示すことができる。   The illustrated example (t34010) can indicate each parameter of @value described above. SFRCompatibility can indicate whether the video component is compatible with an SFR (Standard Frame Rate) or a legacy frame rate. SFR_HFR_Transition may indicate whether the video component includes a transition from a general frame rate (SFR or legacy frame rate) to HFR. HFR_SFR_Transition may indicate whether the video component includes a transition from HFR to a general frame rate (SFR or legacy frame rate).

プルダウン情報は、当該サービスコンポーネントに対するプルダウンリカバリーコンフィギュレーション(Pull Down Recovery Configuration)情報を含むことができる。プルダウン情報は、前述した実施例に係るディスクリプタのうち1つの形態を有してもよく、エレメントの形態を有してもよい。これは、前述したcomponentPropertyエレメント又はComponentDescriptionエレメントなどで示されてもよい。   The pull-down information may include pull-down recovery configuration (Pull Down Recovery Configuration) information for the service component. The pull-down information may have one form of the descriptors according to the above-described embodiments, or may have an element form. This may be indicated by the above-described componentProperty element or ComponentDescription element.

プルダウンリカバリーコンフィギュレーションについて説明する。例えば、オリジナルソースがフィルムモード(例えば、24p)である場合、これは、エンコーディングのために他のフレームレートに変更され得る(例えば、60i)。この場合、ダーティーフレーム(dirty frames)が発生し得る。ダーティーフレームは、次のような方式により生成され得る。   The pull-down recovery configuration will be described. For example, if the original source is in film mode (eg, 24p), this can be changed to another frame rate for encoding (eg, 60i). In this case, dirty frames may occur. The dirty frame can be generated by the following method.

全てのオリジナルフィルムフレームは、2つのフィールドで構成されていると見なすことができる。一方は、イメージの奇数番目のラインのためであり、他方は、イメージの偶数番目のラインのためであり得る。したがって、4個のフィルムフレーム毎に8個のフィールドがあり得る。ここで、4個のフィルムフレームをそれぞれA、B、C及びDと呼ぶことができる。この8個のフィールドは、10個のフィールドにストレッチ(stretched)され得る。これは、2つのフィールドを繰り返すことによって(トップ、ボトム)行われてもよい。   All original film frames can be considered to consist of two fields. One may be for odd lines of the image and the other may be for even lines of the image. Thus, there can be 8 fields for every 4 film frames. Here, the four film frames can be referred to as A, B, C, and D, respectively. The 8 fields can be stretched to 10 fields. This may be done by repeating two fields (top, bottom).

Aフレームは、3つのフィールドにわたって(across)いてもよく(At,Ab,Ab)、Bフレームは、2つのフィールドにわたっていてもよく(Bt,Bb)、Cフレームは、3つのフィールドにわたっていてもよく(Ct,Ct,Cb)、Dフレームは、2つのフィールドにわたっていてもよい(Dt,Db)。これらは、At−Ab−Ab−Bt−Bb−Ct−Ct−Cb−Dt−Db、3−2−3−2プルダウン、または簡単に3−2プルダウンと表してもよい。ここで、Atは、Aフレームのトップフィールドという意味であり、Bbは、Bフレームのボトムフィールドという意味であり得る。   An A frame may be crossed over three fields (At, Ab, Ab), a B frame may be spanned over two fields (Bt, Bb), and a C frame may be spanned over three fields. (Ct, Ct, Cb), the D frame may span two fields (Dt, Db). These may be represented as At-Ab-Ab-Bt-Bb-Ct-Ct-Cb-Dt-Db, 3-2-3-2 pull-down, or simply 3-2 pull-down. Here, At may mean the top field of the A frame, and Bb may mean the bottom field of the B frame.

“At−Ab−Ab−Bt−Bb−Ct−Ct−Cb−Dt−Db”のケースにおいて、Ab−Btフレーム及びBb−Ctフレームはダーティーフレームと呼ぶことができる。しかし、受信機は、オリジナルフレームレートはプルダウンリカバリーコンフィギュレーションを介して知ることができる。受信機は、オリジナルフレームレートストリームをエンコード/伝送されたフレームレートストリームから復旧することができる。ここで、復旧は、ダーティーフレームを除去する過程であり得る。   In the case of “At-Ab-Ab-Bt-Bb-Ct-Ct-Cb-Dt-Db”, the Ab-Bt frame and the Bb-Ct frame can be called dirty frames. However, the receiver can know the original frame rate via a pull-down recovery configuration. The receiver can recover the original frame rate stream from the encoded / transmitted frame rate stream. Here, the recovery may be a process of removing the dirty frame.

プルダウンは、フィルムメイキング/TVプロダクションなどにおいて、フィルム又はビデオの伝達のためのポストプロダクションプロセスと関連して使用される用語であり得る。フィルムフレームレートは、ブロードキャスタによって放送フレームレートに切り替わってもよい。しかし、システムレベルのフレームレート関連情報は放送フレームレート情報のみを含むことができる。したがって、オリジナルフレームレートを復旧するために、システムレベルシグナリングは、オリジナルフレームレートに関連する情報をシグナリングできなければならない。例えば、オリジナルフレームレート(例えば、24p)情報及び/又はプルダウンタイプ情報(例えば、3:2プルダウン)がシグナリング情報に含まれ得る。また、プルダウンされたビデオのビデオレベル情報は、オリジナルビデオへの復旧を要求することができる。   Pull-down may be a term used in connection with a post-production process for film or video transmission, such as in film making / TV production. The film frame rate may be switched to the broadcast frame rate by a broadcaster. However, the system level frame rate related information can include only broadcast frame rate information. Therefore, in order to recover the original frame rate, the system level signaling must be able to signal information related to the original frame rate. For example, original frame rate (eg, 24p) information and / or pull down type information (eg, 3: 2 pull down) may be included in the signaling information. Also, the video level information of the pulled-down video can request recovery to the original video.

図示された実施例(t34020)において、プルダウン情報はディスクリプタの形態で定義できる。@schemeIdUriは、当該ディスクリプタがプルダウン情報に関連するプルダウンスキームを有することを識別するためのURIであってもよい。この場合、@schemeIdUriは、urn:atsc3.0:pulldown:201xの値を有することができる。@valueは、プルダウンスキームに応じてその意味が定義される値(value)を有することができる。この値については後述する。@idは、当該ディスクリプタの識別子を示すことができる。同一の識別子を有する場合、同一のスキームID、値(value)、及びパラメータを含むことができる。   In the illustrated embodiment (t34020), the pull-down information can be defined in the form of a descriptor. @SchemeIdUri may be a URI for identifying that the descriptor has a pull-down scheme associated with the pull-down information. In this case, @schemeIdUri may have a value of urn: atsc3.0: pulldown: 201x. @Value can have a value whose meaning is defined according to the pull-down scheme. This value will be described later. @Id can indicate the identifier of the descriptor. If they have the same identifier, they can contain the same scheme ID, value, and parameters.

図示された実施例(t34020)は、前述した@valueの各パラメータを示すことができる。PullDownTypeは、当該エンコードされたビデオストリームに適用されたプルダウンのタイプを示すことができる。負数ではなく10進数の整数で表現することができる。本フィールドは、その値に応じて、0−reserved、1−2:2 pull−down、2−2:3 pull down、3−3:2 pull−down、4−4:4 pull−down、5−5:5 pull−down、6−6:4 pull−down、...、などのタイプを示すことができる。   The illustrated example (t34020) can indicate each parameter of @value described above. PullDownType can indicate the type of pull-down applied to the encoded video stream. It can be expressed as a decimal integer instead of a negative number. This field is 0-reserved, 1-2: 2 pull-down, 2-2: 3 pull down, 3-3: 2 pull-down, 4-4: 4 pull-down, 5 according to the value. -5: 5 pull-down, 6-6: 4 pull-down,...

PullDownTransitionは、プルダウンされたデータからオリジナルフレームレートへのトランジションが当該ビデオコンポーネントに含まれるか否かを示すことができる。実施例によって、本フィールドは、プルダウンされたデータの終わりが当該ビデオコンポーネントに含まれるか否かを示してもよい。   PullDownTransition can indicate whether the video component includes a transition from the pulled down data to the original frame rate. Depending on the embodiment, this field may indicate whether the end of the pulled down data is included in the video component.

OriginalFrameRateは、当該ビデオデータのオリジナルフレームレート(キャプチャード(captured)フレームレート)を示すことができる。本フィールドは、負数ではなく10進数の整数で表現することができる。この情報は、エンコーディングフレームレートからオリジナルフレームレートに復旧を行うために提供されてもよい。本フィールドは、その値に応じて、0−reserved、1−120、2−120/1.001、3−100、4−60、5−60/1.001、6−50、7−30、8−30/1.001、9−25、10−24、11−24/1.001、12〜14−reservedなどのオリジナルフレームレートを示すことができる。   OriginalFrameRate can indicate the original frame rate (captured frame rate) of the video data. This field can be expressed as a decimal integer instead of a negative number. This information may be provided to recover from the encoding frame rate to the original frame rate. Depending on the value of this field, 0-reserved, 1-120, 2-120 / 1.001, 3-100, 4-60, 5-60 / 1.001, 6-50, 7-30, Original frame rates such as 8-30 / 1.001, 9-25, 10-24, 11-24 / 1.001, 12-14-reserved can be indicated.

OriginalScanTypeは、当該ビデオに該当するオリジナルビデオのスキャニングタイプを示すことができる。本フィールドは、負数ではなく10進数の整数で表現することができる。本フィールドは、その値に応じて、0−reserved、1−interlaced、2−progressive、3−unspecifiedなどのタイプを示すことができる。   OriginalScanType can indicate the scanning type of the original video corresponding to the video. This field can be expressed as a decimal integer instead of a negative number. This field can indicate a type such as 0-reserved, 1-interlaced, 2-progressive, 3-unspecified depending on the value.

実施例によって、プルダウン情報は、前述した@valueの各パラメータをサブフィールドとして有するプルダウンエレメントの形態で定義されてもよい。   Depending on the embodiment, the pull-down information may be defined in the form of a pull-down element having each parameter of @value described above as a subfield.

図示された実施例(t34030)において、HFR情報&プルダウン情報はディスクリプタの形態で定義できる。このディスクリプタは、前述したように、MMTシグナリング情報に含まれて伝達されてもよい。このディスクリプタは、前述したMPTメッセージ又は他のMMTPメッセージに含まれて伝達されてもよい。MMTアセットが、HFRをサポートするコンテンツを含むビデオストリームコンポーネントである場合、アセットディスクリプタとして図示されたディスクリプタが含まれてもよい。また、このディスクリプタは、SDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。   In the illustrated embodiment (t34030), the HFR information & pull-down information can be defined in the form of a descriptor. As described above, this descriptor may be transmitted by being included in the MMT signaling information. This descriptor may be transmitted by being included in the above-described MPT message or other MMTP message. If the MMT asset is a video stream component that includes content that supports HFR, a descriptor illustrated as an asset descriptor may be included. The descriptor may be transmitted by being included in DVB SI service signaling such as SDT or EIT, or may be transmitted together.

このディスクリプタ(t34030)は、HFR情報&プルダウン情報を共に含むこともできる。sfr_compatibility_flag、sfr_hfr_transition_flag、hfr_sfr_transition_flag、pull_down_type、pull_down_transition_flag、original_framerate及び/又はoriginal_scan_typeは、それぞれ、前述したSFRCompatibility、SFR_HFR_Transition、HFR_SFR_Transition、PullDownType、PullDownTransition、OriginalFrameRate、OriginalScanTypeと同一であってもよい。original_framerate_flagは、当該ディスクリプタにoriginal_framerateフィールドが存在するか否かを示すことができる。original_scane_type_flagは、当該ディスクリプタにoriginal_scane_typeフィールドが存在するか否かを示すことができる。   This descriptor (t34030) can also include both HFR information and pull-down information. sfr_compatibility_flag, sfr_hfr_transition_flag, hfr_sfr_transition_flag, pull_down_type, pull_down_transition_flag, original_framerate and / or original_scan_type, respectively, SFRCompatibility described above, SFR_HFR_Transition, HFR_SFR_Transition, PullDownType, PullDownTransition, OriginalFrameRate, may be the same as OriginalScanType. The original_frameate_flag can indicate whether or not the original_frameate field exists in the descriptor. The original_scene_type_flag can indicate whether or not the original_scene_type field exists in the descriptor.

図33は、本発明の一実施例に係る3Dサービス及びマルチビューサービス関連シグナリング情報を示す。MMTアセットが、ステレオスコピック(stereoscopic)3Dサービスのためのビデオストリームコンポーネント(video stream component)である場合、MP_table内のasset_descriptorとしてビューポジションディスクリプタ(view_position_descriptor)d33010を含むことができる。ビューポジションディスクリプタ(view_position_descriptor)は、ステレオスコピック3Dパラメータ情報などを含むことができる。これは、MMTの他のシグナリングテーブル或いはDVBのSI(SDT又はEIT)などに含まれてもよい。ビューポジションディスクリプタは、次のフィールドのうち少なくとも1つを含むことができる。descriptor_tagフィールドは、ビューポジションディスクリプタ(view_position_descriptor)に対する識別子であってもよい。descriptor_lengthフィールドは、ビューポジションディスクリプタ(view_position_descriptor)の長さを示すことができる。right_view_flagフィールドは、当該ビデオストリーム(video stream)のコンポーネント(component)が右側視点(right view)コンポーネントであるか否かを示すことができる。フィールドの値が0である場合、当該ビデオストリーム(video stream)のコンポーネント(component)が左側視点(left view)コンポーネントであることを示し、フィールドの値が1である場合、右側視点(right view)コンポーネントであることを示すことができる。   FIG. 33 shows 3D service and multiview service related signaling information according to an embodiment of the present invention. If the MMT asset is a video stream component for a stereoscopic 3D service, a view position descriptor (view_position_descriptor) d33010 can be included as an asset_descriptor in the MP_table. The view position descriptor (view_position_descriptor) can include stereoscopic 3D parameter information and the like. This may be included in other signaling tables of MMT or DVB SI (SDT or EIT). The view position descriptor can include at least one of the following fields: The descriptor_tag field may be an identifier for the view position descriptor (view_position_descriptor). The descriptor_length field can indicate the length of the view position descriptor (view_position_descriptor). The right_view_flag field can indicate whether the component of the video stream is a right view component. When the value of the field is 0, it indicates that the component of the video stream (video stream) is a left view component, and when the value of the field is 1, the right view (right view). It can indicate that it is a component.

MMTアセットが、マルチビュー(Multiview)サービスのためのビデオストリームコンポーネント(video stream component)である場合、MP_table内のasset_descriptorとしてビューポジションディスクリプタ(view_position2_descriptor)d33020を含むことができる。ビューポジションディスクリプタ(view_position2_descriptor)は、マルチビュー(Multiview)パラメータ情報などを含むことができる。ビューポジションディスクリプタ(view_position2_descriptor)は、コンポーネント間の依存性(dependency)情報も含んでいる。これは、MMTの他のシグナリングテーブル或いはDVBのSI(SDT又はEIT)などに含まれてもよい。ビューポジションディスクリプタ(view_position2_descriptor)は、次のフィールドのうち少なくとも1つを含むことができる。descriptor_tagフィールドは、ビューポジションディスクリプタ(view_position2_descriptor)に対する識別子であってもよい。descriptor_lengthフィールドは、当該ビューポジションディスクリプタ(view_position2_descriptor)の長さを示すことができる。num_of_viewsフィールドは、当該ビューポジションディスクリプタ(view_position2_descriptor)に含まれたビュー(view)の総数を意味してもよい。すなわち、マルチビューサービスで提供する視点(view)の総数を示すことができる。view_positionフィールドは、マルチビュー(Multiview)である場合、当該ビデオコンポーネント(video component)のビューポジション(view position)情報を意味し得る。ここで、視点位置情報は、マルチビューのうち最も左側に位置した1番目の視点に対して0に設定されてもよい。また、視点位置情報は、1番目の視点から次の視点に左側から右側に移動する度に1ずつ増加する値に設定されてもよい。(The view position means the order for the left-most view being equal to 0 and the value of the order increasing by 1 for next view from left to right.)ここで、マルチビュー(Multiview)は、3Dマルチビュー(Multiview)やパノラマ(panorama)のためのマルチビュー(Multiview)であってもよい。ここで、3Dマルチビューである場合、前述したビューポジション(view position)情報は、各視点(view)に対する左側視点(left view)又は右側視点(right view)の意味を含むことができる。すなわち、数字で表現されるビューポジション(view position)情報から、当該コンポーネントに含まれた視点(view)が3Dサービスを提供するための左側視点(left view)であるか、または右側視点(right view)であるかを確認することができる。   If the MMT asset is a video stream component for a multi-view service, a view position descriptor (view_position2_descriptor) d33020 can be included as an asset_descriptor in the MP_table. The view position descriptor (view_position2_descriptor) may include multiview parameter information and the like. The view position descriptor (view_position2_descriptor) also includes dependency information between components. This may be included in other signaling tables of MMT or DVB SI (SDT or EIT). The view position descriptor (view_position2_descriptor) may include at least one of the following fields. The descriptor_tag field may be an identifier for the view position descriptor (view_position2_descriptor). The descriptor_length field can indicate the length of the view position descriptor (view_position2_descriptor). The num_of_views field may mean the total number of views (views) included in the view position descriptor (view_position2_descriptor). That is, the total number of viewpoints provided in the multi-view service can be indicated. The view_position field may mean view position information of the video component in the case of multi-view. Here, the viewpoint position information may be set to 0 for the first viewpoint located on the leftmost side of the multiview. In addition, the viewpoint position information may be set to a value that increases by 1 each time the first viewpoint moves to the next viewpoint from the left side to the right side. (The view position means the order for the left-most view being equal to 0 and the value of the order increasing by 1 for next view from left to right.) Here, the multiview is a 3D multiview. ) Or panorama (multiview). Here, in the case of 3D multi-view, the above-described view position information may include the meaning of the left viewpoint or the right viewpoint for each viewpoint. That is, from the view position information represented by numbers, the viewpoint (view) included in the component is the left viewpoint (left view) for providing the 3D service, or the right viewpoint (right view). ).

図34は、本発明の一実施例に係る、HDR情報処理能力に基づいた受信機のメディアエンジンの動作を示した図である。   FIG. 34 is a diagram illustrating the operation of the media engine of the receiver based on the HDR information processing capability according to an embodiment of the present invention.

受信機のパーサー(ISOBMFFパーサー)は、ISOBMFFベースのメディアファイル、DASHセグメント及び/又はMMT MPUなどをパーシングすることができる。パーシングの結果によって、ビデオサンプルはビデオデコーダに伝達され、HDR情報(メタデータ)はメタデータパーサーに伝達され得る。   A receiver parser (ISOBMFF parser) can parse ISOBMFF-based media files, DASH segments and / or MMT MPUs, and the like. Depending on the result of parsing, video samples can be transmitted to the video decoder, and HDR information (metadata) can be transmitted to the metadata parser.

ビデオデコーダは、ビデオサンプルをデコードしてHDRビデオデータを取得することができる。この過程で取得したHDR情報がある場合、これをメタデータパーサーに伝達することができる。DASH/MMTなどのシグナリングメッセージが受信されると、シグナリングプロセッサは、これらからHDRメタデータを抽出してメタデータパーサーに伝達することができる。メタデータパーサーは、受信したHDRメタデータをパーシングすることができる。ここで取得したメタデータを用いて、ビデオデコーダに必要なコントロール情報などがビデオデコーダに伝達され得る。メタデータパーサーは、バッファ又はメタデータアップデートの役割を果たすこともできる。アップデートは、set_number、version_numberなどを用いて行われてもよい。   The video decoder can decode the video samples to obtain HDR video data. If there is HDR information acquired in this process, it can be transmitted to the metadata parser. When signaling messages such as DASH / MMT are received, the signaling processor can extract the HDR metadata from them and communicate it to the metadata parser. The metadata parser can parse the received HDR metadata. Using the metadata acquired here, control information necessary for the video decoder can be transmitted to the video decoder. The metadata parser can also serve as a buffer or metadata update. The update may be performed using set_number, version_number, or the like.

受信機がHDRディスプレイが可能であるか否かによって、場合の数が分けられる。HDRビデオのディスプレイが不可能な場合、HDRビデオデータは、HDR−SDRコンバージョンを経てSDRディスプレイブロックに伝達され得る。SDRディスプレイブロックは、ハードウェアブロックであって、コンバージョンされたSDRビデオを受信して再生することができる。このとき、コンバージョンには、メタデータパーサーから伝達された情報が使用され得る。   The number of cases depends on whether the receiver is capable of HDR display. If display of HDR video is not possible, the HDR video data may be transferred to the SDR display block via HDR-SDR conversion. The SDR display block is a hardware block that can receive and play back the converted SDR video. At this time, information transmitted from the metadata parser may be used for the conversion.

受信機がHDRディスプレイが可能な場合、HDRビデオに対してクオリティエンハンスメントが行われ得る。このとき、メタデータパーサーから伝達された共通の(common)HDR情報(Dynamic range,transfer function,color gamut,color temperature,DR/CG mapping,Viewing conditionなど)を用いてクオリティエンハンスメントを行うことができる。   If the receiver is capable of HDR display, quality enhancement can be performed on the HDR video. At this time, it is possible to perform quality enhancement using common HDR information (Dynamic range, transfer function, color gauge, color temperature, DR / CG mapping, viewing condition, etc.) transmitted from the metadata parser.

受信機がシーン/フレーム(scene/frame)別メタデータを処理できるか否かによって、場合の数が分けられる。シーン/フレーム別メタデータを処理できない場合、受信機のHDRディスプレイブロックは、受信したHDRビデオデータを再生することができる。   The number of cases depends on whether the receiver can process scene / frame-specific metadata. If the scene / frame metadata cannot be processed, the HDR display block of the receiver can play back the received HDR video data.

シーン/フレーム別メタデータを処理できる場合、シーン別HDRビデオクオリティエンハンスメント(Scene−by−Scene HDR video quality enhancement)が行われ得る。このとき、メタデータパーサーから伝達されたシーン/フレームHDRメタデータ(White levels,Black levels,frame−by−frame,DR/CG mappingなど)を用いてクオリティエンハンスメントを行うことができる。この場合、受信機のHDRディスプレイブロックは、エンハンスされたHDRビデオデータを再生することができる。HDRディスプレイブロックは、ハードウェアブロックであってもよい。   If scene / frame metadata can be processed, scene-by-scene HDR video quality enhancement may be performed. At this time, quality enhancement can be performed by using scene / frame HDR metadata (White levels, Black levels, frame-by-frame, DR / CG mapping, etc.) transmitted from the metadata parser. In this case, the HDR display block of the receiver can play the enhanced HDR video data. The HDR display block may be a hardware block.

タイミングコンバータは、メタデータパーサー、シンクロナイザなどにタイム関連情報を伝達することができる。シンクロナイザは、sync_start、sync_durationなどの情報を活用して、シーン別HDRビデオクオリティエンハンスメント動作に必要な情報を提供することができる。   The timing converter can transmit time-related information to a metadata parser, a synchronizer, and the like. The synchronizer can provide information necessary for the scene-specific HDR video quality enhancement operation using information such as sync_start and sync_duration.

図35は、本発明の一実施例に係る、WCG情報処理能力に基づいた受信機のメディアエンジンの動作を示した図である。   FIG. 35 is a diagram illustrating the operation of the media engine of the receiver based on the WCG information processing capability according to an embodiment of the present invention.

受信機のパーサー(ISOBMFFパーサー)は、ISOBMFFベースのメディアファイル、DASHセグメント及び/又はMMT MPUなどをパーシングすることができる。パーシングの結果によって、WCGビデオサンプルはビデオデコーダに伝達され、カラーガマット(color gamut)情報(メタデータ)はメタデータパーサーに伝達され得る。   A receiver parser (ISOBMFF parser) can parse ISOBMFF-based media files, DASH segments and / or MMT MPUs, and the like. Depending on the result of parsing, WCG video samples can be transmitted to the video decoder, and color gamut information (metadata) can be transmitted to the metadata parser.

ビデオデコーダは、ビデオサンプルをデコードしてWCGビデオデータを取得することができる。この過程で取得したカラーガマット関連情報がある場合、これをメタデータパーサーに伝達することができる。DASH/MMTなどのシグナリングメッセージが受信されると、シグナリングプロセッサは、これらからカラーガマットメタデータを抽出してメタデータパーサーに伝達することができる。メタデータパーサーは、受信したカラーガマットメタデータをパーシングすることができる。ここで取得したコンテナ/コンテンツカラーガマット情報は受信機の処理過程で活用することができる。メタデータパーサーは、バッファ又はメタデータアップデートの役割を果たすこともできる。アップデートは、set_number、version_numberなどを用いて行われてもよい。   The video decoder can decode the video samples to obtain WCG video data. If there is color gamut related information acquired in this process, it can be transmitted to the metadata parser. When signaling messages such as DASH / MMT are received, the signaling processor can extract the color gamut metadata from them and communicate it to the metadata parser. The metadata parser can parse the received color gamut metadata. The container / content color gamut information acquired here can be used in the process of the receiver. The metadata parser can also serve as a buffer or metadata update. The update may be performed using set_number, version_number, or the like.

受信したデータに対して、コンテンツカラーガマット情報が含まれているか否かによって、場合の数が分けられる。コンテンツカラーガマット情報が含まれていない場合、受信機は、ディスプレイカラーガマットがコンテナカラーガマットよりも大きいか又は同一であるかを判断することができる。ディスプレイカラーガマットがコンテナカラーガマットよりも大きいか又は同一である場合、受信機は、完全な(full)WCGディスプレイを提供することができる。ディスプレイカラーガマットがコンテナカラーガマットよりも小さい場合、受信機は、コンテナカラーガマットからディスプレイカラーガマットにガマット(gamut)マッピングを行うことができる。その後、受信機は、SCGディスプレイ又はパーシャル(partial)WCGディスプレイを提供することができる。この過程で、メタデータパーサーから伝達された共通の(common)コンテナカラーガマット関連情報を活用することができる。   The number of cases is divided depending on whether or not content color gamut information is included in the received data. If the content color gamut information is not included, the receiver can determine whether the display color gamut is greater than or the same as the container color gamut. If the display color gamut is larger or the same as the container color gamut, the receiver can provide a full WCG display. If the display color gamut is smaller than the container color gamut, the receiver can perform gamut mapping from the container color gamut to the display color gamut. The receiver can then provide an SCG display or a partial WCG display. In this process, common container color gamut related information transmitted from the metadata parser can be used.

反対に、受信したデータに対して、コンテンツカラーガマット情報が含まれている場合、受信機は、ディスプレイカラーガマットがコンテンツカラーガマットよりも大きいか又は同一であるかを判断することができる。ディスプレイカラーガマットがコンテンツカラーガマットよりも大きいか又は同一である場合、受信機は、完全な(full)WCGディスプレイを提供することができる。ディスプレイカラーガマットがコンテンツカラーガマットよりも小さい場合、受信機は、コンテンツカラーガマットからディスプレイカラーガマットにガマット(gamut)マッピングを行うことができる。その後、受信機は、SCGディスプレイ又はパーシャル(partial)WCGディスプレイを提供することができる。この過程で、メタデータパーサーから伝達された共通の(common)コンテンツカラーガマット関連情報を活用することができる。   Conversely, if content color gamut information is included in the received data, the receiver can determine whether the display color gamut is greater than or the same as the content color gamut. If the display color gamut is greater than or the same as the content color gamut, the receiver can provide a full WCG display. If the display color gamut is smaller than the content color gamut, the receiver can perform gamut mapping from the content color gamut to the display color gamut. The receiver can then provide an SCG display or a partial WCG display. In this process, common content color gamut related information transmitted from the metadata parser can be used.

図36は、本発明の一実施例に係る、HFR情報処理能力に基づいた受信機のメディアエンジンの動作を示した図である。   FIG. 36 is a diagram illustrating the operation of the media engine of the receiver based on the HFR information processing capability according to an embodiment of the present invention.

受信機のパーサー(ISOBMFFパーサー)は、ISOBMFFベースのメディアファイル、DASHセグメント及び/又はMMT MPUなどをパーシングすることができる。パーシングの結果によって、HFRビデオデータが取得され得る。   A receiver parser (ISOBMFF parser) can parse ISOBMFF-based media files, DASH segments and / or MMT MPUs, and the like. Depending on the result of parsing, HFR video data may be obtained.

DASH MPD又はMMTベースのシグナリングメッセージが受信されると、シグナリングプロセッサは、これらからHFRメタデータを抽出してメタデータパーサーに伝達することができる。メタデータパーサーは、受信したHFRメタデータをパーシングすることができる。ここで取得したHFR情報は受信機の処理過程で活用することができる。メタデータパーサーは、バッファ又はメタデータアップデートの役割を果たすこともできる。アップデートは、set_number、version_numberなどを用いて行われてもよい。   When DASH MPD or MMT based signaling messages are received, the signaling processor can extract HFR metadata from them and communicate to the metadata parser. The metadata parser can parse the received HFR metadata. The HFR information acquired here can be used in the process of the receiver. The metadata parser can also serve as a buffer or metadata update. The update may be performed using set_number, version_number, or the like.

HFRビデオデータに対して、HFRデコーディング/ディスプレイを行うことができる場合、HFRビデオデータはビデオデコーダに伝達され得る。HFRビデオデコーダはビデオサンプルをデコードすることができる。このとき、HFRメタデータが取得されると、これをメタデータパーサーに伝達することもできる。HFRビデオデコーダは、デコードしたデータをHFRディスプレイに伝達し、HFRディスプレイはこれをディスプレイすることができる。   If HFR decoding / display can be performed on the HFR video data, the HFR video data can be communicated to the video decoder. The HFR video decoder can decode the video samples. At this time, if the HFR metadata is acquired, it can be transmitted to the metadata parser. The HFR video decoder transmits the decoded data to the HFR display, which can display it.

HFRデコーディング/ディスプレイを行うことができない場合、SFRとの互換性を確認することができる。SFRCompatibilityが1の値を有する場合、互換性があるものであり、フレームレートの変換を行うことができる。変換後のデータは、SFR又はレガシービデオデコーダに伝達され得る。この過程で、メタデータパーサーからHFRメタデータを受信して活用することができる。ビデオデコーディング過程でHFRメタデータが取得される場合、これをメタデータパーサーに伝達することもできる。ビデオデコーダは、これをレガシーディスプレイに伝達することができる。このビデオデータは、オリジナルフレームレートに変換されたビデオデータであってもよい。レガシーディスプレイはこれをディスプレイすることができる。   When HFR decoding / display cannot be performed, compatibility with SFR can be confirmed. When SFRCompatibility has a value of 1, it is compatible and frame rate conversion can be performed. The converted data can be transmitted to an SFR or a legacy video decoder. In this process, HFR metadata can be received from the metadata parser and used. If HFR metadata is acquired during the video decoding process, it can be transmitted to the metadata parser. The video decoder can communicate this to the legacy display. This video data may be video data converted to the original frame rate. Legacy displays can display this.

図37は、本発明の一実施例に係る、プルダウンリカバリー情報処理能力に基づいた受信機のメディアエンジンの動作を示した図である。   FIG. 37 is a diagram illustrating the operation of the media engine of the receiver based on the pull-down recovery information processing capability according to an embodiment of the present invention.

受信機のパーサー(ISOBMFFパーサー)は、ISOBMFFベースのメディアファイル、DASHセグメント及び/又はMMT MPUなどをパーシングすることができる。パーシングの結果によって、ビデオサンプルはビデオデコーダに伝達されてデコードされ得る。   A receiver parser (ISOBMFF parser) can parse ISOBMFF-based media files, DASH segments and / or MMT MPUs, and the like. Depending on the result of parsing, the video samples can be transmitted to the video decoder for decoding.

DASH MPD又はMMTベースのシグナリングメッセージが受信されると、シグナリングプロセッサは、これらからプルダウンリカバリー関連メタデータを抽出してメタデータパーサーに伝達することができる。メタデータパーサーは、受信したプルダウンリカバリー関連メタデータをパーシングすることができる。ここで取得したプルダウンリカバリー関連情報を受信機の処理過程で活用することができる。メタデータパーサーは、バッファ又はメタデータアップデートの役割を果たすこともできる。アップデートは、set_number、version_numberなどを用いて行われてもよい。   When DASH MPD or MMT based signaling messages are received, the signaling processor can extract pull-down recovery related metadata from them and communicate it to the metadata parser. The metadata parser can parse the received pull-down recovery related metadata. The pull-down recovery related information acquired here can be used in the process of the receiver. The metadata parser can also serve as a buffer or metadata update. The update may be performed using set_number, version_number, or the like.

受信機は、PullDownFlagを確認して、デコードされたビデオがプルダウンされたビデオであるか否かを確認することができる。受信機は、プルダウンされたビデオである場合、オリジナルFRストリームを、プルダウンされたタイプなどの情報を用いて復旧することができる。この過程で、メタデータパーサーのプルダウンリカバリー関連情報を活用することができる。プルダウンされたビデオではない場合、このような過程を経ない。リカバーされたソースFRビデオ又はデコードされたビデオデータは、ディスプレイに伝達されてディスプレイされ得る。   The receiver can check the PullDownFlag to see if the decoded video is a pulled down video. If the receiver is a pulled down video, the receiver can recover the original FR stream using information such as the pulled down type. In this process, pull-down recovery related information of the metadata parser can be used. This is not the case if the video is not pulled down. The recovered source FR video or decoded video data can be transmitted to the display for display.

図38は、本発明の一実施例に係る3Dサービスをサポートするためのメタデータを示す。本発明の一実施例によれば、ビデオデータは、3Dサービスをサポートするためのメタデータを含むSEIメッセージを含むことができる。本発明において、3Dサービスをサポートするコンテンツを構成するリファレンスビュービデオ(reference view video)及アディショナルビュービデオ(additional view video)のためのコンプレッションフォーマットは、HD又はUHDであってもよい。画面比率と関連して、リファレンスビュービデオ及アディショナルビュービデオは、アクティブ領域(active area)に対して同じ画面比率(aspect ratio)を有することができる。もし、3Dサービスを構成する左側イメージ(Left picture)と右側イメージ(right picture)の画面比率が正確に同一ではない場合、さらに小さい入力イメージは、レターボックス(letterboxed)又はピラーボックス(pillar boxed)され得る。ここで、レターボックス(letterboxed)とは、対象イメージの上下に黒色バー(black bars)などを位置させて画面比率を調整することを意味し得る。また、ピラーボックス(pillar boxed)とは、対象イメージの左右に黒色バー(black bars)などを位置させて画面比率を調整することを意味し得る。このような動作は、コンプレッションの前に行うことができ、2つのビューがアクティブ領域で同一の画面比率を有するようにすることができる。また、前述したイメージに内蔵された(embedded)バー(bars)の存在は、アクティブフォーマットディスクリプタ(Active Format Description、AFD)によって示されてもよい。また、バー(bars)の存在は、選択的には、バーデータ情報(Bar Data information)によって示されてもよい。フレームレート(Frame rate)と関連して、アディショナルビュービデオのフレームレートは、リファレンスビュービデオのフレームレートを1又はそれ以上の整数で割った値であってもよい。   FIG. 38 shows metadata for supporting a 3D service according to an embodiment of the present invention. According to one embodiment of the present invention, the video data may include a SEI message that includes metadata for supporting a 3D service. In the present invention, the compression format for the reference view video and the additional view video constituting the content supporting the 3D service may be HD or UHD. In connection with the screen ratio, the reference view video and the additional view video may have the same aspect ratio with respect to the active area. If the screen ratio of the left image and the right image constituting the 3D service is not exactly the same, the smaller input image is letterboxed or pillar boxed. obtain. Here, letterboxed may mean adjusting the screen ratio by positioning black bars or the like above and below the target image. Also, the pillar box may mean adjusting the screen ratio by positioning black bars or the like on the left and right of the target image. Such an operation can be performed before compression, and the two views can have the same screen ratio in the active area. In addition, the presence of embedded bars in the above-described image may be indicated by an active format descriptor (AFD). In addition, the presence of bars may be selectively indicated by bar data information (Bar Data information). In relation to the frame rate, the frame rate of the additional view video may be a value obtained by dividing the frame rate of the reference view video by an integer of 1 or more.

図中の上段に示された実施例(d38010)は、マルチビュービューポジション(multiview view position)SEIメッセージを示すことができる。当該SEIメッセージは、ビデオデータに含まれて共に伝送されてもよい。当該SEIメッセージは、SHVC(Scalable HEVC、Scalable High Efficiency Video Coding)によって運搬されるステレオスコピックビデオの左側視点及び右側視点(left view and right view)を示すことができる。   The example (d38010) shown in the upper part of the figure can indicate a multiview view position SEI message. The SEI message may be transmitted together with the video data. The SEI message can indicate a left view and a right view of a stereoscopic video carried by SHVC (Scalable HEVC, Scalable High-efficiency Video Coding).

マルチビュービューポジション(multiview view position)SEIメッセージは、180の値を有するペイロードタイプ(payloadType)情報によって識別され得る。図示のように、マルチビュービューポジション(multiview view position)SEIメッセージは、num_views_minus1フィールド及びview_position[i]情報を含むことができる。num_views_minus1フィールドは、マルチビューサービスに含まれたビューの個数を示すことができる。実施例によって、num_views_minus1フィールドは、マルチビューサービスに含まれたビューの個数よりも1だけ少ない数を示してもよい。マルチビュービューポジション(multiview view position)SEIメッセージは、各ビュー(view)に対するview_position[i]情報を含むことができる。フィクスドアンドモバイル(fixed & mobile)ハイブリッド3Dサービスのために、SEIメッセージ内のview_position[i]情報は、iと同一のディペンデンシーID(DependencyId)を有するビューの順序を示すことができる。このようなビューは、ディスプレイのための、左側から右側への順序に従うビューのうちの一つであってもよい。ここで、ビューの順序は、最も左側に位置したビューを0とし、それから右側に1つずつ移動するにつれて1ずつ増加する順序の値を意味し得る。例えば、ベースレイヤビデオが右側視点(right view)であり、エンハンスメントレイヤビデオが左側視点(left view)であるとき、view_position[0]は1であり、view_position[1]は0であってもよい。すなわち、ディペンデンシーID 1を有するエンハンスメントレイヤビデオが左側視点であるため、エンハンスメントレイヤビデオのビューポジション情報は0に設定され得る。また、ディペンデンシーID 0を有するベースレイヤビデオが右側視点であるため、ベースレイヤビデオのビューポジション情報は1に設定され得る。   A multiview view position SEI message may be identified by payload type information having a value of 180. As shown, the multiview view position SEI message may include a num_views_minus1 field and a view_position [i] information. The num_views_minus1 field can indicate the number of views included in the multi-view service. According to an embodiment, the num_views_minus1 field may indicate a number that is 1 less than the number of views included in the multi-view service. The multiview view position SEI message may include view_position [i] information for each view. For a fixed & mobile hybrid 3D service, the view_position [i] information in the SEI message can indicate the order of views having the same dependency ID (DependencyId) as i. Such a view may be one of the views that follow a left-to-right order for the display. Here, the view order may mean a value in which the leftmost view is 0, and then increases by 1 as the view is moved one by one to the right. For example, when the base layer video is a right view and the enhancement layer video is a left view, view_position [0] may be 1 and view_position [1] may be 0. That is, since the enhancement layer video having dependency ID 1 is the left viewpoint, the view position information of the enhancement layer video can be set to zero. Also, since the base layer video having dependency ID 0 is the right viewpoint, the view position information of the base layer video can be set to 1.

図中の下段に示された実施例(d38020)は、マルチビューシーンポジション(multiview scene position)SEIメッセージを示すことができる。当該SEIメッセージは、ビデオデータに含まれて共に伝送されてもよい。当該SEIメッセージは、min_disparity情報及び/又はmax_disparity_range情報を含むことができる。マルチビューシーンポジション(multiview scene position)SEIメッセージは、ペイロードタイプ(payloadType)情報によって識別され得る。マルチビューシーンポジション(multiview scene position)SEIメッセージは、イメージを3Dディスプレイにレンダリングするに先立って、デコードされたビュー(views)をプロセッシングするために使用され得る。最小両眼視差(minimum disparity)は、ビデオ内で最前方に位置するオブジェクト(front−most object)の3次元位置(ロケーション)を示すことができる。OSD(on−screen display)のように受信機が生成する(receiver−generated)グラフィックを、前記デコードされたビュー(views)よりも前方にレンダリングするために、最小両眼視差(minimum disparity)は、   The example (d38020) shown in the lower part of the figure may indicate a multiview scene position SEI message. The SEI message may be transmitted together with the video data. The SEI message may include min_disparity information and / or max_disparity_range information. A multiview scene position SEI message may be identified by payload type information. A multiview scene position SEI message may be used to process the decoded views prior to rendering the image on a 3D display. The minimum binocular disparity may indicate a three-dimensional position (location) of an object (front-most object) positioned in the forefront in the video. In order to render a receiver-generated graphic such as OSD (on-screen display) ahead of the decoded views, the minimum binocular disparity is:

マルチビューシーンポジション(multiview scene position)SEIメッセージ内に含まれ得る。すなわち、受信機は、ビデオデータ内のSEIメッセージのうちマルチビューシーンポジション(multiview scene position)SEIメッセージに含まれた最小両眼視差(minimum disparity)情報を用いて、当該ビデオデータがディスプレイされる位置よりも前方に、受信機が生成するグラフィック情報をディスプレイすることができる。前述した実施例において、各SEIメッセージは、ディペンデンシーIDをさらに含むことができる。   It can be included in a multiview scene position SEI message. That is, the receiver uses the minimum binocular disparity information included in the multiview scene position SEI message among the SEI messages in the video data, and the position where the video data is displayed. The graphic information generated by the receiver can be displayed ahead of the display. In the embodiment described above, each SEI message may further include a dependency ID.

図39は、本発明の一実施例に係るバー(bar)に関するメタデータを示すことができる。バー(bar)に関する情報は、ビデオデータ内にSEIメッセージとして含まれて伝送されてもよい。バー(bar)に関する情報は、別途のテーブル又はディスクリプタとしてSDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。バー(bar)に関する情報は、次の情報のうち少なくとも1つを含むことができる。top_bar_flagフィールドは、ディスプレイされる画面の上側にバー(bar)が存在するか否かを示すことができる。bottom_bar_flagフィールドは、ディスプレイされる画面の下側にバーが存在するか否かを示すことができる。left_bar_flagフィールドは、ディスプレイされる画面の左側にバーが存在するか否かを示すことができる。right_bar_flagフィールドは、ディスプレイされる画面の右側にバーが存在するか否かを示すことができる。top_bar_flagフィールドが1に設定される場合、すなわち、画面の上側にバーが存在する場合、marker_bitsフィールド及びline_number_end_of_top_barフィールドがバー(bar)に関するメタデータに含まれ得る。line_number_end_of_top_barフィールドは、上側バー(top bar)の最後のラインナンバー(line number)を定義することができる。すなわち、上側バーは、画面の上端からline_number_end_of_top_barフィールドによって定義されるライン(line)までの大きさを有することができる。bottom_bar_flagフィールドが1に設定される場合、すなわち、画面の下側にバーが存在する場合、marker_bitsフィールド及びline_number_start_of_bottom_barフィールドがバー(bar)に関するメタデータに含まれ得る。line_number_start_of_bottom_barフィールドは、下側バー(bottom bar)の開始ラインナンバー(line number)を定義することができる。すなわち、下側バーは、line_number_start_of_bottom_barフィールドによって定義されるライン(line)から画面の下端までの大きさを有することができる。left_bar_flagフィールドが1に設定される場合、すなわち、画面の左側にバーが存在する場合、marker_bitsフィールド及びpixel_number_end_of_left_barフィールドがバー(bar)に関するメタデータに含まれ得る。pixel_number_end_of_left_barフィールドは、左側バー(left bar)の最後のピクセルナンバー(pixel number)を定義することができる。すなわち、左側バーは、画面の左側端からpixel_number_end_of_left_barフィールドによって定義されるピクセルまでの大きさを有することができる。right_bar_flagフィールドが1に設定される場合、すなわち、画面の右側にバーが存在する場合、marker_bitsフィールド及びpixel_number_start_of_right_barフィールドがバー(bar)に関するメタデータに含まれ得る。pixel_number_start_of_right_barフィールドは、右側バー(right bar)の開始ピクセルナンバー(pixel number)を定義することができる。すなわち、右側バーは、pixel_number_start_of_right_barフィールドによって定義されるピクセルから画面の右側端までの大きさを有することができる。追加的に、additional_bar_dataがさらに含まれてもよい。前述したフィールドを用いて、バー(bar)に関する情報は、画面上にディスプレイされるバー(bar)の大きさを記述することができる。すなわち、レターボックスバー(letter box bars)の大きさは、前述したように、line_number_end_of_top_barフィールド及びline_number_start_of_bottom_barフィールドによって示すことができる。また、ピラーボックスバー(pillar box bars)の大きさは、前述したように、pixel_number_end_of_left_barフィールド及びpixel_number_start_of_right_barフィールドによって示すことができる。しかし、このようなフィールドは、オリジナルソースフォーマット(original source format)に基づいて作成されたものである。すなわち、当該ビデオコンテンツの製作(production)当時のフォーマットに基づいたライン(line)及びピクセル(pixel)値であるため、受信状況に応じてその値の意味が異なり得る。すなわち、送信端で伝送されたビデオフォーマット、または送信端でエンコードされたビデオフォーマットがオリジナルソースフォーマットと異なる場合が発生し得る。これは、伝送のために当該ビデオコンテンツがリサイズされた場合などを例に挙げることができる。このような場合、受信端でのバー(bar)に関する情報の解釈が曖昧になり得る。これは、バー(bar)に関する情報がオリジナルソースフォーマットに基づいた値である一方、コンテンツは変更されたフォーマットを有するためである。   FIG. 39 may show metadata related to a bar according to an embodiment of the present invention. Information on the bar may be transmitted as an SEI message in the video data. Information on the bar may be transmitted as a separate table or descriptor included in DVB SI service signaling such as SDT or EIT, or may be transmitted together. The information about the bar may include at least one of the following information. The top_bar_flag field may indicate whether or not a bar exists above the displayed screen. The bottom_bar_flag field can indicate whether a bar exists below the displayed screen. The left_bar_flag field can indicate whether a bar exists on the left side of the screen to be displayed. The right_bar_flag field can indicate whether a bar exists on the right side of the displayed screen. When the top_bar_flag field is set to 1, that is, when a bar exists on the upper side of the screen, the marker_bits field and the line_number_end_of_top_bar field may be included in the metadata regarding the bar. The line_number_end_of_top_bar field may define the last line number of the top bar. That is, the upper bar may have a size from the upper end of the screen to a line defined by the line_number_end_of_top_bar field. If the bottom_bar_flag field is set to 1, that is, if there is a bar at the bottom of the screen, the marker_bits field and the line_number_start_of_bottom_bar field may be included in the metadata regarding the bar. The line_number_start_of_bottom_bar field may define the starting line number (line number) of the bottom bar. That is, the lower bar may have a size from a line defined by the line_number_start_of_bottom_bar field to the lower end of the screen. If the left_bar_flag field is set to 1, that is, if a bar exists on the left side of the screen, the marker_bits field and the pixel_number_end_of_left_bar field may be included in the metadata regarding the bar. The pixel_number_end_of_left_bar field may define the last pixel number of the left bar. That is, the left bar can have a size from the left edge of the screen to the pixel defined by the pixel_number_end_of_left_bar field. When the right_bar_flag field is set to 1, that is, when a bar exists on the right side of the screen, the marker_numbers field and the pixel_number_start_of_right_bar field may be included in the metadata regarding the bar. The pixel_number_start_of_right_bar field may define the starting pixel number of the right bar. That is, the right bar can have a size from the pixel defined by the pixel_number_start_of_right_bar field to the right edge of the screen. In addition, additional_bar_data may be further included. Using the above-described fields, the information regarding the bar can describe the size of the bar displayed on the screen. That is, the size of the letterbox bar can be indicated by the line_number_end_of_top_bar field and the line_number_start_of_bottom_bar field, as described above. In addition, the size of the pillar box bar can be indicated by the pixel_number_end_of_left_bar field and the pixel_number_start_of_right_bar field, as described above. However, such a field is created based on an original source format. That is, since the line and pixel values are based on the format at the time of production of the video content, the meanings of the values may differ depending on the reception status. That is, the video format transmitted at the transmission end or the video format encoded at the transmission end may be different from the original source format. An example of this is when the video content is resized for transmission. In such a case, the interpretation of the information about the bar at the receiving end can be ambiguous. This is because the information about the bar is a value based on the original source format, while the content has a changed format.

図40は、本発明の一実施例に係るオリジナルソースフォーマットに関するメタデータを示すことができる。オリジナルソースフォーマットに関する情報は、ビデオデータ内にSEIメッセージとして含まれて伝送されてもよい。オリジナルソースフォーマットに関する情報は、別途のテーブル又はディスクリプタとしてSDT又はEITなどのDVB SIサービスシグナリングに含まれて伝達されてもよく、共に伝達されてもよい。オリジナルソースフォーマットに関する情報は、次の情報のうち少なくとも1つを含むことができる。identical_format_flagフィールドは、圧縮フォーマット(compression format)と製作フォーマット(production format)が同一であるか否かを示すことができる。圧縮フォーマットと製作フォーマットが同一である場合に1として、異なる場合に0としてシグナリング(signaling)されてもよい。ここで、製作フォーマットは、オリジナルソースフォーマットを意味し得る。org_spatial_resolutionフィールドは、作製(production)端で撮影された実際の空間解像度(spatial resolution)をシグナリングすることができる。例えば、各フィールド値による解像度は、次の通りである。0x0:unspecified;0x1:3840x2160;0x2:2160x1440;0x3:1920x1080;0x4:1280x720;0x5:960x540;0x6:640x360;0x7:customized.   FIG. 40 may show metadata regarding an original source format according to an embodiment of the present invention. Information regarding the original source format may be transmitted as an SEI message in the video data. Information on the original source format may be transmitted as a separate table or descriptor included in DVB SI service signaling such as SDT or EIT, or may be transmitted together. The information regarding the original source format can include at least one of the following information. The identity_format_flag field may indicate whether the compression format and the production format are the same. It may be signaled as 1 when the compression format and the production format are the same, and as 0 when they are different. Here, the production format may mean an original source format. The org_spatial_resolution field can signal the actual spatial resolution captured at the production end. For example, the resolution by each field value is as follows. 0x0: unspecified; 0x1: 3840x2160; 0x2: 2160x1440; 0x3: 1920x1080; 0x4: 1280x720; 0x5: 960x540; 0x6: 640x360; 0x7: customized.

org_frame_rateフィールドは、製作(production)端で撮影された実際のフレームレート(frame rate)をシグナリングすることができる。例えば、各フィールド値によるフレームレートは、次の通りである。0x0:reserved;0x1=23.976Hz、0x2=24Hz、0x3=29.97Hz、0x4=30Hz、0x5=59.94Hz、0x6=60Hz、0x7=25Hz、0x08=50Hz、0x09=100Hz、0x0A=120/1.001Hz、0x0B=120Hz.   The org_frame_rate field may be used to signal an actual frame rate captured at the production end. For example, the frame rate by each field value is as follows. 0x0: reserved; 0x1 = 23.976 Hz, 0x2 = 24 Hz, 0x3 = 29.97 Hz, 0x4 = 30 Hz, 0x5 = 59.94 Hz, 0x6 = 60 Hz, 0x7 = 25 Hz, 0x08 = 50 Hz, 0x09 = 100 Hz, 0x0A = 120 / 1.001 Hz, 0x0B = 120 Hz.

scanning_formatフィールドは、スキャニングフォーマットがinterlacedであるか、またはprogressiveであるかをシグナリングすることができる。例えば、各フィールド値によるスキャニングフォーマットは、次の通りである。00:unspecified、01:progressive、10:interlaced、11:reserved.   The scanning_format field can signal whether the scanning format is interlaced or progressive. For example, the scanning format for each field value is as follows. 00: unspecified, 01: progressive, 10: interlaced, 11: reserved.

org_horizontal_size_div_8フィールド及びorg_vertical_size_div_8フィールドは、製作(production)端で撮影された実際の空間解像度(spatial resolution)において予め定義されたフォーマット(pre−defined format)ではない場合をシグナリングすることができる。すなわち、予め設定された値をシグナリングするものではなく、実際の製作フォーマット(production format)の横及び縦解像度の値を示す。実際の横及び縦解像度は、各フィールド値に8を乗じた値であってもよい。このように、オリジナルソースフォーマットに関する情報は、原作者の意図(Artistic intent)を反映できる情報として用いることができる。   The org_horizontal_size_div_8 field and the org_vertical_size_div_8 field may not have a pre-defined format in a pre-defined format in the actual spatial resolution captured at the production end. That is, it does not signal a preset value, but indicates the value of the horizontal and vertical resolution of the actual production format. The actual horizontal and vertical resolution may be a value obtained by multiplying each field value by 8. As described above, the information on the original source format can be used as information that can reflect the original intent of the original author.

図41は、本発明の一実施例に係るバーデータ(bar data)を用いてレターボックスを生成する方法を示す。その第一のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)と同じ場合である。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は3840*2160であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、同一に3840*2160であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは1に設定され得る。また、バーに関する情報(bar_data)d41010において、top_bar_flagフィールド及びbottom_bar_flagフィールドは1に設定されて、上側バー(top bar)及び下側バー(bottom bar)を用いたレターボックスが生成されることを示すことができる。また、バーに関する情報(bar_data)d41010において、line_number_end_of_top_barフィールドはA値を有し、line_number_start_of_bottom_barフィールドはB値を有することができる。この場合、d41020に示したように、上側バーは、A+1の垂直サイズを有することができる。ここで、上側バーの水平サイズは、プロダクションフォーマットの水平サイズと同一であってもよい。また、下側バーは、V−Bの垂直サイズを有することができる。ここで、Vは、プロダクションフォーマットの垂直サイズを示すことができる。すなわち、プロダクションフォーマットが3840*2160であるので、Vは2160の値を有することができ、下側バーは2160−Bの垂直サイズを有することができる。ここで、下側バーの水平サイズは、エミッションフォーマット又はプロダクションフォーマットの水平サイズと同一であってもよい。このように、プロダクションフォーマットとエミッションフォーマットが同じ場合、放送受信装置は、エミッションフォーマットにbar_dataに含まれた情報をそのまま適用してレターボックスのサイズを算出し、レターボックスを生成することができる。放送受信装置のディスプレイで生成されたレターボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   FIG. 41 illustrates a method for generating a letterbox using bar data according to an embodiment of the present invention. In the first case, the emission format sent out by the broadcasting system is the same as the production format. For example, the emission format, ie the resolution of the encoded video, may be 3840 * 2160. Also, the production format, that is, the resolution of the original source video may be 3840 * 2160. In this case, the dental_format_flag field included in the information on the original source format described above may be set to 1. Further, in the bar information (bar_data) d41010, the top_bar_flag field and the bottom_bar_flag field are set to 1 to indicate that a letter box using the upper bar (top bar) and the lower bar (bottom bar) is generated. Can do. In the bar information (bar_data) d41010, the line_number_end_of_top_bar field may have an A value, and the line_number_start_of_bottom_bar field may have a B value. In this case, as shown at d41020, the upper bar may have a vertical size of A + 1. Here, the horizontal size of the upper bar may be the same as the horizontal size of the production format. Also, the lower bar can have a vertical size of V-B. Here, V can indicate the vertical size of the production format. That is, since the production format is 3840 * 2160, V can have a value of 2160 and the lower bar can have a vertical size of 2160-B. Here, the horizontal size of the lower bar may be the same as the horizontal size of the emission format or the production format. Thus, when the production format and the emission format are the same, the broadcast receiving apparatus can generate the letter box by calculating the size of the letter box by directly applying the information included in the bar_data to the emission format. An area excluding the letterbox generated on the display of the broadcast receiving apparatus may be an active image area.

図42は、本発明の他の実施例に係るバーデータ(bar data)を用いてレターボックスを生成する方法を示す。本図では、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)と異なる場合について説明できる。第二のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)よりも小さい場合である(d42010)。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は1920*1080であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、これより大きい3840*2160であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは0に設定され得る。また、バーに関する情報において、top_bar_flagフィールド及びbottom_bar_flagフィールドは1に設定されて、上側バー(top bar)及び下側バー(bottom bar)を用いたレターボックスが生成されることを示すことができる。また、バーに関する情報において、line_number_end_of_top_barフィールドはA値を有し、line_number_start_of_bottom_barフィールドはB値を有することができる。この場合、d42010に示したように、上側バーは、(A+1)/Rの垂直サイズを有することができる。ここで、Rは、エミッションフォーマットとプロダクションフォーマットとの比率である。実施例において、プロダクションフォーマット(3840*2160)はエミッションフォーマット(1920*1080)の2倍のサイズを有するので、Rの値は2であり得る。実施例によって、Rは、プロダクションフォーマットの垂直サイズであるVをエミッションフォーマットの垂直サイズで割った値を意味してもよい。この場合にもRの値は2である。ここで、上側バーの水平サイズは、エミッションフォーマットの水平サイズと同一であってもよい。また、下側バーは、(V−B)/Rの垂直サイズを有することができる。ここで、Vは、プロダクションフォーマットの垂直サイズを示すことができる。すなわち、プロダクションフォーマットが3840*2160であるので、Vは2160の値を有することができ、下側バーは(2160−B)/2の垂直サイズを有することができる。ここで、下側バーの水平サイズは、エミッションフォーマットの水平サイズと同一であってもよい。このように、プロダクションフォーマットがエミッションフォーマットよりも大きい場合、放送受信装置は、bar_dataに含まれた情報をプロダクションフォーマットに適用し、プロダクションフォーマットとエミッションフォーマットとの比率によってスケーリングしてバー(bar)のサイズを決定し、バーを生成することができる。すなわち、放送受信装置は、バーに関する情報と共に受信されたオリジナルソースフォーマットに関する情報を用いて、エミッションフォーマットでのバーのサイズを確認し、スケーリングを通じたレターボックスの生成を行うことができる。放送受信装置のディスプレイで生成されたレターボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   FIG. 42 illustrates a method for generating a letterbox using bar data according to another embodiment of the present invention. This figure can explain the case where the emission format transmitted by the broadcasting system is different from the production format. The second case is a case where the emission format sent out by the broadcasting system is smaller than the production format (d42010). For example, the emission format, ie the resolution of the encoded video, may be 1920 * 1080. Also, the production format, that is, the resolution of the original source video may be 3840 * 2160, which is larger than this. In this case, the identity_format_flag field included in the information on the original source format described above may be set to 0. In the information about the bar, the top_bar_flag field and the bottom_bar_flag field may be set to 1 to indicate that a letterbox using the upper bar and the bottom bar is generated. In the information about the bar, the line_number_end_of_top_bar field may have an A value, and the line_number_start_of_bottom_bar field may have a B value. In this case, as shown at d42010, the upper bar may have a vertical size of (A + 1) / R. Here, R is the ratio between the emission format and the production format. In an embodiment, the value of R may be 2 because the production format (3840 * 2160) has twice the size of the emission format (1920 * 1080). Depending on the embodiment, R may mean a value obtained by dividing V, which is the vertical size of the production format, by the vertical size of the emission format. In this case, the value of R is 2. Here, the horizontal size of the upper bar may be the same as the horizontal size of the emission format. Also, the lower bar can have a vertical size of (V−B) / R. Here, V can indicate the vertical size of the production format. That is, since the production format is 3840 * 2160, V can have a value of 2160 and the lower bar can have a vertical size of (2160-B) / 2. Here, the horizontal size of the lower bar may be the same as the horizontal size of the emission format. As described above, when the production format is larger than the emission format, the broadcast receiving apparatus applies the information included in the bar_data to the production format, and scales it according to the ratio between the production format and the emission format, and the size of the bar. Can be determined and a bar can be generated. That is, the broadcast receiving apparatus can check the size of the bar in the emission format using the information about the original source format received together with the information about the bar, and generate the letter box through scaling. An area excluding the letterbox generated on the display of the broadcast receiving apparatus may be an active image area.

第三のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)よりも大きい場合である(d42020)。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は1920*1080であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、これより小さい1280*720であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは0に設定され得る。また、バーに関する情報において、top_bar_flagフィールド及びbottom_bar_flagフィールドは1に設定されて、上側バー(top bar)及び下側バー(bottom bar)を用いたレターボックスが生成されることを示すことができる。また、バーに関する情報において、line_number_end_of_top_barフィールドはA値を有し、line_number_start_of_bottom_barフィールドはB値を有することができる。この場合、d42020に示したように、上側バーは、(A+1)*Fの垂直サイズを有することができる。ここで、Fは、エミッションフォーマットとプロダクションフォーマットとの比率である。実施例において、エミッションフォーマット(1920*1080)はプロダクションフォーマット(1280*720)の1.5倍のサイズを有するので、Fの値は1.5であり得る。実施例によって、Fは、エミッションフォーマットの垂直サイズをプロダクションフォーマットの垂直サイズであるVで割った値を意味してもよい。この場合にもFの値は1.5である。ここで、上側バーの水平サイズは、エミッションフォーマットの水平サイズと同一であってもよい。また、下側バーは、(V−B)*Fの垂直サイズを有することができる。ここで、Vは、プロダクションフォーマットの垂直サイズを示すことができる。すなわち、プロダクションフォーマットが1280*720であるので、Vは720の値を有することができ、下側バーは(720−B)*1.5の垂直サイズを有することができる。ここで、下側バーの水平サイズは、エミッションフォーマットの水平サイズと同一であってもよい。このように、プロダクションフォーマットがエミッションフォーマットよりも小さい場合、放送受信装置は、bar_dataに含まれた情報をプロダクションフォーマットに適用し、プロダクションフォーマットとエミッションフォーマットとの比率によってスケーリングしてバー(bar)のサイズを決定し、バーを生成することができる。すなわち、放送受信装置は、バーに関する情報と共に受信されたオリジナルソースフォーマットに関する情報を用いて、エミッションフォーマットでのバーのサイズを確認し、スケーリングを通じたレターボックスの生成を行うことができる。放送受信装置のディスプレイで生成されたレターボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   As a third case, the emission format transmitted by the broadcasting system is larger than the production format (d42020). For example, the emission format, ie the resolution of the encoded video, may be 1920 * 1080. Also, the production format, that is, the resolution of the original source video, may be smaller than this, 1280 * 720. In this case, the identity_format_flag field included in the information on the original source format described above may be set to 0. In the information about the bar, the top_bar_flag field and the bottom_bar_flag field may be set to 1 to indicate that a letterbox using the upper bar and the bottom bar is generated. In the information about the bar, the line_number_end_of_top_bar field may have an A value, and the line_number_start_of_bottom_bar field may have a B value. In this case, as shown at d42020, the upper bar may have a vertical size of (A + 1) * F. Here, F is the ratio between the emission format and the production format. In an embodiment, the emission format (1920 * 1080) has a size 1.5 times that of the production format (1280 * 720), so the value of F may be 1.5. Depending on the embodiment, F may mean a value obtained by dividing the vertical size of the emission format by V, which is the vertical size of the production format. In this case, the value of F is 1.5. Here, the horizontal size of the upper bar may be the same as the horizontal size of the emission format. Also, the lower bar can have a vertical size of (V−B) * F. Here, V can indicate the vertical size of the production format. That is, since the production format is 1280 * 720, V can have a value of 720 and the lower bar can have a vertical size of (720-B) * 1.5. Here, the horizontal size of the lower bar may be the same as the horizontal size of the emission format. As described above, when the production format is smaller than the emission format, the broadcast receiving apparatus applies the information included in the bar_data to the production format, and scales it according to the ratio between the production format and the emission format, thereby obtaining the bar size. Can be determined and a bar can be generated. That is, the broadcast receiving apparatus can check the size of the bar in the emission format using the information about the original source format received together with the information about the bar, and generate the letter box through scaling. An area excluding the letterbox generated on the display of the broadcast receiving apparatus may be an active image area.

図43は、本発明の一実施例に係るバーデータ(bar data)を用いてピラーボックス(pillarbox)を生成する方法を示す。その第一のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)と同じ場合である。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は3840*2160であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、同一に3840*2160であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは1に設定され得る。また、バーに関する情報(bar_data)d43010において、left_bar_flagフィールド及びright_bar_flagフィールドは1に設定されて、左側バー(left bar)及び右側バー(right bar)を用いたピラーボックスが生成されることを示すことができる。また、バーに関する情報(bar_data)d43010において、pixel_number_end_of_left_barフィールドはC値を有し、pixel_number_start_of_right_barフィールドはD値を有することができる。この場合、d43020に示したように、左側バーは、C+1の水平サイズを有することができる。ここで、左側バーの垂直サイズは、プロダクションフォーマットの垂直サイズと同一であってもよい。また、右側バーは、H−Dの水平サイズを有することができる。ここで、Hは、プロダクションフォーマットの水平サイズを示すことができる。すなわち、プロダクションフォーマットが3840*2160であるので、Hは2160の値を有することができ、右側バーは2160−Dの水平サイズを有することができる。ここで、右側バーの垂直サイズは、エミッションフォーマット又はプロダクションフォーマットの垂直サイズと同一であってもよい。このように、プロダクションフォーマットとエミッションフォーマットが同じ場合、放送受信装置は、エミッションフォーマットにbar_dataに含まれた情報をそのまま適用してピラーボックスのサイズを算出し、ピラーボックスを生成することができる。放送受信装置のディスプレイで生成されたピラーボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   FIG. 43 illustrates a method for generating a pillar box using bar data according to an embodiment of the present invention. In the first case, the emission format sent out by the broadcasting system is the same as the production format. For example, the emission format, ie the resolution of the encoded video, may be 3840 * 2160. Also, the production format, that is, the resolution of the original source video may be 3840 * 2160. In this case, the dental_format_flag field included in the information on the original source format described above may be set to 1. Also, in the bar information (bar_data) d43010, the left_bar_flag field and the right_bar_flag field are set to 1, indicating that a pillar box using the left bar and the right bar is generated. it can. In the bar information (bar_data) d43010, the pixel_number_end_of_left_bar field may have a C value, and the pixel_number_start_of_right_bar field may have a D value. In this case, the left bar can have a horizontal size of C + 1, as shown at d43020. Here, the vertical size of the left bar may be the same as the vertical size of the production format. Also, the right bar can have a horizontal size of HD. Here, H can indicate the horizontal size of the production format. That is, since the production format is 3840 * 2160, H can have a value of 2160 and the right bar can have a horizontal size of 2160-D. Here, the vertical size of the right bar may be the same as the vertical size of the emission format or the production format. As described above, when the production format and the emission format are the same, the broadcast receiving apparatus can generate the pillar box by calculating the size of the pillar box by directly applying the information included in bar_data to the emission format. An area excluding the pillar box generated on the display of the broadcast receiving apparatus may be an active image area.

図44は、本発明の他の実施例に係るバーデータ(bar data)を用いてピラーボックスを生成する方法を示す。本図では、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)と異なる場合について説明できる。第二のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)よりも小さい場合である(d44010)。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は1920*1080であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、これより大きい3840*2160であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは0に設定され得る。また、バーに関する情報(bar_data)d43010において、left_bar_flagフィールド及びright_bar_flagフィールドは1に設定されて、左側バー(left bar)及び右側バー(right bar)を用いたピラーボックスが生成されることを示すことができる。また、バーに関する情報(bar_data)d43010において、pixel_number_end_of_left_barフィールドはC値を有し、pixel_number_start_of_right_barフィールドはD値を有することができる。この場合、d44010に示したように、左側バーは、(C+1)/Rの水平サイズを有することができる。ここで、Rは、エミッションフォーマットとプロダクションフォーマットとの比率である。実施例において、プロダクションフォーマット(3840*2160)はエミッションフォーマット(1920*1080)の2倍のサイズを有するので、Rの値は2であり得る。実施例によって、Rは、プロダクションフォーマットの水平サイズであるHをエミッションフォーマットの水平サイズで割った値を意味してもよい。この場合にもRの値は2である。ここで、左側バーの垂直サイズは、エミッションフォーマットの垂直サイズと同一であってもよい。また、右側バーは、(H−D)/Rの水平サイズを有することができる。ここで、Hは、プロダクションフォーマットの水平サイズを示すことができる。すなわち、プロダクションフォーマットが3840*2160であるので、Hは3840の値を有することができ、右側バーは(3840−D)/2の水平サイズを有することができる。ここで、右側バーの垂直サイズは、エミッションフォーマットの垂直サイズと同一であってもよい。このように、プロダクションフォーマットがエミッションフォーマットよりも大きい場合、放送受信装置は、bar_dataに含まれた情報をプロダクションフォーマットに適用し、プロダクションフォーマットとエミッションフォーマットとの比率によってスケーリングしてバー(bar)のサイズを決定し、バーを生成することができる。すなわち、放送受信装置は、バーに関する情報と共に受信されたオリジナルソースフォーマットに関する情報を用いて、エミッションフォーマットでのバーのサイズを確認し、スケーリングを通じたピラーボックスの生成を行うことができる。放送受信装置のディスプレイで生成されたピラーボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   FIG. 44 illustrates a method for generating a pillar box using bar data according to another embodiment of the present invention. This figure can explain the case where the emission format transmitted by the broadcasting system is different from the production format. The second case is a case where the emission format sent out by the broadcasting system is smaller than the production format (d44010). For example, the emission format, ie the resolution of the encoded video, may be 1920 * 1080. Also, the production format, that is, the resolution of the original source video may be 3840 * 2160, which is larger than this. In this case, the identity_format_flag field included in the information on the original source format described above may be set to 0. Also, in the bar information (bar_data) d43010, the left_bar_flag field and the right_bar_flag field are set to 1, indicating that a pillar box using the left bar and the right bar is generated. it can. In the bar information (bar_data) d43010, the pixel_number_end_of_left_bar field may have a C value, and the pixel_number_start_of_right_bar field may have a D value. In this case, as shown at d44010, the left bar can have a horizontal size of (C + 1) / R. Here, R is the ratio between the emission format and the production format. In an embodiment, the value of R may be 2 because the production format (3840 * 2160) has twice the size of the emission format (1920 * 1080). Depending on the embodiment, R may mean a value obtained by dividing H, which is the horizontal size of the production format, by the horizontal size of the emission format. In this case, the value of R is 2. Here, the vertical size of the left bar may be the same as the vertical size of the emission format. Also, the right bar can have a horizontal size of (HD) / R. Here, H can indicate the horizontal size of the production format. That is, since the production format is 3840 * 2160, H can have a value of 3840 and the right bar can have a horizontal size of (3840-D) / 2. Here, the vertical size of the right bar may be the same as the vertical size of the emission format. As described above, when the production format is larger than the emission format, the broadcast receiving apparatus applies the information included in the bar_data to the production format, and scales it according to the ratio between the production format and the emission format, and the size of the bar. Can be determined and a bar can be generated. That is, the broadcast receiving apparatus can check the size of the bar in the emission format by using the information about the original source format received together with the information about the bar, and generate a pillar box through scaling. An area excluding the pillar box generated on the display of the broadcast receiving apparatus may be an active image area.

第三のケースとして、放送システムが送出するエミッションフォーマット(emission format)がプロダクションフォーマット(production format)よりも大きい場合である(d44020)。例えば、エミッションフォーマット、すなわち、エンコードされたビデオの解像度は1920*1080であってもよい。また、プロダクションフォーマット、すなわち、オリジナルソースビデオの解像度は、これより小さい1280*720であってもよい。この場合、前述したオリジナルソースフォーマットに関する情報に含まれたidentical_format_flagフィールドは0に設定され得る。また、バーに関する情報において、left_bar_flagフィールド及びright_bar_flagフィールドは1に設定されて、左側バー(left bar)及び右側バー(right bar)を用いたピラーボックスが生成されることを示すことができる。また、バーに関する情報において、pixel_number_end_of_left_barフィールドはC値を有し、pixel_number_start_of_right_barフィールドはD値を有することができる。この場合、d44020に示したように、左側バーは、(C+1)*Fの水平サイズを有することができる。ここで、Fは、エミッションフォーマットとプロダクションフォーマットとの比率である。実施例において、エミッションフォーマット(1920*1080)はプロダクションフォーマット(1280*720)の1.5倍のサイズを有するので、Fの値は1.5であり得る。実施例によって、Fは、エミッションフォーマットの垂直サイズをプロダクションフォーマットの垂直サイズで割った値を意味してもよい。この場合にもFの値は1.5である。ここで、左側バーの垂直サイズは、エミッションフォーマットの垂直サイズと同一であってもよい。また、右側バーは、(H−D)*Fの水平サイズを有することができる。ここで、Hは、プロダクションフォーマットの水平サイズを示すことができる。すなわち、プロダクションフォーマットが1280*720であるので、Hは1280の値を有することができ、右側バーは(1280−D)*1.5の水平サイズを有することができる。ここで、右側バーの垂直サイズは、エミッションフォーマットの垂直サイズと同一であってもよい。このように、プロダクションフォーマットがエミッションフォーマットよりも小さい場合、放送受信装置は、bar_dataに含まれた情報をプロダクションフォーマットに適用し、プロダクションフォーマットとエミッションフォーマットとの比率によってスケーリングしてバー(bar)のサイズを決定し、バーを生成することができる。すなわち、放送受信装置は、バーに関する情報と共に受信されたオリジナルソースフォーマットに関する情報を用いて、エミッションフォーマットでのバーのサイズを確認し、スケーリングを通じたピラーボックスの生成を行うことができる。放送受信装置のディスプレイで生成されたピラーボックスを除いた領域がアクティブイメージ領域(active image area)となり得る。   As a third case, the emission format transmitted by the broadcasting system is larger than the production format (d44020). For example, the emission format, ie the resolution of the encoded video, may be 1920 * 1080. Also, the production format, that is, the resolution of the original source video, may be smaller than this, 1280 * 720. In this case, the identity_format_flag field included in the information on the original source format described above may be set to 0. In the information about the bar, the left_bar_flag field and the right_bar_flag field may be set to 1 to indicate that a pillar box using the left bar and the right bar is generated. In the information about the bar, the pixel_number_end_of_left_bar field may have a C value, and the pixel_number_start_of_right_bar field may have a D value. In this case, the left bar can have a horizontal size of (C + 1) * F, as shown at d44020. Here, F is the ratio between the emission format and the production format. In an embodiment, the emission format (1920 * 1080) has a size 1.5 times that of the production format (1280 * 720), so the value of F may be 1.5. Depending on the embodiment, F may mean a value obtained by dividing the vertical size of the emission format by the vertical size of the production format. In this case, the value of F is 1.5. Here, the vertical size of the left bar may be the same as the vertical size of the emission format. Also, the right bar can have a horizontal size of (HD) * F. Here, H can indicate the horizontal size of the production format. That is, because the production format is 1280 * 720, H can have a value of 1280, and the right bar can have a horizontal size of (1280-D) * 1.5. Here, the vertical size of the right bar may be the same as the vertical size of the emission format. As described above, when the production format is smaller than the emission format, the broadcast receiving apparatus applies the information included in the bar_data to the production format, and scales it according to the ratio between the production format and the emission format, thereby obtaining the bar size. Can be determined and a bar can be generated. That is, the broadcast receiving apparatus can check the size of the bar in the emission format by using the information about the original source format received together with the information about the bar, and generate a pillar box through scaling. An area excluding the pillar box generated on the display of the broadcast receiving apparatus may be an active image area.

図45は、本発明の一実施例に係る放送信号を送信する方法を示した図である。   FIG. 45 is a diagram illustrating a method for transmitting a broadcast signal according to an embodiment of the present invention.

本発明の一実施例に係る放送信号を送信する方法は、サービスデータ及びサービスシグナリング情報を生成するステップ(ds45010)、サービスリストテーブルを生成するステップ(ds45020)、IP(Internet Protocol)パケットとして処理するステップ(ds45030)、及び/又は放送信号を生成し、これを放送網を介して送信するステップ(ds45040)を含むことができる。   A method for transmitting a broadcast signal according to an embodiment of the present invention includes a service data and service signaling information generation step (ds45010), a service list table generation step (ds45020), and an IP (Internet Protocol) packet processing. Step (ds45030) and / or generating a broadcast signal and transmitting it via a broadcast network (ds45040) may be included.

まず、送信側のサービスデータ生成部(d46010)は、放送サービスのサービスデータ及び/又は放送サービスをシグナリングするサービスシグナリング情報を生成することができる。ここで、サービスデータは、当該放送サービスに含まれるメディアデータ、NRTデータ、ストリーミングデータなどを総括する概念であってもよい。サービスデータは、当該サービスのサービスコンポーネントを含むことができる。ここで、サービスシグナリング情報は、前述したSLSに該当してもよい。サービスデータ生成部は、サービスプロバイダ側でサービスを提供するために実際のサービスと関連するデータを生成するブロックであって、ハードウェアエレメントであってもよい。   First, the service data generation unit (d46010) on the transmission side can generate service data for broadcast service and / or service signaling information for signaling the broadcast service. Here, the service data may be a concept that summarizes media data, NRT data, streaming data, and the like included in the broadcast service. The service data can include service components of the service. Here, the service signaling information may correspond to the SLS described above. The service data generation unit is a block that generates data related to an actual service in order to provide a service on the service provider side, and may be a hardware element.

送信側の下位レベルシグナリング生成部(d46020)は、サービスリストテーブルを生成することができる。サービスリストテーブルは、前述したSLTに該当してもよい。サービスリストテーブルは、前述したように、サービスシグナリング情報が伝達される伝送セッションを識別するブートストラップ情報を含むことができる。ここで、ブートストラップ情報は、前述した通りである。伝送セッションは、実施例によって、MMTPセッション及び/又はROUTEセッションであってもよい。下位レベルシグナリング生成部は、SLTなどのLLS(Low Level Signaling)を生成することを管掌するブロックであって、ハードウェアエレメントであってもよい。   The lower-level signaling generation unit (d46020) on the transmission side can generate a service list table. The service list table may correspond to the SLT described above. As described above, the service list table may include bootstrap information that identifies a transmission session in which service signaling information is transmitted. Here, the bootstrap information is as described above. The transmission session may be an MMTP session and / or a ROUTE session, depending on the embodiment. The lower level signaling generation unit is a block that supervises generation of LLS (Low Level Signaling) such as SLT, and may be a hardware element.

送信側の伝送レイヤ処理部(d46030)は、生成されたサービスコンポーネント、サービスシグナリング情報及び/又はサービスリストテーブルをIPパケットとして処理することができる。これに先立ち、当該データはUDPによって処理され得る。伝送レイヤ処理部は、上位レイヤのデータを伝送のために処理することを担当するブロックであって、ハードウェアエレメントであってもよい。   The transmission layer processing unit (d46030) on the transmission side can process the generated service component, service signaling information and / or service list table as an IP packet. Prior to this, the data can be processed by UDP. The transmission layer processing unit is a block in charge of processing higher layer data for transmission, and may be a hardware element.

送信側のフィジカルレイヤ処理部(d46040)は、生成されたIPパケットを処理して放送信号を生成し、放送信号を放送網を介して送信することができる。この過程で、前述したリンクレイヤに他の動作が先に行われて、上位レイヤデータ(IPパケットなど)がリンクレイヤパケットにカプセル化され得る。その後、リンクレイヤパケットが、フィジカルレイヤで定義する動作によってエンコーディング/インタリービングなどの過程を経て放送信号として処理され得る。生成された放送信号は、放送網などを介して伝送されてもよい。実施例によって、前述したデータはブロードバンドで伝達されてもよい。フィジカルレイヤ処理部は、前述したリンクレイヤ及び/又はフィジカルレイヤを担当するブロックであって、ハードウェアエレメントであってもよい。   The physical layer processing unit (d46040) on the transmission side can process the generated IP packet to generate a broadcast signal, and transmit the broadcast signal via the broadcast network. In this process, other operations are first performed on the link layer described above, and higher layer data (such as IP packets) can be encapsulated in link layer packets. Thereafter, the link layer packet may be processed as a broadcast signal through a process such as encoding / interleaving according to an operation defined in the physical layer. The generated broadcast signal may be transmitted via a broadcast network or the like. Depending on the embodiment, the data described above may be transmitted by broadband. The physical layer processing unit is a block responsible for the link layer and / or the physical layer described above, and may be a hardware element.

本発明の他の実施例に係る放送信号を送信する方法において、サービスシグナリング情報はUSBDを含むことができる。前述したように、USBDは、放送サービスに関連する技術的情報を記述するシグナリングハブとして動作することができる。USBDは、サービスタイプ情報をさらに含むことができる。ここで、サービスタイプ情報は、USBDで記述するコンポーネントを組み合わせて提供する最終サービス(service)のタイプを意味し得る。サービスタイプ情報は、ステレオスコピック3D(Stereoscopic 3D)、マルチビュー(Multiview)などであってもよい。   In the method for transmitting a broadcast signal according to another embodiment of the present invention, the service signaling information may include USBD. As described above, USBD can operate as a signaling hub that describes technical information related to broadcast services. The USBD may further include service type information. Here, the service type information may mean a type of a final service provided by combining components described in USBD. The service type information may be stereoscopic 3D (Stereoscopic 3D), multi-view (Multiview), or the like.

本発明の更に他の実施例に係る放送信号を送信する方法において、サービスリストテーブル又はUSBDは、ケイパビリティ情報をさらに含むことができる。これは、前述したSLT乃至USBD内に含まれる様々なケイパビリティ情報を意味し得る。ケイパビリティ情報は、放送サービスを有意にプレゼンテーションするのに要求される少なくとも1つ以上のケイパビリティを記述することができる。ここで、ケイパビリティ情報は、予め定義されたケイパビリティコードを用いて記述されてもよい。実施例によって、ケイパビリティ情報は、ケイパビリティのカテゴリを示すケイパビリティカテゴリコードによって記述されてもよい。実施例によって、ケイパビリティカテゴリコードと、当該カテゴリ内で具体的にどのようなケイパビリティ情報を意味するのかを示すケイパビリティコードとを組み合わせて、当該ケイパビリティ情報が記述されてもよい。ケイパビリティ情報については、前述した通りである。   In the method of transmitting a broadcast signal according to still another embodiment of the present invention, the service list table or the USBD may further include capability information. This may mean various capability information included in the above-described SLT or USBD. The capability information can describe at least one or more capabilities required to significantly present the broadcast service. Here, capability information may be described using a predefined capability code. Depending on the embodiment, the capability information may be described by a capability category code indicating a category of the capability. Depending on the embodiment, the capability information may be described by combining a capability category code and a capability code that specifically indicates what capability information is meant in the category. The capability information is as described above.

本発明の更に他の実施例に係る放送信号を送信する方法において、放送サービスのサービスシグナリング情報がMMTプロトコルによって伝達される場合、サービスシグナリング情報は、放送サービスに対するキャプション情報を含むシグナリングメッセージをさらに含むことができる。前述したように、MMTPに従ってSLSが伝達される場合、MMTPメッセージを介してシグナリング情報が伝達されてもよい。実施例によって、MPTメッセージ又は新たに定義される他のMMTPメッセージ内で様々な情報(マルチビュー、キャプション、3D、WCG、HDRなど)が伝達されてもよい。実施例によって、一つのMMTPメッセージが複数個の情報を同時に含むこともできる。また、MPTメッセージ又は新たに定義される他のMMTPメッセージは、サービスタイプ情報をさらに含むことができる。ここで、サービスタイプ情報は、MPTメッセージ又は新たに定義される他のMMTPメッセージで記述するアセット(asset)を組み合わせて提供する最終サービス(service)のタイプを意味し得る。サービスタイプ情報は、ステレオスコピック3D(Stereoscopic 3D)、マルチビュー(Multiview)などであってもよい。   In the method for transmitting a broadcast signal according to another embodiment of the present invention, when the service signaling information of the broadcast service is conveyed by the MMT protocol, the service signaling information further includes a signaling message including caption information for the broadcast service. be able to. As described above, when SLS is transmitted according to MMTP, signaling information may be transmitted via an MMTP message. Depending on the embodiment, various information (multiview, caption, 3D, WCG, HDR, etc.) may be conveyed in the MPT message or other newly defined MMTP messages. Depending on the embodiment, a single MMTP message may include a plurality of pieces of information at the same time. Also, the MPT message or other newly defined MMTP message may further include service type information. Here, the service type information may mean a type of a final service provided by combining an asset described by an MPT message or another newly defined MMTP message. The service type information may be stereoscopic 3D (Stereoscopic 3D), multi-view (Multiview), or the like.

このキャプション情報は、当該放送サービスのキャプションの言語を示す言語情報、キャプションの役割を示す役割情報、キャプションの縦横比(aspect ratio)を示す縦横比情報、キャプションがイージーリーダー(easy reader)キャプションであるか否かを示すイージーリーダー情報、及び/又はキャプションが3D(3−Dimensional)をサポートするか否かを示す3Dサポート情報などを含むことができる。キャプション情報については、前述した通りである。前述したように、マルチビュー情報はMPD内に含まれてもよい。   The caption information includes language information indicating the caption language of the broadcasting service, role information indicating the role of the caption, aspect ratio information indicating the aspect ratio of the caption, and the caption is an easy reader caption. Easy reader information indicating whether or not, and / or 3D support information indicating whether or not the caption supports 3D (3-Dimensional). The caption information is as described above. As described above, the multi-view information may be included in the MPD.

本発明の更に他の実施例に係る放送信号を送信する方法において、シグナリングメッセージは、放送サービスのサービスコンポーネントに対する3D関連情報をさらに含むことができる。ここで、シグナリングメッセージは、MMTPメッセージのうちの一つを意味し得る。3D関連情報は、当該サービスコンポーネントの映像(view)とその映像の隣接(adjacent)映像との間の最小視差情報、及び/又は当該映像と隣接映像との間の最大視差情報を含むことができる。3D情報については、前述した通りである。実施例によって、3D関連情報は、当該サービスコンポーネントの映像(view)の順序を示すビューポジション情報をさらに含んでもよい。実施例によって、ビューポジション情報は、他のMMTPメッセージ又はMPDを介して伝達されてもよい。   In the method for transmitting a broadcast signal according to still another embodiment of the present invention, the signaling message may further include 3D related information for a service component of a broadcast service. Here, the signaling message may mean one of MMTP messages. The 3D related information may include minimum parallax information between the video of the service component and an adjacent video of the video, and / or maximum parallax information between the video and the adjacent video. . The 3D information is as described above. According to an embodiment, the 3D related information may further include view position information indicating an order of the video (view) of the service component. Depending on the embodiment, the view position information may be conveyed via other MMTP messages or MPDs.

MPDを介して伝達されるビューポジション情報は、3Dサービスと関連して各コンポーネントに対して右側視点情報(right view flag)を含むことができる。これは、当該コンポーネントが右側視点(right view)であるか、または左側視点(left view)であるかを示すことができる。また、MPDを介して伝達されるビューポジション情報は、マルチビューサービスと関連して各コンポーネントのビューポジション情報を含むことができる。ここで、マルチビューサービスは、3Dマルチビュー又はパノラママルチビューを意味してもよい。3Dマルチビューである場合、ビューポジション情報は左側視点又は右側視点を示すことができる。   The view position information transmitted via the MPD may include right view information for each component in association with the 3D service. This can indicate whether the component is a right view or a left view. Further, the view position information transmitted via the MPD may include the view position information of each component in association with the multi-view service. Here, the multi-view service may mean 3D multi-view or panoramic multi-view. In the case of 3D multi-view, the view position information can indicate the left viewpoint or the right viewpoint.

MMTアセット(asset)が、ステレオスコピック3Dサービスのためのビデオストリームコンポーネントである場合、MPテーブル内のasset_descriptorとして、ビューポジションディスクリプタを含むことができる。ビューポジションディスクリプタを介して伝達されるビューポジション情報は、3Dサービスと関連して各コンポーネントに対して右側視点情報(right view flag)を含むことができる。これは、当該コンポーネントが右側視点(right view)であるか、または左側視点(left view)であるかを示すことができる。また、MPDを介して伝達されるビューポジション情報は、マルチビューサービスと関連して各コンポーネントのビューポジション情報を含むことができる。ここで、マルチビューサービスは、3Dマルチビュー又はパノラママルチビューを意味してもよい。3Dマルチビューである場合、ビューポジション情報は左側視点又は右側視点を示すことができる。   If the MMT asset is a video stream component for a stereoscopic 3D service, a view position descriptor can be included as asset_descriptor in the MP table. The view position information communicated through the view position descriptor may include right view information for each component in association with the 3D service. This can indicate whether the component is a right view or a left view. Further, the view position information transmitted via the MPD may include the view position information of each component in association with the multi-view service. Here, the multi-view service may mean 3D multi-view or panoramic multi-view. In the case of 3D multi-view, the view position information can indicate the left viewpoint or the right viewpoint.

本発明の更に他の実施例に係る放送信号を送信する方法において、USBDは、放送サービスのサービスコンポーネントに関するコンポーネント情報を含むことができる。コンポーネント情報については、前述した通りである。コンポーネント情報は、当該サービスコンポーネントのタイプを示すコンポーネントタイプ情報、及び/又は当該サービスコンポーネントのタイプによって当該サービスコンポーネントの役割を示すコンポーネント役割(role)情報を含むことができる。それぞれの情報は、前述した@componentType属性及び/又は@componentRole属性に該当してもよい。コンポーネント役割情報は、当該放送サービスのオーディオ又はビデオコンポーネントが聴覚又は視覚障害者のためのサービスコンポーネントであるか否かを示すことができる。すなわち、この情報は、当該コンポーネントがhearing impaired/visually impairedのためのコンポーネントであるか否かを示すことができる。   In a method for transmitting a broadcast signal according to still another embodiment of the present invention, the USBD may include component information related to a service component of a broadcast service. The component information is as described above. The component information may include component type information indicating the type of the service component and / or component role information indicating the role of the service component according to the type of the service component. Each piece of information may correspond to the above-mentioned @componentType attribute and / or @componentRole attribute. The component role information can indicate whether the audio or video component of the broadcast service is a service component for a hearing or visually impaired person. In other words, this information can indicate whether or not the component is a component for sharing implied / visually implied.

本発明の更に他の実施例に係る放送信号を送信する方法において、放送サービスのサービスシグナリング情報がROUTEプロトコルによって伝達される場合、USBDは、MPDをリファレンスする情報をさらに含むことができる。MPDは、前述したように、放送サービスのサービスデータに対するリソース識別子及び/又はリソースのコンテクスト(context)情報を含むことができる。前述したように、このMPDは、コンポーネントに対する様々な前述した情報を含むことができる。実施例によって、MPDは、放送サービスに対するキャプション情報及び/又は3D関連情報をさらに含むことができる。   In a method for transmitting a broadcast signal according to still another embodiment of the present invention, when service signaling information of a broadcast service is transmitted using a ROUTE protocol, the USBD may further include information referring to the MPD. As described above, the MPD may include a resource identifier and / or resource context information for service data of a broadcast service. As described above, this MPD may include various previously described information for components. Depending on the embodiment, the MPD may further include caption information and / or 3D related information for the broadcast service.

本発明の一実施例に係る放送信号を受信する方法について説明する。この方法は図示していない。   A method for receiving a broadcast signal according to an embodiment of the present invention will be described. This method is not shown.

本発明の一実施例に係る放送信号を受信する方法は、受信側のフィジカルレイヤ処理部が放送信号を処理し、これからIPパケットを取得するステップ、下位レベルシグナリング処理部がSLTを取得し、これからブートストラップ情報を取得するステップ、ブートストラップ情報を用いてSLSを伝達する伝送セッションを識別し、その伝送セッションに接近してSLSを取得するステップ、そのSLSを用いて放送サービスのサービスコンポーネントを取得するステップ、及び/又はディスプレイ部が取得されたサービスコンポーネントを用いて放送サービスを提供するステップを含むことができる。実施例によって、SLT及び/又はSLSの情報から、前述したキャプション、3D、HDR、WCG、マルチビューなどの情報が取得されてもよい。MMTP又はROUTEプロトコルのうちどの伝送プロトコルを使用するかによって、当該情報は、SLSのMPD又はSLSのMMTPメッセージから取得され得る。受信側のフィジカルレイヤ処理部、下位レベルシグナリング処理部及び/又はディスプレイ部は、ハードウェアエレメントであってもよい。   In the method of receiving a broadcast signal according to an embodiment of the present invention, a receiving-side physical layer processing unit processes a broadcast signal and obtains an IP packet therefrom, a lower level signaling processing unit obtains an SLT, and Obtaining bootstrap information; identifying a transmission session transmitting SLS using the bootstrap information; obtaining a SLS by approaching the transmission session; obtaining a service component of a broadcast service using the SLS And / or providing a broadcast service using the service component from which the display unit is acquired. Depending on the embodiment, information such as the above-described caption, 3D, HDR, WCG, and multi-view may be acquired from SLT and / or SLS information. Depending on which MMTP or ROUTE protocol is used, this information can be obtained from the SLS MPD or the SLS MMTP message. The physical layer processing unit, the lower level signaling processing unit, and / or the display unit on the receiving side may be hardware elements.

本発明の実施例に係る放送信号を受信する方法は、前述した本発明の実施例に係る放送信号を送信する方法に対応することができる。放送信号を受信する方法は、放送信号を送信する方法で使用されるモジュール(例えば、サービスデータ生成部、伝送レイヤ処理部、下位レベルシグナリング生成部、フィジカルレイヤ処理部など)に対応するハードウェアモジュールによって行われ得る。放送信号を受信する方法は、前述した放送信号を送信する方法の実施例に対応する実施例を有することができる。   The method for receiving a broadcast signal according to the embodiment of the present invention can correspond to the above-described method for transmitting a broadcast signal according to the embodiment of the present invention. A method for receiving a broadcast signal is a hardware module corresponding to a module (for example, a service data generation unit, a transmission layer processing unit, a lower level signaling generation unit, a physical layer processing unit, etc.) used in a method for transmitting a broadcast signal. Can be done by. A method for receiving a broadcast signal may have an embodiment corresponding to the embodiment of the method for transmitting a broadcast signal described above.

前述したステップは、実施例によって、省略されてもよく、類似/同一の動作を行う他のステップによって代替されてもよい。   The above-described steps may be omitted depending on the embodiment, and may be replaced by other steps that perform similar / identical operations.

図46は、本発明の一実施例に係る放送信号を送信する装置を示した図である。   FIG. 46 is a diagram illustrating an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.

本発明の一実施例に係る放送信号を送信する装置は、前述したサービスデータ生成部、伝送レイヤ処理部、下位レベルシグナリング生成部及び/又はフィジカルレイヤ処理部を含むことができる。それぞれのブロック及びモジュールは、前述した通りである。   An apparatus for transmitting a broadcast signal according to an embodiment of the present invention may include the above-described service data generation unit, transmission layer processing unit, lower level signaling generation unit, and / or physical layer processing unit. Each block and module is as described above.

本発明の一実施例に係る放送信号を送信する装置及びその内部モジュール/ブロックは、前述した本発明の放送信号を送信する方法の実施例を行うことができる。   An apparatus for transmitting a broadcast signal and an internal module / block thereof according to an embodiment of the present invention may implement the above-described method for transmitting a broadcast signal of the present invention.

本発明の一実施例に係る放送信号を受信する装置を説明する。この装置は図示していない。   An apparatus for receiving a broadcast signal according to an embodiment of the present invention will be described. This device is not shown.

本発明の一実施例に係る放送信号を受信する装置は、前述したフィジカルレイヤ処理部、下位レベルシグナリング処理部及び/又はディスプレイ部を含むことができる。それぞれのブロック及びモジュールは、前述した通りである。   An apparatus for receiving a broadcast signal according to an embodiment of the present invention may include the above-described physical layer processing unit, lower level signaling processing unit, and / or display unit. Each block and module is as described above.

本発明の一実施例に係る放送信号を受信する装置及びその内部モジュール/ブロックは、前述した本発明の放送信号を受信する方法の実施例を行うことができる。   An apparatus for receiving a broadcast signal and an internal module / block thereof according to an embodiment of the present invention may implement the above-described method for receiving a broadcast signal of the present invention.

前述した装置の内部のブロック/モジュールなどは、メモリに格納された連続した過程を実行するプロセッサであってもよく、実施例によって、装置の内/外部に位置するハードウェアエレメントであってもよい。   The above-described internal blocks / modules of the device may be a processor that executes a continuous process stored in a memory, or may be a hardware element located inside / outside of the device according to an embodiment. .

前述したモジュールは、実施例によって、省略されてもよく、類似/同一の動作を行う他のモジュールによって代替されてもよい。   The above-described modules may be omitted depending on the embodiment, and may be replaced by other modules performing similar / same operations.

モジュール又はユニットは、メモリ(又は格納ユニット)に格納された連続した過程を実行するプロセッサであってもよい。前述した実施例に記述された各ステップは、ハードウェア/プロセッサによって行われてもよい。前述した実施例に記述された各モジュール/ブロック/ユニットは、ハードウェア/プロセッサとして動作することができる。また、本発明が提示する方法はコードとして実行されてもよい。このコードは、プロセッサが読み取り可能な格納媒体に書き込まれてもよく、したがって、装置(apparatus)の提供するプロセッサによって読み取られてもよい。   The module or unit may be a processor that executes a continuous process stored in a memory (or storage unit). Each step described in the above embodiments may be performed by a hardware / processor. Each module / block / unit described in the above-described embodiments can operate as hardware / processor. Also, the method presented by the present invention may be executed as code. This code may be written on a processor readable storage medium and thus read by a processor provided by the apparatus.

説明の便宜のために各図に分けて説明したが、各図に開示した実施例を組み合わせて新しい実施例を具現するように設計することも可能である。そして、通常の技術者の必要によって、以前に説明された実施例を実行するためのプログラムが記録されているコンピュータで読み取り可能な記録媒体を設計することも、本発明の権利範囲に属する。   For convenience of explanation, the drawings have been described separately. However, the embodiments disclosed in the drawings may be combined to be designed to embody a new embodiment. It is also within the scope of the present invention to design a computer-readable recording medium in which a program for executing the embodiment described above is recorded according to the needs of a normal engineer.

本発明に係る装置及び方法は、上述したように、説明された実施例の構成及び方法が限定的に適用されるものではなく、上述した実施例は、様々な変形が可能なように、各実施例の全部又は一部が選択的に組み合わされて構成されてもよい。   As described above, the apparatus and method according to the present invention are not limited to the configurations and methods of the described embodiments, and each of the above-described embodiments can be modified in various ways. All or part of the embodiments may be selectively combined.

一方、本発明が提案する方法を、ネットワークデバイスに備えられた、プロセッサが読み取り可能な記録媒体に、プロセッサが読み取り可能なコードとして具現することが可能である。プロセッサが読み取り可能な記録媒体は、プロセッサで読み出し可能なデータが格納されるいかなる種類の記録装置をも含む。プロセッサが読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、インターネットを介した伝送などのようなキャリアウェーブの形態で具現されるものも含む。また、プロセッサが読み取り可能な記録媒体は、ネットワークに接続されたコンピュータシステムに分散されて、分散方式でプロセッサが読み取り可能なコードが格納され、実行されてもよい。   On the other hand, the method proposed by the present invention can be embodied as a processor-readable code on a processor-readable recording medium provided in a network device. The recording medium readable by the processor includes any kind of recording device in which data readable by the processor is stored. Examples of recording media that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and in the form of carrier waves such as transmission over the Internet. Including those embodied. The recording medium readable by the processor may be distributed to computer systems connected to a network, and the code readable by the processor may be stored and executed in a distributed manner.

また、以上では、本発明の好適な実施例について図示及び説明したが、本発明は、上述した特定の実施例に限定されず、特許請求の範囲で請求する本発明の要旨を逸脱することなく、当該発明の属する技術分野における通常の知識を有する者によって様々な変形実施が可能であることは勿論であり、このような変形実施は、本発明の技術的思想や展望から個別的に理解されてはならない。   Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and does not depart from the spirit of the present invention claimed in the scope of claims. It should be understood that various modifications can be made by those having ordinary knowledge in the technical field to which the invention pertains, and such modifications can be individually understood from the technical idea and perspective of the present invention. must not.

そして、当該明細書では、物の発明及び方法の発明の両方が説明されており、必要に応じて、両発明の説明は補充的に適用されてもよい。   In the specification, both the invention of the product and the invention of the method are explained, and the explanations of both inventions may be supplementarily applied as necessary.

本発明の思想や範囲から逸脱することなく、本発明の様々な変更及び変形が可能であることは、当業者にとって明らかである。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むものとして意図される。   It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Thus, it is intended that the present invention include modifications and variations of this invention provided that they come within the scope of the appended claims and their equivalents.

本明細書では装置の発明及び方法の発明を両方とも言及しており、装置の発明及び方法の発明の説明を互いに補完して適用することもできる。
〔実施例〕
In this specification, both the device invention and the method invention are referred to, and the description of the device invention and the method invention can be applied to complement each other.
〔Example〕

様々な実施例が、発明を実施するための最良の形態で説明された。   Various embodiments have been described in the best mode for carrying out the invention.

本発明は一連の放送信号提供分野で利用される。   The present invention is used in a series of broadcast signal providing fields.

本発明の思想や範囲から逸脱することなく、本発明で様々な変更及び変形が可能であることは当業者には自明である。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むものとして意図される。   It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Thus, it is intended that the present invention include modifications and variations of this invention provided that they come within the scope of the appended claims and their equivalents.

Claims (14)

放送サービスのサービスデータ及び前記放送サービスをシグナリングするサービスシグナリング情報を生成するステップであって、前記サービスデータは、前記放送サービスに含まれるサービスコンポーネントを含む、ステップと、
サービスリストテーブルを生成するステップであって、前記サービスリストテーブルは、前記サービスシグナリング情報が伝達される伝送セッションを識別するブートストラップ情報を含む、ステップと、
前記サービスコンポーネント、前記サービスシグナリング情報及び前記サービスリストテーブルをIP(Internet Protocol)パケットとして処理するステップと、
前記IPパケットを処理して放送信号を生成し、前記放送信号を放送網を介して伝送するステップとを含む、放送信号送信方法。
Generating service data of broadcast service and service signaling information for signaling the broadcast service, wherein the service data includes a service component included in the broadcast service;
Generating a service list table, the service list table including bootstrap information identifying a transmission session in which the service signaling information is transmitted; and
Processing the service component, the service signaling information and the service list table as IP (Internet Protocol) packets;
Processing the IP packet to generate a broadcast signal, and transmitting the broadcast signal via a broadcast network.
前記サービスシグナリング情報はUSBD(User Service Bundle Description)を含み、
前記USBDは、前記放送サービスに関連する技術的情報を記述するシグナリングハブとして動作する、請求項1に記載の放送信号送信方法。
The service signaling information includes USBD (User Service Bundle Description),
The broadcast signal transmission method according to claim 1, wherein the USBD operates as a signaling hub that describes technical information related to the broadcast service.
前記USBDは、サービスタイプ情報をさらに含み、
前記サービスタイプ情報は、複数のサービスコンポーネントが組み合わされてサービスを提供する場合、前記サービスのタイプを示す、請求項2に記載の放送信号送信方法。
The USBD further includes service type information,
The broadcast signal transmission method according to claim 2, wherein the service type information indicates a type of the service when a service is provided by combining a plurality of service components.
前記放送サービスの前記サービスシグナリング情報がMMT(MPEG Media Transport)プロトコルによって伝達される場合、
前記サービスシグナリング情報は、ビューポジション(view position)に関する情報をさらに含み、
前記ビューポジションに関する情報は、3Dサービスのためのサービスコンポーネントが右側視点(right view)であるか否かを示す右側視点情報を含む、請求項2に記載の放送信号送信方法。
When the service signaling information of the broadcast service is transmitted by an MMT (MPEG Media Transport) protocol,
The service signaling information further includes information on a view position (view position),
The broadcast signal transmission method according to claim 2, wherein the information on the view position includes right viewpoint information indicating whether a service component for the 3D service is a right view.
前記放送サービスの前記サービスシグナリング情報がMMT(MPEG Media Transport)プロトコルによって伝達される場合、
前記サービスシグナリング情報は、ビューポジション(view position)に関する情報をさらに含み、
前記ビューポジションに関する情報は、マルチビューサービスのためのサービスコンポーネントが含む視点(view)の総数に対する視点個数情報、及び各視点の位置を示す視点位置情報を含む、請求項2に記載の放送信号送信方法。
When the service signaling information of the broadcast service is transmitted by an MMT (MPEG Media Transport) protocol,
The service signaling information further includes information on a view position (view position),
The broadcast signal transmission according to claim 2, wherein the information on the view position includes viewpoint number information with respect to a total number of viewpoints included in a service component for a multi-view service, and viewpoint position information indicating a position of each viewpoint. Method.
前記サービスデータは、原本ソースビデオに関する情報をSEI(supplemental enhancement information)メッセージとして含む、請求項1に記載の放送信号送信方法。   The broadcast signal transmission method according to claim 1, wherein the service data includes information related to an original source video as a supplemental enhancement information (SEI) message. 前記原本ソースビデオに関する情報は、プロダクションフォーマットの解像度情報及びフレームレート情報を含む、請求項6に記載の放送信号送信方法。   The broadcast signal transmission method according to claim 6, wherein the information related to the original source video includes resolution information and frame rate information of a production format. 放送サービスのサービスデータ及び前記放送サービスをシグナリングするサービスシグナリング情報を生成するサービスデータ生成部であって、前記サービスデータは、前記放送サービスに含まれるサービスコンポーネントを含む、サービスデータ生成部と、
サービスリストテーブルを生成する下位レベルシグナリング(low level signaling)生成部であって、前記サービスリストテーブルは、前記サービスシグナリング情報が伝達される伝送セッションを識別するブートストラップ情報を含む、下位レベルシグナリング生成部と、
前記サービスコンポーネント、前記サービスシグナリング情報及び前記サービスリストテーブルをIP(Internet Protocol)パケットとして処理する伝送レイヤ処理部と、
前記IPパケットを処理して放送信号を生成し、前記放送信号を放送網を介して伝送するフィジカルレイヤ処理部とを含む、放送信号送信装置。
A service data generation unit for generating service data of a broadcast service and service signaling information for signaling the broadcast service, wherein the service data includes a service component included in the broadcast service;
A low level signaling generating unit for generating a service list table, wherein the service list table includes bootstrap information for identifying a transmission session to which the service signaling information is transmitted. When,
A transmission layer processing unit that processes the service component, the service signaling information, and the service list table as an IP (Internet Protocol) packet;
A broadcast signal transmitting apparatus comprising: a physical layer processing unit that processes the IP packet to generate a broadcast signal and transmits the broadcast signal via a broadcast network.
前記サービスシグナリング情報はUSBD(User Service Bundle Description)を含み、
前記USBDは、前記放送サービスに関連する技術的情報を記述するシグナリングハブとして動作する、請求項8に記載の放送信号送信装置。
The service signaling information includes USBD (User Service Bundle Description),
The broadcast signal transmitting apparatus according to claim 8, wherein the USBD operates as a signaling hub that describes technical information related to the broadcast service.
前記USBDは、サービスタイプ情報をさらに含み、
前記サービスタイプ情報は、複数のサービスコンポーネントが組み合わされてサービスを提供する場合、前記サービスのタイプを示す、請求項9に記載の放送信号送信装置。
The USBD further includes service type information,
The broadcast signal transmitting apparatus according to claim 9, wherein the service type information indicates a type of the service when a service is provided by combining a plurality of service components.
前記放送サービスの前記サービスシグナリング情報がMMT(MPEG Media Transport)プロトコルによって伝達される場合、
前記サービスシグナリング情報は、ビューポジション(view position)に関する情報をさらに含み、
前記ビューポジションに関する情報は、3Dサービスのためのサービスコンポーネントが右側視点(right view)であるか否かを示す右側視点情報を含む、請求項9に記載の放送信号送信装置。
When the service signaling information of the broadcast service is transmitted by an MMT (MPEG Media Transport) protocol,
The service signaling information further includes information on a view position (view position),
The broadcast signal transmitting apparatus according to claim 9, wherein the information on the view position includes right viewpoint information indicating whether a service component for a 3D service is a right view.
前記放送サービスの前記サービスシグナリング情報がMMT(MPEG Media Transport)プロトコルによって伝達される場合、
前記サービスシグナリング情報は、ビューポジション(view position)に関する情報をさらに含み、
前記ビューポジションに関する情報は、マルチビューサービスのためのサービスコンポーネントが含む視点(view)の総数に対する視点個数情報、及び各視点の位置を示す視点位置情報を含む、請求項9に記載の放送信号送信装置。
When the service signaling information of the broadcast service is transmitted by an MMT (MPEG Media Transport) protocol,
The service signaling information further includes information on a view position (view position),
The broadcast signal transmission according to claim 9, wherein the information on the view position includes viewpoint number information with respect to a total number of viewpoints included in a service component for multi-view service, and viewpoint position information indicating a position of each viewpoint. apparatus.
前記サービスデータは、原本ソースビデオに関する情報をSEI(supplemental enhancement information)メッセージとして含む、請求項8に記載の放送信号送信装置。   The broadcast signal transmitting apparatus according to claim 8, wherein the service data includes information related to an original source video as a SEI (supplemental enhancement information) message. 前記原本ソースビデオに関する情報は、プロダクションフォーマットの解像度情報及びフレームレート情報を含む、請求項13に記載の放送信号送信装置。   The broadcast signal transmitting apparatus according to claim 13, wherein the information related to the original source video includes resolution information and frame rate information of a production format.
JP2017553098A 2015-07-08 2016-07-07 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method Pending JP2018517329A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562189776P 2015-07-08 2015-07-08
US201562189773P 2015-07-08 2015-07-08
US62/189,776 2015-07-08
US62/189,773 2015-07-08
US201562195283P 2015-07-21 2015-07-21
US62/195,283 2015-07-21
PCT/KR2016/007366 WO2017007258A1 (en) 2015-07-08 2016-07-07 Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method

Publications (1)

Publication Number Publication Date
JP2018517329A true JP2018517329A (en) 2018-06-28

Family

ID=57685278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017553098A Pending JP2018517329A (en) 2015-07-08 2016-07-07 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method

Country Status (3)

Country Link
JP (1) JP2018517329A (en)
KR (1) KR102023018B1 (en)
WO (1) WO2017007258A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507913A (en) * 2018-11-23 2022-01-18 ソニーグループ株式会社 TV receiver applications for TVs and electronic devices

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102263223B1 (en) * 2017-03-14 2021-06-09 삼성전자 주식회사 Electronic apparatus and the control method thereof
CN108833906B (en) * 2018-06-11 2020-07-10 深圳创维数字技术有限公司 A cable television signal transmission method, system, server and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253467A1 (en) * 2007-04-13 2008-10-16 Nokia Corporation System and method for using redundant pictures for inter-layer prediction in scalable video coding
US8116276B2 (en) * 2007-08-24 2012-02-14 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
JP2012083573A (en) * 2010-10-12 2012-04-26 Canon Inc Stereoscopic video processor and method for controlling the same
WO2014050447A1 (en) * 2012-09-27 2014-04-03 ソニー株式会社 Transmission device, transmission method, reception device and reception method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103281589A (en) * 2007-10-10 2013-09-04 韩国电子通信研究院 Non-transient computer readable storage medium
US8503335B2 (en) * 2008-08-20 2013-08-06 Samsung Electronics Co., Ltd. Method and apparatus for transmitting broadcast data, and method and apparatus for receiving broadcast data
WO2010087574A2 (en) * 2009-01-28 2010-08-05 Lg Electronics Inc. Broadcast receiver and video data processing method thereof
WO2012030176A2 (en) * 2010-09-01 2012-03-08 엘지전자 주식회사 Broadcast signal processing method and device for 3-dimensional (3d) broadcasting service
KR20120138319A (en) * 2011-06-14 2012-12-26 삼성전자주식회사 Apparatus and method for transmitting data packet of multimedia service using transport characteristics
KR102035259B1 (en) * 2012-04-25 2019-10-22 삼성전자주식회사 Apparatus and method for transmitting and receiving signalling information in a digital broadcast system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253467A1 (en) * 2007-04-13 2008-10-16 Nokia Corporation System and method for using redundant pictures for inter-layer prediction in scalable video coding
US8116276B2 (en) * 2007-08-24 2012-02-14 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
JP2012083573A (en) * 2010-10-12 2012-04-26 Canon Inc Stereoscopic video processor and method for controlling the same
WO2014050447A1 (en) * 2012-09-27 2014-04-03 ソニー株式会社 Transmission device, transmission method, reception device and reception method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DO-KYOUNG KWON, ET AL., "COMBINED SCALABLE + MULTIVIEW HEVC CODING RESULTS", vol. Document: JCTVC-M0234 (version 3), JPN6018025137, 24 April 2013 (2013-04-24), pages 1 - 6, ISSN: 0003830639 *
GERHARD TECH, ET AL., "INTEGRATED HEVC SPECIFICATION TEXT", vol. Document: JCT3V-L1001_v1 (version 1), JPN6018025135, 26 June 2015 (2015-06-26), pages 481 - 501, ISSN: 0003830638 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507913A (en) * 2018-11-23 2022-01-18 ソニーグループ株式会社 TV receiver applications for TVs and electronic devices
JP7235214B2 (en) 2018-11-23 2023-03-08 ソニーグループ株式会社 Television receiver applications for TVs and electronic devices

Also Published As

Publication number Publication date
WO2017007258A1 (en) 2017-01-12
KR102023018B1 (en) 2019-09-19
KR20170103013A (en) 2017-09-12

Similar Documents

Publication Publication Date Title
US11323755B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US20230007316A1 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
US11178436B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US10171849B1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
JP6633739B2 (en) Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method
US10666549B2 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method
US20180213216A1 (en) Media data transmission device, media data reception device, media data transmission method, and media data rececption method
US10349095B2 (en) Transmission device for processing video data related to HDR/SDR and method for controlling the same
US10412422B2 (en) Apparatus for transmitting broadcasting signal, apparatus for receiving broadcasting signal, method for transmitting broadcasting signal, and method for receiving broadcasting signal
US10362342B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
KR102023018B1 (en) A broadcast signal transmitting device, a broadcast signal receiving device, a broadcast signal transmitting method, and a broadcast signal receiving method
EP3300375A1 (en) Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312