JP2000331465A - Information processing apparatus and method - Google Patents
Information processing apparatus and methodInfo
- Publication number
- JP2000331465A JP2000331465A JP13922699A JP13922699A JP2000331465A JP 2000331465 A JP2000331465 A JP 2000331465A JP 13922699 A JP13922699 A JP 13922699A JP 13922699 A JP13922699 A JP 13922699A JP 2000331465 A JP2000331465 A JP 2000331465A
- Authority
- JP
- Japan
- Prior art keywords
- data
- mheg
- information
- screen
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- User Interface Of Digital Computer (AREA)
- Television Signal Processing For Recording (AREA)
- Television Systems (AREA)
Abstract
(57)【要約】
【課題】 データ放送用のコンテンツを制作する時に、
制作者の意図を反映し、操作性の向上を図る。
【解決手段】 ディジタル放送のデータ放送用コンテン
ツを作成するための表示画面331上に、メニュー33
2、シーン選択画面333、シーン編集画面334、メ
ディア選択画面335、オブジェクト属性・動作設定画
面336、情報量に関するメッセージ表示領域337を
提示する。表示領域337には、作成されたデータの総
情報量を表すメッセージが表示される。総情報量が受信
機におけるデータ受信単位の最大情報量を超過した場合
には、その旨を編集者に通知するメッセージが表示され
る。それによって、コンテンツの制作が効率よく行え、
誤って情報量制約違反を犯して、オンエア事故を起こす
リスクを未然に防ぐことが可能である。
(57) [Summary] [Problem] When producing content for data broadcasting,
Improve operability by reflecting the creator's intentions. SOLUTION: A menu 33 is displayed on a display screen 331 for creating data broadcasting contents of digital broadcasting.
2. A scene selection screen 333, a scene editing screen 334, a media selection screen 335, an object attribute / operation setting screen 336, and a message display area 337 relating to the amount of information are presented. In the display area 337, a message indicating the total information amount of the created data is displayed. When the total information amount exceeds the maximum information amount of the data receiving unit in the receiver, a message notifying the editor to that effect is displayed. As a result, content can be created efficiently,
It is possible to prevent the risk of causing an on-air accident by accidentally violating the information volume constraint.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、いわゆるオーサ
リングツールなどといわれ、例えば、MHEGコンテン
ツなど、映像情報とともに放送される放送用コンテンツ
を作成するための情報処理装置およびその方法に関する
ものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a so-called authoring tool and the like, and relates to an information processing apparatus and method for creating broadcast contents to be broadcast together with video information such as MHEG contents.
【0002】[0002]
【従来の技術】近年、ディジタル衛星放送の普及が進ん
でいる。ディジタル衛星放送は、例えば既存のアナログ
放送と比較してノイズやフェージングに強く、高品質の
信号を伝送することが可能である。また、周波数利用効
率が向上され、多チャンネル化も図ることが可能にな
る。具体的には、ディジタル衛星放送であれば1つの衛
星で数百チャンネルを確保することも可能である。この
ようなディジタル衛星放送では、スポーツ、映画、音
楽、ニュースなどの専門チャンネルが多数用意されてお
り、これらの専門チャンネルでは、それぞれの専門のコ
ンテンツに応じたプログラムが放送されている。2. Description of the Related Art In recent years, digital satellite broadcasting has been widely used. Digital satellite broadcasting is more resistant to noise and fading than, for example, existing analog broadcasting, and can transmit high-quality signals. Further, the frequency use efficiency is improved, and it is possible to increase the number of channels. Specifically, in the case of digital satellite broadcasting, one satellite can secure several hundred channels. In such digital satellite broadcasting, a large number of specialized channels such as sports, movies, music, and news are prepared, and programs corresponding to the respective specialized contents are broadcasted on these specialized channels.
【0003】このようなディジタル衛星放送システムを
利用して、ユーザが楽曲等の音声データをダウンロード
できるようにしたり、いわゆるテレビショッピングとし
て、例えばユーザが放送画面を見ながら何らかの商品に
ついての購買契約を結べるようにしたりすることが提案
されている。すなわち、ディジタル衛星放送システムと
して、通常の放送内容と並行したデータサービス放送を
行うものである。[0003] By using such a digital satellite broadcasting system, a user can download audio data such as music and the like, or as a so-called TV shopping, for example, the user can make a purchase contract for a certain product while watching a broadcast screen. It has been proposed to do so. That is, a digital satellite broadcasting system performs data service broadcasting in parallel with ordinary broadcasting contents.
【0004】一例として、楽曲データのダウンロードで
あれば、放送側においては、放送番組(映像情報)と同
期させるようにして、楽曲データを多重化して放送する
ようにする。また、この楽曲データのダウンロードに際
しては、GUI(Graphical User Interface)画面(すな
わち、ダウンロード用の操作画面である)を表示させる
ことでインタラクティブな操作をユーザに行わせるよう
にされる。このGUI画面出力のためのデータも多重化
して放送するようにされる。[0004] As an example, in the case of downloading music data, the broadcasting side multiplexes and broadcasts the music data in synchronization with a broadcast program (video information). When downloading the music data, a GUI (Graphical User Interface) screen (that is, an operation screen for downloading) is displayed to allow the user to perform an interactive operation. The data for outputting the GUI screen is also multiplexed and broadcast.
【0005】受信装置を所有しているユーザ側では、所
望のチャンネルを選局している状態で、受信装置に対す
る所定の操作によって楽曲データをダウンロードするた
めのGUI画面を表示出力させるようにする。そして、
この表示された操作画面に対してユーザが操作を行うこ
とで、例えば受信装置に接続したディジタルオーディオ
機器に対してデータを供給し、これが録音されるように
するものである。[0005] The user who owns the receiving apparatus displays a GUI screen for downloading music data by a predetermined operation on the receiving apparatus while a desired channel is selected. And
When the user performs an operation on the displayed operation screen, data is supplied to, for example, a digital audio device connected to the receiving device, and the data is recorded.
【0006】楽曲データをダウンロードするためのGU
I画面としては、例えばGUI画面を形成するパーツ的
な画像データ、テキストデータなどの情報に加え、更に
は所定操作に応じた音声出力のための音声データなどの
単位データ(ファイル)をそれぞれオブジェクトとして
扱い、このオブジェクトの出力態様を所定方式によるス
クリプトの記述によって制御することによって、操作画
面についての所要の表示形態および音声等の出力態様を
実現するように構成することが考えられる。つまり、い
わゆるマルチメディアコンテンツを放送することによっ
て上述のようなGUI画面を実現するものである。GU for downloading music data
As the I screen, for example, in addition to information such as part-like image data and text data forming a GUI screen, unit data (file) such as voice data for voice output in accordance with a predetermined operation are each set as an object. By handling and controlling the output mode of this object by the description of a script according to a predetermined method, it is conceivable to realize a configuration in which a required display mode and an output mode such as sound on the operation screen are realized. In other words, the above-described GUI screen is realized by broadcasting so-called multimedia contents.
【0007】ここでは、GUI画面のように、記述情報
によって規定されることで、或る目的に従った機能を実
現する表示画面(ここでは音声等の出力も含む)のこと
を「シーン」というものとする。また、「オブジェク
ト」とは、記述情報に基づいてその出力態様が規定され
る画像、音声、テキスト等の単位情報をいうものとされ
る。また、伝送時においては、記述情報自体のデータフ
ァイルも「オブジェクト」の1つとして扱われるものと
する。[0007] Here, a display screen (including a sound output or the like) that realizes a function according to a certain purpose, such as a GUI screen, which is defined by descriptive information is called a "scene". Shall be. The term “object” refers to unit information such as an image, a sound, and a text whose output mode is defined based on the description information. At the time of transmission, the data file of the description information itself is also treated as one of the “objects”.
【0008】例えば、このようなGUI画面の放送用コ
ンテンツを記述するための規格としては、MHEG(Mul
timedia Hypermedia Information Coding Experts Grou
p)方式を採用することが考えられる。MHEGの規格に
あっては、例えば1つのMHEGコンテンツ(MHEG
アプリケーションファイル)は、1以上のシーンにより
形成され、これらの例えば放送映像との同期出力やシー
ン間のトランジションが規定されるようにスクリプトの
記述が行われている。また、1シーンとしては1以上の
オブジェクトが所定の表示形態によって表示されるよう
に、スクリプトの記述により制御されている。つまり、
MHEGコンテンツは、シーン、オブジェクから成る階
層構造を有しているものとみることができる。[0008] For example, as a standard for describing such a GUI screen broadcast content, MHEG (Mull
timedia Hypermedia Information Coding Experts Grou
It is possible to adopt the p) method. In the MHEG standard, for example, one MHEG content (MHEG content)
An application file) is formed of one or more scenes, and a script is described so that a synchronous output with the broadcast video and a transition between the scenes are defined. The script is controlled so that one or more objects are displayed in a predetermined display form as one scene. That is,
The MHEG content can be regarded as having a hierarchical structure composed of scenes and objects.
【0009】放送側においては、MHEGコンテンツを
放送内容に応じて作成することになる。このようなMH
EGコンテンツの作成は、例えばパーソナルコンピュー
タ装置上で、いわゆるスクリプト作成ツールやオーサリ
ングツールとしてのアプリケーションソフトウェア(以
降、まとめてMHEGオーサリングツールという)を起
動させることで行うようにされる。On the broadcast side, MHEG contents are created according to the broadcast contents. Such MH
The creation of the EG content is performed, for example, by activating application software (hereinafter collectively referred to as an MHEG authoring tool) as a so-called script creation tool or authoring tool on a personal computer device.
【0010】上述したMHEGオーサリングツールにあ
っては、例えばシーン単位での編集を行う場合、シーン
に対して表示すべきオブジェクトを選択して、これらの
オブジェクトがシーンとして所望の表示形態によって表
示されるようにシナリオ(スクリプト)の記述を編集者
が行うようになされる。或いは、オーサリングツールと
してのGUI画面に対する操作を行ってシーンを作成し
た結果、最終的にはこの編集結果がスクリプトとして記
述される。In the MHEG authoring tool described above, for example, when editing in scene units, objects to be displayed for a scene are selected, and these objects are displayed as a scene in a desired display form. In this way, the scenario (script) is described by the editor. Alternatively, as a result of creating a scene by performing an operation on a GUI screen as an authoring tool, the edited result is finally described as a script.
【0011】[0011]
【発明が解決しようとする課題】MHEGオーサリング
ツールの機能としては、編集者が行うであろうと想定さ
れる作業に対応して、できるだけ編集者にとって使い勝
手の良いものとされることが好ましい。従来、MHEG
オーサリングツールとしては、CD−ROMなどのスト
レージメディアおよびインターネット等の通信メディア
に用いられるものがほとんどであり、上述のようなディ
ジタル放送というメディアの特質に対応したものは存在
していなかった。It is preferable that the function of the MHEG authoring tool be as convenient as possible for the editor in correspondence with the work that is assumed to be performed by the editor. Conventionally, MHEG
Most authoring tools are used for storage media such as CD-ROMs and communication media such as the Internet, and there is no tool corresponding to the above-mentioned characteristics of digital broadcasting media.
【0012】MHEGコンテンツのデータが全て大容量
の蓄積メディアに格納されている場合であれば、即時に
それを読み出して表示することが可能である。しかしな
がら、放送信号に多重化されたMHEGコンテンツを逐
次受信する受信機では、受信したMHEGコンテンツの
データを全て記憶できるような大容量のメモリはコスト
の面から設けることはできない。また、視聴者が快適に
インタラクティブサービスを受けられるようにするため
には、常に受信機の受信単位の情報量をチェックしなが
ら編集作業を行い、MHEGコンテンツの伝送方法を考
慮しなければならない。If all the data of the MHEG content is stored in a large-capacity storage medium, it can be immediately read and displayed. However, in a receiver that sequentially receives MHEG content multiplexed on a broadcast signal, a large-capacity memory capable of storing all data of the received MHEG content cannot be provided in terms of cost. In addition, in order to allow a viewer to comfortably receive an interactive service, an editing operation must be performed while constantly checking the information amount of a receiving unit of a receiver, and a method of transmitting MHEG content must be considered.
【0013】従って、この発明の目的は、例えばMHE
Gコンテンツの作成にあたって、作成されたコンテンツ
の総情報量を自動的に監視し、編集者がコンテンツの情
報量を容易に認識できる情報処理装置およびその方法を
提供することにある。Accordingly, an object of the present invention is to provide, for example, MHE
An object of the present invention is to provide an information processing apparatus and a method for automatically monitoring the total information amount of the created content and enabling the editor to easily recognize the information amount of the content when creating the G content.
【0014】[0014]
【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明は、ディジタル放送のデータ放
送用コンテンツを作成するための情報処理装置として、
ディジタル放送の受信機におけるデータ処理単位のデー
タ作成画面上に、作成したデータの総情報量を表示する
手段と、受信機におけるデータ受信単位の最大情報量を
超過した場合には画面上で通知する手段を備えるもので
ある。According to an aspect of the present invention, there is provided an information processing apparatus for creating digital broadcast data broadcasting contents.
Means for displaying the total information amount of the created data on the data creation screen of the data processing unit in the digital broadcast receiver, and notifying on the screen when the maximum information amount of the data reception unit in the receiver is exceeded Means.
【0015】上記構成によれば、作成されたコンテンツ
の総情報量を監視し、受信機のデータ受信単位の最大情
報量を超過した場合には、その旨が編集者に対して編集
画面上で通知される。According to the above configuration, the total information amount of the created contents is monitored, and when the maximum information amount of the data reception unit of the receiver is exceeded, the fact is notified to the editor on the editing screen. Notified.
【0016】[0016]
【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。この一実施形態は、ディジタル衛星放送
を利用して番組を放送すると共に、受信装置側ではこの
番組に関連した楽曲データ(音声データ)等の情報をダ
ウンロードできるようにしたシステムに対応できるもの
である。つまり、ディジタル衛星放送等の放送メディア
を利用した番組(映像情報)に同期可能な形態で付随さ
せるダウンロード操作画面などのためのGUIデータを
放送(インタラクティブ放送)を行うシステムである。
この放送システムにおいて、放送側が使用する、GUI
データとしてのコンテンツを作成するためのオーサリン
グシステムがこの発明の情報処理装置に該当する。ま
た、オーサリングシステムとしては、MHEGコンテン
ツ(MHEGアプリケーション)を作成するためのシス
テムであるものとする。以下、次の順序で説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below. This embodiment can cope with a system that broadcasts a program using digital satellite broadcasting and allows the receiving device to download information such as music data (audio data) related to the program. . In other words, the system broadcasts (interactive broadcast) GUI data for a download operation screen or the like to be attached in a form that can be synchronized with a program (video information) using a broadcast medium such as digital satellite broadcasting.
In this broadcasting system, the GUI used by the broadcasting side
An authoring system for creating content as data corresponds to the information processing apparatus of the present invention. Also, it is assumed that the authoring system is a system for creating MHEG content (MHEG application). Hereinafter, description will be made in the following order.
【0017】1.ディジタル衛星放送システム 1−1.全体構成 1−2.GUI画面に対する操作 1−3.地上局 1−4.送信フォーマット 1−5.IRD 2.オーサリングシステム 2−1.MHEGコンテンツの構造 2−2.MHEGオーサリングシステムの構成 2−3.MHEGオーサリングシステムの情報量の監視
機能 1.ディジタル衛星放送システムの構成 1−1.全体構成 先ず、一実施形態のMHEGオーサリングシステムの説
明を行うのに先立ち、このMHEGオーサリングシステ
ムにより作成されたMHEGコンテンツが使用されるデ
ィジタル衛星放送システムについて説明しておく。1. Digital satellite broadcasting system 1-1. Overall configuration 1-2. Operation on GUI screen 1-3. Ground station 1-4. Transmission format 1-5. IRD 2. Authoring system 2-1. Structure of MHEG content 2-2. Configuration of MHEG authoring system 2-3. Monitoring function of information amount of MHEG authoring system Configuration of Digital Satellite Broadcasting System 1-1. Overall Configuration First, prior to describing the MHEG authoring system according to an embodiment, a digital satellite broadcast system using MHEG contents created by the MHEG authoring system will be described.
【0018】図1は、一実施形態のディジタル衛星放送
システムの全体構成を示すものである。この図に示すよ
うに、ディジタル衛星放送の地上局1には、テレビ番組
素材サーバ6からのテレビ番組放送のための素材と、楽
曲素材サーバ7からの楽曲データの素材と、音声付加情
報サーバ8からの音声付加情報と、GUIデータサーバ
からのGUIデータとが送られる。テレビ番組素材サー
バ6は、通常の放送番組の素材を提供するサーバであ
る。このテレビ番組素材サーバから送られてくる音楽放
送の素材は、動画および音声とされる。例えば、音楽放
送番組であれば、テレビ番組素材サーバ6の動画および
音声の素材を利用して、例えば新曲のプロモーション用
の動画および音声が放送される。FIG. 1 shows the overall configuration of a digital satellite broadcasting system according to one embodiment. As shown in this figure, the ground station 1 for digital satellite broadcasting includes a material for television program broadcasting from a television program material server 6, a material for music data from a music material server 7, and an additional audio information server 8 , And the GUI data from the GUI data server. The TV program material server 6 is a server that provides a material of a normal broadcast program. The music broadcast material sent from the TV program material server is a moving image and a sound. For example, in the case of a music broadcasting program, for example, a moving image and a sound for promotion of a new song are broadcast using the moving image and sound material of the television program material server 6.
【0019】楽曲素材サーバ7は、オーディオチャンネ
ルを使用して、オーディオ番組を提供するサーバであ
る。このオーディオ番組の素材が音声のみとなる。この
楽曲素材サーバ7は、複数のオーディオチャンネルのオ
ーディオ番組の素材を地上局1に伝送する。各オーディ
オチャンネルの番組放送ではそれぞれ同一の楽曲が所定
の単位時間繰り返して放送される。各オーディオチャン
ネルは、それぞれ独立しており、その利用方法としては
各種考えられる。例えば、1つのオーディオチャンネル
では最新の日本のポップスの数曲を或る一定時間繰り返
し放送し、他のオーディオチャンネルでは最新の外国の
ポップスの数曲を或る一定時間繰り返し放送するという
ようにされる。The music material server 7 is a server that provides an audio program using an audio channel. The material of this audio program is only audio. The music material server 7 transmits materials of audio programs of a plurality of audio channels to the ground station 1. In the program broadcast of each audio channel, the same music is repeatedly broadcast for a predetermined unit time. Each audio channel is independent, and various usages can be considered. For example, one audio channel repeatedly broadcasts some of the latest Japanese pops for a certain period of time, and another audio channel repeatedly broadcasts some of the latest foreign pops for a certain period of time. .
【0020】音声付加情報サーバ8は、楽曲素材サーバ
7から出力される楽曲の時間情報等を提供するサーバで
ある。GUIデータサーバ9は、ユーザが操作に用いる
GUI画面を形成するための「GUIデータ(放送用コ
ンテンツのデータ)」を提供する。例えば後述するよう
な楽曲のダウンロードに関するGUI画面であれば、配
信される楽曲のリストページや各楽曲の情報ページを形
成するための画像データ、テキストデータ、アルバムジ
ャケットの静止画を形成するためのデータなどを提供す
る。更には、受信設備3側にていわゆるEPG(Electri
cal Program Guide)といわれる番組表表示を行うのに利
用されるEPGデータもここから提供される。The audio additional information server 8 is a server that provides time information of the music output from the music material server 7 and the like. The GUI data server 9 provides “GUI data (broadcast content data)” for forming a GUI screen used by the user for operation. For example, in the case of a GUI screen related to downloading music as described below, image data, text data, and data for forming a still image of an album jacket for forming a list page of distributed music and an information page of each music. And so on. Further, a so-called EPG (Electri
EPG data used to display a program guide called “cal Program Guide” is also provided here.
【0021】「GUIデータ」としては、例えばMHE
G(Multimedia Hypermedia Information Coding Expert
s Group)方式が採用される。MHEGとは、マルチメデ
ィア情報、手順、操作などのそれぞれと、その組み合わ
せをオブジェクトとして捉え、それらのオブジェクトを
符号化したうえで、タイトル(例えばGUI画面)とし
て制作するためのシナリオ記述の国際標準とされる。ま
た、一実施形態では、MHEG−5を採用するものとす
る。As the “GUI data”, for example, MHE
G (Multimedia Hypermedia Information Coding Expert
s Group) method. MHEG is an international standard for scenario description for creating multimedia information, procedures, operations, etc. and their combinations as objects, encoding these objects, and producing them as titles (eg, GUI screens). Is done. In one embodiment, MHEG-5 is adopted.
【0022】地上局1は、テレビ番組素材サーバ6、楽
曲素材サーバ7、音声付加情報サーバ8、およびGUI
データサーバ9から伝送された情報を多重化して送信す
る。テレビ番組素材サーバ6から伝送されたビデオデー
タはMPEG(Moving Picture Experts Group)2方式に
より圧縮符号化され、オーディオデータはMPEG2オ
ーディオ方式により圧縮符号化される。また、楽曲素材
サーバ7から伝送されたオーディオデータは、オーディ
オチャンネルごとに対応して、例えばMPEG2オーデ
ィオ方式と、ATRAC(Adoptive Tranform Acoustic
Coding) 方式と何れか一方の方式により圧縮符号化され
る。また、これらのデータは多重化の際、キー情報サー
バ10からのキー情報を利用して暗号化される。地上局
1の内部構成例については後述する。The ground station 1 includes a television program material server 6, a music material server 7, an additional audio information server 8, and a GUI.
The information transmitted from the data server 9 is multiplexed and transmitted. Video data transmitted from the television program material server 6 is compression-encoded by the MPEG (Moving Picture Experts Group) 2 system, and audio data is compression-encoded by the MPEG 2 audio system. The audio data transmitted from the music material server 7 corresponds to, for example, an MPEG2 audio system and an ATRAC (Adoptive Tranform Acoustic) for each audio channel.
Coding) compression encoding is performed by one of the two methods. These data are encrypted using key information from the key information server 10 at the time of multiplexing. An example of the internal configuration of the ground station 1 will be described later.
【0023】地上局1からの信号は衛星2を介して各家
庭の受信設備3で受信される。衛星2には複数のトラン
スポンダが搭載されている。1つのトランスポンダは例
えば30Mbpsの伝送能力を有している。各家庭の受
信設備3としては、パラボラアンテナ11とIRD(Int
egrated Receiver Decorder)12と、ストレージデバイ
ス13と、モニタ装置14とが用意される。また、IR
D12に対して操作を行うためのリモートコントローラ
64が示されている。The signal from the ground station 1 is received by the receiving equipment 3 of each home via the satellite 2. The satellite 2 has a plurality of transponders mounted thereon. One transponder has a transmission capacity of, for example, 30 Mbps. As the receiving equipment 3 of each home, a parabolic antenna 11 and an IRD (Int
egrated Receiver Decorder) 12, a storage device 13, and a monitor device 14 are prepared. Also, IR
A remote controller 64 for performing an operation on D12 is shown.
【0024】パラボラアンテナ11で衛星2を介して放
送されてきた信号が受信される。この受信信号がパラボ
ラアンテナ11に取り付けられたLNB(Low Noize Blo
ck Down Converter)15で所定の周波数に変換され、I
RD12に供給される。A signal broadcasted via the satellite 2 by the parabolic antenna 11 is received. This received signal is transmitted to the LNB (Low Noize Blo
ck Down Converter) 15
It is supplied to RD12.
【0025】IRD12における概略的な動作として
は、受信信号から所定のチャンネルの信号を選局し、そ
の選局された信号から番組としてのビデオデータおよび
オーディオデータの復調を行ってビデオ信号、オーディ
オ信号として出力する。また、IRD12では、番組と
してのデータと共に多重化されて送信されてくる、GU
Iデータに基づいてGUI画面としての出力も行う。こ
のようなIRD12の出力は、例えばモニタ装置14に
対して供給される。これにより、モニタ装置14では、
IRD12により受信選局した番組の画像表示および音
声出力が行われ、また、後述するようなユーザの操作に
従ってGUI画面を表示させることが可能となる。As a general operation of the IRD 12, a signal of a predetermined channel is selected from a received signal, and video data and audio data as a program are demodulated from the selected signal to obtain a video signal and an audio signal. Output as In the IRD 12, the GU transmitted and multiplexed with data as a program is transmitted.
It also outputs a GUI screen based on the I data. The output of the IRD 12 is supplied to, for example, the monitor device 14. Thereby, in the monitor device 14,
The IRD 12 performs image display and audio output of the program selected and received, and also allows a GUI screen to be displayed according to a user operation as described later.
【0026】ストレージデバイス13は、IRD12に
よりダウンロードされたオーディオデータ(楽曲デー
タ)を保存するためのものである。このストレージデバ
イス13の種類としては特に限定されるものではなく、
MD(Mini Disc) レコーダ/プレーヤ、DATレコーダ
/プレーヤ、DVDレコーダ/プレーヤ等を用いること
ができる。また、ストレージデバイス13としてパーソ
ナルコンピュータ装置を用い、ハードディスクのほか、
CD−R、フラッシュメモリ(メモリカード)等をはじ
めとする記録が可能なメディアにオーディオデータを保
存するようにすることも可能とされる。The storage device 13 is for storing audio data (song data) downloaded by the IRD 12. The type of the storage device 13 is not particularly limited.
An MD (Mini Disc) recorder / player, a DAT recorder / player, a DVD recorder / player, or the like can be used. In addition, a personal computer device is used as the storage device 13, and in addition to a hard disk,
It is also possible to store audio data in a recordable medium such as a CD-R, a flash memory (memory card), or the like.
【0027】また、受信設備3としては、図2に示すよ
うに、データ伝送規格としてIEEE1394に対応し
たデータインターフェイスを備えたMDレコーダ/プレ
ーヤ13Aを、図1に示すストレージデバイス13とし
て使用することができるようにされている。この図に示
すIEEE1394対応のMDレコーダ/プレーヤ13
Aは、IEEE1394バス16によりIRD12と接
続される。これによって、一実施形態では、IRD12
にて受信された、楽曲としてのオーディオデータ(ダウ
ンロードデータ)を、ATRAC方式により圧縮処理が
施されたままの状態で直接取り込んで記録することがで
きる。また、MDレコーダ/プレーヤ13AとIRD1
2とをIEEE1394バス16により接続した場合に
は、オーディオデータの他、そのアルバムのジャケット
データ(静止画データ)および歌詞などのテキストデー
タを記録することも可能とされている。As the receiving equipment 3, as shown in FIG. 2, an MD recorder / player 13A having a data interface compatible with IEEE 1394 as a data transmission standard may be used as the storage device 13 shown in FIG. Have been able to. An IEEE 1394 compatible MD recorder / player 13 shown in FIG.
A is connected to the IRD 12 via the IEEE 1394 bus 16. This allows, in one embodiment, the IRD 12
, Audio data (download data) as music can be directly captured and recorded in a state where it has been subjected to compression processing by the ATRAC method. In addition, MD recorder / player 13A and IRD1
2 is connected by the IEEE 1394 bus 16, it is possible to record not only audio data but also jacket data (still image data) of the album and text data such as lyrics.
【0028】IRD12は、例えば電話回線4を介して
課金サーバ5と通信可能とされている。IRD12に
は、後述するようにして各種情報が記憶されるICカー
ドが挿入される。例えば楽曲のオーディオデータのダウ
ンロードが行われたとすると、これに関する履歴情報が
ICカードに記憶される。このICカードの情報は、電
話回線4を介して所定の機会、タイミングで課金サーバ
5に送られる。課金サーバ5は、この送られてきた履歴
情報に従って金額を設定して課金を行い、ユーザに請求
する。The IRD 12 can communicate with the accounting server 5 via the telephone line 4, for example. An IC card in which various information is stored is inserted into the IRD 12 as described later. For example, if audio data of a music piece is downloaded, history information relating to the download is stored in the IC card. The information of the IC card is sent to the charging server 5 via the telephone line 4 at a predetermined opportunity and timing. The accounting server 5 sets an amount according to the sent history information, performs accounting, and charges the user.
【0029】上述したように、地上局1は、テレビ番組
素材サーバ6からの音楽番組放送の素材となるビデオデ
ータおよびオーディオデータと、楽曲素材サーバ7から
のオーディオチャンネルの素材となるオーディオデータ
と、音声付加情報サーバ8からの音声データと、GUI
データサーバ9からのGUIデータとを多重化して送信
している。As described above, the ground station 1 includes the video data and audio data as the material of the music program broadcast from the television program material server 6, the audio data as the material of the audio channel from the music material server 7, Voice data from the voice additional information server 8 and a GUI
The GUI data from the data server 9 is multiplexed and transmitted.
【0030】そして、各家庭の受信設備3でこの放送を
受信すると、例えばモニタ装置14により、選局したチ
ャンネルの番組を視聴することができる。また、番組の
データと共に送信されるGUIデータを利用したGUI
画面として、第1にはEPG(Electrical Program Gui
de;電子番組ガイド)画面を表示させ、番組の検索等を
行うことができる。また、第2には、例えば通常の番組
放送以外の特定のサービス用のGUI画面を利用して所
要の操作を行うことで、一実施形態では、放送システム
において提供されている通常番組の視聴以外のサービス
を享受することができる。例えば、オーディオ(楽曲)
データのダウンロードサービス用のGUI画面を表示さ
せて、このGUI画面を利用して操作を行えば、ユーザ
が希望した楽曲のオーディオデータをダウンロードして
ストレージデバイス13に記録して保存することが可能
になる。When the broadcast is received by the receiving equipment 3 of each home, the program of the selected channel can be viewed by the monitor device 14, for example. A GUI using GUI data transmitted together with program data.
First, EPG (Electrical Program Gui)
de; electronic program guide) screen can be displayed to search for programs and the like. Second, by performing a required operation using, for example, a GUI screen for a specific service other than the normal program broadcast, in one embodiment, other than viewing and listening to the normal program provided in the broadcast system, Service can be enjoyed. For example, audio (music)
If a GUI screen for a data download service is displayed and an operation is performed using this GUI screen, the user can download audio data of a desired music, record the audio data in the storage device 13, and save the audio data. Become.
【0031】なお、一実施形態では、上述したようなG
UI画面に対する操作を伴う、通常の番組放送以外の特
定のサービスを提供するデータサービス放送について
は、インタラクティブ性を有することもあり、「インタ
ラクティブ放送」と言うこともできる。In one embodiment, G as described above is used.
A data service broadcast that provides a specific service other than a normal program broadcast that involves an operation on the UI screen may have interactivity and may be referred to as an “interactive broadcast”.
【0032】1−2.GUI画面に対する操作 上述しているインタラクティブ放送の利用例、つまり、
GUI画面に対する操作例について、図3および図4を
参照して概略的に説明しておく。ここでは、楽曲データ
(オーディオデータ)のダウンロードを行う場合につい
て述べる。1-2. Operation on GUI screen The above-mentioned use example of interactive broadcasting, that is,
An operation example on the GUI screen will be schematically described with reference to FIGS. Here, a case in which music data (audio data) is downloaded will be described.
【0033】先ず、図3によりIRD12に対してユー
ザが操作を行うためのリモートコントローラ64の操作
キーについて、主要なものについて説明しておく。図3
には、リモートコントローラ64において各種キーが配
列された操作パネル面が示されている。これら各種キー
のうち、電源キー101、数字キー102、画面表示切
換キー103、インタラクティブ切換キー104、EP
Gキーパネル部105、チャンネルキー106について
説明する。First, main operation keys of the remote controller 64 for the user to operate the IRD 12 will be described with reference to FIG. FIG.
5 shows an operation panel surface on which various keys are arranged in the remote controller 64. Among these various keys, power key 101, numeric key 102, screen display switching key 103, interactive switching key 104, EP
The G key panel unit 105 and the channel key 106 will be described.
【0034】電源キー101は、IRD12の電源のオ
ン/オフを行うためのキーである。数字キー102は、
数字指定によりチャンネル切り換えを行ったり、例えば
GUI画面において数値入力操作が必要な場合に操作さ
れるキーである。画面表示切換キー103は、例えば通
常の放送画面とEPG画面との切り換えを行うキーであ
る。例えば、画面表示切換キー103によりEPG画面
を呼び出した状態の下で、EPGキーパネル部105に
配置されたキーを操作すれば、電子番組ガイドの表示画
面を利用した番組検索が行えることになる。また、EP
Gキーパネル部105内の矢印キー105aは、後述す
るサービス用のGUI画面におけるカーソル移動などに
も使用することができる。インタラクティブ切換キー1
04は、通常の放送画面と、その放送番組に付随したサ
ービスのためのGUI画面との切り換えを行うために設
けられる。チャンネルキー106は、IRD12におけ
る選局チャンネルをそのチャンネル番号の昇順、降順に
従って順次切り換えるために設けられるキーである。The power key 101 is a key for turning on / off the power of the IRD 12. Numeric keys 102
The key is operated when a channel is switched by designating a numeral or when a numerical input operation is required on a GUI screen, for example. The screen display switching key 103 is a key for switching between a normal broadcast screen and an EPG screen, for example. For example, if a key arranged on the EPG key panel unit 105 is operated while the EPG screen is called by the screen display switching key 103, a program search using the display screen of the electronic program guide can be performed. Also, EP
The arrow keys 105a in the G key panel unit 105 can be used for moving a cursor on a GUI screen for a service to be described later. Interactive switching key 1
Reference numeral 04 is provided for switching between a normal broadcast screen and a GUI screen for a service attached to the broadcast program. The channel key 106 is a key provided for sequentially switching the selected channel in the IRD 12 in ascending order and descending order of the channel number.
【0035】リモートコントローラ64は、例えばモニ
タ装置14に対する各種操作も可能に構成されており、
これに対応した各種キーも設けられているものである
が、ここでは、モニタ装置14に対応するキー等につい
ての説明は省略する。The remote controller 64 is capable of performing various operations on the monitor device 14, for example.
Various keys corresponding to this are also provided, but the description of the keys and the like corresponding to the monitor device 14 is omitted here.
【0036】次に、図4を参照してGUI画面に対する
操作の具体例について説明する。受信設備3により放送
を受信して所望のチャンネルを選局すると、モニタ装置
14の表示画面には、図4Aに示すように、テレビ番組
素材サーバ6から提供された番組素材に基づく動画像が
表示される。つまり、通常の番組内容例えば音楽番組が
表示される。この音楽番組には、楽曲のオーディオデー
タのダウンロードサービス(インタラクティブ放送)が
付随している。この音楽番組が表示されている状態の下
で、例えばユーザがリモートコントローラ64のインタ
ラクティブ切換キー104を操作したとすると、表示画
面は図4Bに示すような、オーディオデータのダウンロ
ードのためのGUI画面に切り替わる。Next, a specific example of an operation on the GUI screen will be described with reference to FIG. When a desired channel is selected by receiving a broadcast by the receiving equipment 3, a moving image based on the program material provided from the television program material server 6 is displayed on the display screen of the monitor device 14 as shown in FIG. 4A. Is done. That is, normal program contents such as music programs are displayed. This music program is accompanied by a download service (interactive broadcast) for audio data of the music. If, for example, the user operates the interactive switching key 104 of the remote controller 64 while the music program is being displayed, the display screen is displayed on a GUI screen for downloading audio data as shown in FIG. 4B. Switch.
【0037】このGUI画面においては、先ず、画面の
左上部のテレビ番組表示エリア21Aに対して、図4A
にて表示されていたテレビ番組素材サーバ6からのビデ
オデータによる画像が縮小化されて表示される。また、
画面の右上部には、オーディオチャンネルで放送されて
いる各チャンネルの楽曲のリスト21Bが表示される。
また、画面の左下にはテキスト表示エリア21Cとジャ
ケット表示エリア21Dが表示される。さらに、画面の
右側には歌詞表示ボタン22、プロフィール表示ボタン
23、情報表示ボタン24、予約録音ボタン25、予約
済一覧表示ボタン26、録音履歴表示ボタン27、およ
びダウンロードボタン28が表示される。In this GUI screen, first, the TV program display area 21A at the upper left of the screen is displayed on the screen shown in FIG.
The image based on the video data from the television program material server 6 displayed in the above is reduced and displayed. Also,
In the upper right part of the screen, a list 21B of songs of each channel being broadcast on the audio channel is displayed.
A text display area 21C and a jacket display area 21D are displayed at the lower left of the screen. Further, a lyrics display button 22, a profile display button 23, an information display button 24, a reservation recording button 25, a reservation list display button 26, a recording history display button 27, and a download button 28 are displayed on the right side of the screen.
【0038】ユーザは、このリスト21Bに表示されて
いる楽曲名を見ながら、興味のある楽曲を探していく。
そして、興味のある楽曲を見つけたらリモートコントロ
ーラ64の矢印キー105a(EPGキーパネル部10
5内)を操作して、その楽曲が表示されている位置にカ
ーソルを合わせた後、エンター操作を行う(例えば矢印
キー105aのセンター位置を押圧操作する)。これに
よって、カーソルを合わせた楽曲を試聴することができ
る。すなわち、各オーディオチャンネルでは、所定の単
位時間中、同一の楽曲が繰り返し放送されているので、
テレビ番組表示エリア21Aの画面はそのままで、IR
D12により上述の操作により選択された楽曲のオーデ
ィオチャンネルに切り換えて音声出力することで、その
楽曲を聞くことができる。この時、ジャケット表示エリ
ア21Dにはその楽曲のMDジャケットの静止画像が表
示される。The user searches for a song of interest while looking at the song name displayed in the list 21B.
Then, when a musical piece of interest is found, the arrow keys 105a of the remote controller 64 (EPG key panel unit 10)
5) to move the cursor to the position where the music is displayed, and then perform an enter operation (for example, press the center position of the arrow key 105a). As a result, it is possible to listen to the music piece with the cursor. That is, in each audio channel, the same music is repeatedly broadcast during a predetermined unit time.
The screen of the TV program display area 21A remains unchanged, and the IR
By switching to the audio channel of the music selected by the above-described operation by D12 and outputting the sound, the music can be heard. At this time, a still image of the MD jacket of the music is displayed in the jacket display area 21D.
【0039】また、例えば歌詞表示ボタン22にカーソ
ルを合わせ、エンター操作を行う(以下、ボタン表示に
カーソルを合わせ、エンター操作を行うことを「ボタン
を押す」という)と、テキスト表示エリア21Cに楽曲
の歌詞がオーディオデータと同期したタイミングで表示
される。同様に、プロフィール表示ボタン23あるいは
情報表示ボタン24を押すと、楽曲に対応するアーティ
ストのプロフィールあるいはコンサート情報などがテキ
スト表示エリア21Cに表示される。このように、ユー
ザは、現在どのような楽曲が配信されているのかを知る
ことができ、更に各楽曲についての詳細な情報を知るこ
とができる。For example, when the cursor is moved to the lyrics display button 22 and the enter operation is performed (hereinafter, the operation of moving the cursor to the button display and performing the enter operation is referred to as "pressing a button"), the music is displayed in the text display area 21C. Is displayed at the timing synchronized with the audio data. Similarly, when the profile display button 23 or the information display button 24 is pressed, an artist profile or concert information corresponding to the music is displayed in the text display area 21C. In this way, the user can know what kind of music is currently being distributed, and can also know detailed information about each music.
【0040】ユーザは試聴した楽曲を購入したい場合に
は、ダウンロードボタン28を押す。ダウンロードボタ
ン28が押されると、選択された楽曲のオーディオデー
タがダウンロードされ、ストレージデバイス13に記憶
される。楽曲のオーディオデータと共に、その歌詞デー
タ、アーティストのプロフィール情報、ジャケットの静
止画データ等をダウンロードすることもできる。そし
て、このように楽曲のオーディオデータがダウンロード
される毎に、その履歴情報がIRD12内のICカード
に記憶される。ICカードに記憶された情報は、例えば
1カ月に一度ずつ課金サーバ5により取り込みが行わ
れ、ユーザに対してデータサービスの使用履歴に応じた
課金が行われる。これによって、ダウンロードされる楽
曲の著作権を保護することができることにもなる。The user presses the download button 28 when he wants to purchase the auditioned music. When the download button 28 is pressed, the audio data of the selected music is downloaded and stored in the storage device 13. Along with the audio data of the music, lyrics data, artist profile information, jacket still image data, and the like can also be downloaded. Then, every time the audio data of the music is downloaded in this manner, the history information is stored in the IC card in the IRD 12. The information stored in the IC card is taken in by the accounting server 5 once a month, for example, and the user is charged according to the usage history of the data service. Thereby, the copyright of the downloaded music can be protected.
【0041】ユーザが予めダウンロードの予約を行いた
い場合には、予約録音ボタン25を押す。このボタンを
押すと、GUI画面の表示が切り換わり、予約が可能な
楽曲のリストが画面全体に表示される。例えばこのリス
トは1時間単位、1週間単位、チャンル単位等で検索し
た楽曲を表示することが可能である。ユーザがこのリス
トの中からダウンロードの予約を行いたい楽曲を選択す
ると、その情報がIRD12内に登録される。そして、
すでにダウンロードの予約を行った楽曲を碓認したい場
合には、予約済一覧表示ボタン26を押すことにより、
画面全体に表示させることができる。このようにして予
約された楽曲は、予約時刻になるとIRD12によりダ
ウンロードされ、ストレージデバイス13に記憶され
る。ユーザがダウンロードを行った楽曲について確認し
たい場合には、録音履歴ボタン27を押すことにより、
既にダウンロードを行った楽曲のリストを画面全体に表
示させることができる。When the user wants to make a reservation for download in advance, he presses a reservation recording button 25. When this button is pressed, the display of the GUI screen is switched, and a list of music that can be reserved is displayed on the entire screen. For example, this list can display music searched for in units of one hour, one week, or channel. When the user selects a song to be reserved for download from this list, the information is registered in the IRD 12. And
If you want to check the music that has already been reserved for download, press the reserved list display button 26,
It can be displayed on the entire screen. The music piece reserved in this way is downloaded by the IRD 12 at the reserved time and stored in the storage device 13. When the user wants to check the downloaded music, the recording history button 27 is pressed,
A list of songs that have already been downloaded can be displayed on the entire screen.
【0042】この発明が適用されたシステムの受信設備
3では、モニタ装置14のGUI画面上に楽曲のリスト
が表示される。このGUI画面上の表示にしたがって楽
曲を選択するとその楽曲を試聴することができ、その楽
曲の歌詞やアーティストのプロフィール等を知ることが
できる。さらに、楽曲のダウンロードとその予約、ダウ
ンロードの履歴や予約済楽曲リストの表示等を行うこと
ができる。In the receiving facility 3 of the system to which the present invention is applied, a music list is displayed on the GUI screen of the monitor device 14. When a tune is selected according to the display on the GUI screen, the tune can be previewed, and the lyrics of the tune and the profile of the artist can be known. Further, it is possible to perform downloading of music and reservation thereof, display of a download history and a list of reserved music, and the like.
【0043】詳しいことは後述するが、図4Bに示すよ
うなGUI画面の表示と、GUI画面に対するユーザの
操作に応答したGUI画面上での表示変更、および音声
出力は、前述したMHEG方式に基づいたシナリオ記述
により、オブジェクトの関係を規定することにより実現
される。オブジェクトとは、図4Bに示された各ボタン
に対応するパーツとしての画像データや各表示エリアに
表示される素材データとなる。そして、本明細書におい
ては、このGUI画面のような、シナリオ(スクリプ
ト)記述によってオブジェクト間の関係が規定されるこ
とで、或る目的に従った情報の出力態様(画像表示や音
声出力等)が実現される環境を「シーン」というものと
する。また、1シーンを形成するオブジェクトとして
は、シナリオ記述のファイル自体も含まれるものとす
る。Although the details will be described later, the display of the GUI screen as shown in FIG. 4B, the change of the display on the GUI screen in response to the user's operation on the GUI screen, and the voice output are based on the MHEG method described above. This is realized by defining the relationship between objects by the described scenario description. The object is image data as a part corresponding to each button shown in FIG. 4B and material data displayed in each display area. In this specification, the relationship between objects is defined by a scenario (script) description, such as the GUI screen, so that information is output according to a certain purpose (image display, audio output, etc.). An environment in which is realized is referred to as a “scene”. It is also assumed that the objects forming one scene include the scenario description file itself.
【0044】上述したように、この発明が適用されたデ
ィジタル衛星放送システムでは放送番組が配信されると
共に、複数のオーディオチャンネルを使用して楽曲のオ
ーディオデータが配信される。そして、配信されている
楽曲のリスト等を使用して所望の楽曲を探し、そのオー
ディオデータをストレージデバイス13に簡単に保存す
ることができる。As described above, in the digital satellite broadcasting system to which the present invention is applied, a broadcast program is distributed, and audio data of music is distributed using a plurality of audio channels. Then, the user can search for a desired music by using a list of the distributed music and the like, and can easily store the audio data in the storage device 13.
【0045】なお、ディジタル衛星放送システムにおけ
る番組提供以外のサービスとしては、楽曲データのダウ
ンロードの他にも各種考えられる。例えば、いわゆるテ
レビショッピングといわれる商品紹介番組を放送した上
で、GUI画面としては購買契約が結べるようなものを
用意することも考えられる。As services other than the program provision in the digital satellite broadcasting system, various other than the downloading of the music data can be considered. For example, it is conceivable that after broadcasting a product introduction program called so-called television shopping, a GUI screen that allows a purchase contract to be concluded is prepared.
【0046】1−3.地上局 これまで、ディジタル衛星放送システムの概要について
説明したが、以下、このシステムについてより詳細に説
明する。そこで、先ず、地上局1の構成について図5を
参照して説明する。1-3. Ground Station The outline of the digital satellite broadcasting system has been described above, and the system will be described in more detail below. Therefore, first, the configuration of the ground station 1 will be described with reference to FIG.
【0047】以下の説明にあたっては、次のことを前提
とする。すなわち、地上局1から衛星2を介しての受信
設備3への送信を行うのにあたり、DSM−CC( ディ
ジタル蓄積メディア・コマンド・アンド・コントロー
ル;Digital Strage Media-Command and Control) プロ
トコルを採用する。DSM−CC(MPEG−part
6)方式は、既に知られているように、例えば、何らか
のネットワークを介して、ディジタル蓄積メディア(D
SM)に蓄積されたMPEG符号化ビットストリームを
取り出し(Retrieve)たり、或いはDSMに対してストリ
ームを蓄積(Store) するためのコマンドや制御方式を規
定したものである。一実施形態においては、このDSM
−CC方式がディジタル衛星放送システムにおける伝送
規格として採用されている。DSM−CC方式によりデ
ータ放送サービス(例えばGUI画面など)のコンテン
ツ(オブジェクトの集合)を伝送するためには、コンテ
ンツの記述形式を定義しておく必要がある。この記述形
式の定義として先に述べたMHEGが採用されるもので
ある。In the following description, the following is assumed. That is, when transmitting from the ground station 1 to the receiving equipment 3 via the satellite 2, the DSM-CC (Digital Storage Media-Command and Control) protocol is adopted. DSM-CC (MPEG-part
6) As is known, for example, a digital storage medium (D
A command and control method for retrieving (Retrieve) an MPEG encoded bit stream stored in the SM) or storing the stream in the DSM (Store). In one embodiment, this DSM
-The CC system has been adopted as a transmission standard in digital satellite broadcasting systems. In order to transmit a content (a set of objects) of a data broadcasting service (for example, a GUI screen) by the DSM-CC scheme, it is necessary to define a description format of the content. The above-mentioned MHEG is adopted as the definition of the description format.
【0048】図5に示す地上局1の構成において、テレ
ビ番組素材登録システム31は、テレビ番組素材サーバ
6から得られた素材データをAVサーバ35に登録す
る。この素材データはテレビ番組送出システム39に送
られ、ここでビデオデータが例えばMPEG2方式で圧
縮され、オーディオデータは、例えばMPEG2オーデ
ィオ方式によりパケット化される。テレビ番組送出シス
テム39の出力はマルチプレクサ45に送られる。In the configuration of the ground station 1 shown in FIG. 5, the TV program material registration system 31 registers the material data obtained from the TV program material server 6 in the AV server 35. The material data is sent to the television program transmission system 39, where the video data is compressed by, for example, the MPEG2 system, and the audio data is packetized by, for example, the MPEG2 audio system. The output of the television program transmission system 39 is sent to the multiplexer 45.
【0049】また、楽曲素材登録システム32では、楽
曲素材サーバ7からの素材データ、つまりオーディオデ
ータを、MPEG2オーディオエンコーダ36A、およ
びATRACエンコーダ36Bに供給する。MPEG2
オーディオエンコーダ36A、ATRACエンコーダ3
6Bでは、それぞれ供給されたオーディオデータについ
てエンコード処理(圧縮符号化)を行った後、MPEG
オーディオサーバ40AおよびATRACオーディオサ
ーバ40Bに登録する。The music material registration system 32 supplies material data from the music material server 7, that is, audio data, to the MPEG2 audio encoder 36A and the ATRAC encoder 36B. MPEG2
Audio encoder 36A, ATRAC encoder 3
In 6B, after encoding processing (compression encoding) is performed on the supplied audio data,
Register with the audio server 40A and ATRAC audio server 40B.
【0050】MPEGオーディオサーバ40Aに登録さ
れたMPEGオーディオデータは、MPEGオーディオ
送出システム43Aに伝送されてここでパケット化され
た後、マルチプレクサ45に伝送される。ATRACオ
ーディオサーバ40Bに登録されたATRACデータ
は、ATRACオーディオ送出システム43Bに4倍速
ATRACデータとして送られ、ここでパケット化され
てマルチプレクサ45に送出される。The MPEG audio data registered in the MPEG audio server 40A is transmitted to the MPEG audio transmission system 43A, packetized here, and then transmitted to the multiplexer 45. ATRAC data registered in the ATRAC audio server 40B is sent to the ATRAC audio transmission system 43B as quadruple-speed ATRAC data, where it is packetized and transmitted to the multiplexer 45.
【0051】また、音声付加情報登録システム33で
は、音声付加情報サーバ8からの素材データである音声
付加情報を音声付加情報データベース37に登録する。
この音声付加情報データベース37に登録された音声付
加情報は、音声付加情報送出システム41に伝送され、
同様にして、ここでパケット化されてマルチプレクサ4
5に伝送される。In the additional audio information registration system 33, additional audio information, which is material data from the additional audio information server 8, is registered in the additional audio information database 37.
The additional audio information registered in the additional audio information database 37 is transmitted to the additional audio information transmission system 41,
Similarly, the packetized data from the multiplexer 4
5 is transmitted.
【0052】また、GUI用素材登録システム34で
は、GUIデータサーバ9からの素材データであるGU
Iデータを、GUI素材データベース38に登録する。
GUI素材データベース38に登録されたGUI素材デ
ータは、GUIオーサリングシステム42に伝送され、
ここで、GUI画面、すなわち、図4にて述べた「シー
ン」としての出力が可能なデータ形式となるように処理
が施される。GUIオーサリングシステム42に伝送さ
れてくるデータとしては、例えば、楽曲のダウンロード
のためのGUI画面であれば、アルバムジャケットの静
止画像データ、歌詞などのテキストデータ、更には、操
作に応じて出力されるべき音声データなどである。Further, in the GUI material registration system 34, the GUI data
The I data is registered in the GUI material database 38.
The GUI material data registered in the GUI material database 38 is transmitted to the GUI authoring system 42,
Here, the processing is performed such that the data is in a data format that can be output as a GUI screen, that is, the “scene” described in FIG. As the data transmitted to the GUI authoring system 42, for example, in the case of a GUI screen for downloading music, still image data of an album jacket, text data such as lyrics, and further, are output according to an operation. And audio data.
【0053】これらのデータはいわゆるモノメディアと
いわれるが、GUIオーサリングシステム42では、M
HEGオーサリングツールを用いて、これらのモノメデ
ィアデータを符号化して、これをオブジェクトとして扱
うようにする。例えば図4Bにて説明したようなシーン
(GUI画面)の表示態様と操作に応じた画像音声の出
力態様が得られるように、オブジェクトの関係を規定し
たシナリオ記述ファイル(スクリプト)と共にMHEG
−5のコンテンツを作成する。These data are called so-called mono-media, but in the GUI authoring system 42, M
Using the HEG authoring tool, these mono-media data are encoded and handled as objects. For example, a MHEG together with a scenario description file (script) defining the relationship between objects is provided so that the display mode of the scene (GUI screen) and the output mode of image and sound according to the operation as described with reference to FIG. 4B can be obtained.
Create content of -5.
【0054】また、図4Bに示したようなGUI画面で
は、テレビ番組素材サーバ6の素材データを基とする画
像・音声データ(MPEGビデオデータ、MPEGオー
ディオデータ)と、楽曲素材サーバ7の楽曲素材データ
を基とするMPEGオーディオデータ等も、GUI画面
に表示され、操作に応じた出力態様が与えられる。従っ
て、シナリオ記述ファイルとしては、GUIオーサリン
グシステム42では、テレビ番組素材サーバ6の素材デ
ータを基とする画像・音声データ、楽曲素材サーバ7の
楽曲素材データを基とするMPEGオーディオデータ、
更には、音声付加情報サーバ8を基とする音声付加情報
も必要に応じてオブジェクトとして扱われて、MHEG
のスクリプトによる規定が行われる。On the GUI screen as shown in FIG. 4B, image / audio data (MPEG video data, MPEG audio data) based on material data of the TV program material server 6 and music material of the music material server 7 are displayed. MPEG audio data and the like based on the data are also displayed on the GUI screen, and an output mode according to the operation is given. Therefore, as the scenario description file, in the GUI authoring system 42, image / audio data based on the material data of the TV program material server 6, MPEG audio data based on the music material data of the music material server 7,
Further, the audio additional information based on the audio additional information server 8 is also treated as an object if necessary, and the MHEG
Is defined by the script.
【0055】GUIオーサリングシステム42から伝送
されるMHEGコンテンツのデータとしては、スクリプ
トファイル、およびオブジェクトとしての各種静止画デ
ータファイルやテキストデータファイル(更には音声デ
ータファイル)などである。静止画データは、例えばJ
PEG(Joint Photograph Experts Group)方式で圧縮さ
れた640×480ピクセルのデータとされ、テキスト
データは例えば800文字以内のファイルとされる。The data of the MHEG content transmitted from the GUI authoring system 42 includes a script file, various still image data files as objects, text data files (and audio data files), and the like. Still image data is, for example, J
The data is 640 × 480 pixel data compressed by the PEG (Joint Photograph Experts Group) method, and the text data is a file of, for example, 800 characters or less.
【0056】GUIオーサリングシステム42にて得ら
れたMHEGコンテンツのデータはDSM−CCエンコ
ーダ44に伝送される。DSM−CCエンコーダ44で
は、MPEG2フォーマットに従ったビデオ、オーディ
オデータのデータストリームに多重できる形式のトラン
スポートストリーム(以下TS(Transport Stream)とも
略す)に変換して、パケット化されてマルチプレクサ4
5に出力される。The data of the MHEG content obtained by the GUI authoring system 42 is transmitted to the DSM-CC encoder 44. The DSM-CC encoder 44 converts the data into a transport stream (hereinafter abbreviated as TS (Transport Stream)) in a format that can be multiplexed with a data stream of video and audio data in accordance with the MPEG2 format.
5 is output.
【0057】マルチプレクサ45においては、テレビ番
組送出システム39からのビデオパケットおよびオーデ
ィオパケットと、MPEGオーディオ送出システム43
Aからのオーディオパケットと、ATRACオーディオ
送出システム43Bからの4倍速オーディオパケット
と、音声付加情報送出システム41からの音声付加情報
パケットと、GUIオーサリングシステム42からのG
UIデータパケットとが時間軸多重化されると共に、キ
ー情報サーバ10(図1)から出力されたキー情報に基
づいて暗号化される。マルチプレクサ45の出力は電波
送出システム46に伝送され、ここで例えば誤り訂正符
号の付加、変調、および周波数変換などの処理を施され
た後、アンテナから衛星2に向けて送信される。In the multiplexer 45, the video and audio packets from the television program transmission system 39 and the MPEG audio transmission system 43
A, a 4 × speed audio packet from the ATRAC audio transmission system 43B, an audio additional information packet from the audio additional information transmission system 41, and a G from the GUI authoring system 42.
The UI data packet and the UI data packet are time-division multiplexed and encrypted based on the key information output from the key information server 10 (FIG. 1). The output of the multiplexer 45 is transmitted to the radio wave transmission system 46, where the output is subjected to processing such as addition of an error correction code, modulation, and frequency conversion, and then transmitted from the antenna to the satellite 2.
【0058】1−4.送信フォーマット 次に、DSM−CC方式に基づいて規定された一実施形
態の送信フォーマットについて説明する。図6は、地上
局1から衛星2に送信出力される際のデータの一例を示
している。前述したように、この図に示す各データは実
際には時間軸多重化されているものである。また、この
図では、図6に示すように、時刻t1から時刻t2の間
が1つのイベントとされ、時刻t2から次のイベントと
される。イベントとは、例えば音楽番組のチャンネルで
あれば、複数楽曲のラインナップの組を変更する単位で
あり、時間的には30分或いは1時間程度となる。図6
に示すように、時刻t1から時刻t2のイベントでは、
通常の動画の番組放送で、所定の内容A1を有する番組
が放送されている。また、時刻t2から始めるイベント
では、内容A2としての番組が放送されている。この通
常の番組で放送されているのは動画と音声である。1-4. Transmission Format Next, a transmission format according to an embodiment defined based on the DSM-CC scheme will be described. FIG. 6 shows an example of data transmitted and output from the ground station 1 to the satellite 2. As described above, each data shown in this figure is actually time axis multiplexed. Also, in this figure, as shown in FIG. 6, one event is from time t1 to time t2, and the next event is from time t2. An event is, for example, a unit for changing a set of a lineup of a plurality of music pieces in the case of a channel of a music program, and is temporally about 30 minutes or 1 hour. FIG.
As shown in the above, in the event from time t1 to time t2,
A program having a predetermined content A1 is broadcast in a normal moving image program broadcast. In the event starting from time t2, a program as content A2 is being broadcast. What is broadcast in this ordinary program is moving images and audio.
【0059】MPEGオーディオチャンネル(1)〜
(10)は、例えば、チャンネルCH1からCH10の
10チャンネル分用意される。このとき、各オーディオ
チャンネルCH1,CH2,CH3・・・・CH10で
は、1つのイベントが放送されている間は同一楽曲が繰
り返し送信される。つまり、時刻t1〜t2のイベント
の期間においては、オーディオチャンネルCH1では楽
曲B1が繰り返し送信され、オーディオチャンネルCH
2では楽曲C1が繰り返し送信され、以下同様に、オー
ディオチャンネルCH10では楽曲K1が繰り返し送信
されることになる。これは、その下に示されている4倍
速ATRACオーディオチャンネル(1)〜(10)に
ついても共通である。MPEG audio channels (1) to
(10) is prepared, for example, for ten channels CH1 to CH10. At this time, the same music is repeatedly transmitted on each of the audio channels CH1, CH2, CH3,..., CH10 while one event is being broadcast. That is, during the event period from time t1 to time t2, the music B1 is repeatedly transmitted on the audio channel CH1, and the audio channel CH1 is transmitted.
2, the music C1 is repeatedly transmitted, and similarly, the music K1 is repeatedly transmitted on the audio channel CH10. This is common to the quadruple-speed ATRAC audio channels (1) to (10) shown below.
【0060】つまり、図6において、MPEGオーディ
オチャンネルと4倍速ATRACオーディオチャンネル
のチャンネル番号である( )内の数字が同じものは同
じ楽曲となる。また、音声付加情報のチャンネル番号で
ある( )内の数字は、同じチャンネル番号を有するオ
ーディオデータに付加されている音声付加情報である。
更に、GUIデータとして伝送される静止画データやテ
キストデータも各チャンネルごとに形成されるものであ
る。これらのデータは、図7A〜図7Dに示すようにM
PEG2のトランスポートパケット内で時分割多重され
て送信され、図7E〜図7Hに示すようにしてIRD1
2内では各データパケットのヘッダ情報を用いて再構築
される。That is, in FIG. 6, those having the same number in parentheses which are the channel numbers of the MPEG audio channel and the 4 × ATRAC audio channel are the same music. The number in parentheses, which is the channel number of the additional audio information, is the additional audio information added to the audio data having the same channel number.
Still image data and text data transmitted as GUI data are also formed for each channel. These data are represented by M as shown in FIGS. 7A to 7D.
It is time-division multiplexed and transmitted in the transport packet of PEG2, and IRD1 is transmitted as shown in FIGS.
In 2, data is reconstructed using the header information of each data packet.
【0061】また、図6および図7に示した送信データ
のうち、少なくとも、データサービス(TV放送(また
はオーディオ放送)に同期したMHEGコンテンツの放
送、またはインタラクティブ放送)に利用されるGUI
データは、DSM−CC方式に則って論理的には次のよ
うにして形成されるものである。ここでは、DSM−C
Cエンコーダ44から出力されるトランスポートストリ
ームのデータに限定して説明する。Further, of the transmission data shown in FIGS. 6 and 7, at least a GUI used for a data service (broadcast of MHEG content synchronized with TV broadcast (or audio broadcast) or interactive broadcast).
The data is logically formed as follows according to the DSM-CC system. Here, DSM-C
The description is limited to the data of the transport stream output from the C encoder 44.
【0062】図8Aに示すように、DSM−CC方式に
よって伝送される一実施形態のデータ放送サービスは、
Service Gatewayという名称のルートデ
ィレクトリの中に全て含まれる。ServiceGat
ewayに含まれるオブジェクトとしては、ディレクト
リ(Directory),ファイル(File),ス
トリーム(Stream),ストリームイベント(St
ream Event)などの種類が存在する。As shown in FIG. 8A, the data broadcasting service of one embodiment transmitted by the DSM-CC system is as follows.
It is all contained in the root directory named Service Gateway. ServiceGat
The objects included in the “eway” include a directory (Directory), a file (File), a stream (Stream), and a stream event (St).
There is a type such as “ream event”.
【0063】これらのうち、ファイルは静止画像、音
声、テキスト、更にはMHEGにより記述されたスクリ
プトなどの個々のデータファイルとされる。ストリーム
は例えば、他のデータサービスやAVストリーム(TV
番組素材としてのMPEGビデオデータ、オーディオデ
ータ、楽曲素材としてのMPEGオーディオデータ、A
TRACオーディオデータ等)にリンクする情報が含ま
れる。また、ストリームイベントは、同じくリンクの情
報と時刻情報が含まれる。ディレクトリは相互に関連す
るデータをまとめるフォルダである。そして、DSM−
CC方式では、図8Bに示すようにして、これらの単位
情報とService Gatewayをそれぞれオブ
ジェクトという単位と捉え、それぞれをBIOPメッセ
ージという形式に変換する。Of these, the files are individual data files such as still images, sounds, texts, and scripts described in MHEG. The stream is, for example, another data service or an AV stream (TV
MPEG video data and audio data as program material, MPEG audio data as music material, A
TRAC audio data). The stream event also includes link information and time information. A directory is a folder that stores related data. And DSM-
In the CC system, as shown in FIG. 8B, the unit information and the Service Gateway are each regarded as a unit called an object, and each is converted into a format of a BIOP message.
【0064】なお、この発明に関わる説明では、ファイ
ル,ストリーム,ストリームイベントの3つのオブジェ
クトの区別は本質的なものではないので、以下の説明で
はこれらをファイルとしてのオブジェクトに代表させて
説明する。In the description relating to the present invention, the distinction between the three objects of file, stream, and stream event is not essential. Therefore, in the following description, these objects will be described by representing the object as a file.
【0065】そして、DSM−CC方式では、図8Cに
示すモジュールといわれるデータ単位を生成する。この
モジュールは、図8Bに示したBIOPメッセージ化さ
れたオブジェクトを1つ以上含むようにされたうえで、
BIOPヘッダが付加されて形成される可変長のデータ
単位であり、後述する受信側における受信データのバッ
ファリング単位となる。また、DSM−CC方式では、
1モジュールを複数のオブジェクトにより形成する場合
の、オブジェクト間の関係については特に規定、制限は
されていない。極端なことをいえば、全く関係の無いシ
ーン間における2以上のオブジェクトにより1モジュー
ルを形成したとしても、DSM−CC方式のもとでの規
定に何ら違反するものではない。In the DSM-CC system, a data unit called a module shown in FIG. 8C is generated. This module includes one or more objects converted into BIOP messages shown in FIG.
This is a variable-length data unit formed by adding a BIOP header, and serves as a buffering unit for received data on the receiving side described later. In the DSM-CC system,
When one module is formed by a plurality of objects, the relationship between the objects is not particularly defined or limited. At the extreme, even if one module is formed by two or more objects between completely unrelated scenes, it does not violate the rules under the DSM-CC system.
【0066】このモジュールは、MPEG2フォーマッ
トにより規定されるセクションといわれる形式で伝送す
るために、図8Dに示すように、「ブロック」といわれ
る原則固定長のデータ単位に分割される。但し、モジュ
ールにおける最後のブロックについては規定の固定長で
ある必要はないものとされている。このように、ブロッ
ク分割を行うのはMPEG2フォーマットにおいて、1
セクションが4KBを越えてはならないという規定があ
ることに起因する。この場合には、ブロックとしてのデ
ータ単位と、セクションとは同義なものとなる。このよ
うにしてモジュールを分割して得たブロックは、図8E
に示すようにしてヘッダが付加されてDDB(Download
Data Block) というメッセージの形式に変換される。This module is divided into data units of a fixed length in principle called "blocks", as shown in FIG. 8D, for transmission in a format called a section defined by the MPEG2 format. However, the last block in the module does not need to have a prescribed fixed length. As described above, the block division is performed in the MPEG2 format by 1
This is due to the provision that the section must not exceed 4 KB. In this case, the data unit as a block and the section are synonymous. The block obtained by dividing the module in this way is shown in FIG.
The header is added as shown in
Data Block).
【0067】また、DDBへの変換と並行して、DSI
(Download Server Initiate)およびDII(Download In
dication Information) という制御メッセージが生成さ
れる。DSIおよびDIIは、受信側(IRD12)で
受信データからモジュールを取得する際に必要となる情
報であり、DSIは、主として、次に説明するカルーセ
ル(モジュール)の識別子、カルーセル全体に関連する
情報(カルーセルが1回転する時間、カルーセル回転の
タイムアウト値)等の情報を有する。また、データサー
ビスのルートディレクトリ(Service Gate
way)の所在を知るための情報も有する(オブジェク
トカルーセル方式の場合)。DIIは、カルーセルに含
まれるモジュールごとに対応する情報であり、モジュー
ルごとのサイズ、バージョン、そのモジュールのタイム
アウト値などの情報を有する。In parallel with the conversion to DDB, the DSI
(Download Server Initiate) and DII (Download In
dication Information) is generated. The DSI and DII are information required when the receiving side (IRD 12) acquires a module from received data. The DSI is mainly an identifier of a carousel (module) to be described below, and information related to the entire carousel ( The information includes information such as the time required for the carousel to make one rotation and a timeout value for the carousel rotation. In addition, the root directory of the data service (Service Gate)
(way) is also known (in the case of the object carousel method). DII is information corresponding to each module included in the carousel, and includes information such as the size and version of each module and a timeout value of the module.
【0068】そして、図8Fに示すように、DDB、D
SI、DIIの3種類のメッセージをセクションのデー
タ単位に対応させて周期的に、かつ、繰り返し送出する
ようにされる。これにより、受信機側では、目的のGU
I画面(シーン)を得るのに必要なオブジェクトが含ま
れているモジュールをいつでも受信できるようにされ
る。本明細書では、このような伝送方式を回転木馬に例
えて「カルーセル方式」といい、図8Fに示すようにし
て模式的に表されるデータ伝送形態をカルーセルという
ものとする。Then, as shown in FIG. 8F, DDB, DDB
The three types of messages, SI and DII, are transmitted periodically and repeatedly according to the data unit of the section. As a result, on the receiver side, the target GU
A module including objects necessary for obtaining an I-screen (scene) can be received at any time. In the present specification, such a transmission system is referred to as a carousel system by comparing it to a carousel, and a data transmission form schematically represented as shown in FIG. 8F is referred to as a carousel.
【0069】1カルーセルに含まれるモジュールとして
は複数とされて構わない。例えば、1カルーセルにより
1つのデータサービスに必要な複数のモジュールを伝送
するようにしても良い。また、「カルーセル方式」とし
ては、「データカルーセル方式」のレベルと「オブジェ
クトカルーセル方式」のレベルとに分けられる。特にオ
ブジェクトカルーセル方式では、ファイル、ディレクト
リ、ストリーム、サービスゲートウェイなどの属性を持
つオブジェクトをデータとしてカルーセルを用いて転送
する方式で、ディレクトリ構造を扱えることがデータカ
ルーセル方式と大きく異なる。一実施形態では、オブジ
ェクトカルーセル方式を採用するものとされる。A plurality of modules may be included in one carousel. For example, a plurality of modules required for one data service may be transmitted by one carousel. The “carousel method” is divided into a “data carousel method” level and an “object carousel method” level. In particular, the object carousel method is a method in which objects having attributes such as files, directories, streams, and service gateways are transferred as data using the carousel, and is largely different from the data carousel method in that the directory structure can be handled. In one embodiment, the object carousel method is adopted.
【0070】図9に、MHEG方式に則ったデータサー
ビスとしてのファイル(MHEGapplicatio
nfile)のディレクトリ構造例を示す。上述のよう
にオブジェクトカルーセル方式は、このディレクトリ構
造を扱えることに特徴を有する。通常、Service
Domainの入り口となる(MHEGapplic
ationfile)は、必ず、Service Ga
tewayの直下にある、app0/startupと
いうファイルとなる。基本的には、Service D
omain(Service Gateway)の下に
application directory(app
0,app1・・・appN)があり、その下にsta
rtupといわれるアプリケーション・ファイルと、a
pplicationを構成する各sceneのdir
ectory(scene0,scene1・・・)が
あるようにされる。更にscene director
yの下には、MHEG scene fileとsce
neを構成する各content fileがおかれる
こととしている。FIG. 9 shows a file (MHEGApplicatio) as a data service according to the MHEG method.
3 shows an example of a directory structure of “file”. As described above, the object carousel method is characterized in that it can handle this directory structure. Usually Service
Domain entrance (MHEGApplic
) is always Service Ga
This is a file called app0 / startup immediately below “tway”. Basically, Service D
application directory (app) under "main" (Service Gateway).
0, app1... AppN), under which
application file called rtup and a
dir of each scene that constitutes the application
ect. (scene0, scene1...). In addition, the scene director
Below y, MHEG scene file and sce
It is assumed that each content file constituting ne is placed.
【0071】上述したように、カルーセルにより送信さ
れるGUIデータを含む放送用のデータ、つまり、図5
のマルチプレクサ45から出力されるデータとしては、
トランスポートストリームの形態により出力される。こ
のトランスポートストリームは、例えば図10に示す構
造を有する。図10Aには、トランスポートストリーム
が示されている。このトランスポートストリームとはM
PEGシステムで定義されているビット列であり、図の
ように188バイトの固定長パケット(トランスポート
パケット)の連結により形成される。各トランスポート
パケットは、図10Bに示すように、ヘッダと特定の個
別パケットに付加情報を含めるためのアダプテーション
フィールドとパケットの内容(ビデオ/オーディオデー
タ等)を表すペイロード(データ領域)とからなる。As described above, the broadcast data including the GUI data transmitted by the carousel, that is, FIG.
The data output from the multiplexer 45 of
It is output in the form of a transport stream. This transport stream has, for example, the structure shown in FIG. FIG. 10A shows a transport stream. This transport stream is M
This is a bit string defined in the PEG system, and is formed by concatenation of fixed-length packets (transport packets) of 188 bytes as shown in the figure. As shown in FIG. 10B, each transport packet includes a header, an adaptation field for including additional information in a specific individual packet, and a payload (data area) indicating the content of the packet (eg, video / audio data).
【0072】ヘッダは、例えば実際には4バイトとさ
れ、図10Cに示すように、先頭には必ず同期バイトが
あるようにされ、これより後ろの所定位置にそのパケッ
トの識別情報であるPID(Packet_ID)、ス
クランブルの有無を示すスクランブル制御情報、後続す
るアダプテーションフィールドやペイロードの有無等を
示すアダプテーションフィールド制御情報が格納されて
いる。The header is actually 4 bytes, for example. As shown in FIG. 10C, there is always a synchronization byte at the beginning, and a PID (PID) which is identification information of the packet is provided at a predetermined position after the synchronization byte. Packet_ID), scramble control information indicating the presence / absence of scramble, and adaptation field control information indicating the presence / absence of a subsequent adaptation field and payload are stored.
【0073】これらの制御情報に基づいて、受信装置側
ではパケット単位でデスクランブルを行い、また、デマ
ルチプレクサによりビデオ/オーディオ/データ等の必
要パケットの分離・抽出を行うことができる。また、ビ
デオ/オーディオの同期再生の基準となる時刻情報を再
生することもここで行うことができる。Based on these pieces of control information, the receiving apparatus can descramble packets in packet units, and can use a demultiplexer to separate and extract necessary packets such as video / audio / data. In addition, time information serving as a reference for synchronous reproduction of video / audio can be reproduced here.
【0074】これまでの説明から分かるように、1つの
トランスポートストリームには複数チャンネル分の映像
/音声/データのパケットが多重されているが、それ以
外にPSI(Program Specific Information)といわれる
選局を司るための信号や、限定受信(個人の契約状況に
より有料チャンネルの受信可不可を決定する受信機能)
に必要な情報(EMM/ECM)、EPGなどのサービ
スを実現するためのSI(Service Information) が同時
に多重されている。As can be seen from the above description, a single transport stream has multiplexed video / audio / data packets for a plurality of channels, but other than that, a channel selection called PSI (Program Specific Information) Signal to control communication and limited reception (reception function that determines whether or not paid channels can be received depending on individual contract status)
(EMM / ECM) and SI (Service Information) for implementing services such as EPG are simultaneously multiplexed.
【0075】PSIは、図11に示すようにして、4つ
のテーブルで構成されている。それぞれのテーブルは、
セクション形式というMPEG Systemに準拠し
た形式で表されている。図11Aには、NIT(Network
Informataion Table)およびCAT(Conditional Acces
s Table)のテーブルが示されている。NITは、全キャ
リアに同一内容が多重されている。キャリアごとの伝送
諸元(偏波面、キャリア周波数、畳み込みレート等)
と、そこに多重されているチャンネルのリストが記述さ
れている。NITのPIDとしては、PID=0x0010と
されている。0xは、16進数を示すための表記である。
CATもまた、全キャリアに同一内容が多重される。限
定受信方式の識別と契約情報等の個別情報であるEMM
(Entitlement Management Message)パケットのPIDが
記述されている。PID=0x0001とされる。The PSI is composed of four tables as shown in FIG. Each table is
It is expressed in a section format, which is compliant with the MPEG System. FIG. 11A shows NIT (Network
Informataion Table) and CAT (Conditional Acces
s Table) is shown. In the NIT, the same content is multiplexed on all carriers. Transmission specifications for each carrier (polarization plane, carrier frequency, convolution rate, etc.)
And a list of channels multiplexed there. The PID of the NIT is PID = 0x0010. 0x is a notation for indicating a hexadecimal number.
The CAT also has the same content multiplexed on all carriers. EMM as individual information such as identification of conditional access system and contract information
(Entitlement Management Message) The PID of the packet is described. PID = 0x0001 is set.
【0076】図11Bには、キャリアごとに固有の内容
を有する情報として、PATが示される。PATには、
そのキャリア内のチャンネル情報と、各チャンネルの内
容を表すPMTのPIDが記述されている。PID=0x
0000とされる。FIG. 11B shows PAT as information having specific contents for each carrier. In PAT,
Channel information in the carrier and a PMT PID indicating the contents of each channel are described. PID = 0x
It is assumed to be 0000.
【0077】キャリアにおけるチャンネルごとの情報と
して、図11Cに示すPMT(Program Map Table) のテ
ーブルを有する。PMTは、チャンネル別の内容が多重
されている。例えば、図11Dに示すような、各チャン
ネルを構成するコンポーネント(ビデオ/オーディオ
等)と、デスクランブルに必要なECM(Encryption Co
ntrol Message)パケットのPIDが記述されているPM
TのPIDは、PATにより指定される。As information for each channel in the carrier, there is a PMT (Program Map Table) table shown in FIG. 11C. In the PMT, contents for each channel are multiplexed. For example, as shown in FIG. 11D, components (video / audio, etc.) configuring each channel and an ECM (Encryption Co.) required for descrambling.
ntrol Message) PM in which the PID of the packet is described
The PID of T is specified by PAT.
【0078】SIは、図示を省略するが、PSIと同様
にセクション形式のテーブルとされ、ここにEPGに関
する情報が記述される。IRD側では、このテーブルか
ら必要とされる情報を抽出して画面上に表示するように
されている。このSIの代表的なテーブルとしては、S
DT(Service Description Table) とEIT(Event Inf
ormation Table) が挙げられる。SDTは、チャンネル
情報を表すもので、チャンネル番号、チャンネル名、チ
ャンネル内容等が記述される。PID=0x0011とされ
る。EITは、番組情報を表すもので、番組名、番組開
始時刻、番組のあらすじ、ジャンル等が記述されてい
る。PID=0x0012とされる。Although not shown, the SI is a table in the form of a section similar to the PSI, in which information relating to the EPG is described. On the IRD side, necessary information is extracted from this table and displayed on the screen. As a typical table of this SI, S
DT (Service Description Table) and EIT (Event Inf
ormation Table). The SDT represents channel information, and describes a channel number, a channel name, channel contents, and the like. PID = 0x0011 is set. The EIT indicates program information, and describes a program name, a program start time, a synopsis of a program, a genre, and the like. PID is set to 0x0012.
【0079】1−5.IRD 受信設備3に備えられるIRD12の一例について図1
2を参照して説明する。図12に示すIRD12におい
て、入力端子T1には、パラボラアンテナ11のLNB
15により所定の周波数に変換された受信信号を入力し
てチューナ/フロントエンド部51に供給する。チュー
ナ/フロントエンド部51では、CPU(Central Proce
ssing Unit) 80からの伝送諸元等を設定した設定信号
に基づいて、この設定信号により決定されるキャリア
(受信周波数)を受信して、例えばビタビ復調処理や誤
り訂正処理等を施すことで、トランスポートストリーム
を得るようにされる。1-5. FIG. 1 shows an example of the IRD 12 provided in the IRD receiving facility 3.
This will be described with reference to FIG. In the IRD 12 shown in FIG. 12, the LNB of the parabolic antenna 11 is connected to the input terminal T1.
The received signal converted into a predetermined frequency by 15 is input and supplied to the tuner / front end unit 51. In the tuner / front end unit 51, a CPU (Central
ssing Unit) Based on a setting signal in which transmission specifications and the like are set from 80, a carrier (reception frequency) determined by the setting signal is received and subjected to, for example, Viterbi demodulation processing and error correction processing. Get the transport stream.
【0080】チューナ/フロントエンド部51にて得ら
れたトランスポートストリームは、デスクランブラ52
に対して供給される。また、チューナ/フロントエンド
部51では、トランスポートストリームからPSIのパ
ケットを取得し、その選局情報を更新すると共に、トラ
ンスポートストリームにおける各チャンネルのコンポー
ネントPIDを得て、例えばCPU80に伝送する。C
PU80では、取得したPIDを受信信号処理に利用す
ることになる。デスクランブラ52では、ICカード6
5に記憶されているデスクランブルキーデータをCPU
80を介して受け取ると共に、CPU80によりPID
が設定される。そして、このデスクランブルキーデータ
とPIDとに基づいてデスクランブル処理を実行し、ト
ランスポート部53に対して伝送する。The transport stream obtained by the tuner / front end unit 51 is transmitted to a descrambler 52.
Supplied to Further, the tuner / front end unit 51 obtains a PSI packet from the transport stream, updates the channel selection information, obtains the component PID of each channel in the transport stream, and transmits it to, for example, the CPU 80. C
In the PU 80, the acquired PID is used for the reception signal processing. In the descrambler 52, the IC card 6
5 stores the descramble key data stored in the CPU 5
80, and the CPU 80
Is set. Then, a descrambling process is performed based on the descrambling key data and the PID, and transmitted to the transport unit 53.
【0081】トランスポート部53は、デマルチプレク
サ70と、例えばDRAM等により構成されるキュー
(Queue)71とからなる。キュー71は、モジュール単
位に対応した複数のメモリ領域が列となるようにして形
成されているものとされ、例えば32列のメモリ領域が
備えられる。つまり、最大で32モジュールの情報を同
時に格納することができる。The transport section 53 comprises a demultiplexer 70 and a queue 71 composed of, for example, a DRAM. The queue 71 is formed such that a plurality of memory areas corresponding to each module are arranged in a row, and includes, for example, 32 rows of memory areas. That is, information of up to 32 modules can be stored simultaneously.
【0082】デマルチプレクサ70の概略的動作として
は、CPU80のデマルチプレクサドライバ82により
設定されたフィルタ条件に従って、デスクランブラ52
から供給されたトランスポートストリームから必要なト
ランスポートパケットを分離し、必要があればキュー7
1を作業領域として利用して、先に図7E〜図7Hによ
り示したような形式のデータを得て、それぞれ必要な機
能回路部に対して供給する。The general operation of the demultiplexer 70 is as follows: the descrambler 52 according to the filter conditions set by the demultiplexer driver 82 of the CPU 80.
Necessary transport packets are separated from the transport stream supplied from the
1 is used as a work area, data in a format as shown in FIGS. 7E to 7H is obtained, and supplied to necessary functional circuit units.
【0083】デマルチプレクサ70にて分離されたMP
EGビデオデータは、MPEG2ビデオデコーダ55に
対して入力され、MPEGオーディオデータは、MPE
Gオーディオデコーダ54に対して入力される。これら
デマルチプレクサ70により分離されたMPEGビデオ
/オーディオデータの個別パケットは、PES(Packeti
zed Elementary Stream)と呼ばれる形式でそれぞれのデ
コーダに入力される。The MP separated by the demultiplexer 70
The EG video data is input to the MPEG2 video decoder 55, and the MPEG audio data is
Input to the G audio decoder 54. The individual packets of the MPEG video / audio data separated by the demultiplexer 70 are PES (Packeti
zed Elementary Stream) is input to each decoder.
【0084】トランスポートストリームにおけるMHE
Gコンテンツのデータについては、デマルチプレクサ7
0によりトランスポートストリームからトランスポート
パケット単位で分離抽出されながらキュー71の所要の
メモリ領域に書き込まれていくことで、モジュール単位
にまとめられるようにして形成される。そして、このモ
ジュール単位にまとめられたMHEGコンテンツのデー
タは、CPU80の制御によってデータバスを介して、
メインメモリ90内のDSM−CCバッファ91に書き
込まれて保持される。MHE in Transport Stream
For the data of the G content, the demultiplexer 7
0 is written in a required memory area of the queue 71 while being separated and extracted from the transport stream in units of transport packets, thereby being formed in units of modules. Then, the data of the MHEG content collected in the module unit is controlled via the data bus under the control of the CPU 80.
The data is written and held in the DSM-CC buffer 91 in the main memory 90.
【0085】トランスポートストリームにおける4倍速
ATRACデータ(圧縮オーディオデータ)も、例えば
トランスポートパケット単位で必要なデータがデマルチ
プレクサ70により分離抽出されてIEEE1394イ
ンターフェイス60に対して出力される。IEEE13
94インターフェイス60を介した場合には、オーディ
オディオデータの他、ビデオデータおよび各種コマンド
信号等を送出することも可能とされる。[0086] The quadruple speed ATRAC data (compressed audio data) in the transport stream is also separated and extracted by the demultiplexer 70 in, for example, a transport packet unit and output to the IEEE 1394 interface 60. IEEE13
Through the 94 interface 60, video data and various command signals can be transmitted in addition to audio audio data.
【0086】PESとしての形式によるMPEGビデオ
データが入力されたMPEG2ビデオデコーダ55で
は、メモリ55Aを作業領域として利用しながらMPE
G2フォーマットに従って復号化処理を施す。復号化さ
れたビデオデータは、表示処理部58に供給される。In the MPEG2 video decoder 55 to which the MPEG video data in the PES format has been input, the MPEG5 video decoder 55
The decoding process is performed according to the G2 format. The decoded video data is supplied to the display processing unit 58.
【0087】表示処理部58には、MPEG2ビデオデ
コーダ55から入力されたビデオデータと、後述するよ
うにしてメインメモリ90のMHEGバッファ92にて
得られるデータサービス用のGUI画面等のビデオデー
タが入力される。表示処理部58では、このようにして
入力されたビデオデータについて所要の信号処理を施し
て、所定のテレビジョン方式によるアナログオーディオ
信号に変換してアナログビデオ出力端子T2に対して出
力する。これにより、アナログビデオ出力端子T2とモ
ニタ装置14のビデオ入力端子とを接続することで、例
えば先に図4に示したような表示が行われる。The display processor 58 receives video data input from the MPEG2 video decoder 55 and video data such as a data service GUI screen obtained in the MHEG buffer 92 of the main memory 90 as described later. Is done. The display processing unit 58 performs necessary signal processing on the video data thus input, converts the video data into an analog audio signal according to a predetermined television system, and outputs the analog audio signal to the analog video output terminal T2. Thus, by connecting the analog video output terminal T2 and the video input terminal of the monitor device 14, for example, the display as shown in FIG. 4 is performed.
【0088】PESによるMPEGオーディオデータが
入力されるMPEG2オーディオデコーダ54は、メモ
リ54Aを作業領域として利用しながらMPEG2フォ
ーマットに従って復号化処理を施す。復号化されたオー
ディオデータは、D/Aコンバータ56および光ディジ
タル出力インターフェイス59に対して供給される。The MPEG2 audio decoder 54 to which the MPEG audio data by PES is input performs a decoding process according to the MPEG2 format while using the memory 54A as a work area. The decoded audio data is supplied to the D / A converter 56 and the optical digital output interface 59.
【0089】D/Aコンバータ56は、入力されたオー
ディオデータについてアナログ音声信号に変換してスイ
ッチ回路57に出力する。スイッチ回路57は、アナロ
グオーディオ出力端子T3またはT4の何れか一方に対
してアナログ音声信号を出力するように信号経路の切換
を行う。アナログオーディオ出力端子T3は、モニタ装
置14の音声入力端子と接続されるために設けられてい
る。アナログオーディオ出力端子T4はダウンロードし
た楽曲をアナログ信号により出力するための端子とされ
る。光ディジタル出力インターフェイス59では、入力
されたディジタルオーディオデータを光ディジタル信号
に変換して出力する。光ディジタル出力インターフェイ
ス59は、例えばIEC958に準拠する。The D / A converter 56 converts the input audio data into an analog audio signal and outputs the analog audio signal to the switch circuit 57. The switch circuit 57 switches a signal path so as to output an analog audio signal to one of the analog audio output terminals T3 and T4. The analog audio output terminal T3 is provided to be connected to the audio input terminal of the monitor device 14. The analog audio output terminal T4 is a terminal for outputting the downloaded music by an analog signal. The optical digital output interface 59 converts the input digital audio data into an optical digital signal and outputs it. The optical digital output interface 59 conforms to, for example, IEC958.
【0090】メインメモリ90は、CPU80が各種制
御処理を行う際の作業領域として利用されるものであ
る。そして、このメインメモリ90において、前述した
DSM−CCバッファ91と、MHEGバッファ92と
しての領域が割り当てられる。MHEGバッファ92
は、MHEG方式によるスクリプトの記述に従って生成
された画像データ(例えばGUI画面の画像データ)を
生成するための作業領域とされ、ここで生成された画像
データはバスラインを介して表示処理部58に供給され
る。The main memory 90 is used as a work area when the CPU 80 performs various control processes. In the main memory 90, areas as the DSM-CC buffer 91 and the MHEG buffer 92 described above are allocated. MHEG buffer 92
Is a work area for generating image data (for example, image data of a GUI screen) generated according to the description of the script in the MHEG method, and the generated image data is sent to the display processing unit 58 via a bus line. Supplied.
【0091】CPU80は、IRD12における全体制
御を実行する。このなかには、デマルチプレクサ70に
おけるデータ分離抽出についての制御も含まれる。ま
た、獲得したMHEGコンテンツのデータについてデコ
ード処理を施すことで、スクリプトの記述内容に従って
GUI画面(シーン)を構成して出力するための処理も
実行する。The CPU 80 executes the overall control in the IRD 12. This includes control on data separation and extraction in the demultiplexer 70. Further, by performing decoding processing on the acquired MHEG content data, processing for configuring and outputting a GUI screen (scene) according to the description content of the script is also executed.
【0092】このため、CPU80としては、主たる制
御処理を実行する制御処理部81に加え、例えば少なく
とも、デマルチプレクサドライバ82、DSM−CCデ
コーダブロック83、およびMHEGデコーダブロック
84が備えられる。一実施形態では、このうち、少なく
ともDSM−CCデコーダブロック83およびMHEG
デコーダブロック84については、ソフトウェアにより
構成される。デマルチプレクサドライバ82は、入力さ
れたトランスポートストリームのPIDに基づいてデマ
ルチプレクサ70におけるフィルタ条件を設定する。D
SM−CCデコーダブロック83は、DSM−Mana
gerとしての機能を有するものであり、DSM−CC
バッファ91に格納されているモジュール単位のデータ
について、MHEGコンテンツのデータに再構築する。
また、MHEGデコーダブロック84からのアクセスに
従って所要のDSM−CCデコード等に関連する処理を
実行する。For this reason, the CPU 80 includes, for example, at least a demultiplexer driver 82, a DSM-CC decoder block 83, and an MHEG decoder block 84 in addition to a control processing section 81 for executing main control processing. In one embodiment, at least the DSM-CC decoder block 83 and the MHEG
The decoder block 84 is configured by software. The demultiplexer driver 82 sets a filter condition in the demultiplexer 70 based on the PID of the input transport stream. D
The SM-CC decoder block 83 includes a DSM-Mana
It has a function as a ger, and has a DSM-CC
The module unit data stored in the buffer 91 is reconstructed into MHEG content data.
Further, according to the access from the MHEG decoder block 84, a process related to a required DSM-CC decoding or the like is executed.
【0093】MHEGデコーダブロック84は、DSM
−CCデコーダブロック83により得られたMHEGコ
ンテンツのデータ、つまり、DSM−CCバッファ91
のMHEGコンテンツのデータにアクセスして、シーン
出力のためのデコード処理を行う。つまり、そのMHE
Gコンテンツのスクリプトファイルにより規定されてい
るオブジェクト間の関係を実現していくことで、シーン
を形成するものである。この際、シーンとしてGUI画
面を形成するのにあたっては、MHEGバッファ92を
利用して、ここで、スクリプトファイルの内容に従って
GUI画面の画像データを生成するようにされる。The MHEG decoder block 84 has a DSM
-Data of the MHEG content obtained by the CC decoder block 83, that is, the DSM-CC buffer 91
MHEG content data is accessed to perform decoding processing for scene output. That is, the MHE
A scene is formed by realizing the relationship between objects defined by the G content script file. At this time, when forming a GUI screen as a scene, the MHEG buffer 92 is used to generate image data of the GUI screen according to the contents of the script file.
【0094】DSM−CCデコーダブロック83および
MHEGデコーダブロック84間のインターフェイスに
は、U−U API(DSM−CC U−U API(A
pplication Portability Interface) )が採用される。
U−U APIは、例えばクライアント(MHEGデコ
ーダブロック84)側がDSM Managerオブジ
ェクト(DSMの機能を実現するサーバオブジェクト;
DSM−CCデコーダブロック83)にアクセスするた
めのインターフェイスであり、カルーセルに含まれるS
erviceGateway,Directory,F
ile,Stream,Stream Eventなど
の属性を有するオブジェクトをファイルシステムのよう
にして構造的にアクセスすることができるようにしたA
PIとされる。このAPIを通じてカルーセルに含まれ
るオブジェクトへのアクセスを行うことで、カルーセル
を使用するプログラム(クライアント)がカルーセル受
信動作を関知することなく、バス名を使用してオブジェ
クトにアクセスすることが可能になる。また、このU−
U APIは、下層のデータ転送方式に関わらず利用す
ることができるように規定されたインターフェイスの集
合であることから、このAPIを利用するプログラム
は、U−U APIを提供するどのようなデータ転送方
式においても利用できるという利点を有する。The interface between the DSM-CC decoder block 83 and the MHEG decoder block 84 has a UU API (DSM-CC UU API (A
pplication Portability Interface)).
The UU API is, for example, a client (MHEG decoder block 84) side in which a DSM Manager object (a server object that implements the function of DSM;
This is an interface for accessing the DSM-CC decoder block 83).
serviceGateway, Directory, F
A that allows objects having attributes such as file, stream, and stream event to be structurally accessed like a file system
PI. By accessing an object included in the carousel through this API, a program (client) using the carousel can access the object using the bus name without knowing the carousel reception operation. Also, this U-
The U API is a set of interfaces defined so that it can be used regardless of the data transfer method of the lower layer. Therefore, a program that uses this API can use any data transfer that provides the U-U API. It has the advantage that it can be used in a system.
【0095】ここで、CPU80の制御によりトランス
ポートストリームから1シーンを形成するのに必要な目
的のオブジェクトを抽出するための動作例について説明
する。Here, an operation example for extracting a target object necessary to form one scene from a transport stream under the control of the CPU 80 will be described.
【0096】DSM−CCでは、トランスポートストリ
ーム中のオブジェクトの所在を示すのにIOR(Interop
erable Object Reference)が使用される。IORには、
オブジェクトを見つけ出すためのカルーセルに対応する
識別子、オブジェクトの含まれるモジュールの識別子
(以下module_idと表記)、1つのモジュール
中でオブジェクトを特定する識別子(以下object
_keyと表記)のほかに、オブジェクトの含まれるモ
ジュールの情報を持つDIIを識別するためのタグ(a
ssociation_tag)情報を含んでいる。ま
た、モジュール情報を持つDIIには、1つ以上のモジ
ュールそれぞれについてのmodule_id、モジュ
ールの大きさ、バージョンといった情報と、そのモジュ
ールを識別するためのタグ(association_
tag)情報を含んでいる。In DSM-CC, an IOR (Interop) is used to indicate the location of an object in a transport stream.
erable Object Reference) is used. In the IOR,
An identifier corresponding to a carousel for finding an object, an identifier of a module including the object (hereinafter, referred to as module_id), and an identifier for specifying an object in one module (hereinafter, object)
_Key) and a tag (a) for identifying a DII having information on a module including the object.
association_tag) information. In addition, the DII having module information includes information such as module_id, module size and version for each of one or more modules, and a tag (association_id) for identifying the module.
tag) information.
【0097】トランスポートストリームから抜き出され
たIORがCPU80において識別された場合に、その
IORで示されたオブジェクトを受信、分離して得るプ
ロセスは、次のようになる。When the IOR extracted from the transport stream is identified in the CPU 80, the process of receiving and separating the object indicated by the IOR is as follows.
【0098】(Pr1) CPU80のデマルチプレク
サドライバ82では、IORのassociation
_tagと同じ値を持つエレメンタリーストリーム(以
下ESと表記)を、カルーセルにおけるPMTのESル
ープから探し出してPIDを得る。このPIDを持つE
SにDIIが含まれている。(Pr1) In the demultiplexer driver 82 of the CPU 80, the IOR association
An elementary stream (hereinafter referred to as ES) having the same value as _tag is searched for from the ES loop of the PMT in the carousel to obtain a PID. E with this PID
S contains DII.
【0099】(Pr2) このPIDとtable_i
d_extensionとをフィルタ条件としてデマル
チプレクサ70に対して設定する。これにより、デマル
チプレクサ70では、DIIを分離してCPU80に対
して出力する。(Pr2) This PID and table_i
d_extension is set to the demultiplexer 70 as a filter condition. As a result, the demultiplexer 70 separates DII and outputs it to the CPU 80.
【0100】(Pr3) DIIの中で、先のIORに
含まれていたmodule_idに相当するモジュール
のassociation_tagを得る。(Pr3) In DII, an association_tag of a module corresponding to module_id included in the previous IOR is obtained.
【0101】(Pr4) association_t
agと同じ値を有するESを、PMTのESループ(カ
ルーセル)から探し出し、PIDを得る。このPIDを
有するESに目的とするモジュールが含まれる。(Pr4) association_t
An ES having the same value as ag is searched for from the ES loop (carousel) of the PMT to obtain a PID. The target module is included in the ES having this PID.
【0102】(Pr5) PIDとmodule_id
とをフィルタ条件として設定して、デマルチプレクサ7
0によるフィルタリングを行う。このフィルタ条件に適
合して分離抽出されたトランスポートパケットがキュー
71の所要のメモリ領域(列)に格納されていくこと
で、最終的には、目的のモジュールが形成される。(Pr5) PID and module_id
Are set as filter conditions, and the demultiplexer 7
Filtering by 0 is performed. By storing transport packets separated and extracted in accordance with the filter conditions in a required memory area (column) of the queue 71, a target module is finally formed.
【0103】(Pr6) 先のIORに含まれていたo
bject_keyに相当するオブジェクトをこのモジ
ュールから抜き出す。これが目的とするオブジェクトに
なる。このモジュールから抜き出されたオブジェクト
は、例えば、DSM−CCバッファ91の所定の領域に
書き込みが行われる。(Pr6) o included in the previous IOR
An object corresponding to bject_key is extracted from this module. This is the target object. The object extracted from this module is written in a predetermined area of the DSM-CC buffer 91, for example.
【0104】上述の動作を繰り返し、目的とするオブジ
ェクトを集めてDSM−CCバッファ91に格納してい
くことで、必要とされるシーンを形成するMHEGコン
テンツが得られることになる。By repeating the above operation and collecting the desired objects and storing them in the DSM-CC buffer 91, MHEG contents forming the required scene can be obtained.
【0105】マンマシンインターフェイス61では、リ
モートコントローラ64から送信されてきたコマンド信
号を受信してCPU80に対して伝送する。CPU80
では、受信したコマンド信号に応じた機器の動作が得ら
れるように、所要の制御処理を実行する。ICカードス
ロット62にはICカード65が挿入される。そして、
この挿入されたICカード65に対してCPU80によ
って情報の書き込みおよび読み出しが行われる。モデム
63は、電話回線4を介して課金サーバ5と接続されて
おり、CPU80の制御によってIRD12と課金サー
バ5との通信が行われるように制御される。The man-machine interface 61 receives the command signal transmitted from the remote controller 64 and transmits it to the CPU 80. CPU80
Then, necessary control processing is executed so that the operation of the device according to the received command signal is obtained. An IC card 65 is inserted into the IC card slot 62. And
Information is written to and read from the inserted IC card 65 by the CPU 80. The modem 63 is connected to the charging server 5 via the telephone line 4, and is controlled by the CPU 80 so that communication between the IRD 12 and the charging server 5 is performed.
【0106】上述した構成によるIRD12におけるビ
デオ/オーディオソースの信号の流れを、図4により説
明した表示形態に照らし合わせながら補足的に説明す
る。図4Aに示すようにして、通常の番組を出力する場
合には、入力されたトランスポートストリームから必要
な番組のMPEGビデオデータとMPEGオーディオデ
ータとが抽出されて、それぞれ復号化処理が施される。
そして、このビデオデータとMPEGオーディオデータ
が、それぞれアナログビデオ出力端子T2と、アナログ
オーディオ出力端子T3に出力されることで、モニタ装
置14では、放送番組の画像表示と音声出力が行われ
る。The signal flow of the video / audio source in the IRD 12 having the above configuration will be supplementarily described with reference to the display form described with reference to FIG. As shown in FIG. 4A, when a normal program is output, MPEG video data and MPEG audio data of a required program are extracted from the input transport stream, and are subjected to decoding processing. .
The video data and the MPEG audio data are output to the analog video output terminal T2 and the analog audio output terminal T3, respectively, so that the monitor device 14 performs image display and audio output of the broadcast program.
【0107】図4Bに示したGUI画面を出力する場合
には、入力されたトランスポートストリームから、この
GUI画面(シーン)に必要なMHEGコンテンツのデ
ータをトランスポート部53により分離抽出してDSM
−CCバッファ91に取り込む。そして、このデータを
利用して、前述したようにDSM−CCデコーダブロッ
ク83およびMHEGデコーダブロック84が機能する
ことで、MHEGバッファ92にてシーン(GUI画
面)の画像データが作成される。そして、この画像デー
タが表示処理部58を介してアナログビデオ出力端子T
2に供給されることで、モニタ装置14にはGUI画面
の表示が行われる。When outputting the GUI screen shown in FIG. 4B, the MHEG content data necessary for this GUI screen (scene) is separated and extracted by the transport unit 53 from the input transport stream, and the DSM is output.
-Take in the CC buffer 91. Using this data, the DSM-CC decoder block 83 and the MHEG decoder block 84 function as described above, so that the MHEG buffer 92 creates image data of a scene (GUI screen). Then, this image data is supplied to the analog video output terminal T via the display processing unit 58.
2, a GUI screen is displayed on the monitor device 14.
【0108】図4Bに示したGUI画面上で楽曲のリス
ト21Bにより楽曲が選択され、その楽曲のオーディオ
データを試聴する場合には、この楽曲のMPEGオーデ
ィオデータがデマルチプレクサ70により得られる。そ
して、このMPEGオーディオデータが、MPEGオー
ディオデコーダ54、D/Aコンバータ、スイッチ回路
57、アナログオーディオ出力端子T3を介してアナロ
グ音声信号とされてモニタ装置14に対して出力され
る。When a tune is selected from the tune list 21B on the GUI screen shown in FIG. 4B and the audio data of the tune is previewed, MPEG audio data of the tune is obtained by the demultiplexer 70. Then, the MPEG audio data is converted to an analog audio signal via the MPEG audio decoder 54, the D / A converter, the switch circuit 57, and the analog audio output terminal T3, and output to the monitor device 14.
【0109】図4Bに示したGUI画面上でダウンロー
ドボタン28が押されてオーディオデータをダウンロー
ドする場合には、ダウンロードすべき楽曲のオーディオ
データがデマルチプレクサ70により抽出されてアナロ
グオーディオ出力端子T4、光ディジタル出力インター
フェイス59、またはIEEE1394インターフェイ
ス60に出力される。When the download button 28 is pressed on the GUI screen shown in FIG. 4B to download audio data, the audio data of the music to be downloaded is extracted by the demultiplexer 70, and the analog audio output terminal T4 It is output to the digital output interface 59 or the IEEE 1394 interface 60.
【0110】特にIEEE1394インターフェイス6
0に対して、図2に示したIEEE1394対応のMD
レコーダ/プレーヤ13Aが接続されている場合には、
デマルチプレクサ70ではダウンロード楽曲の4倍速A
TRACデータが抽出され、IEEE1394インター
フェイス60を介してMDレコーダ/プレーヤ13Aに
装填されているディスクに対して記録が行われる。ま
た、この際には、例えばJPEG方式で圧縮されたアル
バムジャケットの静止画データ、歌詞やアーティストの
プロフィールなどのテキストデータもデマルチプレクサ
70においてトランスポートストリームから抽出され、
IEEE1394インターフェイス60を介してMDレ
コーダ/プレーヤ13Aに転送される。MDレコーダ/
プレーヤ13Aでは、装填されているディスクの所定の
領域に対して、これら静止画データ、テキストデータを
記録することができるようになっている。In particular, IEEE 1394 interface 6
0, an MD corresponding to IEEE 1394 shown in FIG.
When the recorder / player 13A is connected,
In the demultiplexer 70, the quadruple speed A of the downloaded music is
The TRAC data is extracted, and recording is performed on the disc loaded in the MD recorder / player 13A via the IEEE 1394 interface 60. At this time, for example, still image data of the album jacket compressed by the JPEG method, text data such as lyrics and artist profile are also extracted from the transport stream by the demultiplexer 70,
The data is transferred to the MD recorder / player 13A via the IEEE 1394 interface 60. MD recorder /
In the player 13A, these still image data and text data can be recorded in a predetermined area of the loaded disc.
【0111】2.オーサリングシステム 2−1.MHEGコンテンツの構造 続いて、一実施形態のMHEGオーサリングシステムに
ついて説明する。以下説明するMHEGオーサリングシ
ステムは、先に説明した図5であれば、GUIオーサリ
ングシステム42に対応することになる。但し、実際に
は、パーソナルコンピュータ装置により、GUI素材デ
ータ(オブジェクトとしての画像、テキストファイル
等)を作成、または取り込むなどしてオーサリングを行
うようにされることから、機能的には、GUIオーサリ
ングシステム42に加え、GUI用素材登録システム3
4やGUI素材データベース38も含まれるものと考え
ることができる。[0111] 2. Authoring system 2-1. Structure of MHEG Content Next, an MHEG authoring system according to an embodiment will be described. The MHEG authoring system described below corresponds to the GUI authoring system 42 in FIG. 5 described above. However, in practice, authoring is performed by creating or importing GUI material data (images as objects, text files, etc.) by a personal computer device, so that functionally, the GUI authoring system is used. In addition to 42, a GUI material registration system 3
4 and the GUI material database 38 can be considered to be included.
【0112】MHEGオーサリングシステムの説明に先
立ち、MHEGオーサリングシステムで作成される、M
HEGコンテンツ(MHEGアプリケーション)の構造
概念を、図13および図14により説明する。図13に
は、MHEGシーン1〜MHEGシーン3の3つのシー
ンが示されている。これらの各シーンは、例えば1画面
分の画像領域に対して、オブジェクトをペーストするよ
うにして組み合わせることで形成されるものである。Prior to the description of the MHEG authoring system, M
The structural concept of the HEG content (MHEG application) will be described with reference to FIGS. FIG. 13 shows three scenes, MHEG scene 1 to MHEG scene 3. These scenes are formed by, for example, pasting and combining objects in an image area for one screen.
【0113】オブジェクトとは、先にも述べたように、
画像情報(例えばJPEGやGIFなどの静止画像ファ
イル)やテキスト情報、および操作ボタンなどのパーツ
画像ファイル(更には音声データファイルを含む場合も
ある)等をいうものである。これらのシーンは、例えば
TV放送に同期した切り換えが行われるようにされた
り、また、操作ボタンの操作によって、他のシーンの切
り換えが行われるようにされる。このようなシーンの遷
移を「トランジション」ともいうことにする。そして、
例えばこれら3つのMHEGシーン1〜MHEGシーン
3が、例えばトランジションが可能であるなどの1まと
まりの関係に在るとして、これらの関係は、MHEGア
プリケーション(MHEGコンテンツ)の単位としてま
とめられることになる。An object is, as described above,
It refers to image information (for example, a still image file such as JPEG or GIF), text information, and part image files such as operation buttons (and may also include an audio data file). These scenes are switched, for example, in synchronization with a TV broadcast, or other scenes are switched by operating an operation button. Such a scene transition is also referred to as a “transition”. And
For example, assuming that these three MHEG scenes 1 to 3 are in a united relationship, for example, a transition is possible, these relationships are grouped as a unit of the MHEG application (MHEG content).
【0114】そして、シーンのまとまりであるMHEG
コンテンツとして、例えばこれが一実施形態のようにデ
ィジタル衛星放送システムに使用されるなどして放送番
組と関連する場合には、1つの放送番組に対応して付随
するとされる1以上のMHEGコンテンツ間の関係を規
定することにより、プロジェクトといわれる単位が形成
される。 この図では、プロジェクトとしては、MHE
Gコンテンツ1,MHEGコンテンツ2,MHEGコン
テンツ3の3つから成る場合が示されている。そして、
MHEGコンテンツ1は、MHEGシーン1,2,3の
3つのシーンを備え、残るMHEGコンテンツ2,MH
EGコンテンツ3は、それぞれ、MHEGシーン4,5
を備えているものとされる。Then, MHEG which is a set of scenes
If the content is related to a broadcast program, for example, as used in a digital satellite broadcast system as in one embodiment, one or more MHEG contents that are assumed to be associated with one broadcast program By defining the relationship, a unit called a project is formed. In this figure, the project is MHE
A case is shown in which the content is composed of three pieces of G content 1, MHEG content 2, and MHEG content 3. And
The MHEG content 1 includes three scenes of MHEG scenes 1, 2, 3 and the remaining MHEG content 2, MH
EG contents 3 are MHEG scenes 4 and 5, respectively.
It is assumed to have.
【0115】例えば、実際には、この図14に示すMH
EGコンテンツがディジタル衛星放送の放送番組に同期
して受信側で表示される場合には、MHEGコンテンツ
1,MHEGコンテンツ2,MHEGコンテンツ3がユ
ーザが行ったインタラクティブ操作や放送番組の放送時
間経過に従って、トランジションするものとされ、ま
た、MHEGコンテンツ1が出力されている場合には、
ユーザが行ったインタラクティブ操作や放送番組の放送
時間経過に従って、MHEGシーン1〜3の各シーン間
でトランジションが行われるものとされる。For example, in practice, the MH shown in FIG.
When the EG content is displayed on the receiving side in synchronization with the digital satellite broadcast program, the MHEG content 1, the MHEG content 2, and the MHEG content 3 are set according to the interactive operation performed by the user or the broadcast time of the broadcast program. When the MHEG content 1 is output,
Transitions are performed between the MHEG scenes 1 to 3 according to the interactive operation performed by the user or the passage of the broadcast time of the broadcast program.
【0116】なお、以下においては、説明の便宜上、プ
ロジェクトとしてまとめられる複数のMHEGコンテン
ツ(MHEGアプリケーション)について、特に単一の
MHEGコンテンツ(MHEGアプリケーション)と区
別する必要の無い場合には、プロジェクトについても単
にMHEGコンテンツ(MHEGアプリケーション)と
いうものとする。In the following, for convenience of explanation, a plurality of MHEG contents (MHEG applications) that are put together as a project, especially when it is not necessary to distinguish it from a single MHEG content (MHEG application), will be referred to as a project. It is simply referred to as MHEG content (MHEG application).
【0117】シーンを形成するのには、図13に示した
ように、オブジェクトを使用するのであるが、MHEG
の規格にあっては、シェアオブジェクト(shared objec
t) が使用可能であるものと規定されている。As shown in FIG. 13, an object is used to form a scene.
Standard, the shared object (shared objec
t) is defined as usable.
【0118】シェアオブジェクトとは、1つのMHEG
コンテンツを形成する複数のシーン間で共有して使用す
ることのできるオブジェクトのことをいう。例えば、図
15に示すように1MHEGコンテンツ内にMHEGシ
ーン1,2の2つのシーンがあるとして、オブジェクト
としては、オブジェクト1〜3およびオブジェクト4〜
6の6つのオブジェクトに加えて、シェアオブジェクト
1〜3の3つシェアオブジェクトが用意されているもの
とする。オブジェクト1〜3はMHEGシーン1のみを
作成するのに使用され、オブジェクト4〜6は、MHE
Gシーン2のみを作成するのに使用されるオブジェクト
である。A shared object is one MHEG
An object that can be shared and used between a plurality of scenes forming a content. For example, as shown in FIG. 15, assuming that there are two scenes of MHEG scenes 1 and 2 in 1MHEG content, objects 1 to 3 and objects 4 to 4
It is assumed that in addition to the six objects 6, three share objects 1 to 3 are prepared. Objects 1-3 are used to create only MHEG scene 1 and objects 4-6 are
This is an object used to create only G scene 2.
【0119】これに対して、シェアオブジェクト1〜3
は、MHEGシーン1およびMHEGシーン2に対して
共通に使用可能であるものとして設定されたオブジェク
トである。従って、図15に示す場合には、MHEGシ
ーン1はオブジェクト1〜3およびシェアオブジェクト
1〜3の6つのオブジェクトを使用して作成することが
でき、MHEGシーン2は、オブジェクト4〜6および
シェアオブジェクト1〜3の6つのオブジェクトを使用
して作成することができることになる。On the other hand, shared objects 1 to 3
Is an object set to be commonly usable for MHEG scene 1 and MHEG scene 2. Therefore, in the case shown in FIG. 15, the MHEG scene 1 can be created by using six objects of the objects 1 to 3 and the shared objects 1 to 3, and the MHEG scene 2 is created by the objects 4 to 6 and the shared object It can be created using six objects 1-3.
【0120】2−2.MHEGオーサリングシステムの
構成 一実施形態のMHEGオーサリングツールの構成につい
て説明する。MHEGオーサリングシステムのとしての
処理構成の概念を概要的に説明すると、次のようにな
る。2-2. Configuration of MHEG Authoring System The configuration of the MHEG authoring tool of one embodiment will be described. The concept of the processing configuration as an MHEG authoring system will be briefly described as follows.
【0121】MHEGオーサリングツールにおける処理
としては、大きくは、MHEGオーサリングツール内で
の独自の内部形式に従った処理によりMHEGアプリケ
ーションファイル(MHEGコンテンツ)を作成する編
集処理と、このMHEGオーサリングツール内での内部
形式に従った編集処理によって作成されたMHEGコン
テンツを、実際のMHEGの規格に準拠した形式である
MHEG−ISといわれる形式に変換して出力する変換
処理とに分けられる。MHEG−ISとは、MHEGの
規格に従った内容のMHEGコンテンツのことをいうも
のであり、ここでは、データ放送用コンテンツの送信出
力時の形式に対応する。The processing performed by the MHEG authoring tool is roughly divided into an editing processing for creating an MHEG application file (MHEG content) by processing according to a unique internal format in the MHEG authoring tool, and The MHEG content created by the editing process according to the internal format is divided into a conversion process of converting the MHEG content into a format called MHEG-IS, which is a format compliant with the actual MHEG standard, and outputting the converted format. The MHEG-IS refers to MHEG content having a content according to the MHEG standard, and corresponds to a format at the time of transmission and output of data broadcast content.
【0122】すなわち、MHEGオーサリングツールが
MHEGオーサリングツール内では内部形式に従って編
集処理を実行するように構成されているので、実際のM
HEGの規格には無いシェアシーンなどを定義して、こ
れらを使用した編集処理を実現することができる。逆に
言えば、MHEGの規格に対応して作業者がスクリプト
を記述するといった高度な作業を行わなくとも、例え
ば、GUI的な操作形態を実現して、より簡易な操作に
よっても高度な編集を行うことができる。但し、MHE
Gオーサリングツールの内部形式に従ったMHEGコン
テンツの編集内容(すなわち、定義文などの記述内容)
は、MHEGオーサリングツール内のみで有効であるた
め、これを、受信側でデコードして表示できるようにす
るためには、内部形式に従った記述内容を、MHEGの
規格に従った記述内容に変換する必要がある。このため
に、内部形式によって作成された記述内容を、MHEG
−ISの形式に変換して出力するように構成されるもの
である。That is, since the MHEG authoring tool is configured to execute editing processing according to the internal format in the MHEG authoring tool, the actual M
It is possible to define a share scene that is not in the HEG standard, and implement an editing process using these. Conversely, even if the worker does not perform advanced work such as writing a script in accordance with the MHEG standard, for example, a GUI-like operation form is realized, and advanced editing can be performed by a simpler operation. It can be carried out. However, MHE
Edited content of MHEG content according to the internal format of G authoring tool (that is, description content such as definition sentence)
Is valid only in the MHEG authoring tool, so that it can be decoded and displayed on the receiving side by converting the description according to the internal format into the description according to the MHEG standard. There is a need to. For this purpose, the description contents created by the internal format are
-IS format and output.
【0123】図16は、MHEGオーサリングシステム
42としての実際の構成例を示すものである。MHEG
オーサリングシステム42は、例えば、パーソナルコン
ピュータ201と、このパーソナルコンピュータ201
上にて起動されるMHEGオーサリングソフトウェア2
10によって構成される。FIG. 16 shows an example of the actual configuration of the MHEG authoring system 42. MHEG
The authoring system 42 includes, for example, a personal computer 201 and the personal computer 201.
MHEG authoring software 2 launched on
10.
【0124】MHEGオーサリングシステム42を構成
するパーソナルコンピュータ201としては、図に示す
ように、当該パーソナルコンピュータ201を物理的に
構成するハードウェア202が備えられる。ハードウェ
ア202として、CPU(Central Processing Unit) 2
02a、RAM(メモリ)202b、ROM202c、
インターフェイス202dが設けられている。As shown in the figure, the personal computer 201 constituting the MHEG authoring system 42 is provided with hardware 202 which physically constitutes the personal computer 201. CPU (Central Processing Unit) 2 as hardware 202
02a, RAM (memory) 202b, ROM 202c,
An interface 202d is provided.
【0125】CPU202aは、各種制御および処理動
作を実行し、RAM(メモリ)202bには、起動され
たアプリケーションプログラムや、CPU202aが実
行した処理によって発生した情報や演算結果などが保持
される。また、ROM202cは、当該パーソナルコン
ピュータ201が動作するための所要の情報が格納され
る。インターフェイス202dは、後述する外部接続機
器や外部操作子とハードウェア202との間の情報の授
受のために設けられる。ハードウェア202としては、
他にも各種デバイスが設けられて構わないものである。
このハードウェア202上において、オペレーションシ
ステム203としてのプログラムが動作することで、M
HEGオーサリングソフトウェアが動作可能な環境を構
築している。The CPU 202a executes various control and processing operations, and the RAM (memory) 202b holds an activated application program, information generated by the processing executed by the CPU 202a, a calculation result, and the like. The ROM 202c stores necessary information for operating the personal computer 201. The interface 202d is provided for exchanging information between the hardware 202 and an externally connected device or an external operator described later. As the hardware 202,
In addition, various devices may be provided.
By running a program as the operation system 203 on the hardware 202, M
An environment in which the HEG authoring software can operate is constructed.
【0126】また、パーソナルコンピュータ201に対
しては、外部接続機器または外部操作子として、ディス
プレイ231、マウス232、キーボード233、スピ
ーカ234、記録デバイス235、ビデオ機器236が
備えられている。ディスプレイ231には、パーソナル
コンピュータ201が出力する画像が表示される。特
に、後述するMHEGオーサリングソフトウェア210
としてのGUI画面(操作画面)も表示される。マウス
232およびキーボード233は、編集者が行った操作
情報をパーソナルコンピュータ201に対して入力する
ための操作子として設けられる。スピーカ234は、パ
ーソナルコンピュータ201から出力される音声信号を
外部に音声として出力するために設けられる。The personal computer 201 is provided with a display 231, a mouse 232, a keyboard 233, a speaker 234, a recording device 235, and a video device 236 as externally connected devices or external controls. The display 231 displays an image output from the personal computer 201. In particular, the MHEG authoring software 210 described later
A GUI screen (operation screen) is also displayed. The mouse 232 and the keyboard 233 are provided as operators for inputting operation information performed by the editor to the personal computer 201. The speaker 234 is provided for outputting an audio signal output from the personal computer 201 to the outside as audio.
【0127】記録デバイス235は、パーソナルコンピ
ュータ201が必要とする情報として、例えばオペレー
ションシステムや、MHEGオーサリングソフトウェア
210を含む所定のアプリケーションソフトウェア等が
記憶される。また、一実施形態では、MHEGコンテン
ツ自体および、各MHEGコンテンツを形成するオブジ
ェクト等としての画像ファイル、音声ファイル、および
テキストファイル等も保存されることになる。MHEG
オーサリングソフトウェア210は、オブジェクトとし
てのファイルを作成して、記録デバイス235に対して
保存したり、この保存されたオブジェクトのファイルを
使用して編集処理を行うようになされる。The recording device 235 stores, as information required by the personal computer 201, for example, an operation system, predetermined application software including the MHEG authoring software 210, and the like. In one embodiment, the MHEG content itself, and image files, audio files, text files, and the like as objects forming each MHEG content are also stored. MHEG
The authoring software 210 creates a file as an object, saves it in the recording device 235, and performs an editing process using the saved object file.
【0128】この記録デバイス235の種類としては、
特に限定しないが、例えばハードディスクドライブをは
じめ、比較的大容量のデータを保存可能なストレージデ
バイスを用いることが好ましい。The types of the recording device 235 are as follows.
Although not particularly limited, for example, it is preferable to use a storage device such as a hard disk drive that can store a relatively large amount of data.
【0129】ビデオ機器236は、例えばVTRであ
り、ビデオテープやビデオディスクなどに対応して記録
再生が可能な構成を有する。例えばMHEGコンテンツ
としては、画像音声による放送番組に同期させてシーン
チェンジなどを行う場合がある。このような放送番組に
同期したMHEGコンテンツの編集を行う場合に、画像
音声による放送番組を再生するのにビデオ機器236を
用いることができる。The video device 236 is, for example, a VTR, and has a configuration capable of recording and reproducing corresponding to a video tape, a video disk, and the like. For example, as the MHEG content, there is a case where a scene change or the like is performed in synchronization with a broadcast program using image and sound. When editing MHEG content synchronized with such a broadcast program, the video device 236 can be used to reproduce a broadcast program using image and sound.
【0130】次に、MHEGオーサリングソフトウェア
210について説明する。先にも述べたように、MHE
Gオーサリングソフトウェア210は、パーソナルコン
ピュータ201上で動作するアプリケーションソフトウ
ェアであり、例えば、そのプログラムは記録デバイス2
35に記憶されている。記録デバイス235から読み出
されて起動された状態では、MHEGオーサリングソフ
トウェア210としてのプログラムは、図に示すような
機能ブロックとして表すことができる。この図に示す各
機能ブロック間の関係は示されていないが、実際には各
機能ブロック間で相互に情報の授受を行うような形態を
採るものとされ、これによりMHEGオーサリングソフ
トウェア210としての所要の機能を実行可能なように
構成されている。Next, the MHEG authoring software 210 will be described. As mentioned earlier, MHE
The G authoring software 210 is application software that operates on the personal computer 201. For example, the program is stored in the recording device 2
35. When read out from the recording device 235 and activated, the program as the MHEG authoring software 210 can be represented as a functional block as shown in the figure. Although the relationship between the respective functional blocks shown in this figure is not shown, it is assumed that information is mutually exchanged between the respective functional blocks in practice, and thus the required configuration of the MHEG authoring software 210 is obtained. It is configured to be able to execute the function of.
【0131】図に示すMHEGオーサリングソフトウェ
ア210において、オブジェクト作成部211は、オブ
ジェクトとしてのファイルを作成するためのプログラム
から成る機能ブロックとされる。例えば編集者は、この
オブジェクト作成部211としてのプログラム上(ディ
スプレイ231に表示されるGUI画面上)で、キーボ
ード、マウスなどを使用して、オブジェクトとしてのフ
ァイルを作成することができる。例えば、オブジェクト
が画像であれば、オブジェクト作成部211の機能によ
って、オブジェクトとしての画像ファイルを描画して作
成することが可能とされる。また、オブジェクトとして
は、画像ファイルの他に、テキストファイル(および音
声ファイル)も含まれるものとして規定されている。オ
ブジェクト作成部211においては、これらのテキスト
ファイル(および音声ファイル)もオブジェクトファイ
ルとして作成可能とされる。このオブジェクト作成部2
11により作成されたオブジェクトファイルは、記録デ
バイス235に記録して保存することができる。In the MHEG authoring software 210 shown in the figure, the object creating unit 211 is a functional block including a program for creating a file as an object. For example, the editor can create a file as an object using a keyboard, a mouse, and the like on a program serving as the object creating unit 211 (on a GUI screen displayed on the display 231). For example, if the object is an image, the function of the object creation unit 211 can draw and create an image file as the object. Further, the object is defined to include a text file (and an audio file) in addition to the image file. In the object creating section 211, these text files (and audio files) can also be created as object files. This object creation part 2
11 can be recorded and stored in the recording device 235.
【0132】シェアシーン作成部212は、オブジェク
ト作成部211により作成されたオブジェクトファイル
を利用して、シェアシーンを作成するためのプログラム
により構築される。詳しい説明は省略するが、MHEG
オーサリングツールでは、内部形式的な編集処理にあっ
ては、「シェアシーン」が規定されている。このシェア
シーンとは、先に図15により説明したシェアオブジェ
クトについての編集が簡易なものとなることを配慮して
規定された概念で、1以上の任意のオブジェクトを使用
して作成される仮想のシーンである。シェアシーンは、
用意されたMHEGシーンに対して重ねるようにして使
用(表示)されるレイヤー的な編集素材として扱われ、
かつ、1つのMHEGコンテンツを形成するMHEGシ
ーンに対して共通に使用可能とされる。The share scene creating section 212 is constructed by a program for creating a share scene using the object file created by the object creating section 211. Although detailed description is omitted, MHEG
In the authoring tool, a “share scene” is defined in the internal editing process. The share scene is a concept defined in consideration of easy editing of the shared object described above with reference to FIG. 15, and is a virtual scene created using one or more arbitrary objects. It is a scene. The share scene is
It is treated as a layered editing material that is used (displayed) so as to overlap the prepared MHEG scene,
In addition, it can be commonly used for MHEG scenes forming one MHEG content.
【0133】編集結果がMHEGスクリプト(MHEG
−IS)として記述される場合には、或るMHEGシー
ンに対して使用したシェアシーンに含まれるオブジェク
トがそのMHEGシーンに対して使用されるシェアオブ
ジェクトとして管理されるものである。この場合にも、
編集者は、シェアシーン作成部212としてのプログラ
ム上でキーボード、マウスなどを使用して、これまでに
作成された1以上の任意のオブジェクトファイルを選択
して使用することで、例えばMHEGオーサリングソフ
トウェア上で規定された上限数以内で、1以上の任意の
数のシェアシーンを編集することができる。The edited result is the MHEG script (MHEG script).
-IS), objects included in a shared scene used for a certain MHEG scene are managed as shared objects used for the MHEG scene. Again, in this case,
The editor selects and uses one or more arbitrary object files created so far by using a keyboard, a mouse, and the like on the program serving as the share scene creating unit 212, for example, on the MHEG authoring software. It is possible to edit one or more arbitrary number of share scenes within the upper limit number specified in.
【0134】MHEGシーン作成部213は、MHEG
シーンについての編集を行う際に用いられるプログラム
としての機能ブロックである。ここでも、MHEGシー
ン作成部213のプログラム上で、オブジェクト作成部
211により作成されたオブジェクトファイルのうちか
ら使用すべきものを選択し、例えばこれらオブジェクト
についての各種設定等を行うことでMHEGシーンの階
層についての編集を行うことが可能とされる。MHEG
シーン作成部213にて得られるシーンの編集結果は、
例えばそのシーンに使用される、画像やテキストなどの
可視のオブジェクトと、これら可視のオブジェクトの出
力態様を制御する各種制御情報としてのオブジェクトか
ら成るシーン管理情報から成る。[0134] The MHEG scene creation section 213 performs
This is a functional block as a program used when editing a scene. Here also, on the program of the MHEG scene creation unit 213, a file to be used is selected from the object files created by the object creation unit 211, and for example, various settings and the like for these objects are performed to determine the hierarchy of the MHEG scene. Can be edited. MHEG
The editing result of the scene obtained by the scene creation unit 213 is as follows:
For example, it is composed of visible objects such as images and text used for the scene, and scene management information including objects as various kinds of control information for controlling the output mode of these visible objects.
【0135】シェアシーン処理部216としてのプログ
ラム上では、編集者が、そのGUI画面上で行った操作
に応じて各MHEGシーンとシェアシーンとの関係を編
集するための処理を行う。つまり、MHEGシーンに対
して使用するシェアシーンの設定や、各MHEGシーン
に対して使用するものとされた複数のシェアシーン間の
重ね順の指定等のための編集を実現するためのプログラ
ムとされる。例えば、ここでの編集結果は、シェアシー
ンを設定するための定義文(シェアシーン定義文)とし
て作成される。On the program as the share scene processing section 216, the editor performs a process for editing the relationship between each MHEG scene and the share scene in accordance with the operation performed on the GUI screen. That is, the program is a program for realizing editing for setting a share scene to be used for an MHEG scene, and specifying an overlapping order among a plurality of share scenes to be used for each MHEG scene. You. For example, the editing result here is created as a definition sentence (share scene definition sentence) for setting a share scene.
【0136】MHEGアプリケーション作成部214
は、MHEGアプリケーションの階層での編集を行うた
めのプログラムとされる。例えば、1MHEGアプリケ
ーション内における、時間経過やインタラクティブな操
作に応じたシーン間の推移等についての編集も、このM
HEGアプリケーション作成部214としてのプログラ
ムが司る。MHEGアプリケーション作成部214にて
得られるシーンの編集結果は、例えばそのMHEGアプ
リケーションに使用されるシーンと、これらシーン間の
出力態様を制御する各種制御情報から成るMHEGアプ
リケーション管理情報から成る。The MHEG application creation unit 214
Is a program for performing editing at the level of the MHEG application. For example, in the 1MHEG application, editing of transition between scenes according to the passage of time or interactive operation, and the like can also be performed by this M
A program as the HEG application creation unit 214 controls the program. The editing result of the scene obtained by the MHEG application creating unit 214 includes, for example, scenes used for the MHEG application and MHEG application management information including various control information for controlling an output mode between the scenes.
【0137】MHEGオーサリングソフトウェアでは、
1つのディジタル放送番組に対応して付随する1以上の
MHEGアプリケーションを、「プロジェクト」とい
う。プロジェクト作成部215は、このプロジェクトと
してのMHEGアプリケーションの出力態様を編集する
ためのプログラムである。例えばMHEGアプリケーシ
ョン作成部214によって編集された複数のMHEGコ
ンテンツが、放送番組の放送時間に同期してシーン出力
の切り換えを行うものである場合には、この同期のため
の編集がここで行われるものである。このような編集結
果は、プロジェクト管理情報である。With the MHEG authoring software,
One or more MHEG applications associated with one digital broadcast program are referred to as “projects”. The project creation unit 215 is a program for editing the output mode of the MHEG application as this project. For example, when a plurality of MHEG contents edited by the MHEG application creating unit 214 are to switch the scene output in synchronization with the broadcast time of the broadcast program, the editing for this synchronization is performed here. It is. Such an editing result is project management information.
【0138】また、時間制御部221は、プロジェクト
作成部215、MHEGアプリケーション作成部21
4,MHEGシーン作成部213等のプログラムと共同
して動作することで、プロジェクト、MHEGアプリケ
ーション、またはMHEGシーンの各階層での、放送番
組の進行時間軸に対応した各種制御についての編集を行
うために使用されるプログラムとされる。The time control section 221 includes a project creation section 215 and an MHEG application creation section 21.
4, in cooperation with a program such as the MHEG scene creation unit 213, to edit various controls corresponding to the progress time axis of the broadcast program in each layer of the project, the MHEG application, or the MHEG scene. The program used for
【0139】また、インタラクティブ制御部222は、
プロジェクト作成部215、MHEGアプリケーション
作成部214,MHEGシーン作成部213等のプログ
ラムと共同して動作することで、プロジェクト、MHE
Gアプリケーション、またはMHEGシーンの各階層で
の、インタラクティブな操作に対応した各種制御につい
ての編集をおこなうために使用されるプログラムとされ
る。The interactive control unit 222
By operating in cooperation with programs such as the project creation unit 215, the MHEG application creation unit 214, and the MHEG scene creation unit 213, the project, the MHE
This is a program used for editing various controls corresponding to interactive operations in each layer of the G application or the MHEG scene.
【0140】また、プロジェクト管理部220、MHE
Gアプリケーション管理部219、およびMHEGシー
ン管理部218は、それぞれ、プロジェクト作成部21
2にて作成されたプロジェクトファイル(プロジェクト
管理情報を含む)、MHEGアプリケーション作成部2
14にて作成されたMHEGアプリケーションファイル
(MHEGアプリケーション管理情報)、およびMHE
Gシーン作成部213にて作成されたMHEGシーンフ
ァイル(MHEGシーン管理情報)についてのディレク
トリ管理および保存処理を実行する際に使用されるプロ
グラムとされる。実際には、プロジェクト管理情報、ま
た、MHEGアプリケーション管理情報、MHEGシー
ン管理情報等の各管理情報は、或る1つのプロジェクト
または1つのMHEGアプリケーションごとに対応し
て、内部形式によるスクリプトとしての「オーサリング
管理情報」として統合的に管理される。The project management unit 220, MHE
The G application management unit 219 and the MHEG scene management unit 218 respectively
2 (including project management information), MHEG application creation unit 2
14, the MHEG application file (MHEG application management information), and the MHE
This is a program used when executing directory management and storage processing for the MHEG scene file (MHEG scene management information) created by the G scene creation unit 213. Actually, each management information such as project management information, MHEG application management information, and MHEG scene management information corresponds to a certain one project or one MHEG application, and is written as an authoring script as an internal format. It is managed integrally as "management information."
【0141】MHEGアプリケーション作成部214に
て作成されたMHEGコンテンツ(MHEGアプリケー
ションファイル)としての情報、およびプロジェクト作
成部215にて作成されたプロジェクトファイルとして
の情報(すなわち、オーサリング管理情報)は、MHE
Gオーサリングソフトウェアとしての独自の内部形式に
より扱われている。この内部形式により作成されたMH
EGアプリケーション(プロジェクト)ファイルは、内
部形式ファイル出力制御部217の処理によって、内部
形式ファイルのまま外部に出力することができる。The information as the MHEG contents (MHEG application file) created by the MHEG application creating section 214 and the information as the project file created by the project creating section 215 (that is, the authoring management information) are stored in the MHE.
It is handled in a unique internal format as G authoring software. MH created by this internal format
The EG application (project) file can be output to the outside as an internal format file by the processing of the internal format file output control unit 217.
【0142】例えば、内部形式ファイル出力制御部21
7から出力した、MHEGアプリケーションの内部形式
ファイルは、記録デバイス235に記録して保存してお
くことができる。このようにしておくことで、以下、こ
の保存された内部形式ファイルをパーソナルコンピュー
タ201に読み込んで、MHEGオーサリングソフトウ
ェア210上で編集内容を変更することが可能になる。For example, the internal format file output control unit 21
7, the internal format file of the MHEG application can be recorded and stored in the recording device 235. By doing so, it is possible to read the stored internal format file into the personal computer 201 and change the editing content on the MHEG authoring software 210.
【0143】MHEGスクリプト出力制御部226は、
内部形式によるMHEGアプリケーションファイル(ま
たはプロジェクトファイル)のデータを受け取り、実際
のMHEGの規格に従ったスクリプト(制御情報)の記
述に変換して外部に出力する。つまり、正規のMHEG
アプリケーションファイル(MHEG−IS)として出
力する。例えば、このMHEGスクリプト出力制御部2
11を介した出力が図5のDSM−CCエンコーダ44
に対して出力される。このMHEGスクリプト出力制御
部226において得られた、MHEG−ISとしてのM
HEGアプリケーションファイルは、記録デバイス21
6に記録して保存しておくこともでき、実際には、この
記録デバイス216に保存されたMHEG−ISとして
のMHEGアプリケーションファイルを、所要の機会
に、地上局1のDSM−CCエンコーダ44に提供す
る。The MHEG script output control unit 226
It receives the data of the MHEG application file (or project file) in the internal format, converts it into the description of the script (control information) according to the actual MHEG standard, and outputs it to the outside. That is, the regular MHEG
Output as an application file (MHEG-IS). For example, this MHEG script output control unit 2
11 through the DSM-CC encoder 44 of FIG.
Is output to M as MHEG-IS obtained by the MHEG script output control unit 226
The HEG application file is stored in the recording device 21
6 and, in practice, the MHEG application file as the MHEG-IS stored in the recording device 216 is transmitted to the DSM-CC encoder 44 of the ground station 1 at a required occasion. provide.
【0144】TN処理部227は、MHEGスクリプト
を記述するためのソースコードであるTN(Textual Not
ation)についての処理を実行する。このTN処理部22
7としてのプログラムによって、例えば内部形式による
「オーサリング管理情報」としての記述ファイル、また
は、MHEG−ISの形式により出力されるべきスクリ
プトファイルをTNに変換して出力することが可能とな
る。また、例えばTNとしての記述によるMHEGアプ
リケーションの編集を行う際にも、このTN処理部22
7としてのプログラムが使用される。The TN processing unit 227 is a source code for describing a MHEG script.
ation). This TN processing unit 22
With the program as No. 7, for example, a description file as “authoring management information” in an internal format or a script file to be output in the MHEG-IS format can be converted to TN and output. Also, for example, when editing the MHEG application using the description as a TN, the TN processing unit 22
The program as No. 7 is used.
【0145】MHEGの規格においては、TNとしての
形式のファイルに対して、MHEGスクリプト出力制御
部211によって出力されるMHEG−ISとしての形
式は、「ASN.1 DER(Abstract Syntax Notati
on No.1 Distinguished Encoding Rule:ISO/IEC8824,88
25)」に規定される。いわば、TNがソース言語である
のに対して、ASN.1 DER(以下単に「DER」
と記述する)がMHEG−ISの形式に従ってコンパイ
ルされたバイナリデータとされる。換言すれば、MHE
Gオーサリングソフトウェア210においては、TNと
しての形式により記述されたスクリプトファイルは、M
HEG−ISとして送信、またはパッケージ化(例えば
CD−ROMなどにMHEGコンテンツがパッケージさ
れることをいう)される場合には、DERに変換されて
出力される。In the MHEG standard, the format as MHEG-IS output by the MHEG script output control unit 211 for a file in TN format is “ASN.1 DER (Abstract Syntax Notati).
on No.1 Distinguished Encoding Rule: ISO / IEC8824,88
25) ”. So to speak, TN is the source language, whereas ASN. 1 DER (hereinafter simply "DER"
Is described as binary data compiled according to the MHEG-IS format. In other words, MHE
In the G authoring software 210, the script file described in the format as TN is M
When transmitted as HEG-IS or packaged (for example, MHEG content is packaged on a CD-ROM or the like), it is converted to DER and output.
【0146】また、中間言語処理部228は、MHEG
オーサリングソフトウェアのために独自に用意されたプ
ログラム言語を処理するためのプログラムとされる。中
間言語は、TNよりも簡易な形式の言語とされ、例えば
スクリプトによってMHEGアプリケーション(および
プロジェクト)についての編集をテキストレベルで行う
場合に、編集者がTNよりも手軽に扱えることを配慮し
て用意されたものである。詳しい説明は省略するが、例
えば編集者は、MHEGオーサリングソフトウェア上
で、この中間言語の記述によるMHEGアプリケーショ
ンの編集を行うことが可能とされている。Further, the intermediate language processing unit 228
It is a program for processing a programming language uniquely prepared for authoring software. The intermediate language is a language in a format that is simpler than TN. For example, when editing a MHEG application (and project) at the text level using a script, the intermediate language is prepared in consideration of the fact that the editor can handle it more easily than TN. It was done. Although a detailed description is omitted, for example, the editor can edit the MHEG application by describing the intermediate language on the MHEG authoring software.
【0147】MHEGビューワ240は、作成されたM
HEGアプリケーションを表示出力するためのビューワ
とされ、映像表示制御部223、MHEG再生部22
4、MHEG同期再生部225より成る。このMHEG
ビューワ240は、例えば基本的にはIRDに備えられ
るMHEG情報をデコードして再生出力するための機能
と同様の機能を備えて成るものとされる。[0147] The MHEG viewer 240 displays the created M
It is a viewer for displaying and outputting the HEG application, and the image display control unit 223 and the MHEG reproduction unit 22
4. An MHEG synchronous reproduction unit 225. This MHEG
The viewer 240 basically has, for example, a function similar to a function for decoding, reproducing, and outputting MHEG information provided in the IRD.
【0148】映像表示制御部223は、例えばサーバ
(ここでは記録デバイス235が相当する)から供給さ
れる放送番組としての情報を読み込んで、例えばこの場
合であればディスプレイ231に対して表示させるため
の表示制御プログラムである。また、MHEG再生部2
24は、サーバ(ここでは記録デバイス235が相当す
る)から供給されるDER(MHEG−IS)の形式に
よるMHEGコンテンツの情報を読み込んでデコードを
行い、例えばこの場合であればディスプレイ231に対
して再生出力するためのプログラムとされる。MHEG
同期再生部225としてのプログラムは、例えば映像表
示制御部223により番組画像を表示出力させている状
態の下で、MHEG再生部224により再生出力される
MHEGアプリケーションについて、この番組画像に同
期させて表示出力させるための制御用プログラムとされ
る。The video display control unit 223 reads information as a broadcast program supplied from, for example, a server (corresponding to the recording device 235 in this case) and, for example, displays the information on the display 231 in this case. This is a display control program. The MHEG regeneration unit 2
24 reads and decodes MHEG content information in a DER (MHEG-IS) format supplied from a server (corresponding to the recording device 235 in this case), and reproduces the information on the display 231 in this case, for example. It is a program for outputting. MHEG
The program as the synchronous playback unit 225 displays the MHEG application played back and output by the MHEG playback unit 224 in synchronization with the program image, for example, in a state where the program image is displayed and output by the video display control unit 223. This is a control program for outputting.
【0149】なお、MHEGビューワ240は、オーサ
リングソフトウェア210に含まれるものとして示して
いるが、MHEGビューワ240と、MHEGビューワ
240以外のプログラムから成るオーサリングソフトウ
ェア210とは、それぞれ独立したアプリケーションソ
フトプログラムとされていても良い。The MHEG viewer 240 is shown as being included in the authoring software 210. However, the MHEG viewer 240 and the authoring software 210 including programs other than the MHEG viewer 240 are independent application software programs. May be.
【0150】また、情報量積算部250は、作成された
シーンの総情報量を積算するプログラムである。情報量
積算部250は、後述するように、シーン編集を行う時
に、シーンを構成する部品を配置する毎に、シーンの総
情報量を積算し、ディスプレイ231において、総情報
量が表示される。The information amount integrating section 250 is a program for integrating the total information amount of the created scene. As will be described later, the information amount accumulating unit 250 accumulates the total information amount of the scene every time the parts constituting the scene are arranged at the time of scene editing, and the total information amount is displayed on the display 231.
【0151】2−3.MHEGオーサリングシステムの
情報量の監視機能 以下、図17、18に従って、MHEGコンテンツの制
作、送信側における処理プロセスと伝送方法、さらには
受信機側の処理プロセスを説明する。図17において、
321が作成されたシーン単位のMHEGデータを示
す。S1〜S5の各シーンに対応した様々な情報量のデ
ータとなっている。これを伝送する時に考慮しなければ
ならないのは、受信機に一度に取り込めるデータ量であ
る。これは後述する受信機内のバッファメモリの容量に
対応しており、一度に取り込む単位は前述のモジュール
が単位となるが、これによって最大情報量が規定され
る。2-3. A function of monitoring the amount of information of the MHEG authoring system Hereinafter, the production process of the MHEG content, a processing process and a transmission method on the transmission side, and a processing process on the receiver side will be described with reference to FIGS. In FIG.
Reference numeral 321 denotes the created MHEG data in scene units. The data has various information amounts corresponding to the scenes S1 to S5. One thing to consider when transmitting this is the amount of data that can be captured at once by the receiver. This corresponds to the capacity of the buffer memory in the receiver, which will be described later, and the unit taken in at a time is the above-mentioned module, and this defines the maximum information amount.
【0152】基本的には後述の受信機内の動作の都合
上、モジュールはシーンに対応することが望ましい。し
かしながら、1シーンに1モジュールの最大情報量以上
の情報を含ませたい場合もありうる。この場合、シーン
単位データ321をモジュール単位データ322に変換
する時点で、モジュールの最大情報量を超過したシーン
についてはデータを分割する。分割は、一部の静止画、
文字などの部品データを別モジュールとするようになさ
れる。この分割処理により伝送するモジュール単位のデ
ータが生成される。モジュール単位のデータは、受信機
で必要なモジュールを取り出せるようにヘッダを付加し
た後、データカルーセル323と呼ばれる繰り返し送出
のしくみにより衛星伝送路324に送り出される。Basically, it is desirable that the module corresponds to a scene for the sake of the operation in the receiver described later. However, there may be a case where one scene wants to include information that is equal to or more than the maximum information amount of one module. In this case, when the scene unit data 321 is converted into the module unit data 322, data is divided for a scene exceeding the maximum information amount of the module. Splitting is for some still images,
Part data such as characters is made to be a separate module. Module data to be transmitted is generated by this division processing. After adding a header so that a necessary module can be taken out by the receiver, the data in the unit of a module is transmitted to the satellite transmission line 324 by a repetitive transmission mechanism called a data carousel 323.
【0153】受信機325側では、図18に示すように
衛星伝送路324からのデータは、パケットフィルタ3
26において、指定されたモジュールのみ通過して、バ
ッファメモリ327に格納される。この場合、繰り返し
送出されているモジュールを1回のみ通す。バッファメ
モリ327にモジュールデータが記憶されると、直ぐに
MHEGエンジン328に通知され、MHEGエンジン
328がモジュールデータを吸い上げてデータを処理す
る。スクリプトが含まれている場合はスクリプトを実行
し、テレビジョンモニタ329に指定された表示を行
う。On the receiver 325 side, data from the satellite transmission line 324 is transmitted to the packet filter 3 as shown in FIG.
At 26, only the specified module is passed and stored in the buffer memory 327. In this case, the repeatedly transmitted module is passed only once. When the module data is stored in the buffer memory 327, it is immediately notified to the MHEG engine 328, and the MHEG engine 328 downloads the module data and processes the data. If a script is included, the script is executed and the display specified on the television monitor 329 is performed.
【0154】また、MHEGエンジン328がスクリプ
トの実行過程で新たに表示すべき部品や、新たに遷移す
べきシーンについては、バッファメモリ中にそのデータ
が存在するか否かを判断し、存在しないと判断されたと
きには、パケットフィルタ326に対して必要なモジュ
ールを指定し、新たなモジュールの取り込みを指示して
待機状態に入る。この場合、パケットフィルタ326
は、衛星伝送路から指定されたモジュールを1回のみ通
して327のバッファメモリ327に、直前に受信した
モジュールのデータに上書きする形で書き込み、さらに
MHEGエンジン328にモジュールの到着を通知す
る。MHEGエンジン328が新たなモジュールを取り
込んで動作を再開する。上述の動作の繰り返しにより受
信機においてシナリオが実行される。The MHEG engine 328 determines whether or not the data to be newly displayed or the scene to be newly transitioned during the execution of the script is present in the buffer memory. When it is determined, a necessary module is designated to the packet filter 326, an instruction to fetch a new module is issued, and a standby state is entered. In this case, the packet filter 326
Writes the specified module from the satellite transmission path only once, overwriting the data of the module received immediately before in the buffer memory 327 of the module 327, and notifies the MHEG engine 328 of the arrival of the module. The MHEG engine 328 fetches the new module and resumes operation. The scenario is executed in the receiver by repeating the above operation.
【0155】ここで留意すべきは、視聴者の操作感であ
る。まず例えばMHEGデータを含むチャンネルを選択
した後、最初のシーンが表示されるまでの時間は、最初
のシーンに対応するモジュールをバッファメモリ327
に格納するまでの時間が最低かかる。モジュールは、デ
ータカルーセルにより繰り返し送出されているので、タ
イミングによっては、この時間が最大モジュールの繰り
返し周期の時間となる。次のシーンの推移を指示する操
作を行った後、画面が切り替わるまで、やはり新たなモ
ジュールを取得する時間が必要となるので、やはり最
大、モジュールの繰り返し周期の時間はかかることにな
る。What should be noted here is the operational feeling of the viewer. First, for example, after a channel including MHEG data is selected, a module corresponding to the first scene is stored in the buffer memory 327 until the first scene is displayed.
It takes the least time to store in. Since the module is repeatedly transmitted by the data carousel, depending on the timing, this time is the maximum repetition period of the module. After the operation for instructing the transition of the next scene is performed, it takes time to acquire a new module until the screen is switched, so that it takes a maximum of the module repetition period.
【0156】さらに、1シーンが複数のモジュールに分
割されている場合には、まずスクリプトを含むモジュー
ル取得してシーンを表示するが、この時点では別モジュ
ールとなった部品は表示されず、さらに最大、モジュー
ルの繰り返し周期の時間を経てようやくそれが表示され
ることになる。但し、バッファメモリ327に余裕があ
る場合には、MHEGエンジン328の指示を待たず
に、予め次に必要になりそうなモジュールを取得し、取
得したモジュールをバッファメモリ327の空きエリア
に入れておくことも可能である。その場合、MHEGエ
ンジン328がモジュールを要求した時点で既にそれが
バッファメモリ327に入っていれば、上述の時間はか
からないで済む。Further, when one scene is divided into a plurality of modules, first, a module including a script is obtained and the scene is displayed. At this point, the parts which have become separate modules are not displayed. It will only be displayed after the time of the module repetition cycle. However, if there is room in the buffer memory 327, a module which is likely to be required next is acquired in advance without waiting for an instruction from the MHEG engine 328, and the acquired module is stored in an empty area of the buffer memory 327. It is also possible. In this case, if the MHEG engine 328 requests a module and the module has already entered the buffer memory 327 at the time, the above-mentioned time is not required.
【0157】図19は、この一実施形態におけるオーサ
リング装置のユーザーインターフェイス、つまり操作画
面の例を示す。331が画面全体とすると、画面331
の上部に各種機能選択のためのメニュー332が表示さ
れている。シーン選択画面333には、対象となるコン
テンツのシーン構成が表示されている。この画面333
においてシーンの構成を設定し、作業対象となるシーン
を指定すると、対応するシーン編集画面334が表示さ
れる。FIG. 19 shows an example of a user interface of the authoring apparatus in this embodiment, that is, an operation screen. If 331 is the entire screen, screen 331
A menu 332 for selecting various functions is displayed at the top of the menu. On the scene selection screen 333, the scene configuration of the target content is displayed. This screen 333
When a scene configuration is set and a scene to be worked is specified, a corresponding scene editing screen 334 is displayed.
【0158】335は、シーンに配置する各種部品を選
択するためのメディア選択画面であり、ここで意図する
部品のファイルを指定して確認する。その後、いわゆる
ドラッグ&ドロップ等の操作によりシーン編集画面33
4に選択した部品を配置する。さらに、336で示すオ
ブジェクト属性・動作設定画面では、状態・動作の規定
対象となるオブジェクト、つまり各部品やシーン等を、
シーン編集画面334で指定することによりその状態、
動作を表示し、また入力する。これらの操作の積み重ね
によりシーンの作りこみ作業が進行することになる。作
りこみの過程において、情報量に関わるメッセージが表
示領域337に表示される。Reference numeral 335 denotes a media selection screen for selecting various parts to be arranged in the scene. Here, a file of an intended part is specified and confirmed. Thereafter, the scene editing screen 33 is operated by so-called drag and drop operation.
4 places the selected component. Further, on the object attribute / operation setting screen indicated by 336, the object to be defined for the state / operation, that is, each part or scene, is displayed.
By specifying in the scene edit screen 334, the state,
Display and enter actions. By accumulating these operations, the work of creating the scene proceeds. In the process of making, a message relating to the amount of information is displayed in the display area 337.
【0159】図20、図21および図22は、情報量の
表示例を示す。シーン編集作業の過程において、部品を
シーン上に設定する毎に表示領域337に表示されるメ
ッセージにおいて、シーンの総情報量の表示が更新され
る。図20にその例を示す。編集者は、この表示を参照
しながら、できる限りシーンが1モジュールに収まるよ
うにシーン編集を行っていく。FIG. 20, FIG. 21, and FIG. 22 show display examples of the information amount. In the course of the scene editing work, the display of the total information amount of the scene is updated in the message displayed in the display area 337 every time a component is set on the scene. FIG. 20 shows an example. The editor edits the scene while referring to this display so that the scene can be contained in one module as much as possible.
【0160】シーン編集作業を進めた結果、シーンが1
モジュールの容量を超過した場合は、図21に示すよう
に、表示領域337に表示されるメッセージとしてその
警告が表示される。この場合、編集者が採れる対応とし
ては2通り可能である。1つは超過した分の情報量を削
る作業を行うこと、もう1つは、超過した分は別モジュ
ールにすることである。As a result of the scene editing operation, the scene is 1
When the capacity of the module is exceeded, a warning is displayed as a message displayed in the display area 337 as shown in FIG. In this case, the editor can take two types of actions. One is to reduce the amount of excess information, and the other is to replace the excess with another module.
【0161】超過した分を別モジュールにする場合に
は、前述の受信機動作の説明のように別モジュールとし
た部品の表示は後回しになるので、どの部品の表示を後
回しにするかは編集者の意図を反映する必要がある。そ
のため、図22に示すように、別モジュールにするべき
部品をシーン編集画面334上で選択し、表示された設
定画面336において、シーンと別モジュールとする設
定を入力する。これにより表示領域337には、除外し
た部品を除いたシーンの情報量のメッセージが表示され
る。このメッセージを見ることで、最大値を超過してい
ないか否かを編集者が確認することができる。In the case where the excess is made into another module, the display of the parts made as a separate module is postponed as described in the operation of the receiver described above. Need to reflect the intentions of Therefore, as shown in FIG. 22, a part to be made as a separate module is selected on the scene edit screen 334, and the setting to be made as a separate module from the scene is input on the displayed setting screen 336. As a result, a message indicating the information amount of the scene excluding the excluded parts is displayed in the display area 337. By looking at this message, the editor can check whether the maximum value has been exceeded.
【0162】若し、設定画面334において、超過した
分を別モジュールにすることを選択しない場合には、超
過した分の情報量を削除する操作が必要となる。また、
超過が発生した時に、超過した分を別モジュールとする
設定操作を省いて、自動的に超過がなくなるように、所
定の部品例えば最後に選択した部品を別モジュールとす
るように、ソフトウェア処理を行うようにしても良い。If the setting screen 334 does not select that the excess is to be replaced by another module, an operation of deleting the excess information amount is required. Also,
When an excess occurs, software processing is performed such that a setting operation for setting the excess as a separate module is omitted, and a predetermined component, for example, the last selected component is set as another module so that the excess is automatically eliminated. You may do it.
【0163】また、一実施形態では、表示領域337に
表示される情報量に関わるメッセージとして、シーンの
情報量、並びに超過した分をバイト数で表しているが、
バイト数以外に、バー表示等の表示を使用しても良い。
さらに、表示のみならず、超過が生じた時にビープ音を
併せて発生しても良い。Further, in one embodiment, as the message relating to the information amount displayed in the display area 337, the information amount of the scene and the excess amount are represented by the number of bytes.
In addition to the number of bytes, a display such as a bar display may be used.
Further, not only the display but also a beep sound may be generated when an excess occurs.
【0164】[0164]
【発明の効果】以上説明したように、この発明は、MH
EGなどのマルチメディア型データ放送特有の情報量に
関する制約を編集者が常に明示的に確認できるため、コ
ンテンツの制作が効率よく行える。また誤って情報量制
約違反を犯して、オンエア事故を起こすリスクを未然に
防ぐことが可能である。また、この発明は、モジュール
の情報量を超過した場合でも、編集者が別モジュールと
する部品を選択することができるので、受信機側での表
示の優先度が制御可能となる。As described above, the present invention provides an MH
Since the editor can always explicitly confirm restrictions on the information amount specific to multimedia data broadcasting such as EG, content can be efficiently produced. In addition, it is possible to prevent the risk of causing an on-air accident by erroneously violating the information volume constraint. Further, according to the present invention, even when the information amount of the module is exceeded, the editor can select a component to be another module, so that the display priority on the receiver side can be controlled.
【図1】この発明の一実施形態のディジタル衛星放送受
信システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a digital satellite broadcast receiving system according to an embodiment of the present invention.
【図2】一実施形態における受信設備の構築例を示すブ
ロック図である。FIG. 2 is a block diagram illustrating a configuration example of a receiving facility according to an embodiment.
【図3】IRDのためのリモートコントローラの外観を
示す正面図である。FIG. 3 is a front view showing the appearance of a remote controller for the IRD.
【図4】放送画面とGUI画面との切り換えを示す略線
図である。FIG. 4 is a schematic diagram illustrating switching between a broadcast screen and a GUI screen.
【図5】地上局の構成例を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration example of a ground station.
【図6】地上局から送信されるデータを示すチャート図
である。FIG. 6 is a chart showing data transmitted from a ground station.
【図7】送信データの時分割多重化構造を示す略線図で
ある。FIG. 7 is a schematic diagram illustrating a time-division multiplexing structure of transmission data.
【図8】DSM−CCによる送信フォーマットを示す略
線図である。FIG. 8 is a schematic diagram illustrating a transmission format according to DSM-CC.
【図9】データサービスのディレクトリ構造の一例を示
す略線図である。FIG. 9 is a schematic diagram illustrating an example of a directory structure of a data service.
【図10】トランスポートストリームのデータ構造図で
ある。FIG. 10 is a data structure diagram of a transport stream.
【図11】PSIのテーブル構造を示す略線図である。FIG. 11 is a schematic diagram illustrating a table structure of a PSI.
【図12】IRDの構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of an IRD.
【図13】MHEGコンテンツの構造を示す略線図であ
る。FIG. 13 is a schematic diagram illustrating a structure of MHEG content.
【図14】MHEGコンテンツの構造を示す略線図であ
る。FIG. 14 is a schematic diagram illustrating a structure of MHEG content.
【図15】MHEGコンテンツにおけるシェアオブジェ
クトの概念を示す略線図である。FIG. 15 is a schematic diagram illustrating the concept of a share object in MHEG content.
【図16】一実施形態のMHEGオーサリングシステム
の構成を示す略線図である。FIG. 16 is a schematic diagram illustrating a configuration of an MHEG authoring system according to an embodiment.
【図17】MHEGコンテンツの制作および送信処理に
ついての略線図である。FIG. 17 is a schematic diagram illustrating production and transmission processing of MHEG content.
【図18】MHEGコンテンツの受信機側の表示処理に
ついての略線図である。FIG. 18 is a schematic diagram illustrating display processing of the MHEG content on the receiver side.
【図19】オーサリング装置のユーザーインターフェイ
ス画面の表示例を示す略線図である。FIG. 19 is a schematic diagram illustrating a display example of a user interface screen of the authoring device.
【図20】オーサリング装置のユーザーインターフェイ
ス画面の表示例を示す略線図である。FIG. 20 is a schematic diagram illustrating a display example of a user interface screen of the authoring device.
【図21】オーサリング装置のユーザーインターフェイ
ス画面の表示例を示す略線図である。FIG. 21 is a schematic diagram illustrating a display example of a user interface screen of the authoring device.
【図22】オーサリング装置のユーザーインターフェイ
ス画面の表示例を示す略線図である。FIG. 22 is a schematic diagram illustrating a display example of a user interface screen of the authoring device.
1・・・地上局、2・・・衛星、3・・・受信設備、6
・・・テレビ番組素材サーバ、9・・・GUIデータサ
ーバ、31・・・テレビ番組素材登録システム、39・
・・テレビ番組送出システム、42・・・GUI(MH
EG)オーサリングシステム、51 チューナ/フロン
トエンド部、90・・・メインメモリ、201・・・パ
ーソナルコンピュータ、202・・・ハードウェア、2
10・・・MHEGオーサリングソフトウェア、213
・・・MHEGシーン作成部、250・・・情報量積算
部、323・・・データカルーセル、324・・・衛星
伝送路、326・・・パケットフィルタ、327・・・
バッファメモリ、328・・・MHEGエンジン、32
9・・・テレビジョンモニタ、333・・・シーン選択
画面、334・・・シーン編集画面、335・・・メデ
ィア選択画面、337・・・情報量に関するメッセージ
表示領域1 ... ground station, 2 ... satellite, 3 ... receiving equipment, 6
... TV program material server, 9 ... GUI data server, 31 ... TV program material registration system, 39
..TV program transmission system, 42 ... GUI (MH
EG) Authoring system, 51 Tuner / Front end unit, 90: Main memory, 201: Personal computer, 202: Hardware, 2
10 MHEG authoring software, 213
... MHEG scene creation unit, 250 ... information amount integration unit, 323 ... data carousel, 324 ... satellite transmission path, 326 ... packet filter, 327 ...
Buffer memory, 328... MHEG engine, 32
9: Television monitor, 333: Scene selection screen, 334: Scene editing screen, 335: Media selection screen, 337: Message display area related to information amount
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/081 Fターム(参考) 5C053 FA14 FA20 FA29 JA01 5C063 AB03 AB05 AC01 AC05 AC10 DA01 DA05 DA20 5D110 AA29 CA06 CD07 CF13 CL02 CL03 FA07 5E501 AA30 AB10 AC34 BA02 CA03 DA04 EB05 FA47 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) H04N 7/081 F term (reference) 5C053 FA14 FA20 FA29 JA01 5C063 AB03 AB05 AC01 AC05 AC10 DA01 DA05 DA20 5D110 AA29 CA06 CD07 CF13 CL02 CL03 FA07 5E501 AA30 AB10 AC34 BA02 CA03 DA04 EB05 FA47
Claims (5)
ツを作成するための情報処理装置において、 上記ディジタル放送の受信機におけるデータ処理単位の
データ作成画面上に、作成したデータの総情報量を表示
する手段と、 上記受信機におけるデータ受信単位の最大情報量を超過
した場合には画面上で通知する手段とを備えることを特
徴とする情報処理装置。1. An information processing apparatus for creating digital broadcast data broadcast content, wherein a total information amount of created data is displayed on a data creation screen of a data processing unit in the digital broadcast receiver. An information processing apparatus, comprising: means for notifying on a screen when a maximum information amount of a data reception unit in the receiver is exceeded.
て、 作成したデータ処理単位の情報量がデータ受信単位の最
大情報料を超過して作成した場合に、自動的に、もしく
はデータ処理単位中の分離可能なデータ単位の1つある
いは複数を指定することにより、データ受信単位の最大
情報量を超えない複数のデータ受信単位に分割する手段
を備えることを特徴とする装置。2. The information processing apparatus according to claim 1, wherein when the information amount of the created data processing unit exceeds the maximum information fee of the data receiving unit, the created information processing unit automatically or during the data processing unit. An apparatus comprising: means for designating one or a plurality of separable data units to divide the data into a plurality of data reception units not exceeding the maximum information amount of the data reception units.
て、 上記データ作成画面は、画面構成を設定するための構成
選択画面と、部品を選択するためのメディア選択画面
と、選択された上記部品を設定された画面構成で配置す
る編集画面と、上記部品を選択する毎にデータ量を積算
して表示する情報量のメッセージ表示画面とを有するこ
とを特徴とする装置。3. The information processing apparatus according to claim 1, wherein the data creation screen includes a configuration selection screen for setting a screen configuration, a media selection screen for selecting a component, and the selected component. An editing screen for arranging the parts in a set screen configuration, and a message display screen for an information amount for integrating and displaying the data amount each time the part is selected.
ツを作成するための情報処理方法において、 上記ディジタル放送の受信機におけるデータ処理単位の
データ作成画面上に、作成したデータの総情報量を表示
し、 上記受信機におけるデータ受信単位の最大情報量を超過
した場合には画面上で通知することを特徴とする情報処
理方法。4. An information processing method for creating digital broadcast data broadcast content, comprising: displaying a total information amount of created data on a data creation screen of a data processing unit in the digital broadcast receiver; An information processing method comprising: notifying on a screen when a maximum information amount of a data receiving unit in the receiver is exceeded.
て、 作成したデータ処理単位の情報量がデータ受信単位の最
大情報料を超過して作成した場合に、自動的に、もしく
はデータ処理単位中の分離可能なデータ単位の1つある
いは複数を指定することにより、データ受信単位の最大
情報量を超えない複数のデータ受信単位に分割すること
を特徴とする方法。5. The information processing method according to claim 1, wherein when the information amount of the created data processing unit exceeds the maximum information charge of the data reception unit, the information processing unit automatically or during the data processing unit. By dividing one or more of the separable data units into a plurality of data reception units that do not exceed the maximum information amount of the data reception unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP13922699A JP2000331465A (en) | 1999-05-19 | 1999-05-19 | Information processing apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP13922699A JP2000331465A (en) | 1999-05-19 | 1999-05-19 | Information processing apparatus and method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000331465A true JP2000331465A (en) | 2000-11-30 |
Family
ID=15240440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP13922699A Pending JP2000331465A (en) | 1999-05-19 | 1999-05-19 | Information processing apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000331465A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001008136A (en) * | 1999-06-21 | 2001-01-12 | Victor Co Of Japan Ltd | Authoring device for multimedia data |
| JP2002176401A (en) * | 2000-12-05 | 2002-06-21 | Jisedai Joho Hoso System Kenkyusho:Kk | Program related information creating method and program related information creating system |
| JP2002354411A (en) * | 2001-05-30 | 2002-12-06 | Sharp Corp | Multimedia data generation method, terminal device, multimedia data generation device, computer-readable recording medium recording multimedia data generation program, and multimedia data generation program |
| JPWO2008093632A1 (en) * | 2007-01-29 | 2010-05-20 | 株式会社Access | Movie processing method, movie processing program, and movie processing apparatus |
-
1999
- 1999-05-19 JP JP13922699A patent/JP2000331465A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001008136A (en) * | 1999-06-21 | 2001-01-12 | Victor Co Of Japan Ltd | Authoring device for multimedia data |
| JP2002176401A (en) * | 2000-12-05 | 2002-06-21 | Jisedai Joho Hoso System Kenkyusho:Kk | Program related information creating method and program related information creating system |
| JP2002354411A (en) * | 2001-05-30 | 2002-12-06 | Sharp Corp | Multimedia data generation method, terminal device, multimedia data generation device, computer-readable recording medium recording multimedia data generation program, and multimedia data generation program |
| JPWO2008093632A1 (en) * | 2007-01-29 | 2010-05-20 | 株式会社Access | Movie processing method, movie processing program, and movie processing apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4135251B2 (en) | Information processing device | |
| KR100641594B1 (en) | Data transmission control method, data transmission method, data transmitter, receiver | |
| KR100702339B1 (en) | Control method, control device, data receiving and recording method, data receiving device and receiving method | |
| JP5045535B2 (en) | Receiving apparatus and receiving method | |
| KR20010053387A (en) | Control method and control equipment | |
| JP4378780B2 (en) | Receiving apparatus and receiving method | |
| JP2003299047A (en) | Broadcast program replay method in digital broadcast receiver | |
| JP2001024995A (en) | Broadcasting apparatus, broadcasting method, and receiving apparatus | |
| JP2000333043A (en) | Information processing apparatus and method | |
| JP2000333138A (en) | Information processing apparatus and information processing method | |
| JP4378777B2 (en) | Broadcast receiving apparatus and broadcast receiving method | |
| JP4016160B2 (en) | Data receiving / recording method and data receiving apparatus | |
| JP2000331465A (en) | Information processing apparatus and method | |
| JP2000295586A (en) | Broadcast information processing apparatus and broadcast information processing method | |
| JP4296631B2 (en) | Broadcasting method and receiving apparatus | |
| JP4366742B2 (en) | Receiver | |
| JP2000295638A (en) | Broadcast equipment monitoring equipment | |
| JP2000333041A (en) | Information processing apparatus and information processing method | |
| JP2000032415A (en) | Receiver | |
| JP2001024612A (en) | Broadcast monitoring device | |
| JP2001022625A (en) | Data recording device, data recording method, data acquisition device, data acquisition method | |
| JP4378778B2 (en) | Receiving apparatus and receiving method | |
| JP2000032362A (en) | Information transmission apparatus and information transmission method | |
| JP2000286733A (en) | Information processing apparatus and information processing method | |
| JP2000286809A (en) | Information processing apparatus and information processing method |