[go: up one dir, main page]

JP2008005288A - Information processing apparatus, information processing method, program, and program storage medium - Google Patents

Information processing apparatus, information processing method, program, and program storage medium Download PDF

Info

Publication number
JP2008005288A
JP2008005288A JP2006173677A JP2006173677A JP2008005288A JP 2008005288 A JP2008005288 A JP 2008005288A JP 2006173677 A JP2006173677 A JP 2006173677A JP 2006173677 A JP2006173677 A JP 2006173677A JP 2008005288 A JP2008005288 A JP 2008005288A
Authority
JP
Japan
Prior art keywords
stream
information
reproduction
audio
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006173677A
Other languages
Japanese (ja)
Other versions
JP4770601B2 (en
Inventor
Ayako Iwase
綾子 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006173677A priority Critical patent/JP4770601B2/en
Publication of JP2008005288A publication Critical patent/JP2008005288A/en
Application granted granted Critical
Publication of JP4770601B2 publication Critical patent/JP4770601B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】ピクチャインピクチャで表示されるサブパスに関する情報をユーザに提示する。
【解決手段】GUI表示画面391には、例えば、Primary Videoの再生区間全体に対応するメインタイムライン401と、メインタイムライン401上の現在のPrimary Videoの再生位置を示すスライダ402が表示され、メインタイムライン401に対応付けて、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能であり、Secondary Audioが対応して再生されるかが分かるように、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoまたはSecondary Audioに応じたサブタイムライン403が表示される。そして、そのサブタイムライン403が対応付けられているストリームが、Secondary VideoまたはSecondary Audioのいずれであるかを示すアイコン404が表示される。本発明は、再生装置に適用できる。
【選択図】図34
Information about sub-paths displayed in picture-in-picture is presented to a user.
A GUI display screen 391 displays, for example, a main timeline 401 corresponding to the entire primary video playback section and a slider 402 indicating the current primary video playback position on the main timeline 401. Corresponding to the timeline 401, it can be seen which secondary video can be played as the sub-screen 302 and the secondary audio is played back in correspondence with the primary video playback section. A sub timeline 403 corresponding to Secondary Video or Secondary Audio included in the stream reproduced by this PlayList file is displayed. Then, an icon 404 indicating whether the stream associated with the sub timeline 403 is Secondary Video or Secondary Audio is displayed. The present invention can be applied to a playback apparatus.
[Selection] Figure 34

Description

本発明は、情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体に関し、特に、複数のビデオストリームが合成されて表示可能なようになされている場合に用いて好適な、情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体に関する。   The present invention relates to an information processing device, an information processing method, a program, and a program storage medium, and more particularly, an information processing device suitable for use when a plurality of video streams can be combined and displayed. The present invention relates to an information processing method, a program, and a program storage medium.

DVD(Digital Versatile Disc)ビデオの規格においては、記録媒体に記録されている映画などのAV(Audio Visual)コンテンツを再生する場合、ユーザに、音声切り替えや字幕切り替えというインタラクティブな操作を提供している(例えば、非特許文献1参照)。具体的には、図1の表示装置1に表示されているAVコンテンツに対して、ユーザは、リモートコントローラ2の音声切り替えボタン11や字幕切り替えボタン12を操作することで、音声の切り替えや字幕を切り替える。例えば、音声1が初期状態として設定されており、ユーザによりリモートコントローラ2の音声切り替えボタン11が操作された場合、図2に示されるように、音声1が音声2に切り替えられる。   In the DVD (Digital Versatile Disc) video standard, when AV (Audio Visual) content such as a movie recorded on a recording medium is played, an interactive operation such as audio switching or subtitle switching is provided to the user. (For example, refer nonpatent literature 1). Specifically, for the AV content displayed on the display device 1 in FIG. 1, the user operates the audio switching button 11 or the subtitle switching button 12 of the remote controller 2 to switch the audio or subtitle. Switch. For example, when the voice 1 is set as the initial state and the user operates the voice switching button 11 of the remote controller 2, the voice 1 is switched to the voice 2 as shown in FIG.

DVDビデオ上のAVコンテンツは、MPEG(Moving Picture Experts Group)2プログラムストリームの形式で記録されている。このMPEG2プログラムストリームには、図3に示されるように、ビデオストリーム(図3のビデオ)、複数のオーディオストリーム(図3のオーディオ1,2,3)、および複数のサブピクチャストリーム(図3のサブピクチャ1,2,3)が、ビデオストリームにAV同期して再生されるように多重化されている。サブピクチャストリーム(サブピクチャ1,2,3)は、ビットマップ画像がランレングス符号化されたストリームであり、主に字幕用途に用いられる。   AV content on a DVD video is recorded in MPEG (Moving Picture Experts Group) 2 program stream format. As shown in FIG. 3, the MPEG2 program stream includes a video stream (video in FIG. 3), a plurality of audio streams (audios 1, 2, and 3 in FIG. 3), and a plurality of sub-picture streams (in FIG. 3). The sub-pictures 1, 2, 3) are multiplexed so as to be reproduced in AV synchronization with the video stream. The sub-picture stream (sub-picture 1, 2, 3) is a stream in which a bitmap image is run-length encoded, and is mainly used for subtitles.

一般に、複数のオーディオストリームは、異なる言語の音声を記録するために用いられ、複数のサブピクチャストリームは、異なる言語の字幕を記録するために用いられる。ユーザは、ビデオが再生されている場合、インタラクティブに所望の言語の音声や字幕を、リモートコントローラ2を用いて選択することができる。   In general, a plurality of audio streams are used for recording audio in different languages, and a plurality of sub-picture streams are used for recording subtitles in different languages. When the video is being played back, the user can interactively select audio or subtitles in a desired language using the remote controller 2.

DVD Specifications for Read-Only Disc Part 3;Version1.1DVD Specifications for Read-Only Disc Part 3; Version1.1

また、追加して記録された音声(例えば、いわゆるアフレコと称される音声)を再生するために、Sub pathが用いられている技術がある(例えば、特許文献1)。   In addition, there is a technique in which a Sub path is used to reproduce additionally recorded sound (for example, so-called after-recording sound) (for example, Patent Document 1).

特開2000−158972号公報JP 2000-158972 A

また、複数の映像データを編集するために、複数のビデオストリームを同一時間軸上のタイムライン上に表現する技術がある(例えば、特許文献2)。   Also, there is a technique for expressing a plurality of video streams on a timeline on the same time axis in order to edit a plurality of video data (for example, Patent Document 2).

特開2000−348469号公報JP 2000-348469 A

特許文献1に記載の技術では、たしかに、追加して記録された音声(例えば、いわゆるアフレコと称される音声)を再生するために、Sub pathが用いられているが、2つの同一の種類のストリーム、すなわち、2つのオーディオストリームや2つのビデオストリームを合成して再生するための構成についてはなんら開示されていない。   In the technique described in Patent Document 1, the Sub path is used to reproduce the additionally recorded sound (for example, so-called after-recording sound). There is no disclosure of a stream, that is, a configuration for combining and reproducing two audio streams or two video streams.

また、特許文献2に記載の技術では、編集作業のために、複数のビデオストリームが同一時間軸上のタイムライン上に表現することができるようになされているが、これらの複数のビデオストリームは、それぞれ個別のタイムコードに基づいて撮像された独立したビデオストリームであり、合成して再生されるものではなかった。   Further, in the technique described in Patent Document 2, a plurality of video streams can be expressed on a timeline on the same time axis for editing work. These are independent video streams picked up based on individual time codes, and are not synthesized and reproduced.

したがって、例えば、2つのビデオストリームが合成して再生される場合などにおいて、それぞれのストリームが再生時間軸上においてどの位置で合成されるのかなどを把握するための技術はなかった。   Therefore, for example, when two video streams are combined and reproduced, there has been no technique for grasping at which position each stream is combined on the reproduction time axis.

本発明はこのような状況に鑑みてなされたものであり、複数のビデオストリームが合成して再生される場合の合成の状態を把握することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to grasp the state of synthesis when a plurality of video streams are synthesized and reproduced.

本発明の一側面の情報処理装置は、ストリームの再生を制御するための再生管理情報を取得する第1の取得手段と、前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得する第2の取得手段と、前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する情報生成手段とを備える。   An information processing apparatus according to an aspect of the present invention analyzes first reproduction means for obtaining reproduction management information for controlling reproduction of a stream, and the reproduction management information obtained by the first acquisition means, From the analysis result, a second acquisition unit that acquires information on one or a plurality of sub reproduction paths, which is different from the main reproduction path of the stream, is acquired by the second acquisition unit. And information generation means for generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the information on the sub reproduction path.

前記第2の取得手段には、前記副の再生パスの再生位置に関する情報を取得させるようにすることができる。   The second acquisition unit may acquire information regarding the reproduction position of the sub reproduction path.

前記情報生成手段には、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される第2のストリームの再生位置を示す画像情報を生成させるようにすることができる。   The information generation means reproduces all the sub reproduction paths managed for reproduction by the reproduction management information in association with the reproduction time axis of the first stream reproduced by the main reproduction path. Image information indicating the reproduction position of the second stream can be generated.

前記情報生成手段には、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれの再生範囲を示す情報を含む前記画像情報を生成させるようにすることができる。   The information generation unit may generate the image information including information indicating each reproduction range of the plurality of second streams reproduced by the sub reproduction path.

前記情報生成手段には、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれのストリームの種類を示す情報を含む前記画像情報を生成させるようにすることができる。   The information generation means may generate the image information including information indicating a type of each of the plurality of second streams reproduced by the sub reproduction path.

前記ストリームデータのうちの少なくとも一部を取得する第3の取得手段を更に備えさせるようにすることができ、前記情報生成手段には、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部を含む前記画像情報を生成させるようにすることができる。   A third acquisition unit that acquires at least a part of the stream data can be further provided, and the information generation unit includes the stream data acquired by the third acquisition unit. On the basis of at least a part of the image information, the image information including at least a part of the image data constituting the plurality of second streams reproduced by the sub reproduction path can be generated.

前記第2の取得手段には、前記正の再生パスおよび前記副の再生パスにより再生されるストリームを構成する画像データのうちの一部を取得させるようにすることができ、前記情報生成手段には、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成させるようにすることができる。   The second acquisition means can acquire a part of image data constituting a stream reproduced by the primary reproduction path and the secondary reproduction path, and the information generation means Is based on at least a part of the image data that constitutes the stream acquired by the second acquisition means, among the image data that constitutes the first stream that is reproduced by the main reproduction path. Image information including at least a part and at least a part of the image data constituting the second stream reproduced by the sub reproduction path can be generated.

前記情報生成手段により生成された前記ストリームに関する情報の表示を制御する表示制御手段を更に備えさせるようにすることができる。   A display control means for controlling display of information on the stream generated by the information generation means can be further provided.

前記ストリームデータを取得する第3の取得手段と、前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段とを更に備えさせるようにすることができ、前記表示制御手段には、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御させるようにすることができる。   A third acquisition unit that acquires the stream data, and a reproduction that controls reproduction of the stream data acquired by the third acquisition unit based on the reproduction management information acquired by the first acquisition unit Control means, and the display control means superimposes information on the stream generated by the information generation means on the stream data whose reproduction is controlled by the reproduction control means. The display of information regarding the stream can be controlled so that the information is displayed.

ユーザによる操作入力を取得する操作入力取得手段を更に備えさせるようにすることができ、前記第2の取得手段には、前記副の再生パスの再生位置に関する情報を取得させるようにすることができ、前記情報生成手段には、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報を生成させるようにすることができ、前記表示制御手段には、前記情報生成手段により生成された前記画像情報の生成を制御させるようにすることができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段には、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御させるようにすることができる。   Operation input acquisition means for acquiring an operation input by a user can be further provided, and the second acquisition means can acquire information related to the reproduction position of the secondary reproduction path. The information generating means reproduces the reproduction data by all the sub reproduction paths managed for reproduction by the reproduction management information in association with the reproduction time axis of the first stream reproduced by the main reproduction path. Image information indicating a reproduction position of the second stream can be generated, and the display control unit can control generation of the image information generated by the information generation unit. And the playback position of the second stream by the user with reference to the image information whose display is controlled by the display control means by the operation input acquisition means. When an operation input for selecting any one of them is acquired, the playback control unit controls playback of the first stream and the second stream from the selected playback position. be able to.

ユーザによる操作入力を取得する操作入力取得手段を更に備えさせるようにすることができ、前記第2の取得手段には、前記副の再生パスの再生位置に関する情報、および、前記ストリームを構成する画像データのうちの一部を取得させるようにすることができ、前記情報生成手段には、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成させるようにすることができ、前記表示制御手段には、前記情報生成手段により生成された前記画像情報の生成を制御させるようにすることができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段には、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御させるようにすることができる。   An operation input acquisition means for acquiring an operation input by a user can be further provided. The second acquisition means includes information on the reproduction position of the secondary reproduction path and images constituting the stream. A part of the data can be acquired, and the information generation unit is configured to acquire the main reproduction based on at least a part of the stream data acquired by the second acquisition unit. An image including at least a part of the image data constituting the first stream reproduced by the path and at least a part of the image data constituting the second stream reproduced by the sub reproduction path Information may be generated, and the display control unit may control generation of the image information generated by the information generation unit. The operation input acquisition unit selects any of the image data constituting the second stream by the user with reference to the image information whose display is controlled by the display control unit. When the operation input is acquired, the reproduction control unit receives the first stream and the second stream from the first reproduction position of the second stream corresponding to the image data selected by the user. Playback can be controlled.

本発明の一側面の情報処理方法は、再生されるストリームに関する情報を生成する情報処理装置の情報処理方法であって、前記ストリームの再生を制御するための再生管理情報を取得し、取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得し、取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成するステップを含む。   An information processing method according to an aspect of the present invention is an information processing method for an information processing apparatus that generates information about a stream to be played back, and acquires and manages playback management information for controlling playback of the stream. Analyzing the reproduction management information, obtaining information relating to one or a plurality of secondary reproduction paths, which is different from the primary reproduction path of the stream, and obtaining information relating to the obtained secondary reproduction path And generating information related to the stream reproduced by the main reproduction path and the sub reproduction path.

本発明の一側面のプログラムまたはプログラム格納媒体に格納されているプログラムは、ストリームの再生を制御するための再生管理情報の取得を制御し、取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報の取得を制御し、取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成するステップを含む処理をコンピュータに実行させる。   The program of one aspect of the present invention or the program stored in the program storage medium controls acquisition of reproduction management information for controlling reproduction of a stream, analyzes the reproduction management information for which acquisition is controlled, The playback path is different from the main playback path of the stream, controls acquisition of information on one or more secondary playback paths, and based on the information on the secondary playback path whose acquisition is controlled, Causing the computer to execute a process including a step of generating information relating to the stream reproduced by the main reproduction path and the sub reproduction path.

本発明の一側面においては、ストリームの再生を制御するための再生管理情報が取得され、再生管理情報が解析されて、ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報が取得され、副の再生パスに関する情報を基に、主の再生パスおよび副の再生パスにより再生されるストリームに関する情報が生成される。   In one aspect of the present invention, reproduction management information for controlling the reproduction of a stream is acquired, the reproduction management information is analyzed, and the reproduction path is different from the main reproduction path of the stream, and one or more Information on the secondary reproduction path is acquired, and information on the main reproduction path and the stream reproduced by the secondary reproduction path is generated based on the information on the secondary reproduction path.

ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。   The network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device. The devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.

また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。   The communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. May be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.

再生装置は、独立した装置であっても良いし、記録再生装置の再生処理を行うブロックであっても良い。   The playback device may be an independent device or a block that performs playback processing of the recording / playback device.

以上のように、本発明の一側面によれば、再生管理情報が解析され、特に、副の再生パスに関する情報を基に、主の再生パスおよび副の再生パスにより再生されるストリームに関する情報が生成されるので、ユーザに、主の再生パスにより再生されるストリームのみならず、副の再生パスにより再生されるストリームの内容や再生位置などを分かりやすく提示することができる。   As described above, according to one aspect of the present invention, the reproduction management information is analyzed. In particular, based on the information on the secondary reproduction path, information on the main reproduction path and the stream reproduced by the secondary reproduction path is obtained. Thus, not only the stream reproduced by the main reproduction path but also the contents and reproduction position of the stream reproduced by the sub reproduction path can be presented to the user in an easily understandable manner.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の情報処理装置は、ストリームの再生を制御するための再生管理情報(例えば、PlayList)を取得する第1の取得手段(例えば、図32のPlayList読み出し制御部351)と、前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)を取得する第2の取得手段(例えば、図32のPlayList解析部352およびIN_time/OUT_time取得部356)と、前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータまたは図32の再生開始位置情報記憶制御部358に記憶される情報)を生成する情報生成手段とを備える。   An information processing apparatus according to an aspect of the present invention includes first acquisition means (for example, PlayList read control unit 351 in FIG. 32) that acquires reproduction management information (for example, PlayList) for controlling reproduction of a stream, Analyzing the reproduction management information acquired by the first acquisition means, and based on the analysis result, is a reproduction path different from the main reproduction path of the stream, and information on one or more sub reproduction paths (for example, , Image data, or IN_time and OUT_time) second acquisition means (for example, PlayList analysis unit 352 and IN_time / OUT_time acquisition unit 356 in FIG. 32) and the sub-acquisition acquired by the second acquisition means. Information on the stream reproduced by the main reproduction path and the sub reproduction path (for example, data on the GUI display screen in FIG. 33 to FIG. Information generation means for generating (information stored in 32 reproduction start position information storage control unit 358).

前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)を取得することができる。   The second acquisition unit can acquire information (for example, IN_time and OUT_time) regarding the playback position of the secondary playback path.

前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸(例えば、図34のメインタイムライン401)に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される第2のストリームの再生位置を示す画像情報(例えば、図33または図34のGUI表示画面391のデータ)を生成することができる。   The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path (for example, the main timeline 401 in FIG. 34), and all of the reproduction managed by the reproduction management information. Image information (for example, data on the GUI display screen 391 of FIG. 33 or FIG. 34) indicating the playback position of the second stream played back by the sub playback path of the above can be generated.

前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれの再生範囲を示す情報(例えば、サブタイムライン403)を含む前記画像情報を生成することができる。   The information generation unit can generate the image information including information (for example, a sub timeline 403) indicating a reproduction range of each of the plurality of second streams reproduced by the sub reproduction path.

前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれのストリームの種類を示す情報(例えば、アイコン404)を含む前記画像情報を生成することができる。   The information generation unit can generate the image information including information (for example, an icon 404) indicating each stream type of the plurality of second streams reproduced by the sub reproduction path.

前記ストリームデータのうちの少なくとも一部を取得する第3の取得手段(例えば、図32のストリームデータ読み出し制御部354)を更に備えることができ、前記情報生成手段は、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部(例えば、サムネイル)を含む前記画像情報を生成することができる。   A third acquisition unit (for example, the stream data read control unit 354 in FIG. 32) that acquires at least a part of the stream data can be further provided, and the information generation unit is Based on at least a part of the acquired stream data, includes at least a part (for example, a thumbnail) of image data constituting the plurality of second streams reproduced by the sub reproduction path. The image information can be generated.

前記第2の取得手段は、前記正の再生パスおよび前記副の再生パスにより再生されるストリームを構成する画像データ(例えば、サムネイルの基となる画像データ)のうちの一部を取得することができ、前記情報生成手段は、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像441)、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像442)を含む画像情報(例えば、図35のGUI表示画面421のデータ)を生成することができる。   The second acquisition means may acquire a part of image data (for example, image data that is a basis of a thumbnail) that constitutes a stream that is reproduced by the primary reproduction path and the secondary reproduction path. The information generation means can configure a first stream to be reproduced by the main reproduction path based on at least a part of the image data constituting the stream acquired by the second acquisition means. At least a part of the image data (for example, the thumbnail image 441 in FIG. 35) and at least a part of the image data constituting the second stream reproduced by the sub reproduction path (for example, FIG. Image information including 35 thumbnail images 442) (for example, data of the GUI display screen 421 in FIG. 35) can be generated.

前記情報生成手段により生成された前記ストリームに関する情報の表示を制御する表示制御手段(例えば、図32のGUI表示制御部359)を更に備えることができる。   The display control means (for example, GUI display control part 359 of FIG. 32) which controls the display of the information regarding the said stream produced | generated by the said information production | generation means can be further provided.

前記ストリームデータを取得する第3の取得手段(例えば、図32のストリームデータ読み出し制御部354)と、前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段(例えば、図32の再生制御部355)とを更に備え、前記表示制御手段は、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御(OSD30による画像合成を制御)することができる。   Based on the third acquisition means for acquiring the stream data (for example, the stream data read control unit 354 in FIG. 32) and the reproduction management information acquired by the first acquisition means, the third acquisition means. Further comprising a reproduction control means (for example, a reproduction control unit 355 in FIG. 32) for controlling reproduction of the stream data acquired by the display control means, wherein the display control means controls the stream data whose reproduction is controlled by the reproduction control means. In addition, it is possible to control the display of the information related to the stream (control the image composition by the OSD 30) so that the information related to the stream generated by the information generating means is displayed superimposed.

ユーザによる操作入力を取得する操作入力取得手段(例えば、図32の操作入力取得部353)を更に備えることができ、前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)を取得することができ、前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸(例えば、図34のタイムライン401)に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報(例えば、図33または図34のGUI表示画面391のデータ)を生成することができ、前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御することができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御することができる。   An operation input acquisition unit (for example, an operation input acquisition unit 353 in FIG. 32) that acquires an operation input by a user can be further provided, and the second acquisition unit includes information on the reproduction position of the sub reproduction path (for example, , IN_time and OUT_time), and the information generating means associates with the playback time axis (for example, timeline 401 in FIG. 34) of the first stream played back by the main playback path, Image information (for example, data on the GUI display screen 391 in FIG. 33 or FIG. 34) indicating the playback position of the second stream played back by all the secondary playback paths whose playback is managed by the playback management information. The display control means can control the generation of the image information generated by the information generation means, and the operation input acquisition means allows the display to be displayed. When an operation input for selecting any one of the playback positions of the second stream by the user referring to the image information whose display is controlled by the control means is acquired, the playback control means Playback of the first stream and the second stream from the playback position can be controlled.

ユーザによる操作入力を取得する操作入力取得手段(例えば、図32の操作入力取得部353)を更に備えることができ、前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)、および、前記ストリームを構成する画像データ(例えば、サムネイルの基となる画像データ)のうちの一部を取得することができ、前記情報生成手段は、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像441)、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像442)を含む画像情報(例えば、図35のGUI表示画面421のデータ)を生成することができ、前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御することができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御することができる。   An operation input acquisition unit (for example, an operation input acquisition unit 353 in FIG. 32) that acquires an operation input by a user can be further provided, and the second acquisition unit includes information on the reproduction position of the sub reproduction path (for example, , IN_time and OUT_time) and part of the image data constituting the stream (for example, image data that is the basis of the thumbnail), and the information generation means is the second acquisition means 35, at least a part of the image data constituting the first stream reproduced by the main reproduction path (for example, the thumbnail image 441 in FIG. 35). ) And at least a part of the image data constituting the second stream reproduced by the sub reproduction path (for example, the thumbnail of FIG. Image information including the image 442) (for example, data of the GUI display screen 421 in FIG. 35) can be generated, and the display control unit controls generation of the image information generated by the information generation unit. An operation input for selecting any one of the image data constituting the second stream by the user referring to the image information whose display is controlled by the display control unit by the operation input acquisition unit is possible. When acquired, the reproduction control means controls reproduction of the first stream and the second stream from the first reproduction position of the second stream corresponding to the image data selected by the user. be able to.

本発明の一側面の情報処理方法は、再生されるストリームに関する情報を生成する情報処理装置の情報処理方法であって、前記ストリームの再生を制御するための再生管理情報(例えば、PlayList)を取得し(例えば、図37のステップS41の処理)、取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)を取得し(例えば、図37のステップS42乃至ステップS51の処理)、取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータまたは図32の再生開始位置情報記憶制御部358に記憶される情報)を生成する(例えば、図37のステップS53の処理)ステップを含む。   An information processing method according to an aspect of the present invention is an information processing method of an information processing device that generates information about a stream to be played back, and acquires playback management information (for example, PlayList) for controlling playback of the stream (For example, the process of step S41 in FIG. 37), the obtained reproduction management information is analyzed, and is a reproduction path different from the main reproduction path of the stream, and one or a plurality of sub reproduction paths. Information (for example, image data or IN_time and OUT_time) is acquired (for example, processing in steps S42 to S51 in FIG. 37), and the main reproduction is performed based on the acquired information regarding the sub reproduction path. Information on the stream reproduced by the path and the sub reproduction path (for example, data on the GUI display screen of FIGS. 33 to 35 or reproduction start position information of FIG. 32) Generates information) stored in the 憶 controller 358 (e.g., including processing) step in step S53 of FIG. 37.

本発明の一側面のプログラムは、再生されるストリームに関する情報を生成する処理をコンピュータに実行させるためのプログラムであって、前記ストリームの再生を制御するための再生管理情報(例えば、PlayList)の取得を制御し(例えば、図37のステップS41の処理)、取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)の取得を制御し(例えば、図37のステップS42乃至ステップS51の処理)、取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータ) または図32の再生開始位置情報記憶制御部358に記憶される情報を生成する(例えば、図37のステップS53の処理)
ステップを含む処理をコンピュータに実行させる。
A program according to one aspect of the present invention is a program for causing a computer to execute processing for generating information regarding a stream to be played back, and acquiring playback management information (for example, PlayList) for controlling playback of the stream (For example, the process of step S41 in FIG. 37), the playback management information whose acquisition is controlled is analyzed, and is a playback path different from the main playback path of the stream, and one or more Information on the secondary reproduction path (for example, image data or IN_time and OUT_time) is controlled (for example, processing in steps S42 to S51 in FIG. 37), and information on the secondary reproduction path whose acquisition is controlled. On the basis of the information related to the stream reproduced by the main reproduction path and the sub reproduction path (for example, GUI display in FIGS. 33 to 35) To produce information which is stored in the reproduction start position information storage control unit 358 of the surface of the data) or 32 (for example, step S53 in FIG. 37)
Causes a computer to execute processing including steps.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図4は、本発明を適用した再生装置(図29を参照して後述する)のローカルストレージ(例えば、ハードディスクやメモリなど)上の、または、装着される記録媒体上のアプリケーションフォーマットの例を示す図である。記録媒体は、後述する光ディスクの他、磁気ディスクや半導体メモリであってもよい。   FIG. 4 shows an example of an application format on a local storage (for example, a hard disk or a memory) of a playback apparatus (described later with reference to FIG. 29) to which the present invention is applied or on a recording medium to be mounted. FIG. The recording medium may be a magnetic disk or a semiconductor memory in addition to the optical disk described later.

アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayListとClipの2つのレイヤを有している。ここでは、AVストリームとそれに付随する情報であるクリップインフォメーション(Clip Information)のペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。なお、AVストリームファイルには、音声データや映像データ以外にも、これらのデータとともに再生される各種のストリームファイルが含まれていてもよい。また、ClipインフォメーションをClipインフォメーションファイルとも称する。   The application format has two layers, PlayList and Clip, for managing AV (Audio Visual) streams. Here, a pair of an AV stream and clip information (Clip Information) that is information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. In addition to audio data and video data, the AV stream file may include various stream files that are reproduced together with these data. Clip information is also referred to as a Clip information file.

一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。   In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.

Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。   When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.

PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図4に示されるように1つ、または複数のPlayItemにより構成される。   The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Therefore, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.

図4において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。   In FIG. 4, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.

例えば、図4のディスクナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。   For example, when the disc navigation program of FIG. 4 specifies the left PlayItem included in the first PlayList from the left as the information indicating the playback position at that time, it is included in the left Clip referred to by the PlayItem. The first half of the AV stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.

ディスクナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ディスクナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このディスクナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述され、記録媒体上に用意される。   The disc navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The disc navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This disc navigation program is described in a programming language such as Java (registered trademark), and is prepared on a recording medium.

本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに並行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置(図29を参照して後述する)内部のローカルストレージ上の、または、装着される記録媒体上のアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)をPlayListの中に持つことが可能である。   In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and in the PlayList, parallel to the Main Path (in parallel) ) And a playback path created by a sequence of one or more sub paths (which may be discontinuous or may be continuous) is referred to as a sub path. That is, the application format on the local storage in the playback apparatus (to be described later with reference to FIG. 29) or on the recording medium to be loaded is a sub path (Sub) that is played back in association with (in addition to) the main path. Path) can be included in the PlayList.

図5は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。   FIG. 5 is a diagram for explaining the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.

図5の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。   In the case of the example in FIG. 5, the PlayList has one main path made up of a sequence of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. A subpath of Subpath_id = 0 includes one SubPlayItem, a subpath of Subpath_id = 1 includes two SubPlayItems, and a subpath of Subpath_id = 2 includes one SubPlayItem.

Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。   The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.

1つのPlayItemが参照するClip AVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリーム(Presentation Graphic stream)が1つ以上含まれてもよいし、含まれなくてもよい。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、Clip AVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。   A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the Clip AV stream file may or may include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the Clip AV stream file. It does not have to be. Furthermore, the Clip AV stream file may or may not include one or more bitmap subtitle streams (Presentation Graphic streams) that are played back at the same timing as the video stream included in the Clip AV stream file. Good. The Clip AV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the Clip AV stream file. The video stream included in the Clip AV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more. The interactive graphics stream data is multiplexed.

すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。   That is, a Clip AV stream file referred to by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream.

また、1つのSubPlayItemは、PlayItemが参照するClip AVストリームファイルとは異なるストリーム(別ストリーム)の、ビデオストリーム、オーディオストリーム、または、字幕データなどを参照する。   Also, one SubPlayItem refers to a video stream, an audio stream, subtitle data, or the like of a stream (different stream) different from the Clip AV stream file referred to by the PlayItem.

メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中から音声や字幕を選択することのみが可能である。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClip AVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを選択して再生させることができる。   When playing a PlayList that has only the main path, the user's operation of switching audio or subtitles selects audio or subtitles from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. It is only possible. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem And a sub-picture stream can be selected and reproduced.

このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClip AVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。   In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the Clip AV stream referred to by MainPath, a SubPlayItem can be added later.

図6は、メインパスとサブパスの例を説明する図である。図6においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。   FIG. 6 is a diagram illustrating an example of a main path and a sub path. In FIG. 6, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path.

図6のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、メインClipAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図6の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、Clip(ここでは、Auxiliary audio stream)の中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図6の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図6の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。   The PlayList in FIG. 6 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main Clip AV stream. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the example of FIG. 6, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for designating the playback section of the Sub Path in the Clip (Auxiliary audio stream here). Further, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be reproduced on the time axis of the Main path. In the case of the example in FIG. 6, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. As a result, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 6, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.

ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。   Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities).

また、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClip AVストリーム(主に再生されるメインAVストリーム)とは異なるClip AVストリームのオーディオストリームを参照して、再生することができる。   Also, information included in SubPlayItem () (information specifying a Clip referred to by Sub Path, information specifying a playback section of Sub Path, and time at which Sub Path starts playback on the time axis of Main path) Based on the information), the audio stream of the clip AV stream different from the clip AV stream (mainly reproduced main AV stream) referred to by the main path can be referred to and reproduced.

このように、PlayItemとSubPlayItemは、Clip AVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClip AVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClip AVストリームファイルは同一のファイルに多重化されていても良いし、異なるファイルとしてもよい。   As described above, PlayItem and SubPlayItem manage Clip AV stream files, respectively. Here, the Clip AV stream file (main AV stream) managed by PlayItem and the Clip AV stream file managed by SubPlayItem are the same file. Multiple files may be multiplexed, or different files may be used.

なお、図6の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。   Similar to the example of FIG. 6, a subtitle stream playback path that is played back at the same timing as the main path can be expressed using a sub path.

図7は、メインパスとサブパスの別の例を説明する図である。図7においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。ここで、メインパスのPlayItemが参照するメインClipAVストリームファイルは、図6と同様であるので省略している。   FIG. 7 is a diagram illustrating another example of the main path and the sub path. In FIG. 7, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path. Here, the main Clip AV stream file referred to by PlayItem in the main path is the same as in FIG.

例えば、メインパスにより参照されるClipAVストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスのオーディオパスにより参照されるAuxiliary audio stream(Clip)をその映画に対する監督のコメントとし、メインパスで参照されるClipAVストリームのオーディオストリームにサブパスのオーディオパスで参照されるAuxiliary audio streamをミキシング(重ねて)再生するような場合に、このような構成が利用される。すなわち、図7に示されるメインパスとサブパスの構成は、ユーザが、映画を見ながら、その映画に対する監督のコメントを合わせて聞く指令を再生装置(プレーヤ)へ入力した場合、換言すれば、メインパスで参照されるClipAVストリームの音声と、サブパスのオーディオパスで参照されるAuxiliary audio streamとを、ミキシングして再生させる場合に利用される。   For example, a clip AV stream referenced by the main path is set as one movie content (AV content), an auxiliary audio stream (Clip) referenced by the sub-path audio path is set as a director's comment for the movie, and is referenced by the main path. Such an arrangement is used in the case where an auxiliary audio stream referred to by the audio path of the sub path is mixed (reproduced) with the audio stream of the clip AV stream. That is, the configuration of the main path and the sub path shown in FIG. 7 is that when the user inputs an instruction to listen to the director's comment together with the movie while watching the movie, in other words, This is used when the audio of the Clip AV stream referenced by the path and the auxiliary audio stream referenced by the sub-path audio path are mixed and reproduced.

図7においては、メインパスに3つのPlayItemがPlayItem_id=0,1,2と配置され、サブパス(Subpath_id=0)に2つのSubPlayItemが配置されている。そして、Subpath_id=0のSubPath(図26にて後述する)で呼び出すSubPlayItem(図28にて後述する)は、Auxiliary audio stream(SubClip_entry_id=0の英語のAuxiliary audio streamのクリップ及びSubClip_entry_id=1の日本語のAuxiliary audio streamのクリップ)のSubpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。   In FIG. 7, three PlayItems are arranged in the main path as PlayItem_id = 0, 1, 2, and two SubPlayItems are arranged in the subpath (Subpath_id = 0). SubPlayItem (described later in FIG. 28) called by SubPath_id = 0 (described later in FIG. 26) is an Auxiliary audio stream (English Auxiliary audio stream clip of SubClip_entry_id = 0 and SubClip_entry_id = 1 in Japanese) SubPlayItem_IN_time and SubPlayItem_out_time for specifying the subpath playback section of (Auxiliary audio stream clip).

図7と図6とを比較するに、図7においては、SubPlayItemによって、SubClip_entry_id=0,1のAuxiliary audio stream(英語または日本語のオーディオストリーム)を参照することができる。すなわち、SubPlayItemを用いて、複数のオーディオストリームファイルを参照する構造を有し、このSubPlayItemを再生する場合には、複数のオーディオストリームファイルからオーディオストリームファイルが選ばれて再生される。図7の例の場合、英語のオーディオストリームファイルと日本語のオーディオストリームファイルのうち、1つのオーディオストリームファイルが選ばれて再生される。具体的には、subClip_entry_id=0,1の中から(例えば、ユーザの指令に基づいて)1つが選択され、そのIDが参照するAuxiliary audio streamが再生される。また、これに加えて、さらにメインパスにより参照されるオーディオストリームとの組み合わせによる再生が選択された場合、メインパスで参照される1stオーディオストリームと、サブパスのオーディオパスで参照される2ndオーディオストリームファイルとが、ミキシングされて再生される。なお、2つのサブパスで参照される2つのオーディオストリームが、ミキシングされて再生されるようにすることも可能であるが、これについては後述する。   7 is compared with FIG. 6, in FIG. 7, an auxiliary audio stream (English or Japanese audio stream) of SubClip_entry_id = 0, 1 can be referred to by SubPlayItem. In other words, a SubPlayItem is used to refer to a plurality of audio stream files, and when the SubPlayItem is reproduced, the audio stream file is selected from the plurality of audio stream files and reproduced. In the case of the example in FIG. 7, one audio stream file is selected and reproduced from the English audio stream file and the Japanese audio stream file. Specifically, one of subClip_entry_id = 0 and 1 is selected (for example, based on a user instruction), and an auxiliary audio stream referred to by the ID is reproduced. In addition to this, when playback in combination with an audio stream referenced by the main path is further selected, the 1st audio stream referenced by the main path and the 2nd audio stream file referenced by the audio path of the sub path are selected. Are mixed and played back. Note that two audio streams referenced in the two sub-paths may be mixed and played back, which will be described later.

次に、図5乃至図7を用いて説明したメインパスとサブパスの構造を具体的に実現するためのデータ構造(シンタクス)を説明する。   Next, a data structure (syntax) for specifically realizing the main path and sub path structures described with reference to FIGS. 5 to 7 will be described.

図8は、再生装置において再生可能なデータファイルのファイルシステムの例を示す図である。図8には、一例として、再生装置において再生可能なデータファイルが光ディスクなどの記録媒体によって供給されている場合を示しており、このファイルシステムはディレクトリ構造を有している。   FIG. 8 is a diagram illustrating an example of a file system of a data file that can be played back by the playback apparatus. FIG. 8 shows, as an example, a case where a data file that can be played back by a playback apparatus is supplied by a recording medium such as an optical disk, and this file system has a directory structure.

このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディレクトリが用意され、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これらのファイルをそれぞれIndexファイル、NavigationObjectファイルと称する。また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。   In this file system, a directory with the name “BDMV” is prepared under “root”, and a file with the name “Index.bdmv” and a file “NavigationObject.bdmv” Contains a file with a name. Hereinafter, these files will be referred to as an Index file and a NavigationObject file, respectively, as appropriate. As appropriate, each file is referred to by adding “file” to “file name”, or each directory is referred to by adding “directory” to “directory name”.

Indexファイルは、インデックステーブルが記載されたファイルであり、再生装置において再生可能なデータファイルを再生するメニューに関する情報を含む。再生装置は、例えば、再生装置において再生可能なデータファイルに含まれるコンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面をIndexファイルに基づいて、表示装置に表示させる。Indexファイルのインデックステーブルには各項目が選択されたときに実行するNavigationObjectを設定することができ、ユーザにより再生メニュー画面から1つの項目が選択された場合、再生装置はIndexファイルのインデックステーブルに設定されているNavigationObjectのコマンドを実行する。   The Index file is a file in which an index table is described, and includes information related to a menu for reproducing a data file that can be reproduced by the reproducing apparatus. For example, the playback device displays a playback menu screen including items such as all content included in a data file that can be played back by the playback device, only a specific chapter is played, repeated playback, and an initial menu is displayed. Display on the display device based on the Index file. The navigation object to be executed when each item is selected can be set in the index file index table. When one item is selected from the playback menu screen by the user, the playback device is set in the index file index table. Execute the NavigationObject command.

NavigationObjectファイルは、NavigationObjectを含むファイルである。NavigationObjectは、再生装置において再生可能なデータファイルに含まれているPlayListの再生を制御するコマンドを含み、例えば、再生装置は、このファイルシステムに含まれているNavigationObjectの中から1つを選択して、実行することにより、コンテンツを再生させることができる。   The NavigationObject file is a file containing NavigationObject. The NavigationObject includes a command for controlling playback of a PlayList included in a data file that can be played back by the playback device. For example, the playback device selects one of the NavigationObjects included in the file system. By executing, the content can be reproduced.

BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ(BACKUPディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、「CLIPINF」の名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定されたディレクトリ(AUXDATAディレクトリ)が設けられている。   The BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), and a directory with the name “CLIPINF” (CLIPINF directory). , A directory (STREAM directory) in which the name “STREAM” is set, and a directory (AUXDATA directory) in which the name “AUXDATA” is set.

BACKUPディレクトリには、再生装置において再生可能なファイルやデータをバックアップするためのファイルやデータが記録される。   In the BACKUP directory, files and data for backing up files and data that can be played back by the playback device are recorded.

PLAYLISTディレクトリには、PlayListファイルが格納される。各PlayListファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.mpls」を付加した名称が命名される。   A PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name consisting of a 5-digit number.

CLIPINFディレクトリには、Clip Informationファイルが格納される。各Clip Informationファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.clpi」を付加した名称が命名される。   A Clip Information file is stored in the CLIPINF directory. Each Clip Information file is named by adding the extension “.clpi” to a file name consisting of five digits as shown in the figure.

STREAMディレクトリには、Clip AVストリームファイルやサブストリームファイルが格納される。各ストリームファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.m2ts」を付加した名称が命名される。   In the STREAM directory, a Clip AV stream file and a substream file are stored. Each stream file is given a name obtained by adding an extension “.m2ts” to a file name consisting of five digits as shown in the figure.

AUXDATAディレクトリには、Clip AVストリームファイルやサブストリームファイルに含まれずに、Clip AVストリームファイルやサブストリームファイルから参照されるデータや、Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデータなどのファイルが格納される。図8の例においては、AUXDATAディレクトリには、「11111.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名前が設定された効果音などのサウンドデータが格納されている。   The AUXDATA directory is not included in the Clip AV stream file or substream file, but is referred to from the Clip AV stream file or substream file, or data used independently of the Clip AV stream file or substream file. And other files are stored. In the example of FIG. 8, the AUXDATA directory stores sound data such as subtitle font files with the name “11111.otf” and sound effects with the name “sound.bdmv”. ing.

以下、主に再生出力される音声データをプライマリオーディオストリーム(Primary audio stream)と称し、例えば、ユーザの操作入力に対応して発生するクリック音や効果音など、上述したAUXDATAディレクトリにsound.bdmvとして記載されている音声データをサウンドデータと称するものとする。サウンドデータはプライマリオーディオストリームに合成可能である。また、プライマリオーディオストリームとは別のストリームであって、例えば、副音声など、プライマリオーディオストリームに合成可能な音声データをセカンダリオーディオストリームと称するものとする。なお、プライマリオーディオストリームとは別のストリームであって、プライマリオーディオストリームに合成可能な音声データはであるセカンダリオーディオストリームは複数存在してもよく、その場合、例えば、異なるIDを用いて、それぞれ、区別可能なようにすればよい。   Hereinafter, the audio data that is mainly played back and output is referred to as a primary audio stream (Primary audio stream) .For example, clicks and sound effects generated in response to user operation inputs, such as sound.bdmv in the AUXDATA directory described above. The described audio data is referred to as sound data. Sound data can be synthesized into the primary audio stream. Also, audio data that is different from the primary audio stream and can be synthesized with the primary audio stream, such as sub audio, is referred to as a secondary audio stream. Note that there may be a plurality of secondary audio streams that are different from the primary audio stream and can be synthesized with the primary audio stream.In this case, for example, using different IDs, What is necessary is just to make it distinguishable.

また、再生装置において再生可能なデータファイルが光ディスクによって配布されている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルオーサに割り当てられた識別子であるauthor_id、および、author_idに示されるタイトルオーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子であるdisc_idが、ユーザなどにより書き換えることができないセキュアな電子データとして、または、物理的にピットによって記録されている。   Also, when data files that can be played back on the playback device are distributed on an optical disc, for example, the content author, such as a production company or a movie distribution company, or the title author that is the supply source of this recording medium is identified. Therefore, the author_id that is the identifier assigned to each title author and the disc_id that is the identifier assigned to identify the type of optical disc produced by the title author indicated by the author_id can be rewritten by the user or the like. It cannot be recorded as secure electronic data or physically by pits.

また、再生装置において再生可能なデータファイルが光ディスク以外のリムーバブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされている場合も、author_id、および、author_idに相当するidが割り当てられてそれぞれ区別可能なようになされ、図8に示す場合と同様のディレクトリ構造を有していると好適である。また、再生装置において再生可能なデータファイルには、author_id、および、author_idに相当するidが割り当てられていないとしても、図8を用いて説明した場合と同様に、「Index.bdmv」の名前が設定されたファイル、「NavigationObject.bdmv」の名前が設定されたファイルが含まれており、「BACKUP」の名前が設定されたファイル群、「PLAYLIST」の名前が設定されたファイル群、「CLIPINF」の名前が設定されたファイル群、「STREAM」の名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル群のうち、適宜必要なファイル群が含まれている。   In addition, when a data file that can be played back by a playback device is recorded on a removable recording medium other than an optical disk or downloaded via a network, an id corresponding to author_id and author_id is assigned. Each can be distinguished, and preferably has a directory structure similar to that shown in FIG. In addition, even if an author_id and an id corresponding to author_id are not assigned to a data file that can be played back by the playback device, the name “Index.bdmv” is the same as in the case described with reference to FIG. The set file, the file with the name "NavigationObject.bdmv" is included, the file group with the name "BACKUP", the file group with the name "PLAYLIST", "CLIPINF" Necessary file groups are included among the file group set with the name of "," the file group set with the name of "STREAM", and the file group set with the name of "AUXDATA".

Indexファイル(Index.bdmv)のシンタクスを図9に示す。   FIG. 9 shows the syntax of the Index file (Index.bdmv).

Type_indicatorは、ISO646に基づいて符号化された"INDX"の値が記述されるフィールドである。   Type_indicator is a field in which the value of “INDX” encoded based on ISO646 is described.

version_numberは、Index.bdmvのバージョンナンバを示す4文字の文字列であり、ISO646に基づいて符号化された"0089"の値が記述される。   version_number is a 4-character string indicating the version number of Index.bdmv, and the value “0089” encoded based on ISO646 is described.

Indexes_start_addressは、Indexes()ブロックのスタートアドレスが記載されるフィールドである。   Indexes_start_address is a field in which the start address of the Indexes () block is described.

AppInfoBDMV()には、このIndexファイルを含むデータファイルの供給元を示す、個別の識別子などが記載されている。   In AppInfoBDMV (), an individual identifier indicating the supply source of the data file including this Index file is described.

Indexes()には、例えば、メニューを読み出したり、タイトルを検索したり、所定のタイトルにジャンプしたり、または、このIndexファイルを含むデータファイルが記録されている光ディスクなどの記録媒体が再生装置に装着された場合に自動的に起動する処理を実行するアプリケーション(NavigationObject)とのリンクが記載されている。Indexes()のシンタクスについては、図10を用いて後述する。   In Indexes (), for example, a menu is read, a title is searched, a jump is made to a predetermined title, or a recording medium such as an optical disk in which a data file including this Index file is recorded is stored in the playback device. A link with an application (NavigationObject) that executes a process that automatically starts when attached is described. The syntax of Indexes () will be described later with reference to FIG.

Padding_wordは、Index.bdmvのシンタクスに基づいて挿入されるものであり、0または正の整数で表される。   Padding_word is inserted based on the syntax of Index.bdmv, and is represented by 0 or a positive integer.

Indexes()のシンタクスの例を、図10に示す。   An example of the syntax of Indexes () is shown in FIG.

lengthは、Indexes()に何バイトの情報が記載されているかを表すフィールドである。   The length is a field indicating how many bytes of information are described in Indexes ().

FirstPlaybackは、このファイルシステムのデータが再生される場合に最初に実行されるNavigationObjectに関する情報が含まれているデータブロックである。具体的には、このファイルシステムのデータが記録された光ディスクなどの記録媒体が再生装置に装着されたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれているデータブロックである。   FirstPlayback is a data block that includes information related to a NavigationObject that is executed first when data of this file system is reproduced. Specifically, it is a data block that includes information related to a NavigationObject that is automatically executed first when a recording medium such as an optical disk on which data of this file system is recorded is loaded in a playback apparatus.

FirstPlayback_mobj_id_refは、最初に実行されるNavigationObjectのmobj_idの値を指定するためのフィールドである。mobj_idは、NavigationObjectがそれぞれ固有に与えられているIDである。また、再生開始時に自動的に実行されるNavigationObjectが設定されない場合、すなわち、再生開始時にはアプリケーションはいずれも実行されず、ユーザによる指令を受けて、いずれかのアプリケーションが実行されるようになされている場合、このフィールドには、"0Xffff"が記載される。   FirstPlayback_mobj_id_ref is a field for designating the value of mobj_id of the NavigationObject that is executed first. mobj_id is an ID to which NavigationObject is uniquely given. Also, if the NavigationObject that is automatically executed at the start of playback is not set, that is, no application is executed at the start of playback, and any application is executed in response to an instruction from the user. In this case, “0Xffff” is described in this field.

TopMenu()は、ユーザがメニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれているデータブロックである。   TopMenu () is a data block that includes information related to NavigationObject of TopMenu that is called when the user displays a menu screen.

TopMenu_mobj_id_refは、TopMenuのNavigationObjectのmobj_idの値を指定するためのフィールドである。TopMenuが設定されない場合、このフィールドには、"0xFFFF"が記載される。   TopMenu_mobj_id_ref is a field for designating the value of mobj_id of NavigationObject of TopMenu. When TopMenu is not set, “0xFFFF” is described in this field.

number_of_Titlesは、Indexes()に記載されているタイトルの数を表すフィールドである。   number_of_Titles is a field representing the number of titles described in Indexes ().

Title[title_id]()は、title_idによって固有に区別されているそれぞれのタイトルに関する情報が記載されるブロックである。title_idは0から割り当てられる。   Title [title_id] () is a block in which information about each title uniquely distinguished by title_id is described. title_id is assigned from 0.

Title_playback_type[title_id]は、そのtitle_idによって指定されるタイトルの再生タイプを示す情報であり、例えば、再生される動画と音声による一般的なコンテンツであるMovie Titleか、ユーザの操作入力によって再生される動画や音声が変更されるなどの双方向のやり取りが可能なコンテンツであるInteractive Titleなどのタイプが示される。例えば、そのタイトルがMovie Titleである場合、PlayListに基づいた再生処理が実行される。   Title_playback_type [title_id] is information indicating the playback type of the title specified by the title_id, for example, a movie title that is a general content with a video to be played and audio, or a video that is played by user operation input And Interactive Title, which is a content that can be interactively exchanged, such as a change in voice or sound. For example, when the title is Movie Title, playback processing based on PlayList is executed.

Title_access_type[title_id]は、そのtitle_idによって指定されるタイトルが、Title_Searchを用いて再生することが許可されているか否かを示す情報である。   Title_access_type [title_id] is information indicating whether or not the title specified by the title_id is permitted to be reproduced using Title_Search.

reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている29ビットのフィールドである。   reserved_for_future_use is a 29-bit field whose data description content is not set in preparation for future expansion.

Title_mobj_id_ref[title_id]は、そのtitle_idによって指定されるタイトルがエントリーされているNavigationObjectのmobj_idの値を指定するためのフィールドである。   Title_mobj_id_ref [title_id] is a field for specifying the value of mobj_id of the NavigationObject in which the title specified by the title_id is entered.

図11に、PlayListファイルのデータ構造を示す。PlayListファイルは、再生装置に装着された記録媒体、または、再生装置内部の記憶部(例えば、ハードディスクなどからなるローカルストレージ)において、PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するデータファイルである。   FIG. 11 shows the data structure of the PlayList file. The PlayList file is a data file having an extension “.mpls” stored in the PLAYLIST directory in a recording medium attached to the playback device or a storage unit inside the playback device (for example, a local storage including a hard disk). It is.

type_indicatorは、このファイルの種類を示す情報が記載されているものである。すなわち、このフィールドには、このファイルの種類が映像の再生を管理する再生管理情報であるPlayList(MoviePlayList)であることを示す情報が記載される。   type_indicator describes information indicating the type of the file. That is, in this field, information indicating that this file type is PlayList (MoviePlayList) that is playback management information for managing video playback.

version_numberは、このxxxx.mpls(MoviePlayList)のバージョンナンバを示す4個のキャラクター文字を示すものである。   version_number indicates four character characters indicating the version number of the xxxx.mpls (MoviePlayList).

PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示すものである。   PlayList_start_address indicates the start address of PlayList () with the relative number of bytes from the start byte of the PlayList file as a unit.

PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示すものである。   PlayListMark_start_address indicates the head address of PlayListMark () with the relative number of bytes from the head byte of the PlayList file as a unit.

ExtensionData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、ExtensionData()の先頭アドレスを示すものである。   ExtensionData_start_address indicates the start address of ExtensionData () in units of the relative number of bytes from the start byte of the PlayList file.

AppInfoPlayList()には、例えば、再生制限など、PlayListの再生コントロールに関するパラメータが格納されている。AppInfoPlayList()の詳細は、図12を用いて後述する。   AppInfoPlayList () stores parameters related to playback control of the PlayList, such as playback restrictions. Details of AppInfoPlayList () will be described later with reference to FIG.

PlayList()には、PlayListのメインパスやサブパスなどに関するパラメータが格納されている。PlayList()の詳細は、図13を用いて後述する。   PlayList () stores parameters related to the main path and sub path of the PlayList. Details of PlayList () will be described later with reference to FIG.

PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納されている。   PlayListMark () stores PlayList mark information, that is, information about a mark that is a jump destination (jump point) in a user operation or command that commands chapter jump or the like.

ExtensionData()には、プライベートデータが挿入できるようになっている。   Private data can be inserted into ExtensionData ().

次に、図12を参照して、AppInfoPlayList()のシンタクスについて説明する。   Next, the syntax of AppInfoPlayList () will be described with reference to FIG.

lengthは、length以下のシンタクスの長さ、すなわち、このlengthフィールドの直後からreserved_for_future_useの最後までのAppInfoPlayList()のバイト数を示すものである。このlengthの後には、8ビットのreserved_for_future_useが用意される。   The length indicates a syntax length equal to or less than length, that is, the number of bytes of AppInfoPlayList () from immediately after this length field to the end of reserved_for_future_use. After this length, 8-bit reserved_for_future_use is prepared.

PlayList_playback_typeは、連続再生、ランダムアクセス、シャッフルのいずれの再生を行うPlayListであるかを示す情報を記載するフィールドである。   PlayList_playback_type is a field that describes information indicating whether the PlayList is to be played back by continuous playback, random access, or shuffle playback.

Playback_countは、ランダムアクセス、シャッフルを行うPlayListの場合、再生に用いるPlayItemの数を示す情報を記載するフィールドである。   Playback_count is a field that describes information indicating the number of PlayItems used for playback in the case of a PlayList that performs random access and shuffle.

そして、UO_mask_table()は、一時停止、チャプタサーチ、ジャンプ、早送り、早戻し(後方高速再生)等の特殊再生、または、表示等に関するユーザ操作の制限を決める情報である。   UO_mask_table () is information that determines restrictions on user operations related to special playback such as pause, chapter search, jump, fast forward, fast reverse (backward fast playback), or display.

そして、PlayList_random_access_flagは、他のPlayListからのジャンプ再生を制御するためのフラグ情報である。ここでは、PlayList_random_access_flag=1に設定されている場合、他のPlayListからのジャンプ再生を禁止するものとする。   PlayList_random_access_flag is flag information for controlling jump playback from another PlayList. Here, when PlayList_random_access_flag = 1 is set, jump playback from another PlayList is prohibited.

例えば、再生装置においては、例えば、現在のPlayListにより参照されている再生位置から、他のPlayListにより参照される所定のPlayItemの先頭またはチャプタの位置への再生位置のジャンプを指令するユーザオペレーションなど、装置独自で拡張的なユーザオペレーションを用意することができる。PlayList_random_access_flagは、例えば、これらのユーザオペレーションにより、他のPlayListによって参照されるClip AV Streamのある再生位置から、このPlayListによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。   For example, in a playback device, for example, a user operation that commands a jump of a playback position from the playback position referenced by the current PlayList to the beginning or chapter position of a predetermined PlayItem referenced by another PlayList, etc. Device-specific and extended user operations can be prepared. PlayList_random_access_flag is, for example, when a jump from the playback position of a Clip AV Stream referenced by another PlayList to a Clip AV Stream referenced by this PlayList (movement of the playback position) is commanded by these user operations This is flag information for setting whether or not to restrict this user operation.

なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayList_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。   Note that when a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, the PlayList_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).

is_MixAppは、このPlayListファイルにより再生されるストリームが音声や効果音の合成を行うか否かのフラグである。すなわち、このis_MixAppは、このPlayListにより参照されるデータに、プライマリオーディオストリームに合成され得るサウンドデータまたはセカンダリオーディオストリームが含まれているか否かを示すフラグとして定義されている。この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否かを、迅速に認識することが可能となる。   is_MixApp is a flag indicating whether or not the stream reproduced by the PlayList file synthesizes sound and sound effects. That is, this is_MixApp is defined as a flag indicating whether or not the data referred to by this PlayList includes sound data or secondary audio stream that can be combined with the primary audio stream. Only by confirming this one flag, it is possible to quickly recognize whether or not audio data is synthesized.

また、Lossless_may_bypass_mixer_flagは、ロスレスの音声の再生に関するフラグである。この後には、13ビットのreserved_for_future_useが用意される。   Lossless_may_bypass_mixer_flag is a flag relating to the reproduction of lossless audio. After this, 13-bit reserved_for_future_use is prepared.

次に、図13は、PlayList()のシンタクスを示す図である。   Next, FIG. 13 is a diagram illustrating the syntax of PlayList ().

lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlayListの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図5の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図5に示されるように、PlayItem_id=0,1,2が割り振られる。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the PlayList. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 5, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIG. 5, PlayItem_id = 0, 1, and 2 are allocated.

number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図5の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図5に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。   number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 5, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 5, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.

次に、図14を参照して、PlayItem()のシンタクスについて説明する。   Next, the syntax of PlayItem () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図14の例の場合、Clip_Information_file_ name[0]により、メインClipAVストリームファイルが参照される。また、PlayItem()には、Clipのコーディック方式を指定するClip_codec_identifier[0]、将来の拡張に備えるためにデータの記述内容が未設定とされているreserved_for_future_use、マルチアングル再生に対応しているか否かを示すフラグであるis_multi_angle、接続状態に関する情報であるconnection_condition、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]が含まれる。さらに、PlayItem()には、Clipの中のPlayItemの再生区間を指定するためのIN_timeとOUT_timeが含まれる。図14の例の場合、IN_timeとOUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 14, the main Clip AV stream file is referred to by Clip_Information_file_name [0]. In PlayItem (), Clip_codec_identifier [0] that specifies the codec format of Clip, reserved_for_future_use in which the data description content is not set in preparation for future expansion, whether multi-angle playback is supported Is_multi_angle indicating the connection state, connection_condition indicating the connection state, and ref_to_STC_id [0] indicating information regarding the STC discontinuity (system time base discontinuity). Further, PlayItem () includes IN_time and OUT_time for designating the playback section of the PlayItem in the Clip. In the example of FIG. 14, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time.

また、PlayItem()には、ユーザ入力の受付制限をするUO_mask_table()、他のPlayItemからのジャンプ再生を制御するPlayItem_random_access_flagが含まれる。   In addition, PlayItem () includes UO_mask_table () for restricting user input and PlayItem_random_access_flag for controlling jump playback from other PlayItems.

図14に示される、PlayItem()のUO_mask_table()には、このPlayItemを参照してClip AV Streamが再生されているときに操作入力される各種のユーザオペレーションについて、それぞれ許可するか否かが設定されている。   In UO_mask_table () of PlayItem () shown in FIG. 14, whether or not to allow various user operations that are input when Clip AV Stream is played with reference to this PlayItem is set. Has been.

そして、図14に示される、PlayItem()のPlayItem_random_access_flagは、ユーザオペレーションにより、他のPlayItemによって参照されるClip AV Streamのある再生位置から、このPlayItemによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。ここでは、PlayItem_random_access_flag=1に設定されている場合、他のPlayItemからのジャンプ再生を禁止するものとする。このフラグについての詳細な説明は後述する。   Then, PlayItem_random_access_flag of PlayItem () shown in FIG. 14 is a jump (playback position) from a playback position of a Clip AV Stream referred to by another PlayItem to a Clip AV Stream referred to by this PlayItem. Flag information for setting whether or not to restrict this user operation. Here, when PlayItem_random_access_flag = 1 is set, jump playback from other PlayItems is prohibited. A detailed description of this flag will be described later.

なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayItem_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。   Note that if a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, PlayItem_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).

さらに、PlayItem()には、最後に表示をした映像を静止画として表示をさせるか否かを示すstill_modeが含まれる。なお、is_multi_angleが複数ある場合(is_multi_angle==1)については、本発明と直接的には関係ないのでその説明を省略する。   Further, PlayItem () includes still_mode indicating whether or not to display the last displayed video as a still image. Note that the case where there are a plurality of is_multi_angles (is_multi_angle == 1) is not directly related to the present invention, and the description thereof will be omitted.

そして、STN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、例えば、音声切り替えや字幕切り替え、または、子画面の表示非表示の選択を指令するユーザの操作入力、または、アプリケーションによるコマンドの発生などによって、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipの中から、再生されるストリームを選択することができる仕組みを提供するための情報である。   When the target PlayItem and one or more SubPaths to be played back are prepared, STN_table () selects, for example, audio switching, subtitle switching, or display / non-display of the sub-screen. A mechanism that allows a stream to be played to be selected from a clip that is referenced by the PlayItem and a clip that is referenced by one or more of these SubPaths, depending on the operation input of the commanding user or the generation of a command by an application. It is information for providing.

例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、Main Pathを構成するPlayItemが参照するClipに含まれるビデオストリームをプライマリビデオストリーム(Primary video stream)とし、SubPathを構成するSubPlayItemが参照するClipに含まれるビデオストリームをセカンダリビデオストリーム(secondary video stream)としたり、または、PlayItemが参照するClip(メインClip)に含まれるビデオストリームのうちの2つのビデオストリームを、それぞれプライマリビデオストリームとセカンダリビデオストリームとして、これらをミキシングして、全画面(プライマリビデオストリーム)と子画面(セカンダリビデオストリーム)で再生することができる仕組みを提供するようにした。このような手法は、ピクチャインピクチャ(Picture in Picture)手法と称される。   For example, when PlayItem () and one or more SubPaths to be played back are prepared, a video stream included in a Clip referred to by PlayItem configuring Main Path is represented as a primary video stream (Primary video stream). The video stream included in the Clip referred to by the SubPlayItem constituting the SubPath is used as a secondary video stream (secondary video stream), or two of the video streams included in the Clip (Main Clip) referenced by the PlayItem. A stream is provided as a primary video stream and a secondary video stream, respectively, and these are mixed to provide a mechanism that can be played back on the full screen (primary video stream) and the sub-screen (secondary video stream). Such a technique is called a picture-in-picture technique.

また、同様にして、例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、Main Pathを構成するPlayItemが参照するClipに含まれるオーディオストリームをプライマリオーディオストリーム(Primary audio stream)とし、SubPathを構成するSubPlayItemが参照するClipに含まれるオーディオストリームをセカンダリオーディオストリーム(secondary audio stream)としたり、または、PlayItemが参照するClip(メインClip)に含まれるオーディオストリームのうちの2つのオーディオストリームを、それぞれプライマリオーディオストリームとセカンダリオーディオストリームとして、これらをミキシングして再生することができる仕組みを提供するようにした。   Similarly, for example, when PlayItem () and one or more SubPaths to be played back are prepared, the audio stream included in the Clip referred to by the PlayItem that constitutes the Main Path is the primary audio. Stream (Primary audio stream) and the audio stream included in the Clip referenced by the SubPlayItem constituting the SubPath is used as the secondary audio stream (Secondary Audio Stream), or the audio stream included in the Clip (Main Clip) referenced by the PlayItem Two of these audio streams are provided as a primary audio stream and a secondary audio stream, respectively, and a mechanism that can mix and reproduce these is provided.

そして、プライマリビデオストリームと同時に再生され得るストリームとして、ここでは、次の第1乃至第4の種類のストリームが用意される。   Then, the following first to fourth types of streams are prepared as streams that can be reproduced simultaneously with the primary video stream.

第1の種類のストリームとは、STN_tableにおいてPrimary_audio_stream_idで定義されるオーディオストリーム、即ち、上述したプライマリオーディオストリームである。   The first type of stream is an audio stream defined by Primary_audio_stream_id in STN_table, that is, the above-described primary audio stream.

第2の種類のストリームとは、STN_tableにおいてSecondary_video_stream_idで定義されるビデオストリーム、すなわち、上述したセカンダリビデオストリームである。   The second type of stream is a video stream defined by Secondary_video_stream_id in STN_table, that is, the above-described secondary video stream.

第3の種類のストリームとは、STN_tableにおいてSecondary_audio_stream_idで定義されるオーディオストリーム、即ち、上述したセカンダリオーディオストリームである。   The third type of stream is an audio stream defined by Secondary_audio_stream_id in STN_table, that is, the above-described secondary audio stream.

第4の種類のストリームとは、サブパスで参照されるテキスト字幕ストリーム(txtST)や、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)等であり、STN_tableにおいて、PG_txtST_stream_id、IG_stream_idで定義される。   The fourth type of stream is a text subtitle stream (txtST) referred to in a sub path, a stream (PG, Presentation Graphics stream) obtained by run-length encoding a bitmap subtitle such as a DVD sub-picture, and the like. In STN_table, it is defined by PG_txtST_stream_id and IG_stream_id.

STN_table()は、これらのストリームの組み合わせを定義する情報である。   STN_table () is information defining a combination of these streams.

次に、図15および図16を用いて、STN_table()のシンタクスについて説明する。   Next, the syntax of STN_table () will be described using FIG. 15 and FIG.

このSTN_table()は、プライマリビデオストリームと組み合わせて同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義するにあたって、特に、セカンダリオーディオストリームとプライマリオーディオストリームとの組み合わせ、セカンダリビデオストリームとセカンダリオーディオストリームとの組み合わせ、セカンダリビデオストリームとピクチャインピクチャアプリケーション用のプレゼンテーショングラフィックス(PG)またはテキスト字幕の組み合わせを定義する。   This STN_table () is used to define a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that can be simultaneously played in combination with the primary video stream. , Combinations of secondary video streams and secondary audio streams, and combinations of secondary video streams and presentation graphics (PG) or text subtitles for picture-in-picture applications.

lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length.

number_of_primary_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)primary_video_stream_idが与えられるストリーム数を示す。primary_video_stream_idは、ビデオストリームを識別するための情報であり、primary_video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。   number_of_primary_video_stream_entries indicates the number of streams to which primary_video_stream_id entered (registered) in STN_table () is given. primary_video_stream_id is information for identifying a video stream, and primary_video_stream_number is a video stream number that is used for video switching and is visible to the user.

number_of_primary_audio_stream_entriesは、STN_table()の中でエントリーされるprimary_audio_stream_idが与えられるストリーム数を示す。primary_audio_stream_idは、オーディオストリームを識別するための情報であり、primary_audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。   number_of_primary_audio_stream_entries indicates the number of streams to which primary_audio_stream_id entered in STN_table () is given. primary_audio_stream_id is information for identifying an audio stream, and primary_audio_stream_number is an audio stream number that can be seen by the user used for audio switching.

number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。   number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.

number_of_IG_stream_entriesは、STN_table()の中でエントリーされる IG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。   number_of_IG_stream_entries indicates the number of streams provided with IG_stream_id entered in STN_table (). In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.

number_of_secondary_audio_stream_entriesは、STN_table()の中でエントリーされる(登録される)secondary_audio_stream_idが与えられるストリーム数を示す。secondary_audio_stream_idは、オーディオストリームを識別するための情報であり、secondary_audio_stream_numberは、オーディオ切り替えに使われる、ユーザから見えるオーディオストリーム番号である。   number_of_secondary_audio_stream_entries indicates the number of streams to which secondary_audio_stream_id entered (registered) in STN_table () is given. secondary_audio_stream_id is information for identifying an audio stream, and secondary_audio_stream_number is an audio stream number that is used for audio switching and is visible to the user.

number_of_secondary_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)secondary_video_stream_idが与えられるストリーム数を示す。secondary_video_stream_idは、ビデオストリームを識別するための情報であり、secondary_video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。   number_of_secondary_video_stream_entries indicates the number of streams to which secondary_video_stream_id entered (registered) in STN_table () is given. secondary_video_stream_id is information for identifying a video stream, and secondary_video_stream_number is a video stream number that is used for video switching and is visible to the user.

そして、number_of_PiP_PG_textST_stream_entries_plusは、STN_table()の中でエントリーされる(登録される)ピクチャインピクチャ用の字幕ストリーム(PiP_PG_textST_stream)のストリーム数を示す。   And number_of_PiP_PG_textST_stream_entries_plus indicates the number of picture-in-picture subtitle streams (PiP_PG_textST_stream) entered (registered) in STN_table ().

プライマリビデオストリームID (primary_video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からprimary_video_stream_idが与えられる。なお、プライマリビデオストリームID(primary_video_stream_id)の代わりに、プライマリビデオストリーム番号(primary_video_stream_number)を用いるようにしてもよい。この場合、primary_video_stream_numberは、0ではなく1から与えられる。すなわち、primary_video_stream_idの値に1を加算したものがprimary_video_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。   In the for loop of the primary video stream ID (primary_video_stream_id), primary_video_stream_id is given from 0 to one video elementary stream that is identified for each stream_entry () in order. Note that the primary video stream number (primary_video_stream_number) may be used instead of the primary video stream ID (primary_video_stream_id). In this case, primary_video_stream_number is given from 1 instead of 0. That is, primary_video_stream_number is obtained by adding 1 to the value of primary_video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.

それぞれのforループの中のstream_entry()については、図17を用いて後述する。   The stream_entry () in each for loop will be described later with reference to FIG.

また、それぞれのforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのエレメンタリストリームのストリーム属性情報が記述されている。stream_attribute()については、図18を用いて後述する。   Also, stream_attribute () in each for loop gives stream attribute information of one elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one elementary stream specified for each stream_entry () is described. The stream_attribute () will be described later with reference to FIG.

また、同様に、プライマリオーディオストリームID (primary_audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からprimary_audio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、プライマリオーディオストリームID(primary_audio_stream_id)の代わりに、プライマリオーディオストリーム番号(primary_audio_stream_number)を用いるようにしてもよい。この場合、primary_audio_stream_numberは、0ではなく1から与えられる。すなわち、primary_audio_stream_idの値に1を加算したものがprimary_audio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the primary audio stream ID (primary_audio_stream_id), primary_audio_stream_id is given from 0 to one audio elementary stream specified for each stream_entry () in order. As in the case of the video stream, the primary audio stream number (primary_audio_stream_number) may be used instead of the primary audio stream ID (primary_audio_stream_id). In this case, primary_audio_stream_number is given from 1 instead of 0. That is, primary_audio_stream_number is obtained by adding 1 to the value of primary_audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.

同様に、字幕ストリームID (PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。また、PiP_ PG_txtST_streamについても、同様にして、連続したIDが与えられる。ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。   Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). Similarly, consecutive IDs are assigned to PiP_PG_txtST_stream. As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.

同様に、グラフィックスストリームID (IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。   Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is identified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.

また、同様に、セカンダリオーディオストリームID (secondary_audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からsecondary_audio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、セカンダリオーディオストリームID(secondary_audio_stream_id)の代わりに、セカンダリオーディオストリーム番号(secondary_audio_stream_number)を用いるようにしてもよい。この場合、secondary_audio_stream_numberは、0ではなく1から与えられる。すなわち、secondary_audio_stream_idの値に1を加算したものがsecondary_audio_stream_numberである。セカンダリオーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるセカンダリオーディオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the secondary audio stream ID (secondary_audio_stream_id), secondary_audio_stream_id is assigned from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, a secondary audio stream number (secondary_audio_stream_number) may be used instead of the secondary audio stream ID (secondary_audio_stream_id). In this case, secondary_audio_stream_number is given from 1 instead of 0. That is, secondary_audio_stream_number is obtained by adding 1 to the value of secondary_audio_stream_id. The secondary audio stream number is a secondary audio stream number that is used for audio switching and is visible to the user, and is defined from 1.

そして、comb_info_Secondary_audio_Primary_audio()のブロックは、セカンダリオーディオとプライマリオーディオの組み合わせを示す。   A block of comb_info_Secondary_audio_Primary_audio () indicates a combination of secondary audio and primary audio.

comb_info_Secondary_audio_Primary_audio()のブロック内において、number_of_primary_audio_stream_ref_entriesの8ビットのフィールドは、セカンダリオーディオストリームと組み合わせることが出来るプライマリオーディオストリームの数を示す。そして、primary_audio_stream_id_refの8ビットのフィールドは、セカンダリオーディオストリームと組み合わせることが出来るプライマリオーディオストリームのIDを示す。   In the comb_info_Secondary_audio_Primary_audio () block, the 8-bit field of number_of_primary_audio_stream_ref_entries indicates the number of primary audio streams that can be combined with the secondary audio stream. The 8-bit field of primary_audio_stream_id_ref indicates the ID of the primary audio stream that can be combined with the secondary audio stream.

また、同様に、セカンダリビデオストリームID (secondary_video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からsecondary_video_stream_idが与えられる。なお、ビデオストリームの場合と同様に、セカンダリビデオストリームID(secondary_video_stream_id)の代わりに、セカンダリビデオストリーム番号(secondary_video_stream_number)を用いるようにしてもよい。この場合、secondary_video_stream_numberは、0ではなく1から与えられる。すなわち、secondary_video_stream_idの値に1を加算したものがsecondary_video_stream_numberである。セカンダリビデオストリーム番号は、音声切り替えに使われる、ユーザから見えるセカンダリビデオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the secondary video stream ID (secondary_video_stream_id), one audio elementary stream specified for each stream_entry () in order is given secondary_video_stream_id from 0. As in the case of the video stream, a secondary video stream number (secondary_video_stream_number) may be used instead of the secondary video stream ID (secondary_video_stream_id). In this case, secondary_video_stream_number is given from 1 instead of 0. That is, secondary_video_stream_number is obtained by adding 1 to the value of secondary_video_stream_id. The secondary video stream number is a secondary video stream number that is used for audio switching and is visible to the user.

次に、comb_info_Secondary_video_Secondary_audio()のブロックは、セカンダリビデオストリームとセカンダリオーディオストリームの組み合わせを示す。   Next, a block of comb_info_Secondary_video_Secondary_audio () indicates a combination of a secondary video stream and a secondary audio stream.

comb_info_Secondary_video_Secondary_audio()のブロック内において、number_of_Secondary_audio_stream_ref_entriesの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るセカンダリオーディオストリームの数を示す。そして、Secondary_audio_stream_id_refの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るセカンダリオーディオストリームのIDを示す。   In the comb_info_Secondary_video_Secondary_audio () block, an 8-bit field of number_of_Secondary_audio_stream_ref_entries indicates the number of secondary audio streams that can be combined with the secondary video stream. The 8-bit field of Secondary_audio_stream_id_ref indicates the ID of a secondary audio stream that can be combined with the secondary video stream.

そして、comb_info_Secondary_video_PiP_PG_textST()のブロックは、セカンダリビデオストリームとピクチャインピクチャアプリケーション用のPG・テキスト字幕のストリームの組み合わせを示す。   A block of comb_info_Secondary_video_PiP_PG_textST () indicates a combination of a secondary video stream and a PG / text subtitle stream for a picture-in-picture application.

comb_info_Secondary_video_PiP_PG_textST()のブロック内において、number_of_PiP_PG_textST_ref_entriesの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るPIPアプリケーション用のPG・テキスト字幕のストリームの数を示す。また、PiP_PG_textST_stream_id_refの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るピクチャインピクチャアプリケーション用のPG・テキスト字幕のストリームのIDを示す。   In the comb_info_Secondary_video_PiP_PG_textST () block, the 8-bit field of number_of_PiP_PG_textST_ref_entries indicates the number of PG / text subtitle streams for the PIP application that can be combined with the secondary video stream. Also, the 8-bit field of PiP_PG_textST_stream_id_ref indicates the ID of the PG / text subtitle stream for the picture-in-picture application that can be combined with the secondary video stream.

このようなSTN_tableを用いることにより、プライマリビデオストリームと同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリーム(PG TextSTストリーム)の組み合わせに加えて、ピクチャインピクチャアプリケーション用のPG・テキスト字幕ストリーム(PiP PG TextSTストリーム)の組み合わせとして矛盾するような組み合わせを選択することを防ぐようにすることができる。   By using such STN_table, in addition to a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream (PG TextST stream) that can be played back simultaneously with the primary video stream, for a picture-in-picture application It is possible to prevent a conflicting combination from being selected as a combination of the PG / text subtitle stream (PiP PG TextST stream).

図17は、Stream_entry()のシンタクスを示す図である。   FIG. 17 is a diagram illustrating the syntax of Stream_entry ().

type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。   In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.

type=2では、SubPathが一度に複数個のClipsを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。   In type = 2, when SubPath refers to multiple Clips at a time and each Clip multiplexes multiple elementary streams, multiple elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.

このように、type(type1とtype2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。   As described above, when a type (two types of type 1 and type 2) is used, when a PlayItem and one or more SubPaths to be played back are prepared, one Clip and a reference to this PlayItem are provided. One elementary stream can be identified from the Clip referred to by the above SubPath. Note that type = 1 indicates a clip (main clip) referred to by the main path, and type = 2 indicates a clip (sub clip) referred to by the sub path.

そして、type=3は、対応するPlayItemにおいて、MainClipに含まれ、SubPathによって参照されるエレメンタリストリームを識別するためのものである。   Type = 3 is for identifying the elementary stream included in the MainClip and referenced by the SubPath in the corresponding PlayItem.

すなわち、type=3では、SubPathがMainPathと同じClipを参照し、換言すれば、MainClipに複数のエレメンタリストリームが多重化され、MainPathとSubPathとのいずれも、MainClipに多重化されているエレメンタリストリームのうちのいずれかを参照している場合に、MainClipの複数のエレメンタリストリームの中から、SubPathによって参照される1つのエレメンタリストリームを再生時に特定するために、ref_to_stream_PID_of_MainClipにより、MainClipのパケットID(PID)が指定される。また、ref_to_SubPath_idによりSubPath_idが示され、このSubPath_idにより図9のPlayList()で定義されたSubPathが特定され、このSubpathから対応するSubPlayItem(図28)が呼び出されることにより、エレメンタリストリームの再生時間(IN_time, OUT_time)等を把握することができるようになされている。   That is, when type = 3, SubPath refers to the same Clip as MainPath, in other words, a plurality of elementary streams are multiplexed on MainClip, and both MainPath and SubPath are multiplexed on MainClip. When referring to any of the streams, the Ref_to_stream_PID_of_MainClip is used to specify one elementary stream referenced by the SubPath from among the multiple elementary streams of the MainClip. (PID) is specified. Also, SubPath_id is indicated by ref_to_SubPath_id, the SubPath defined in PlayList () in FIG. 9 is specified by this SubPath_id, and the corresponding SubPlayItem (FIG. 28) is called from this Subpath, so that the elementary stream playback time ( IN_time, OUT_time) etc. can be grasped.

なお、type=3、すなわち、MainClipに複数のエレメンタリストリームが多重化され、MainPathとSubPathとのいずれも、MainClipに多重化されているエレメンタリストリームのうちのいずれかを参照するのは、図27を用いて後述するSubPath_typeが、SubPath_type =7である場合である。   It should be noted that type = 3, that is, a plurality of elementary streams are multiplexed on the MainClip, and both the MainPath and SubPath refer to any of the elementary streams multiplexed on the MainClip. This is a case where SubPath_type, which will be described later with reference to No. 27, is SubPath_type = 7.

このように、type(type1乃至type3の3つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipが、さらに、SubPathから参照されている場合であっても、Clipの中から1つのエレメンタリストリームを特定することができる。   As described above, when a type (three types of type 1 to type 3) is used and a PlayItem and one or more SubPaths to be played back are prepared, a clip referred to by the PlayItem is further Even if it is referenced from SubPath, one elementary stream can be specified from the Clip.

次に、stream_attribute()のシンタクスについて図18を参照して説明する。   Next, the syntax of stream_attribute () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().

stream_coding_typeは、図19に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream、HDMV LPCM audio、Dolby AC-3 audio、dts audio、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。なお、このstream_coding_typeを拡張し、MPEG−4 AVC、VC−1等の他のコーディックにより圧縮されたビデオストリームを扱えるようにしてもよい。   The stream_coding_type indicates the encoding type of the elementary stream as shown in FIG. As encoding types of elementary streams, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, and Text subtitle stream are described. Note that this stream_coding_type may be extended so that a video stream compressed by another codec such as MPEG-4 AVC or VC-1 can be handled.

video_formatは、図20に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。   video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.

frame_rateは、図21に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。   frame_rate indicates the frame rate of the video elementary stream, as shown in FIG. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.

aspect_ratioは、図22に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。   The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.

audio_presentation_typeは、図23に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。   audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.

sampling_frequencyは、図24に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。   Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.

audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).

PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.

IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.

textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.

character_codeは、図25に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。   Character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including KSC 5653 for Roman character (Korean), GB 18030-2000 (Chinese), GB2312 (Chinese) and BIG5 (Chinese) are described.

以下に、図18のstream_attribute()のシンタクスについて、図18と、図19乃至図25を用いて具体的な例を説明する。   A specific example of the syntax of stream_attribute () in FIG. 18 will be described below with reference to FIGS. 18 and 19 to 25.

エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がMPEG-2 video stream(図19)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図20)、フレームレート(図21)、およびアスペクト比情報(図22)が含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is an MPEG-2 video stream (FIG. 19), the stream_attribute () includes the video format (FIG. 20) and frame rate (FIG. 21) of the elementary stream. ), And aspect ratio information (FIG. 22).

エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がHDMV LPCM audio、Dolby AC-3 audio、またはdts audio(図19)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図23)、サンプリング周波数(図24)、および言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is HDMV LPCM audio, Dolby AC-3 audio, or dts audio (FIG. 19), the stream_attribute () includes the presentation type information of the audio elementary stream. (FIG. 23), sampling frequency (FIG. 24), and language code are included.

エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がPresentation graphics stream(図19)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is a Presentation graphics stream (FIG. 19), stream_attribute () includes the language code of the bitmap subtitle elementary stream.

エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がInteractive graphics stream(図19)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is Interactive graphics stream (FIG. 19), stream_attribute () includes the language code of the interactive graphics elementary stream.

エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がText subtitle stream(図19)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図25)、言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is a Text subtitle stream (FIG. 19), stream_attribute () includes the character code (FIG. 25) and language code of the text subtitle elementary stream. .

なお、これらの属性情報はこれに限定されない。   Note that the attribute information is not limited to this.

このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定されたエレメンタリストリーム(type=1とtype=2の場合は1つ、type=3の場合は2つ)の属性情報をstream_attribute()によって知ることができる。   As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of the identified elementary stream (one if type = 1 and type = 2, two if type = 3) can be known by stream_attribute ().

再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。   By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.

例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。   For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).

また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザが副音声(すなわちSecondary audio)への切り替えまたは、主音声と副音声とのミキシング再生を指示した場合、再生装置は、副音声として用意されているオーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。   Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback device to switch to the secondary audio (ie, secondary audio) or to mix and play the main audio and the secondary audio, the playback device uses the audio stream ID ( Only audio elementary streams whose language code is Japanese are sequentially selected from the for loop of (Audio stream id) and played.

さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、サブパスにより参照されるオーディオストリーム(監督や出演者によるコメント)とのミキシング再生が指令された場合、再生装置は、メインパスにより参照される1stオーディオストリームに、さらに、サブパスにより参照される2ndオーディオストリームをミキシング(重畳)して、ビデオストリームとともに再生する。   Further, for example, when an AV stream (movie) composed of a video stream and an audio stream, which is referred to by the main path, is reproduced, the user instructs the playback apparatus to switch the audio, and the audio stream which is referred to by the sub path. When mixing playback with (comment by a director or a performer) is instructed, the playback device further mixes (superimposes) the 2nd audio stream referenced by the sub path on the 1st audio stream referenced by the main path. Play with the video stream.

また、例えば、ユーザが音声の切り替えを指令し、2つのサブパスにより参照される2つのオーディオストリームのミキシング再生が再生装置に対して指令された場合(図16と図17のシンタクスが用いられ、図17のtypeがともに2とされているオーディオストリームIDに対応するオーディオストリームの再生が指令された場合)、再生装置は、2つのサブパスによりそれぞれ参照される2つのオーディオストリームをミキシング(重畳)して、ビデオストリームとともに再生する。   Also, for example, when the user commands switching of audio and mixing playback of two audio streams referenced by two subpaths is commanded to the playback device (the syntaxes of FIGS. 16 and 17 are used, FIG. When the reproduction of the audio stream corresponding to the audio stream ID in which the 17 type is both 2 is instructed), the reproducing device mixes (superimposes) the two audio streams respectively referred to by the two sub paths. Play with the video stream.

このようにして、PlayItem()の中にSTN_table()を設けることにより、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作により、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から再生されるストリームを選ぶことができる仕組みが提供されるので、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。   In this way, by providing STN_table () in PlayItem (), when PlayItem and one or more SubPaths to be played back are prepared, operations such as audio switching and subtitle switching by the user Provides a mechanism for selecting a stream to be played back from the Clip referenced by this PlayItem and the Clip referenced by one or more SubPaths, so that a stream or data file different from the AV stream to be played back can be selected. Even interactive operations can be performed.

図26は、SubPath()のシンタクスを示す図である。   FIG. 26 is a diagram illustrating the syntax of SubPath ().

lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからSubPath()の最後までのバイト数を示すフィールドである。このlengthの後には、8ビットのreserved_for_future_useが用意される。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeの例については、図27を参照して後述する。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of SubPath (). After this length, 8-bit reserved_for_future_use is prepared. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. An example of this SubPath_type will be described later with reference to FIG.

SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipに含まれるストリームとの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。   15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that designates the SubPath playback method, and indicates whether the SubPath playback is repeated during the main path playback or the SubPath playback is performed only once. For example, when the playback timing of the main AV stream and the stream included in the clip specified by the sub path are different (when the main path is a still image slide show and the sub path audio path is used as the BGM (background music) of the main path ).

Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図6のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。   8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 in FIG. 6 and two SubPlayItems with SubPath_id = 1. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.

図27は、SubPath_type(サブパスのタイプ)の例を説明する図である。   FIG. 27 is a diagram illustrating an example of SubPath_type (subpath type).

なお、「Out-of-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照されるESが含まれるTSとが異なっている場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるプレイアイテムが含まれるTSに多重化されていないサブパスのタイプ(種類)であることを示している。以下、かかる種類を、メインパスTS非多重型のパスと称する。   Note that the description “Out-of-mux” is a subpath type (kind) when a TS including an ES referred to in a subpath is different from a TS including an ES referred to in a main path. That is, the ES referred to in the sub path indicates that the sub path type is not multiplexed in the TS including the play item referred to in the main path. Hereinafter, this type is referred to as a main path TS non-multiplex type path.

そして、「In-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照される1以上のESが含まれるTSとが同一の場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるESを含むTSに多重化されているサブパスのタイプ(種類)であることを示している。換言すれば、メインクリップに含まれるメインTSに、メインのClip AVストリームと、サブのClip AVストリームとが含まれている状態である。以下、かかる種類を、メインパスTS多重型のパスと称する。   The description “In-mux” is a subpath type (kind) in the case where a TS including an ES referred to in a subpath and a TS including one or more ES referred to in a main path are the same. That is, it is indicated that the ES referred to in the subpath is the type (type) of the subpath multiplexed in the TS including the ES referred to in the main path. In other words, the main TS included in the main clip includes the main Clip AV stream and the sub Clip AV stream. Hereinafter, this type is referred to as a main path TS multiplexing type path.

また、メインパスで参照されるESとサブパスで参照されるESとが非同期である場合、そのサブパスのタイプ(種類)を、以下、非同期型のパスと称する。一方、メインパスで参照されるESとサブパスで参照されるESとが同期する場合、そのサブパスのタイプ(種類)を、以下、同期型のパスと称する。   In addition, when the ES referred to in the main path and the ES referred to in the sub path are asynchronous, the type (kind) of the sub path is hereinafter referred to as an asynchronous path. On the other hand, when the ES referenced in the main path and the ES referenced in the sub path are synchronized, the type (kind) of the sub path is hereinafter referred to as a synchronous path.

SubPath_type=0,1は、reservedとされている。   SubPath_type = 0 and 1 are reserved.

SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期である(非同期型のパスである)ことを示している。   SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 is a main path TS non-multiplexed type path, and in the playlist, the audio presentation path referenced by the sub path and the main path referenced by the play item are asynchronous (asynchronous type). Pass).

SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期(非同期型のパスである)であることを示している。   SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 is a main path TS non-multiplex type path, and an interactive graphics menu referenced by a sub path and a main path referenced by a play item are asynchronous (asynchronous type) in a playlist. This is a path of

SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期している(同期型のパスである)ことを示している。   SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 is a main path TS non-multiplex type path, and in the playlist, the text subtitle presentation path referred to by the sub path and the main path referred to by the play item are synchronized. (This is a synchronous path).

SubPath_type=5は、Out-of-mux and AV Synchronized type of one or more elementary streams path(Primary audio/PG/IG/Secondary audio path).Out of mux and AV synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=5は、メインパスTS非多重型、かつ、同期型のパスであって、1本以上のES(Primary audio/PG/IG/Secondary audio)のパスや、ピクチャインピクチャプレゼンテーションパスとされている。   SubPath_type = 5 is Out-of-mux and AV Synchronized type of one or more elementary streams path (Primary audio / PG / IG / Secondary audio path) .Out of mux and AV synchronized type of Picture-in-Picture presentation path which Contains one or more elementary streams paths. In other words, SubPath_type = 5 is a main path TS non-multiplexed and synchronous path, and includes one or more ES (Primary audio / PG / IG / Secondary audio) paths, picture-in-picture presentation paths, and so on. Has been.

ここで、ピクチャインピクチャプレゼンテーションパスとは、ピクチャインピクチャ手法において、所定のプライマリビデオストリーム(メインパスで参照されるビデオストリーム)に対応して再生される、プライマリオーディオストリームストリーム、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームのうちの1以上のパス(そのようなサブパスのタイプ)であることをいう。   Here, the picture-in-picture presentation path refers to a primary audio stream, a secondary video stream, and a secondary that are played back corresponding to a predetermined primary video stream (a video stream referred to in the main path) in the picture-in-picture method. It means one or more paths (types of such sub paths) of the audio stream and the subtitle stream.

SubPath_type=6は、Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=6は、メインパスTS非多重型、かつ、非同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   SubPath_type = 6 is Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths. That is, SubPath_type = 6 is a main path TS non-multiplexed and asynchronous path, and is a picture-in-picture presentation path (one or more ES paths).

SubPath_type=7は、In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。   SubPath_type = 7 is In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths.

即ち、SubPath_type=7は、メインパスTS多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   That is, SubPath_type = 7 is a main path TS multiplexing type and synchronous type path, which is a picture-in-picture presentation path (one or more ES paths).

そして、SubPath_type=8乃至255は予備(reserved)とされている。   SubPath_type = 8 to 255 is reserved.

図28は、SubPlayItem(i)のシンタクスを示す図である。   FIG. 28 is a diagram illustrating the syntax of SubPlayItem (i).

lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().

図28においては、SubPlayItemが1つのClip を参照する場合と、複数のClip を参照する場合に分けられている。   In FIG. 28, there are a case where SubPlayItem refers to one Clip and a case where it refers to a plurality of Clips.

最初に、SubPlayItemが1つのClipを参照する場合について説明する。   First, a case where SubPlayItem refers to one Clip will be described.

SubPlayItemには、Clipを指定するためのClip_Information_file_ name[0]が含まれる。また、Clipのコーディック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。   SubPlayItem includes Clip_Information_file_name [0] for specifying Clip. Also, Clip_codec_identifier [0] that specifies the codec system of Clip, reserved_for_future_use, is_multi_Clip_entries that indicates the presence / absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts to be played on the time axis of the main path.

このsync_PlayItem_id と sync_start_PTS_of_PlayItemは、上述したように、図6と図7の場合(メインAVストリームとサブパスにより示されるファイルに含まれるストリームの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルに含まれるストリームの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。   As described above, the sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 6 and 7 (when the playback timing of the stream included in the file indicated by the main AV stream and the sub path is the same), and the main AV stream and the sub path are used. When the playback timings of the streams included in the file indicated by are different (for example, when the still image referenced by the main path and the audio referenced by the sub path are not synchronized, such as BGM of a slide show composed of still images) ) Is not used. Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.

次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図7に示されるように、SubPlayItemが複数のClip を参照する場合を示す。   Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 7, a case where SubPlayItem refers to a plurality of Clips is shown.

num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーディック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。   num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec system of Clip, ref_to_STC_id [SubClip_entry_id] that is information on STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.

なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図7の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。   Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 7, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is timeSubPlayItem_id Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.

ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。   Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.

次に、図29は、図8乃至図28を用いて説明したデータ構造を有するデータ、すなわち、上述したメインパスとサブパスを有するPlayListを再生する再生装置1の構成を示すブロック図である。   Next, FIG. 29 is a block diagram showing the configuration of the playback apparatus 1 that plays back the data having the data structure described with reference to FIGS. 8 to 28, that is, the PlayList having the main path and the sub path described above.

コントローラ21は、予め用意されている制御プログラムを実行するか、または、ストレージドライブ22を制御して、例えば、光ディスクなどの記録媒体11に記録されている、または、ローカルストレージ24に記録されているナビゲーションプログラムを読み出し、メモリ23に展開して実行することで、再生装置1の全体の動作を制御する。例えば、コントローラ21は、記録媒体11が装着されたとき、または、所定の操作入力を受けた場合、所定のメニュー画面(GUI表示画面)を外部の表示装置に表示させることができる。   The controller 21 executes a control program prepared in advance or controls the storage drive 22 so as to be recorded on the recording medium 11 such as an optical disk or recorded on the local storage 24. By reading out the navigation program, developing it in the memory 23 and executing it, the overall operation of the playback device 1 is controlled. For example, the controller 21 can display a predetermined menu screen (GUI display screen) on an external display device when the recording medium 11 is loaded or when a predetermined operation input is received.

すなわち、コントローラ21は、光ディスクなどの記録媒体11、または、ローカルストレージ24に再生されるコンテンツ(PlayListおよびAVストリームなどで構成されたコンテンツ)とともに記録されているメニュー画面(GUI表示画面)の表示を制御するのみならず、記録媒体11、または、ローカルストレージ24に再生されるコンテンツのデータを基に、GUI表示画面に対応するデータを生成して、外部の表示装置に表示させることも可能である。コントローラ21により、GUI表示画面に対応するデータが生成されて、OSD30が制御され、表示画面に生成されたGUI表示画面を重畳させて表示させる処理についての詳細は、後述する。   That is, the controller 21 displays the menu screen (GUI display screen) recorded together with the content (contents configured by PlayList and AV stream) reproduced on the recording medium 11 such as an optical disk or the local storage 24. In addition to the control, it is also possible to generate data corresponding to the GUI display screen based on the content data reproduced on the recording medium 11 or the local storage 24 and display it on an external display device. . The details of the process in which the controller 21 generates data corresponding to the GUI display screen, controls the OSD 30, and displays the generated GUI display screen in a superimposed manner will be described later.

ストレージドライブ22は、コントローラ21による制御に従って記録媒体11からデータを読み出し、読み出したデータを、コントローラ21、メモリ23、または、AVデコーダ部26に出力する。記録媒体11から読み出された情報が、ナビゲーションプログラムやPlayListなどであった場合、ストレージドライブ22により読み出された情報は、コントローラ21、または、メモリ23に出力される。記録媒体11から読み出された情報が、AVストリームやテキストデータであった場合、ストレージドライブ22により読み出された情報は、AVデコーダ部26に出力される。   The storage drive 22 reads data from the recording medium 11 according to control by the controller 21, and outputs the read data to the controller 21, the memory 23, or the AV decoder unit 26. When the information read from the recording medium 11 is a navigation program or a PlayList, the information read by the storage drive 22 is output to the controller 21 or the memory 23. When the information read from the recording medium 11 is an AV stream or text data, the information read by the storage drive 22 is output to the AV decoder unit 26.

メモリ23は、コントローラ21が各種の処理を実行する上において必要なデータなどを適宜記憶する。さらに、メモリ23の記憶領域の一部には、再生装置1の再生処理において必要な情報が設定される各種のレジスタが設けられている。ローカルストレージ24は、例えば、HDD(Hard Disk Drive)などより構成される。   The memory 23 appropriately stores data necessary for the controller 21 to execute various processes. Furthermore, various registers in which information necessary for the reproduction process of the reproduction apparatus 1 is set are provided in a part of the storage area of the memory 23. The local storage 24 is composed of, for example, an HDD (Hard Disk Drive).

インターネットインタフェース25は、有線または無線によりネットワーク2に接続されており、コントローラ21からの制御に従って、ネットワーク2を介して、サーバ3との間で通信を行い、サーバ3からダウンロードされたデータをローカルストレージ24に供給する。サーバ3からは、例えば、そのとき再生装置1に装着されている記録媒体11に記録されている、図4を用いて説明したデータをアップデートさせるデータがコンテンツとしてダウンロードされる。ローカルストレージ24は、サーバ3からネットワーク2経由でダウンロードしたコンテンツを記録することができる。   The Internet interface 25 is connected to the network 2 by wire or wirelessly, communicates with the server 3 via the network 2 according to control from the controller 21, and downloads data downloaded from the server 3 to the local storage. 24. From the server 3, for example, data for updating the data described with reference to FIG. 4 recorded in the recording medium 11 mounted on the playback device 1 at that time is downloaded as content. The local storage 24 can record content downloaded from the server 3 via the network 2.

AVデコーダ部26は、ストレージドライブ22、または、ローカルストレージ24から供給されるAVストリーム、または、テキストデータをデコードし、得られたビデオ信号をOSD(On Screen Display)30に供給するとともに、オーディオ信号を外部の表示装置に出力する。   The AV decoder unit 26 decodes the AV stream or text data supplied from the storage drive 22 or the local storage 24 and supplies the obtained video signal to an OSD (On Screen Display) 30 and also an audio signal. Is output to an external display device.

OSD30は、コントローラ21の制御に基づいて、供給されたビデオ信号を外部の表示装置に出力するか、または、供給されたビデオ信号に所定のメニュー画面(GUI表示画面)のデータを重畳して、生成された画像信号を、外部の表示装置に出力する。   Based on the control of the controller 21, the OSD 30 outputs the supplied video signal to an external display device or superimposes data of a predetermined menu screen (GUI display screen) on the supplied video signal, The generated image signal is output to an external display device.

表示装置においては、AVデコーダ部26によりデコードされた信号に基づいて、例えば、記録媒体11に記録されているコンテンツの出力(映像の表示、音声の出力)が行われる。   In the display device, based on the signal decoded by the AV decoder unit 26, for example, the content recorded on the recording medium 11 (video display, audio output) is output.

操作入力部29は、例えば、ボタン、キー、タッチパネル、ジョグダイヤル、マウスなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成され、ユーザの操作入力を取得し、コントローラ21に供給する。   The operation input unit 29 includes, for example, an input device such as a button, a key, a touch panel, a jog dial, and a mouse, and a receiving unit that receives a signal such as an infrared ray transmitted from a predetermined remote commander, and acquires a user operation input. To the controller 21.

また、コントローラ21には、必要に応じてドライブ27も接続されており、ドライブ27には、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVDを含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア28が装着される。   In addition, a drive 27 is connected to the controller 21 as necessary. For example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disk-Read Only Memory), DVD) A removable medium 28 including a magneto-optical disk (including MD (registered trademark) (Mini-Disk)), a semiconductor memory, or the like.

最初に、コントローラ21がストレージドライブ22を介して、HDD、Blu−ray Disc(商標)、またはDVDなどの記録媒体11から、または、ローカルストレージ24から、PlayListファイルを読み出し、PlayListファイルの情報に基づいて、必要に応じて、GUI表示画面に対応するデータを生成するとともに、ストレージドライブ22を介して、HDD、Blu−ray Disc(商標)、またはDVDなどの記録媒体11から、または、ローカルストレージ24から、AVストリームやAVデータを読み出す。ユーザは、操作入力部29を用いて、コントローラ21に対し、音声や字幕などの切り替えの指令や、GUI表示画面の表示の指令などを行うことができる。また、コントローラ21は、メモリ23のレジスタに登録されている、例えば、再生装置1の言語設定の初期情報などの各種設定情報を読み込む。   First, the controller 21 reads out the PlayList file from the recording medium 11 such as HDD, Blu-ray Disc (trademark), DVD or the like via the storage drive 22 or from the local storage 24, and based on the information of the PlayList file. If necessary, data corresponding to the GUI display screen is generated, and from the recording medium 11 such as an HDD, Blu-ray Disc (trademark), or DVD or the local storage 24 via the storage drive 22. From this, the AV stream and AV data are read out. The user can use the operation input unit 29 to issue a command for switching audio, subtitles, or the like, a command for displaying a GUI display screen, or the like to the controller 21. Further, the controller 21 reads various setting information registered in the register of the memory 23, such as initial information of language setting of the playback device 1, for example.

PlayListファイルには、Main Path、Sub Pathの情報の他、上述したSTN_table()が含まれている。コントローラ21は、PlayListファイルに含まれるPlayItemが参照するメインClip AVストリームファイル、SubPlayItemが参照するサブClip AVストリームファイル、およびSubPlayItemが参照するテキストサブタイトルデータを、ストレージドライブ22を介して記録媒体11から、または、ローカルストレージ24から読み出す。ここで、PlayItemが参照するメインClip AVストリームファイルとSubPlayItemが参照するサブClip AVストリームファイルとが、異なる記録媒体に記録されていてもよい。例えば、メインClip AVストリームファイルが記録媒体11に記録されており、対応するサブClip AVストリームファイルは図示せぬネットワーク2を介して供給され、HDDなどのローカルストレージ24に記憶されたものであってもよい。また、逆に、メインClip AVストリームファイルがHDDなどのローカルストレージ24に記憶されたものであり、サブClip AVストリームファイルが記録媒体11に記録されていてもよい。   The PlayList file includes the above-described STN_table () in addition to the information on Main Path and Sub Path. The controller 21 receives the main Clip AV stream file referenced by the PlayItem included in the PlayList file, the sub Clip AV stream file referenced by the SubPlayItem, and the text subtitle data referenced by the SubPlayItem from the recording medium 11 via the storage drive 22. Alternatively, it is read from the local storage 24. Here, the main Clip AV stream file referred to by PlayItem and the sub Clip AV stream file referred to by SubPlayItem may be recorded on different recording media. For example, the main Clip AV stream file is recorded on the recording medium 11, and the corresponding sub Clip AV stream file is supplied via the network 2 (not shown) and stored in the local storage 24 such as an HDD. Also good. Conversely, the main Clip AV stream file may be stored in the local storage 24 such as an HDD, and the sub Clip AV stream file may be recorded on the recording medium 11.

また、コントローラ21は、メモリ23のレジスタに登録されている各種設定情報を参照して、自分自身(再生装置1)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置1の言語設定の初期情報に対応するエレメンタリストリームを選択し、再生するよう制御する。   In addition, the controller 21 refers to various setting information registered in the register of the memory 23, selects the elementary stream corresponding to the playback function of itself (playback apparatus 1), and controls to play back, The elementary stream corresponding to the initial information of the language setting of the playback device 1 is selected and controlled to be played back.

図30は、図29の再生装置1のAVデコーダ部26の構成例を示すブロック図である。   FIG. 30 is a block diagram illustrating a configuration example of the AV decoder unit 26 of the playback device 1 of FIG.

AVデコーダ部26には、スイッチ32、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57乃至59、PIDフィルタ60、バックグラウンドデコーダ71、1stビデオデコーダ72−1、2ndビデオデコーダ72−2、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、プリロードバッファ81、バックグラウンドプレーン生成部91、1stビデオプレーン生成部92−1、2ndビデオプレーン生成部92−2、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、およびミキシング処理部101が設けられている。   The AV decoder unit 26 includes a switch 32, buffers 51 to 54, PID filter 55, PID filter 56, switches 57 to 59, PID filter 60, background decoder 71, 1st video decoder 72-1 and 2nd video decoder 72-2. Presentation graphics decoder 73, Interactive graphics decoder 74, 1st audio decoder 75-1, 2nd audio decoder 75-2, Text-ST composition 76, switch 77, preload buffer 81, background plane generator 91, 1st video Plane generator 92-1 and 2nd video plane generator 92-2, presentation graphics plane generator 93, interactive graphics plane generator 94, buffer 95, video data Management unit 96, mixing processing unit 97 and the mixing processor 101, is provided.

1stビデオデコーダ72−1と2ndビデオデコーダ72−2は、ともにビデオストリームをデコードする。基本的には、STN_table()において、primary_video_stream_idで与えられるビデオストリームをデコードするためのものが1stビデオデコーダ72−1であり、Secondary_video_stream_idで与えられるビデオストリームをデコードするためのものが2ndビデオデコーダ72−2である。すなわち、再生装置1は、2つのビデオストリームをデコードするために、2つのビデオデコーダ(1stビデオデコーダ72−1、2ndビデオデコーダ72−2)を有している。また、1stビデオデコーダ72−1は、2ndビデオデコーダ72−2よりも優先的に使用されるビデオデコーダであるものとすることもできる。すなわち、デコードするビデオストリームが1つしかない場合、そのビデオストリームがメインClip AVストリームファイルに含まれるビデオストリームであっても、サブClip AVストリームファイルに含まれるビデオストリームであっても、1stビデオデコーダ72−1でデコードされるようにしてもよい。なお、以下において、1stビデオデコーダ72−1と2ndビデオデコーダ72−2とを個々に区別しない場合、ビデオデコーダ72と称する。   Both the 1st video decoder 72-1 and the 2nd video decoder 72-2 decode the video stream. Basically, in STN_table (), the 1st video decoder 72-1 is for decoding the video stream given by primary_video_stream_id, and the 2nd video decoder 72-is for decoding the video stream given by Secondary_video_stream_id. 2. That is, the playback device 1 has two video decoders (1st video decoder 72-1 and 2nd video decoder 72-2) in order to decode two video streams. Also, the 1st video decoder 72-1 may be a video decoder that is used with priority over the 2nd video decoder 72-2. That is, when there is only one video stream to be decoded, the first video decoder is used regardless of whether the video stream is a video stream included in the main Clip AV stream file or a video stream included in the sub Clip AV stream file. It may be decoded at 72-1. In the following description, the 1st video decoder 72-1 and the 2nd video decoder 72-2 will be referred to as the video decoder 72 when not distinguished from each other.

また、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2も、ともにオーディオストリームをデコードする。基本的には、STN_table()において、primary_audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、Secondary_audio_stream_idで与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。すなわち、再生装置1は、2つのオーディオストリームをデコードするために、2つのオーディオデコーダ(1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2)を有している。また、1stオーディオデコーダ75−1は、2ndオーディオデコーダ75−2よりも優先的に使用されるオーディオデコーダであるものとすることもできる。すなわち、デコードするオーディオストリームが1つしかない場合、そのオーディオストリームがメインClip AVストリームファイルに含まれるオーディオストリームであっても、サブClip AVストリームファイルに含まれるオーディオストリームであっても、1stオーディオデコーダ75−1でデコードされるようにしてもよい。なお、以下において、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2とを個々に区別しない場合、オーディオデコーダ75と称する。   Both the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 also decode the audio stream. Basically, in STN_table (), the one for decoding the audio stream given by primary_audio_stream_id is the 1st audio decoder 75-1, and the one for decoding the audio stream given by Secondary_audio_stream_id is the 2nd audio decoder 75-. 2. That is, the playback device 1 has two audio decoders (1st audio decoder 75-1 and 2nd audio decoder 75-2) in order to decode two audio streams. The 1st audio decoder 75-1 may be an audio decoder that is used preferentially over the 2nd audio decoder 75-2. That is, when there is only one audio stream to be decoded, the first audio decoder is used regardless of whether the audio stream is an audio stream included in the main Clip AV stream file or an audio stream included in the sub Clip AV stream file. It may be decoded in 75-1. In the following, the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 are referred to as audio decoders 75 when not distinguished from each other.

コントローラ21により読み出されたファイルデータは、図示せぬ復調、ECC復号部により、復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ21からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ21からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClip AVストリームファイルのデータをバッファ52に供給し、サブClipのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。   The file data read by the controller 21 is demodulated by a demodulation and ECC decoding unit (not shown), and error correction is performed on the demodulated multiplexed stream. The switch 32 selects the demodulated and error-corrected data for each stream type based on the control from the controller 21 and supplies the selected data to the corresponding buffers 51 to 54. Specifically, the switch 32 supplies background image data to the buffer 51, supplies data of the main Clip AV stream file to the buffer 52, and sub-clip data to the buffer 53 based on control from the controller 21. The switch 32 is switched so that the Text-ST data is supplied to the buffer 54.

バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AVストリームファイルのデータをバッファリングし、バッファ53は、サブClip AVストリームファイルのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   The buffer 51 buffers the background image data, the buffer 52 buffers the data of the main Clip AV stream file, the buffer 53 buffers the data of the sub Clip AV stream file, and the buffer 54 -Buffer ST data.

メインClip AVストリームファイルは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClip AVストリームファイルは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスとのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。   The main Clip AV stream file is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub-Clip AV stream file is a stream obtained by multiplexing one or more streams of video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.

また、メインClip AVストリームファイルとサブClip AVストリームファイルおよびテキストサブタイトルデータを、ストレージドライブ22(記録媒体11)またはローカルストレージ24から読み出すときに、それぞれのファイルを時分割に交互に読み出しても良いし、または、メインClipを読み出す前に、サブClip AVストリームファイルやテキストサブタイトルデータを予め読み出しておき、先行してバッファ(バッファ53またはバッファ54)へプリロードしてもよい。   Further, when the main clip AV stream file, the sub clip AV stream file, and the text subtitle data are read from the storage drive 22 (recording medium 11) or the local storage 24, the respective files may be alternately read in a time division manner. Alternatively, before the main clip is read, the sub clip AV stream file and the text subtitle data may be read in advance and preloaded to the buffer (buffer 53 or buffer 54) in advance.

そして、メインClip AVストリームファイル用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClip AVストリームファイルをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームを1stビデオデコーダ72−1と2ndビデオデコーダ72−2への供給元となるPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   Then, the stream data read from the buffer 52 which is the main Clip AV stream file read buffer is output to the PID (packet ID) filter 55 at the subsequent stage at a predetermined timing. The PID filter 55 distributes the input main Clip AV stream file to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 55 supplies the video stream to the PID filter 60 that is a supply source to the 1st video decoder 72-1 and the 2nd video decoder 72-2, and supplies the presentation graphics stream to the presentation graphics decoder 73. Is supplied to the switch 57, the interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the first audio decoder 75-1 and the second audio decoder 75-2. Is supplied to the switch 59.

なお、プレゼンテーショングラフィックスストリームは、上述したように、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、上述したように、例えば、テキスト字幕データである。   The presentation graphics stream is, for example, bitmap subtitle data as described above, and the text subtitle data is, for example, text subtitle data as described above.

サブClip AVストリームファイル用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClip AVストリームファイルをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、ビデオストリームを1stビデオデコーダ72−1と2ndビデオデコーダ72−2への供給元となるPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   The stream data read from the buffer 53, which is the sub-Clip AV stream file read buffer, is output to the PID (packet ID) filter 56 at the subsequent stage at a predetermined timing. The PID filter 56 distributes the input sub Clip AV stream file to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 56 supplies the video stream to the PID filter 60 that is a supply source to the 1st video decoder 72-1 and the 2nd video decoder 72-2, and supplies the presentation graphics stream to the presentation graphics decoder 73. Is supplied to the switch 57, the interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the first audio decoder 75-1 and the second audio decoder 75-2. Is supplied to the switch 59.

また、PIDフィルタ60には、メインClip AV Streamのビデオストリーム、または、サブClip AV Streamのビデオストリームが、PIDフィルタ55またはPIDフィルタ56を介して入力されてくる。そこで、PIDフィルタ60は、入力されたビデオストリームを、そのPID(パケットID)に応じて、後段の1stビデオデコーダ72−1または2ndビデオデコーダ72−2に振り分けて出力する。即ち、PIDフィルタ60は、プライマリビデオストリームが入力された場合には、そのプライマリビデオストリームを1stビデオデコーダ72−1に供給する。これに対して、PIDフィルタ60は、セカンダリビデオストリームが入力された場合には、そのセカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。   Also, the main Clip AV Stream video stream or the sub Clip AV Stream video stream is input to the PID filter 60 via the PID filter 55 or the PID filter 56. Therefore, the PID filter 60 distributes the input video stream to the subsequent 1st video decoder 72-1 or 2nd video decoder 72-2 according to the PID (packet ID) and outputs the result. That is, when a primary video stream is input, the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1. On the other hand, when a secondary video stream is input, the PID filter 60 supplies the secondary video stream to the 2nd video decoder 72-2.

なお、ここでは、プライマリビデオストリームとして、メインClip AV Streamのビデオストリームのみが利用され、サブClip AV Streamのビデオストリームは利用されないとされている。ただし、将来、サブClip AV Streamのビデオストリームもプライマリビデオストリームとして利用され得ることも考慮して、PIDフィルタ56から供給されたサブClip AV Streamのビデオストリームも1stビデオデコーダ72に供給され得るように、PIDフィルタ60が構成されている。すなわち、Subpathにより指定されたサブClipに含まれるビデオストリームのみを再生し、ビデオストリームの再生にメインClipを使わず、オーディオストリームの再生は、サブClip、もしくは、メインClipを用いる場合である。   Here, only the main clip AV stream video stream is used as the primary video stream, and the sub clip AV stream video stream is not used. However, the sub-Clip AV Stream video stream supplied from the PID filter 56 can also be supplied to the 1st video decoder 72 in consideration that the sub-Clip AV Stream video stream may be used as the primary video stream in the future. The PID filter 60 is configured. That is, only the video stream included in the sub clip specified by Subpath is played, the main clip is not used for playing the video stream, and the audio stream is played using the sub clip or the main clip.

バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。   Data read from the buffer 51 that buffers background image data is supplied to the background decoder 71 at a predetermined timing. The background decoder 71 decodes the background image data and supplies the decoded background image data to the background plane generation unit 91.

1stビデオデコーダ72−1は、ビデオストリームをデコードし、デコードしたビデオデータを1stビデオプレーン生成部92−1へ出力する。2ndビデオデコーダ72−2は、ビデオストリームをデコードし、デコードしたビデオデータを2ndビデオプレーン生成部92−2へ出力する。   The 1st video decoder 72-1 decodes the video stream and outputs the decoded video data to the 1st video plane generating unit 92-1. The 2nd video decoder 72-2 decodes the video stream and outputs the decoded video data to the 2nd video plane generating unit 92-2.

スイッチ57は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるプレゼンテーショングラフィックスストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。   The switch 57 is one of the presentation graphics stream included in the main Clip AV stream file supplied from the PID filter 55 and the presentation graphics stream included in the sub Clip AV stream file supplied from the PID filter 56. The selected presentation graphics stream is supplied to the presentation graphics decoder 73 at the subsequent stage. The presentation graphics decoder 73 decodes the presentation graphics stream, and supplies the decoded presentation graphics stream data to the switch 77 serving as a supply source to the presentation graphics plane generation unit 93.

また、スイッチ58は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるインタラクティブグラフィックスストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、プリロードバッファ81に供給する。   The switch 58 also selects one of the interactive graphics stream included in the main Clip AV stream file supplied from the PID filter 55 and the interactive graphics stream included in the sub Clip AV stream file supplied from the PID filter 56. Or the selected interactive graphics stream is supplied to the subsequent interactive graphics stream decoder 74. The interactive graphics decoder 74 decodes the interactive graphics stream and supplies the decoded interactive graphics stream data to the preload buffer 81.

プリロード用バッファ81は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームを一時記憶する。例えば、再生装置1が、一度に2つのTS(Transport stream)しか読み出せないという制限が課せられている場合などにおいて、再生装置1は、インタラクティブグラフィックスストリームを予め取得しておくことで(プリロードしておくことで)、ビデオストリームやオーディオストリームを再生するときに、プリロードしておいたインタラクティブグラフィックスストリームも同時再生することができる、といった機能を有している。かかる機能を実現するために、即ち、プリロードされたインタラクティブグラフィックスストリームを、ビデオストリームやオーディオストリームが再生されるタイミングまで保存しておくために、プリロード用バッファ81が設けられているのである。   The preload buffer 81 temporarily stores the interactive graphics stream supplied from the interactive graphics decoder 74. For example, in a case where there is a restriction that the playback device 1 can read only two TS (Transport streams) at a time, the playback device 1 obtains an interactive graphics stream in advance (preloading). In other words, when the video stream or the audio stream is played back, the pre-loaded interactive graphics stream can be played back simultaneously. In order to realize such a function, that is, to store the preloaded interactive graphics stream until the timing when the video stream or the audio stream is reproduced, the preloading buffer 81 is provided.

プリロード用バッファ81に蓄積されたデコード済みのインタラクティブグラフィックスストリームは、所定のタイミングでインタラクティブグラフィックスプレーン生成部94に供給される。   The decoded interactive graphics stream stored in the preload buffer 81 is supplied to the interactive graphics plane generating unit 94 at a predetermined timing.

さらに、スイッチ59は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるオーディオストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるオーディオストリームを、後段の1stオーディオデコーダ75−1、または、2ndオーディオデコーダ75−2に供給する。具体的には、スイッチ59は、stream_entry()のtypeの値によって、その選択を切り替える。   Further, the switch 59 converts the audio stream included in the main Clip AV stream file supplied from the PID filter 55 and the audio stream included in the sub Clip AV stream file supplied from the PID filter 56 into the first audio decoder 75 in the subsequent stage. -1 or 2nd audio decoder 75-2. Specifically, the switch 59 switches the selection depending on the value of the type of stream_entry ().

1stオーディオデコーダ75−1は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。また、2ndオーディオデコーダ75−2は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。   The 1st audio decoder 75-1 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101. The 2nd audio decoder 75-2 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101.

ここで、2つのオーディオストリームを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたオーディオストリームとが、ミキシング処理部101に供給される。   Here, when two audio streams are superimposed and reproduced, the audio stream decoded by the 1st audio decoder 75-1 and the audio stream decoded by the 2nd audio decoder 75-2 are mixed into the mixing processing unit 101. To be supplied.

例えば、メインパスで参照される1stオーディオストリームとサブパスで参照される2ndオーディオストリームとを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたメインClip AVストリームファイルのオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたサブClip AVストリームファイルのオーディオストリームとが、ミキシング処理部101に供給される。   For example, when the 1st audio stream referred to in the main path and the 2nd audio stream referred to in the sub path are superimposed and reproduced, the audio stream of the main Clip AV stream file decoded by the 1st audio decoder 75-1 The audio stream of the sub Clip AV stream file decoded by the 2nd audio decoder 75-2 is supplied to the mixing processing unit 101.

また、例えば、サブパスで参照される2本のオーディオストリームを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたサブClip AVストリームファイルのオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたサブClip AVストリームファイルのオーディオストリームとが、ミキシング処理部101に供給される。   Further, for example, when two audio streams referenced in the sub path are superimposed and reproduced, the audio stream of the sub Clip AV stream file decoded by the 1st audio decoder 75-1 and the 2nd audio decoder 75-2. The audio stream of the sub-Clip AV stream file decoded by the above is supplied to the mixing processing unit 101.

ミキシング処理部101は、1stオーディオデコーダ75−1からのオーディオデータと、2ndオーディオデコーダ75−2からのオーディオデータとをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオデータと2ndオーディオデコーダ75−2から出力されるオーディオデータとをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。   The mixing processing unit 101 mixes (superimposes) the audio data from the 1st audio decoder 75-1 and the audio data from the 2nd audio decoder 75-2, and outputs the mixed data to the subsequent mixing processing unit 97. In the present embodiment, mixing (superimposing) the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2 is also referred to as synthesis. In other words, synthesis means to mix two audio data.

また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、例えば、メニュー選択などによる効果音のデータなどである。ミキシング処理部97は、ミキシング処理部101によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、音声信号として出力する。   The sound data selected by the switch 32 is supplied to the buffer 95 and buffered. The buffer 95 supplies the sound data to the mixing processing unit 97 at a predetermined timing. The sound data is, for example, sound effect data by menu selection or the like. The mixing processing unit 97 is the audio data mixed by the mixing processing unit 101 (audio data obtained by mixing the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2). The sound data supplied from the buffer 95 is mixed (superimposed or synthesized) and output as an audio signal.

テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。   The data read from the buffer 54 that is a text subtitle read buffer is output to the text subtitle composition (decoder) 76 at the subsequent stage at a predetermined timing. The text subtitle composition 76 decodes the Text-ST data and supplies it to the switch 77.

スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン生成部93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClip AVストリームファイルまたはサブClip AVストリームファイルのいずれかから分離されたストリームである。したがって、プレゼンテーショングラフィックスプレーン生成部93へ同時に出力される字幕画像は、メインClip AVストリームファイルからのプレゼンテーショングラフィックスストリーム、またはサブClip AVストリームファイルからのからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。   The switch 77 selects either the presentation graphics stream decoded by the presentation graphics decoder 73 or Text-ST (text subtitle data), and supplies the selected data to the presentation graphics plane generating unit 93. . That is, the subtitle image simultaneously supplied to the presentation graphics plane generating unit 93 is an output of either the presentation graphics decoder 73 or the text subtitle (Text-ST) composition 76. The presentation graphics stream that is simultaneously input to the presentation graphics decoder 73 is a stream that is separated from either the main Clip AV stream file or the sub Clip AV stream file. Therefore, the subtitle image simultaneously output to the presentation graphics plane generation unit 93 is a presentation graphics stream from the main Clip AV stream file, a presentation graphics stream from the sub Clip AV stream file, or text subtitle data. Decode output.

バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合や、ストリーム再生中以外に後述するGUI表示画面を表示する場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。   Based on the background image data supplied from the background decoder 71, the background plane generation unit 91, for example, when displaying a video image in a reduced size or when displaying a GUI display screen described later other than during stream playback. A background plane serving as a wallpaper image is generated and supplied to the video data processing unit 96.

1stビデオプレーン生成部92−1は、1stビデオデコーダ72−1から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。2ndビデオプレーン生成部92−2は、2ndビデオデコーダ72−2から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。   The 1st video plane generating unit 92-1 generates a video plane based on the video data supplied from the 1st video decoder 72-1, and supplies this to the video data processing unit 96. The 2nd video plane generation unit 92-2 generates a video plane based on the video data supplied from the 2nd video decoder 72-2, and supplies this to the video data processing unit 96.

プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。   The presentation graphics plane generation unit 93 generates, for example, a presentation graphics plane which is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the switch 77 and supplied, and this is converted into a video. The data is supplied to the data processing unit 96.

インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。   The interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74, and supplies this to the video data processing unit 96.

ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、1stビデオプレーン生成部92−1からのビデオプレーン、2ndビデオプレーン生成部92−2からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。   The video data processing unit 96 generates a background plane from the background plane generation unit 91, a video plane from the first video plane generation unit 92-1, and a video plane and presentation graphics plane from the 2nd video plane generation unit 92-2. The presentation graphics plane from the unit 93 and the interactive graphics plane from the interactive graphics plane generation unit 94 are combined and output as a video signal.

なお、ビデオデータ処理部96は、ピクチャインピクチャ表示が行われる場合、すなわち、1stビデオプレーン生成部92−1からのビデオプレーン、および、2ndビデオプレーン生成部92−2からのビデオプレーンの両方の入力を受けるとき、メイン画面(親画面)の中に、サブ画面(子画面)を有するピクチャインピクチャ表示画面(図31を用いて後述する)を生成する。   Note that the video data processing unit 96 performs picture-in-picture display, that is, both the video plane from the 1st video plane generation unit 92-1 and the video plane from the 2nd video plane generation unit 92-2. When receiving an input, a picture-in-picture display screen (described later with reference to FIG. 31) having a sub-screen (child screen) is generated in the main screen (parent screen).

また、これらのスイッチ57乃至59、並びにスイッチ77は、操作入力部29を介するユーザからの選択に基づいて、または、対象となるデータが含まれるファイルが供給される側に、スイッチを切り替える。例えば、サブClip AVストリームファイルのみにしか、オーディオストリームが含まれていない場合、スイッチ59はサブClip AVストリームファイルを供給する側(PIDフィルタ56の出力)にスイッチを切り替える。   The switches 57 to 59 and the switch 77 are switched based on a selection from the user via the operation input unit 29 or to a side to which a file including target data is supplied. For example, when the audio stream is included only in the sub-Clip AV stream file, the switch 59 switches the switch to the side that supplies the sub-Clip AV stream file (the output of the PID filter 56).

次に、再生装置1における再生処理について説明する。操作入力部29を用いてユーザにより所定のAVストリームの再生が指令されたとき、コントローラ21は、ストレージドライブ22を介して記録媒体11から、または、HDD(Hard Disk Drive)などで構成されるローカルストレージ24から、PlayListファイルに含まれるPlayList(PlayListに含まれるPlayItemおよびSubPlayItem)に基づいて、メインClip AVストリーム、サブClip AVストリーム、およびテキストサブタイトルデータ(Text-STデータ)を読み出して、AVデコーダ部26に供給する。   Next, playback processing in the playback device 1 will be described. When reproduction of a predetermined AV stream is instructed by the user using the operation input unit 29, the controller 21 is a local medium configured from the recording medium 11 via the storage drive 22 or an HDD (Hard Disk Drive) or the like. Based on the PlayList (PlayItem and SubPlayItem included in the PlayList) included in the PlayList file, the main Clip AV stream, the sub Clip AV stream, and the text subtitle data (Text-ST data) are read from the storage 24, and the AV decoder unit 26.

コントローラ21は、バックグラウンドイメージデータをバッファ51に供給し、メインClip AVストリームのデータをバッファ52に供給し、サブClip AVストリームのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。   The controller 21 supplies the background image data to the buffer 51, supplies the main Clip AV stream data to the buffer 52, supplies the sub Clip AV stream data to the buffer 53, and supplies the Text-ST data to the buffer 54. Switch 32 is switched to supply.

そして、スイッチ32が切り替えられて、バックグラウンドイメージデータはバッファ51に供給され、メインClip AVストリームのデータはバッファ52に供給され、サブClip AVストリームのデータはバッファ53に供給され、テキストサブタイトルデータはバッファ54に供給され、各バッファ51乃至54は、供給されたデータをそれぞれバッファリングする。   Then, the switch 32 is switched, the background image data is supplied to the buffer 51, the data of the main Clip AV stream is supplied to the buffer 52, the data of the sub Clip AV stream is supplied to the buffer 53, and the text subtitle data is The data is supplied to the buffer 54, and each of the buffers 51 to 54 buffers the supplied data.

そして、バッファ51は、バックグラウンドイメージデータをバックグラウンドデコーダ71に出力し、バッファ52はメインClip AVストリームのストリームデータをPIDフィルタ55に出力し、バッファ54は、テキストサブタイトルデータをテキストサブタイトルコンポジション76に出力し、バッファ53は、サブClip AVストリームのストリームデータをPIDフィルタ56に出力する。   The buffer 51 outputs the background image data to the background decoder 71, the buffer 52 outputs the stream data of the main Clip AV stream to the PID filter 55, and the buffer 54 converts the text subtitle data to the text subtitle composition 76. The buffer 53 outputs the stream data of the sub Clip AV stream to the PID filter 56.

PIDフィルタ55は、ビデオストリームをPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームをスイッチ59に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞれ異なるPIDが付されている。   The PID filter 55 supplies the video stream to the PID filter 60, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and supplies the interactive graphics stream to the interactive graphics decoder 74. The original switch 58 is supplied, and the audio stream is supplied to the switch 59. That is, different PIDs are attached to the video stream, presentation graphics stream, interactive graphics stream, and audio stream, respectively.

そして、PIDフィルタ56は、ビデオストリームをPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームをスイッチ59に供給する。   Then, the PID filter 56 supplies the video stream to the PID filter 60, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and supplies the interactive graphics stream to the interactive graphics decoder 74. Is supplied to the switch 58 serving as the supply source, and the audio stream is supplied to the switch 59.

PIDフィルタ60は、プライマリビデオストリームが入力された場合には、そのプライマリビデオストリームを1stビデオデコーダ72−1に供給する。これに対して、PIDフィルタ60は、セカンダリビデオストリームが入力された場合には、そのセカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。   When the primary video stream is input, the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1. On the other hand, when a secondary video stream is input, the PID filter 60 supplies the secondary video stream to the 2nd video decoder 72-2.

そして、PIDフィルタ55およびPIDフィルタ56の後段のスイッチ57、および、スイッチ58は、コントローラ21からの制御に基づいて、メインClipとサブClipのいずれかを選択する。すなわち、スイッチ57は、PIDフィルタ55から供給されたメインClip AVストリームまたはサブClip AVストリームのプレゼンテーショングラフィックスストリームを選択し、後段のプレゼンテーショングラフィックスデコーダ73に供給する。また、スイッチ58は、PIDフィルタ55から供給されたメインClip AVストリームまたはサブClip AVストリームのインタラクティブグラフィックスストリームを選択し、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。   Then, the switch 57 and the switch 58 subsequent to the PID filter 55 and the PID filter 56 select either the main clip or the sub clip based on the control from the controller 21. That is, the switch 57 selects the presentation graphics stream of the main Clip AV stream or the sub Clip AV stream supplied from the PID filter 55 and supplies it to the presentation graphics decoder 73 at the subsequent stage. In addition, the switch 58 selects the interactive graphics stream of the main Clip AV stream or the sub Clip AV stream supplied from the PID filter 55 and supplies the selected interactive graphics stream to the subsequent interactive graphics stream decoder 74.

さらに、スイッチ59は、オーディオの合成が行われない場合、PIDフィルタ55から供給されたメインClip AVストリーム、または、PIDフィルタ56から供給されたサブClip AVストリームのオーディオストリームのうちのいずれかを選択し、後段の1stオーディオデコーダ75−1に供給する。なお、音声を切り替えるような指令や、音声を合成するような指令がユーザにより行われた場合には、スイッチ59は、メインClip AVストリームのオーディオストリームを2ndオーディオデコーダ75−2に供給したり、サブClip AVストリームのオーディオストリームを1stオーディオデコーダ75−1や2ndオーディオデコーダ75−2に供給する。   Further, when audio synthesis is not performed, the switch 59 selects either the main Clip AV stream supplied from the PID filter 55 or the audio stream of the sub Clip AV stream supplied from the PID filter 56. Then, it is supplied to the 1st audio decoder 75-1 at the subsequent stage. When an instruction for switching audio or an instruction for synthesizing audio is issued by the user, the switch 59 supplies the audio stream of the main Clip AV stream to the 2nd audio decoder 75-2, The audio stream of the sub Clip AV stream is supplied to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2.

そして、バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、これをバックグラウンドプレーン生成部91に出力し、1stビデオデコーダ72−1および2ndビデオデコーダ72−2は、ビデオストリームをデコードし、これを、それぞれ、1stビデオプレーン生成部92−1および2ndビデオプレーン生成部92−2に出力し、プレゼンテーショングラフィックスデコーダ73は、スイッチ57により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、これを後段のスイッチ77に出力し、インタラクティブグラフィックスデコーダ74は、スイッチ58により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを後段のインタラクティブグラフィックスプレーン生成部94に出力し、Text-STコンポジション76は、テキストサブタイトルデータをデコードし、これを後段のスイッチ77に出力する。   The background decoder 71 decodes the background image data and outputs it to the background plane generation unit 91. The 1st video decoder 72-1 and the 2nd video decoder 72-2 decode the video stream, Are output to the 1st video plane generation unit 92-1 and the 2nd video plane generation unit 92-2, respectively, and the presentation graphics decoder 73 decodes the presentation graphics stream selected and supplied by the switch 57. Is output to the downstream switch 77, and the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58 and outputs the decoded interactive graphics stream. Output to revertive graphics plane generator 94, Text-ST composition 76 decodes the text subtitle data, and outputs it to the subsequent stage of the switch 77.

そして、1stオーディオデコーダ75−1は、スイッチ59により選択され、供給されたオーティオストリーム(プライマリオーディオストリーム)をデコードし、これを後段のミキシング処理部101に出力する。例えば、音声の切り替えがユーザにより指示されていない状態における再生処理では、2ndオーディオデコーダ75−2からオーディオデータが出力されることはないので、ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータを、そのまま後段のミキシング処理部97に供給する。また、音声の合成がユーザにより指令されている状態においては、2ndオーディオデコーダ75−2は、スイッチ59により選択され、供給されたオーティオストリームをデコードし、これを後段のミキシング処理部101に出力する。ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとを合成(ミキシング)し、後段のミキシング処理部97に供給する。   Then, the 1st audio decoder 75-1 decodes the supplied audio stream (primary audio stream) selected by the switch 59, and outputs this to the mixing processing unit 101 at the subsequent stage. For example, in the reproduction process in the state where the user has not instructed to switch the audio, the audio data is not output from the 2nd audio decoder 75-2. Therefore, the mixing processing unit 101 outputs from the 1st audio decoder 75-1. The audio data thus obtained is supplied as it is to the subsequent mixing processing unit 97. In addition, in a state in which voice synthesis is instructed by the user, the 2nd audio decoder 75-2 is selected by the switch 59, decodes the supplied audio stream, and outputs this to the subsequent mixing processing unit 101. . The mixing processing unit 101 synthesizes (mixes) the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2, and supplies the resultant to the mixing processing unit 97 at the subsequent stage.

スイッチ77は、プレゼンテーショングラフィックスデコーダ73またはText-STコンポジション76からのデータのいずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。   The switch 77 selects either the data from the presentation graphics decoder 73 or the Text-ST composition 76 and supplies the selected data to the presentation graphics plane generating unit 93.

バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、バックグラウンドプレーンを生成し、ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成し、プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたプレゼンテーショングラフィックスデコーダ73からのデータまたはText-STコンポジション76からのデータに基づいて、プレゼンテーショングラフィックスプレーンを生成し、インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成する。   The background plane generating unit 91 generates a background plane based on the background image data supplied from the background decoder 71, and the video plane generating unit 92 is based on the video data supplied from the video decoder 72. The presentation graphics plane generating unit 93 generates a video plane based on the data from the presentation graphics decoder 73 or the text-ST composition 76 selected and supplied by the switch 77. The interactive graphics plane generating unit 94 generates an interactive graphics stream data supplied from the interactive graphics decoder 74. An interactive graphics plane is generated based on the data.

そして、ビデオデータ処理部96は、各プレーンのデータを合成し、ビデオデータとして出力する。   Then, the video data processing unit 96 combines the data of each plane and outputs it as video data.

また、バッファ95は、供給されたサウンドデータをバッファリングし、所定のタイミングでミキシング処理部97に供給する。ミキシング処理部97は、オーディオデータ(ミキシング処理部101から出力されたオーディオデータ)とサウンドデータをミキシング(合成)し、出力する。   The buffer 95 buffers the supplied sound data and supplies it to the mixing processing unit 97 at a predetermined timing. The mixing processing unit 97 mixes (synthesizes) audio data (audio data output from the mixing processing unit 101) and sound data and outputs the result.

このような処理により、PlayListに含まれるメインパスとサブパスによりメインClip AVストリーム、サブClip AVストリーム、およびテキストサブタイトルデータが参照され、再生される。PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指定するClip AVストリームファイルとは異なるClip AVストリームである、サブClip AVストリームを指定可能な構成としたので、メインパスのPlayItemが指すメインClipとは異なるClipであるサブClipに含まれるデータとメインClipに含まれるデータとを一緒に(同じタイミングで)再生することができる。   By such processing, the main Clip AV stream, the sub Clip AV stream, and the text subtitle data are referred to and reproduced by the main path and sub path included in the PlayList. Since the main path and the sub path are provided in the PlayList, and the sub path is a clip AV stream different from the clip AV stream file specified by the main path, the sub clip AV stream can be specified. Data included in a sub clip, which is a different clip from the indicated main clip, and data included in the main clip can be reproduced together (at the same timing).

ところで、上述したように、本発明の再生装置1に装着される記録媒体11上、または、再生装置1のローカルストレージ24に記録されるデータのアプリケーションフォーマットは、PlayListとClipの2つのレイヤを有している。そして、PlayListは、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られるメインパス(Main Path)と、そのMain Pathに並行(並列)して、1つ以上のSubPlayItemの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られるサブパス(Sub Path)を1以上含むことができる。   By the way, as described above, the application format of data recorded on the recording medium 11 mounted on the playback apparatus 1 of the present invention or the local storage 24 of the playback apparatus 1 has two layers, PlayList and Clip. is doing. A PlayList is composed of a main path (Main Path) created by a sequence of one or more PlayItems (by consecutive PlayItems) and a parallel (in parallel) to the Main Path (by a sequence of one or more SubPlayItems (non- One or more sub paths (sub paths) created by sub play items that may be continuous or may be continuous may be included.

このような構成を有するデータを、図29および図30を用いて説明した再生装置1において再生することにより、図31に示されるように、全画面(親画面)301と子画面302のそれぞれに別々のコンテンツを同時再生させる、といったピクチャインピクチャ手法を適用することが可能になる。   By reproducing the data having such a configuration on the playback apparatus 1 described with reference to FIGS. 29 and 30, as shown in FIG. 31, each of the full screen (parent screen) 301 and the subsidiary screen 302 is displayed. It is possible to apply a picture-in-picture technique such as simultaneous playback of different contents.

例えば、図31に示されるように、1画面のうちの、全画面301に、メインパスで参照されるAVストリーム(図31中、Primary Videoと記述されているビデオストリーム311、および、Primary Audioと記述されているオーディオストリーム312)に対応する映画本編等のコンテンツを再生させるとともに、全画面301に配置される子画面302に、サブパスで参照されるAVストリーム(図31中、Secondary Videoと記述されているビデオストリーム313、および、Secondary Audioと記述されているオーディオストリーム314)に対応する映画の監督のコメンタリー等、メインパスで参照されるAVストリームとは別のコンテンツを再生させる、といった手法を適用することが可能になる。   For example, as shown in FIG. 31, an AV stream (video stream 311 described as “Primary Video” in FIG. 31 and “Primary Audio” in FIG. 31) is displayed on all screens 301 in one screen. The content such as the main movie corresponding to the described audio stream 312) is reproduced, and the AV stream (described as Secondary Video in FIG. 31) is referred to in the sub-screen 302 arranged on the full screen 301 by the sub path. Applying a method of reproducing content different from the AV stream referred to in the main path, such as a commentary of a movie director corresponding to the video stream 313 and the audio stream 314) described as Secondary Audio It becomes possible to do.

具体的には、ピクチャインピクチャは、例えば映画本編(Primary Video, Primary Audio)を全画面301に表示しているときに、監督のコメンタリー(Secondary Video, Secondary Audio)を子画面302に入れ子画面にして、必要に応じて、音声を合成し、同時に表示出力されるように再生するアプリケーションである。   Specifically, for example, when the movie main part (Primary Video, Primary Audio) is displayed on the full screen 301, the director's commentary (Secondary Video, Secondary Audio) is nested in the sub-screen 302, for example. This is an application that synthesizes the sound as needed and reproduces it so that it is simultaneously displayed and output.

なお、サブタイトルストリームの再生位置(字幕等の表示位置)は、特に子画面内である必要は無く、全画面のうちの何れの位置でもよい。このため、図31の例では、サブタイトルストリーム315は、子画面302からはみ出すように描画されている。   Note that the playback position of the subtitle stream (the display position of subtitles and the like) does not have to be in the child screen, and may be any position on the entire screen. Therefore, in the example of FIG. 31, the subtitle stream 315 is drawn so as to protrude from the child screen 302.

ユーザがピクチャインピクチャアプリケーションに関して許されているユーザオペレーションは、セカンダリビデオを表示するか否か、換言すれば、ピクチャインピクチャアプリケーションのon/offを指令するためのユーザオペレーションと、一つの区間に複数のセカンダリビデオが用意されている場合に、現在表示されているセカンダリビデオを他のセカンダリビデオに切り替えるユーザオペレーションである。また、セカンダリビデオが表示されている場合には、セカンダリオーディオのon/offおよび再生されるセカンダリオーディオの変更、並びに、ピクチャインピクチャ用の字幕のon/offおよび字幕の変更を指令するユーザオペレーションも許されている。   The user operations that the user is permitted with respect to the picture-in-picture application include whether to display secondary video, in other words, a user operation for commanding on / off of the picture-in-picture application, and a plurality of operations in one section. This is a user operation for switching the currently displayed secondary video to another secondary video when the secondary video is prepared. In addition, when secondary video is displayed, user operations that command on / off of secondary audio and change of secondary audio to be reproduced, and on / off of subtitles for picture-in-picture and subtitles are also provided. It is forgiven.

ピクチャインピクチャにおいて、子画面302として表示可能なSecondary Videoは、1つのPlayList中に複数定義することができる。例えば、1つのPlayList中に子画面302として表示可能なSecondary Videoを255個含めることができるようになされているなど、多数のピクチャインピクチャアプリケーションがPlayList中に定義されていた場合、ユーザが、そのコンテンツにおいて再生可能なピクチャインピクチャアプリケーションを把握することは困難である。   In picture-in-picture, a plurality of Secondary Videos that can be displayed as the sub-screen 302 can be defined in one PlayList. For example, when a large number of picture-in-picture applications are defined in the PlayList, such as 255 Secondary Videos that can be displayed as the child screen 302 can be included in one PlayList, the user It is difficult to grasp picture-in-picture applications that can be reproduced in content.

また、例えば、全画面301に表示されるPrimary Videoに対しては、従来行われてきたように、チャプタなどを用いて、特定のシーンを呼び出して再生させることなどができる。しかしながら、これに対して、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することは困難である。したがって、全画面301に表示されるPrimary Videoとともに子画面302に表示されるSecondary Videoの特定のシーンを呼び出す方法は提供されていない。   Further, for example, for a Primary Video displayed on the full screen 301, a specific scene can be called and played using a chapter or the like as has been conventionally performed. However, in contrast to this, with respect to the primary video playback section displayed on the entire screen 301, the user grasps which section of the secondary video can be played as the sub-screen 302 in which section. It is difficult. Therefore, a method for calling a specific scene of the Secondary Video displayed on the sub-screen 302 together with the Primary Video displayed on the full screen 301 is not provided.

また、Secondary VideoおよびSecondary Audioは、Primary Videoの全ての再生区間に対して用意されているとは限らず、また、同一の再生区間に、複数のSecondary VideoおよびSecondary Audioが用意されている場合もある。また、Secondary Videoと、それに対応するSecondary Audioは、全てが所定のタイミングで再生されるのではなく、ユーザの所望のタイミングで再生される(非同期)のものも存在する。このため、例えば、再生開始時刻を指定することにより、Secondary Videoと、それに対応するSecondary Audioの特定のシーンを任意に呼び出すのは困難であった。   Also, Secondary Video and Secondary Audio are not necessarily prepared for all playback sections of Primary Video, and there may be cases where multiple Secondary Video and Secondary Audio are prepared in the same playback section. is there. Further, there are some types of secondary video and secondary audio corresponding to the secondary video that are not reproduced at a predetermined timing but are reproduced at a timing desired by the user (asynchronous). For this reason, for example, it is difficult to arbitrarily call a specific scene of Secondary Video and the corresponding Secondary Audio by specifying the playback start time.

そこで、再生装置1においては、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面を生成して表示する機能を有するものとする。   Therefore, in the playback apparatus 1, the user grasps which Secondary Video can be played back as the sub-screen 302 in which section with respect to the Primary Video playback section displayed on the full screen 301. It is assumed that it has a function to generate and display a GUI display screen that can be used.

ユーザは、このGUI表示画面を参照することにより、Secondary Videoと、それに対応するSecondary Audioの特定のシーンを効率的に選択することが可能となる。   By referring to the GUI display screen, the user can efficiently select a secondary video and a specific scene of the secondary audio corresponding to the secondary video.

また、再生装置1は、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面のみならず、例えば、Primary VideoとSecondary Videoとをユーザが明確に区別することなく、Primary VideoとSecondary Videoとのいずれかの特定のシーンを選択することができるようなGUI表示画面を生成して表示するようにしてもよい。   In addition, the playback apparatus 1 allows the user to understand which Secondary Video can be played as the sub-screen 302 in which section with respect to the Primary Video playback section displayed on the entire screen 301. In addition to the GUI display screen that can be used, for example, the user can select a specific scene of either Primary Video or Secondary Video without clearly distinguishing between Primary Video and Secondary Video. A simple GUI display screen may be generated and displayed.

図32に、コントローラ21が有する機能のうち、このようなGUI表示画面を生成して表示する機能について説明するための機能ブロック図を示す。   FIG. 32 is a functional block diagram for explaining a function of generating and displaying such a GUI display screen among the functions of the controller 21.

なお、コントローラ21は、例えば、GUI表示画面を生成して表示する機能や、装着された記録媒体11またはローカルストレージ24に記録されているデータを再生する処理以外にも、さまざまな機能を有するものとしてもよいが、図32においては、GUI表示画面の生成および表示の制御、並びに、ストリームデータの再生の制御以外の機能については、省略する。   The controller 21 has various functions in addition to, for example, a function of generating and displaying a GUI display screen and a process of reproducing data recorded in the attached recording medium 11 or the local storage 24. However, in FIG. 32, functions other than the generation and display control of the GUI display screen and the reproduction control of the stream data are omitted.

PlayList読み出し制御部351は、PlayListファイルを取得する。PlayList読み出し制御部351は、例えば、通常再生時においては、取得したPlayListファイルに含まれるPlayItemおよびSubPlayItemに基づいて、対応するClipのClip_Information_file_nameを検出し、ストリームデータ読み出し制御部354に供給する。また、PlayList読み出し制御部351は、例えば、上述したようなGUI表示画面を表示するために、取得したPlayListファイルを、PlayList解析部352に供給する。   The PlayList read control unit 351 acquires a PlayList file. For example, during normal playback, the PlayList read control unit 351 detects the Clip_Information_file_name of the corresponding Clip based on the PlayItem and SubPlayItem included in the acquired PlayList file, and supplies the detected Clip_Information_file_name to the stream data read control unit 354. Also, the PlayList read control unit 351 supplies the acquired PlayList file to the PlayList analysis unit 352, for example, in order to display the GUI display screen as described above.

PlayList解析部352は、供給されたPlayListファイルから、STN_table()を読み出し、STN_table()のstream_entryに基づいて、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを取得し、IN_time/OUT_time取得部356に供給する。   The PlayList analysis unit 352 reads STN_table () from the supplied PlayList file, and acquires ref_to_Subpath_id corresponding to Secondary Video and Secondary Audio included in the stream played by this PlayList file based on the stream_entry of STN_table () And supplied to the IN_time / OUT_time acquisition unit 356.

操作入力取得部353は、操作入力部29から供給されるユーザの操作入力を取得し、ストリームデータ読み出し制御部354、再生開始位置情報記憶制御部358、または、GUI表示制御部359に供給する。   The operation input acquisition unit 353 acquires a user operation input supplied from the operation input unit 29 and supplies the operation input to the stream data read control unit 354, the reproduction start position information storage control unit 358, or the GUI display control unit 359.

ストリームデータ読み出し制御部354は、PlayList読み出し制御部351から供給されたClip_Information_file_nameを基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。またストリームデータ読み出し制御部354は、操作入力取得部353から供給された、GUI表示画面を参照したユーザの操作入力を基に、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置に関する情報を参照し、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。   The stream data read control unit 354 controls reading of the stream data included in the corresponding Clip and supply to the AV decoder unit 26 based on the Clip_Information_file_name supplied from the PlayList read control unit 351. In addition, the stream data read control unit 354 starts the reproduction whose storage is controlled by the reproduction start position information storage control unit 358 based on the user's operation input supplied from the operation input acquisition unit 353 with reference to the GUI display screen. With reference to the information on the position, the reading of the stream data included in the corresponding Clip and the supply to the AV decoder unit 26 are controlled.

再生制御部355は、ストリームデータ読み出し制御部354の制御に基づいて、AVデコーダ部26へ供給されたデータのデコードおよび再生出力を制御する。   The reproduction control unit 355 controls decoding and reproduction output of data supplied to the AV decoder unit 26 based on the control of the stream data read control unit 354.

IN_time/OUT_time取得部356は、PlayList解析部352から供給された、Secondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを基に、対応するSubpathに含まれるSubPlayItemを抽出し、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを取得し、GUI生成部357および再生開始位置情報記憶制御部358に供給する。   The IN_time / OUT_time acquisition unit 356 extracts SubPlayItems included in the corresponding Subpath based on the ref_to_Subpath_id corresponding to the Secondary Video and Secondary Audio supplied from the PlayList analysis unit 352, and extracts the SubPlayItem_IN_time and the SubPlayItem_IN_time SubPlayItem_Out_time is acquired and supplied to the GUI generation unit 357 and the reproduction start position information storage control unit 358.

GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを基に、GUI表示画面に対応するデータを生成し、GUI表示制御部359に供給する。また、GUI生成部357は、必要に応じて、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得し、生成するGUI表示画面データに含ませるようにすることも可能である。また、GUI生成部357は、生成したGUI表示画面データに関する情報を、再生開始位置情報記憶制御部358に供給する。   The GUI generation unit 357 generates data corresponding to the GUI display screen based on the SubPlayItem_IN_time and SubPlayItem_Out_time corresponding to the Secondary Video and Secondary Audio supplied from the IN_time / OUT_time acquisition unit 356, and the GUI display control unit 359. To supply. In addition, the GUI generation unit 357 causes the stream data read control unit 354 to correspond to the image data (for example, the head of the secondary video stream, that is, SubPlayItem_IN_time), based on the thumbnail image corresponding to the secondary video, as necessary. It is also possible to acquire partial frame image data or any other frame image data) and include it in the generated GUI display screen data. Further, the GUI generation unit 357 supplies information related to the generated GUI display screen data to the reproduction start position information storage control unit 358.

再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、GUI生成部357から供給されたGUI表示画面データに関する情報を基に、GUI表示画面において表現されているSecondary VideoおよびSecondary Audioと、それらの再生開始位置(SubPlayItem_IN_time)とを関連つけて記憶する。これにより、操作入力取得部353から、生成されたGUI表示画面を参照したユーザが行う操作入力に関する情報が取得された場合、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給することができる。   The playback start position information storage control unit 358 relates to the SubPlayItem_IN_time and SubPlayItem_Out_time corresponding to the Secondary Video and Secondary Audio supplied from the IN_time / OUT_time acquisition unit 356, and the GUI display screen data supplied from the GUI generation unit 357. Based on the information, Secondary Video and Secondary Audio expressed on the GUI display screen and their playback start positions (SubPlayItem_IN_time) are stored in association with each other. As a result, when information related to the operation input performed by the user referring to the generated GUI display screen is acquired from the operation input acquisition unit 353, at least one of the Secondary Video or Secondary Audio desired by the user is obtained as the Primary Path Primary Video. Also, reproduction start position information for reproduction together with Primary Audio can be extracted and supplied to the stream data read control unit 354.

GUI表示制御部359は、操作入力取得部353から供給されるユーザの操作入力に基づいて、GUI生成部357により生成されたGUI表示画面データの表示および表示の取り消しを制御する。具体的には、GUI表示制御部359は、OSD30を制御し、AVデコーダ部26から供給されたビデオ信号または画像信号への、GUI表示画面データの重畳を制御する。   The GUI display control unit 359 controls display of the GUI display screen data generated by the GUI generation unit 357 and cancellation of the display based on the user operation input supplied from the operation input acquisition unit 353. Specifically, the GUI display control unit 359 controls the OSD 30 to control superimposition of the GUI display screen data on the video signal or image signal supplied from the AV decoder unit 26.

図32に示されるような機能を有するコントローラ21は、再生装置1に記録媒体11が装着されるなどにより、記録媒体11またはローカルストレージ24に記録されているコンテンツの再生が可能な状態となったとき、GUI表示画面データを生成する。   The controller 21 having the function as shown in FIG. 32 is in a state in which the content recorded in the recording medium 11 or the local storage 24 can be reproduced by mounting the recording medium 11 in the reproducing apparatus 1 or the like. When generating GUI display screen data.

すなわち、PlayList読み出し制御部351により読み出されたPlayListファイルが、PlayList解析部352により解析されて、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoおよびSecondary Audioに対応するref_to_Subpath_idが取得され、IN_time/OUT_time取得部356により、対応するSubpathに含まれるSubPlayItemが抽出されて、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeが取得される。   That is, the PlayList file read by the PlayList read control unit 351 is analyzed by the PlayList analysis unit 352, and ref_to_Subpath_id corresponding to the Secondary Video and Secondary Audio included in the stream played by the PlayList file is acquired, and IN_time The SubPlayItem included in the corresponding Subpath is extracted by the / OUT_time acquisition unit 356, and the respective SubPlayItem_IN_time and SubPlayItem_Out_time are acquired from these SubPlayItems.

GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、必要に応じて、ストリームデータ読み出し制御部354により取得される、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)などを基に、GUI表示画面に対応するデータを生成し、GUI表示制御部359に供給する。   The GUI generation unit 357 supplies the SubVideoItem_IN_time and SubPlayItem_Out_time corresponding to the Secondary Video and Secondary Audio supplied from the IN_time / OUT_time acquisition unit 356 to the Secondary Video acquired by the stream data read control unit 354 as necessary. GUI display based on the image data that is the basis of the corresponding thumbnail image (for example, the beginning of the secondary video stream, that is, the frame image data of the portion corresponding to SubPlayItem_IN_time, or any other frame image data, etc.) Data corresponding to the screen is generated and supplied to the GUI display control unit 359.

例えば、ユーザが、映画本編など、MainPathのPrimary VideoおよびPrimary Audioを再生中に、操作入力部19よりGUI表示画面の表示を指令すると、操作入力取得部353は、GUI表示画面の表示を指令するユーザの操作入力を取得し、GUI表示制御部359に、GUI表示画面の表示を制御させる。   For example, when the user instructs display of the GUI display screen from the operation input unit 19 during playback of the main video Primary Video and Primary Audio such as a movie main part, the operation input acquisition unit 353 instructs display of the GUI display screen. The user's operation input is acquired, and the GUI display control unit 359 controls the display of the GUI display screen.

そのとき、例えば、図33に示されるように、映画本編などが表示されている画面381の一部に、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面391が表示される。   At this time, for example, as shown in FIG. 33, in the part of the screen 381 on which the main movie or the like is displayed, the Secondary Video is displayed in any section with respect to the Primary Video playback section. As a result, a GUI display screen 391 is displayed so that the user can grasp whether or not playback is possible.

GUI表示画面391について、図34を参照して説明する。   The GUI display screen 391 will be described with reference to FIG.

GUI表示画面391には、例えば、MainMovie、すなわち、Primary Videoの再生区間全体に対応するメインタイムライン401と、メインタイムライン401上に、現在のPrimary Videoの再生位置を示すスライダ402が表示され、メインタイムライン401に対応付けて、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能であり、Secondary Audioが対応して再生されるかが分かるように、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoまたはSecondary Audioに応じたサブタイムライン403(図34においては、サブタイムライン403−1乃至サブタイムライン403−5)が表示される。   On the GUI display screen 391, for example, MainMovie, that is, a main timeline 401 corresponding to the entire playback period of the Primary Video, and a slider 402 indicating the playback position of the current Primary Video are displayed on the main timeline 401. In association with the main timeline 401, it can be seen which secondary video can be played back as the sub-screen 302 in relation to the primary video playback section, and the secondary audio is played back correspondingly. In addition, a sub timeline 403 (in FIG. 34, sub timeline 403-1 to sub timeline 403-5) corresponding to Secondary Video or Secondary Audio included in the stream reproduced by the PlayList file is displayed.

そして、サブタイムライン403に対応付けられて、そのサブタイムライン403が対応付けられているストリームが、Secondary VideoまたはSecondary Audioのいずれであるかを示すためのアイコン404(図34においては、アイコン404-1乃至アイコン404-5)が表示されている。   Then, an icon 404 (in FIG. 34, the icon 404) indicating whether the stream associated with the sub time line 403 is associated with the sub time line 403 is Secondary Video or Secondary Audio. -1 to 404-4) are displayed.

また、例えば、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得し、アイコン404のうち、ビデオストリームに対応するアイコン404を、いわゆるサムネイル画像としてもよい。   In addition, for example, the stream data read control unit 354 uses the image data that is the basis of the thumbnail image corresponding to the Secondary Video (for example, the beginning of the Secondary Video stream, that is, the frame image data of the portion corresponding to SubPlayItem_IN_time, Any one of the frame image data or the like) is acquired, and the icon 404 corresponding to the video stream among the icons 404 may be a so-called thumbnail image.

また、ユーザの所望のタイミングで再生される(非同期の)Secondary VideoまたはSecondary Audioに対応するサブタイムライン403は、ユーザの所望のタイミングで再生される(非同期)であることがユーザに認識可能なように表示されると好適である。このようなサブタイムライン403は、例えば、メインタイムライン401に対して、再生先頭位置に対応するように表示されても良いし、メインタイムライン401に対応しない異なる位置に表示されるようにしても良い。   Further, it is possible for the user to recognize that the sub timeline 403 corresponding to Secondary Video or Secondary Audio that is played back (asynchronous) at the user's desired timing is played back (asynchronous) at the user's desired timing. Is preferably displayed. Such a sub timeline 403 may be displayed so as to correspond to the reproduction start position with respect to the main timeline 401, for example, or may be displayed at a different position not corresponding to the main timeline 401. Also good.

このようなGUI表示画面391を表示させることにより、ユーザは、全画面301において、現在本編のどこが再生されているかを認識することができるとともに、いずれの再生位置において、ピクチャインピクチャアプリケーションが何通り存在するか、または、非同期のピクチャインピクチャアプリケーションが何通り存在するかを、視覚的に容易に把握することが可能になる。   By displaying such a GUI display screen 391, the user can recognize which part of the main part is currently being reproduced on the entire screen 301, and how many picture-in-picture applications are in which reproduction position. It is possible to easily grasp visually how many asynchronous-in picture-in-picture applications exist.

したがって、ユーザは、GUI表示画面391を参照することにより、セカンダリビデオを表示するか否かのユーザオペレーションを容易に実行することができる。また、ユーザは、更に、複数のピクチャインピクチャアプリケーションが存在しているか否かも容易に認識できるので、ピクチャインピクチャアプリケーションのon/offを指令するユーザオペレーションを容易に効率的に実行することができる。更に、GUI表示画面391は、ユーザによるForward Play/Backward Play操作にも役立つと考えられる。   Therefore, the user can easily execute a user operation as to whether or not to display the secondary video by referring to the GUI display screen 391. Further, since the user can easily recognize whether or not there are a plurality of picture-in-picture applications, the user operation for commanding on / off of the picture-in-picture application can be easily and efficiently executed. . Further, the GUI display screen 391 is considered to be useful for the user's Forward Play / Backward Play operation.

また、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得して、サムネイル画像をサブタイムライン403とともに表示した場合、ユーザは、ピクチャインピクチャアプリケーションの内容を容易に認識することが可能となる。   Also, the stream data read control unit 354 uses the image data that is the basis of the thumbnail image corresponding to the Secondary Video (for example, the head of the Secondary Video stream, that is, the frame image data of the portion corresponding to the SubPlayItem_IN_time, or any of the other) When the thumbnail image is displayed together with the sub timeline 403, the user can easily recognize the contents of the picture-in-picture application.

なお、MainPathのPrimary VideoおよびPrimary Audioを再生していないときに、GUI表示画面391の表示が指令された場合、AVデコーダ部26から出力されるバックグラウンドプレーン、すなわち、いわゆる背景画像に対して、OSD30によりGUI表示画面391が重畳されて表示される。   When the display of the GUI display screen 391 is instructed when the Primary Path Primary Video and Primary Audio are not being played back, the background plane output from the AV decoder unit 26, that is, the so-called background image, The OSD 30 displays the GUI display screen 391 in a superimposed manner.

そして、ユーザにより、サブタイムライン403またはアイコン404が選択された場合、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置情報が参照されて、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが、MainPathのPrimary VideoおよびPrimary Audioとともに再生される。   When the user selects the sub timeline 403 or the icon 404, the reproduction start position information whose storage is controlled by the reproduction start position information storage control unit 358 is referred to, and the secondary video or secondary desired by the user is referred to. At least one of the audio is played along with the primary video and primary audio of the main path.

なお、非同期のSecondary VideoまたはSecondary Audioに対応するサブタイムライン403またはアイコン404が選択された場合、例えば、MainPath先頭位置からのPrimary VideoおよびPrimary Audioとともに、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが再生されるものとすることができる。   When the sub timeline 403 or the icon 404 corresponding to the asynchronous secondary video or secondary audio is selected, for example, at least the secondary video or secondary audio desired by the user, together with the primary video and primary audio from the main path head position, are selected. Either can be played.

また、GUI生成部357は、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データを取得して、これを基にGUI表示画面を生成することが可能であるので、例えば、図35に示されるように、ピクチャインピクチャアプリケーション(Secondary VideoおよびSecondary Audio)とMainMovie(Primary VideoおよびPrimary Audio)とを詳細に区別する必要なくユーザが選択できるようなGUI表示画面421を生成し、表示するようにしても良い。   Further, the GUI generation unit 357 can acquire the image data that is the basis of the thumbnail image corresponding to the Secondary Video by the stream data read control unit 354, and can generate the GUI display screen based on this. For example, as shown in FIG. 35, a GUI display screen 421 that allows the user to select a picture-in-picture application (Secondary Video and Secondary Audio) and MainMovie (Primary Video and Primary Audio) without having to distinguish between them in detail. It may be generated and displayed.

図35のGUI表示画面421には、例えば、MainMovieに対応するサムネイル画像411に加えて、ピクチャインピクチャのそれぞれに対応するサムネイル画像442(図35においては、サムネイル画像442-1乃至442-6)が表示される。   In the GUI display screen 421 in FIG. 35, for example, in addition to the thumbnail image 411 corresponding to MainMovie, thumbnail images 442 corresponding to each picture-in-picture (in FIG. 35, thumbnail images 442-1 to 442-6) Is displayed.

なお、MainPathのPrimary VideoおよびPrimary Audioが再生されているときに、図35を用いて説明したGUI表示画面421の表示が指令された場合、AVデコーダ部26から出力される画像信号(例えば、Primary Videoに字幕などが合成された画像信号)に対して、OSD30によりGUI表示画面421が重畳されて表示される。MainPathのPrimary VideoおよびPrimary Audioを再生していないときに、GUI表示画面421の表示が指令された場合、AVデコーダ部26から出力されるバックグラウンドプレーン、すなわち、いわゆる背景画像に対して、OSD30によりGUI表示画面421が重畳されて表示される。   Note that when the display of the GUI display screen 421 described with reference to FIG. 35 is instructed while the Primary Path Primary Video and Primary Audio are being played back, an image signal output from the AV decoder unit 26 (for example, Primary The GUI display screen 421 is superimposed and displayed by the OSD 30 on the video signal (the video signal in which captions and the like are combined with Video). When the display of the GUI display screen 421 is instructed when the Primary Path Primary Video and Primary Audio are not being reproduced, the OSD 30 applies to the background plane output from the AV decoder unit 26, that is, the so-called background image. A GUI display screen 421 is displayed superimposed.

このようなGUI表示画面421を参照したユーザは、ピクチャインピクチャアプリケーションがMainMovieに対して同期しているか否か、同期されている場合にはPlayList中でどの再生位置となるように定義されているかなどの詳細を知ることなく、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となる。   The user who refers to such a GUI display screen 421 determines whether or not the picture-in-picture application is synchronized with MainMovie, and if it is synchronized, what playback position is defined in the PlayList. It is possible to instruct the reproduction of a desired picture-in-picture application without knowing details such as.

この場合においても、ユーザにより、ピクチャインピクチャのそれぞれに対応するサムネイル画像442が選択された場合、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置情報が参照されて、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが、MainPathのPrimary VideoおよびPrimary Audioとともに再生される。   Also in this case, when the user selects a thumbnail image 442 corresponding to each picture-in-picture, the reproduction start position information whose storage is controlled by the reproduction start position information storage control unit 358 is referred to, and the user Is reproduced together with the Primary Video and Primary Audio of the MainPath.

また、同様にして、非同期のSecondary VideoまたはSecondary Audioに対応する、ピクチャインピクチャのそれぞれに対応するサムネイル画像442が選択された場合、例えば、MainPath先頭位置からのPrimary VideoおよびPrimary Audioとともに、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが再生されるものとすることができる。   Similarly, when the thumbnail image 442 corresponding to each of the picture-in-picture corresponding to asynchronous Secondary Video or Secondary Audio is selected, for example, along with the Primary Video and Primary Audio from the MainPath head position, the user It is assumed that at least one of the desired Secondary Video or Secondary Audio is played back.

すなわち、再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeの情報の供給を受けるとともに、GUI生成部357から、GUI表示画面データに関する情報の供給を受ける。そして、再生開始位置情報記憶制御部358は、これらの情報を基に、GUI表示画面において、いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442として表現されているそれぞれのSecondary VideoおよびSecondary Audioと、それらの再生開始位置(SubPlayItem_IN_time)とが関連つけて記憶されるように制御を行っているので、ストリームデータ読み出し制御部354は、この情報を基に、ユーザが所望するピクチャインピクチャ表示における再生開始を指令することが可能となる。   That is, the reproduction start position information storage control unit 358 receives supply of information of SubPlayItem_IN_time and SubPlayItem_Out_time corresponding to Secondary Video and Secondary Audio from the IN_time / OUT_time acquisition unit 356, and also displays a GUI display screen from the GUI generation unit 357. Receive information on data. Then, based on these pieces of information, the reproduction start position information storage control unit 358 displays each Secondary Video and any of the Secondary Video and the thumbnail image 442 that are represented as any sub timeline 403, icon 404, or thumbnail image 442 on the GUI display screen. Since the secondary audio and the playback start position (SubPlayItem_IN_time) are controlled so as to be stored in association with each other, the stream data read control unit 354 performs a picture-in-picture desired by the user based on this information. It is possible to instruct the start of reproduction in display.

具体的には、図33および図34を用いて説明したGUI表示画面391、または、図35を用いて説明したGUI表示画面421がAVデコーダ部26から出力される画像信号または背景画像などに重畳されて表示されているときに、ユーザにより、いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442を選択する操作入力を受けた場合、操作入力取得部353は、サブタイムライン403、アイコン404、または、サムネイル画像442のうちのいずれが選択されたかを示す情報を再生開始位置情報記憶制御部358に供給する。   Specifically, the GUI display screen 391 described with reference to FIGS. 33 and 34 or the GUI display screen 421 described with reference to FIG. 35 is superimposed on the image signal or background image output from the AV decoder unit 26. When the user receives an operation input for selecting any one of the sub timeline 403, the icon 404, or the thumbnail image 442, the operation input acquisition unit 353 displays the sub timeline 403, Information indicating which of the icon 404 or the thumbnail image 442 is selected is supplied to the reproduction start position information storage control unit 358.

再生開始位置情報記憶制御部358は、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給する。   The reproduction start position information storage control unit 358 extracts reproduction start position information for reproducing at least one of Secondary Video or Secondary Audio desired by the user together with the Primary Video and Primary Audio of the MainPath, and a stream data read control unit 354. To supply.

ストリームデータ読み出し制御部354は、操作入力取得部353から供給された、GUI表示画面を参照したユーザの操作入力と、再生開始位置情報記憶制御部358から供給された再生開始位置情報を基に、対応するClipに含まれるPrimary VideoおよびPrimary Audio、並びに、Secondary Video、および、必要に応じてSecondary Audioのストリームデータの読み出しを制御するとともに、読み出したストリームデータのAVデコーダ部26への供給を制御する。   The stream data read control unit 354 is based on the user operation input with reference to the GUI display screen supplied from the operation input acquisition unit 353 and the reproduction start position information supplied from the reproduction start position information storage control unit 358. Controls reading of Primary Video and Primary Audio included in the corresponding Clip, Secondary Video, and, if necessary, Stream data of Secondary Audio, and supply of the read stream data to the AV decoder unit 26. .

再生制御部355は、ストリームデータ読み出し制御部354の制御に基づいて、AVデコーダ部26へ供給されたデータのデコード、合成、および再生出力を制御する。そして、ピクチャインピクチャ表示で、ユーザが指定した位置から、コンテンツの再生が開始される。   The reproduction control unit 355 controls the decoding, synthesis, and reproduction output of data supplied to the AV decoder unit 26 based on the control of the stream data read control unit 354. Then, in the picture-in-picture display, the content reproduction is started from the position designated by the user.

次に、図36のフローチャートを参照して、再生装置1において実行される再生処理について説明する。   Next, with reference to the flowchart of FIG. 36, the reproduction process executed in the reproduction apparatus 1 will be described.

ステップS1において、PlayList読み出し制御部351は、記録媒体11が装着されたか否かを判断する。ステップS1において、記録媒体11が装着されたと判断されなかった場合、記録媒体11が装着されたと判断されるまで、ステップS1の処理が繰り返される。   In step S1, the PlayList read control unit 351 determines whether or not the recording medium 11 is loaded. If it is not determined in step S1 that the recording medium 11 is loaded, the process of step S1 is repeated until it is determined that the recording medium 11 is loaded.

ステップS1において、記録媒体11が装着されたと判断された場合、ステップS2において、図37を用いて後述するGUI表示準備処理が実行される。   If it is determined in step S1 that the recording medium 11 is loaded, a GUI display preparation process described later with reference to FIG. 37 is executed in step S2.

ステップS3において、操作入力取得部353は、ストリームの再生を指令する操作入力を取得したか否かを判断する。ステップS3において、ストリームの再生を指令する操作入力は取得されていないと判断された場合、処理は、後述するステップS6に進む。   In step S <b> 3, the operation input acquisition unit 353 determines whether an operation input for instructing reproduction of a stream has been acquired. In step S3, when it is determined that the operation input commanding the reproduction of the stream has not been acquired, the process proceeds to step S6 described later.

ステップS3において、ストリームの再生を指令する操作入力を取得したと判断された場合、ステップS4において、PlayList読み出し制御部351は、装着された記録媒体11からPlayListファイルを読み出し、取得したPlayListファイルに含まれるPlayItemおよびSubPlayItemに基づいて、対応するClipのClip_Information_file_nameを検出し、ストリームデータ読み出し制御部354に供給する。   If it is determined in step S3 that an operation input commanding playback of a stream has been acquired, in step S4, the PlayList read control unit 351 reads a PlayList file from the attached recording medium 11, and includes the acquired PlayList file. Based on the PlayItem and SubPlayItem, the Clip_Information_file_name of the corresponding Clip is detected and supplied to the stream data read control unit 354.

ステップS5において、ストリームデータ読み出し制御部354は、PlayList読み出し制御部351から供給されたPlayListのClip_Information_file_nameを基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。再生制御部355は、AVデコーダ部26へ供給されたデータのデコードおよび再生出力を制御する。   In step S5, the stream data read control unit 354 controls reading of the stream data included in the corresponding Clip and supply to the AV decoder unit 26 based on the Clip_Information_file_name of the PlayList supplied from the PlayList read control unit 351. . The reproduction control unit 355 controls the decoding and reproduction output of data supplied to the AV decoder unit 26.

ステップS3において、ストリームの再生を指令する操作入力は取得されていないと判断された場合、または、ステップS5の処理の終了後、ステップS6において、操作入力取得部353は、GUI表示が指令されたか否かを判断する。ステップS6において、GUI表示が指令されていないと判断された場合、処理は、後述するステップS13に進む。   In step S3, when it is determined that the operation input for instructing the reproduction of the stream has not been acquired, or after the processing in step S5 is completed, in step S6, the operation input acquisition unit 353 determines whether the GUI display has been instructed. Judge whether or not. If it is determined in step S6 that the GUI display is not instructed, the process proceeds to step S13 described later.

ステップS6において、GUI表示が指令されたと判断された場合、ステップS7において、GUI表示制御部359は、ステップS2のGUI表示準備処理において生成されたGUIの表示を制御する。   If it is determined in step S6 that GUI display has been commanded, in step S7, the GUI display control unit 359 controls the display of the GUI generated in the GUI display preparation process in step S2.

ステップS8において、操作入力取得部353は、いずれかのSubPlayItemに対応するサムネイル等(いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442)を選択する操作入力を受けたか否かを判断する。ステップS8において、いずれかを選択する操作入力を受けていないと判断された場合、処理は、後述するステップS11に進む。   In step S8, the operation input acquisition unit 353 determines whether an operation input for selecting a thumbnail or the like (any sub timeline 403, icon 404, or thumbnail image 442) corresponding to any SubPlayItem has been received. To do. If it is determined in step S8 that an operation input for selecting one has not been received, the process proceeds to step S11 described later.

ステップS8において、いずれかを選択する操作入力を受けたと判断された場合、ステップS9において、操作入力取得部353は、サブタイムライン403、アイコン404、または、サムネイル画像442のうちのいずれが選択されたかを示す情報を再生開始位置情報記憶制御部358に供給する。再生開始位置情報記憶制御部358は、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給する。ストリームデータ読み出し制御部354は、対応する再生開始位置を示す情報を取得する。   If it is determined in step S8 that an operation input for selecting one has been received, in step S9, the operation input acquisition unit 353 selects one of the sub timeline 403, the icon 404, or the thumbnail image 442. The information indicating whether or not is supplied to the reproduction start position information storage control unit 358. The reproduction start position information storage control unit 358 extracts reproduction start position information for reproducing at least one of Secondary Video or Secondary Audio desired by the user together with the Primary Video and Primary Audio of the MainPath, and a stream data read control unit 354. To supply. The stream data read control unit 354 acquires information indicating the corresponding reproduction start position.

ステップS10において、ストリームデータ読み出し制御部354は、再生開始位置情報記憶制御部358から取得した対応する再生開始位置を示す情報を基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。再生制御部355は、AVデコーダ部26へ供給されたデータのデコードおよび再生出力、すなわち、所定の再生開始位置からのピクチャインピクチャアプリケーションの再生を制御する。   In step S10, the stream data read control unit 354 reads the stream data included in the corresponding Clip based on the information indicating the corresponding reproduction start position acquired from the reproduction start position information storage control unit 358, and the AV decoder unit. 26 is controlled. The playback control unit 355 controls decoding and playback output of data supplied to the AV decoder unit 26, that is, playback of a picture-in-picture application from a predetermined playback start position.

なお、Subpath_type=6の場合には、サブパスはメインパスに対して非同期であるが、サブパス、すなわち、子画面に対応するsecondary videoおよびsecondary audioは、SubPlayItem_IN_timeおよびSubPlayItem_Out_timeのそのままの値に基づいて、ストリームの読み出しが制御され、全画面に対応するprimary videoおよびprimary audioは、そのPlayListにより再生される先頭位置からの読み出しが制御されて、それぞれが合成されて再生される。   When Subpath_type = 6, the subpath is asynchronous with respect to the main path, but the subpath, that is, the secondary video and secondary audio corresponding to the child screen are streamed based on the values of SubPlayItem_IN_time and SubPlayItem_Out_time as they are. The primary video and primary audio corresponding to the entire screen are controlled to be read from the head position reproduced by the PlayList, and each is synthesized and reproduced.

ステップS8において、いずれかを選択する操作入力を受けていないと判断された場合、ステップS11において、操作入力取得部353は、GUIの表示の終了が指令されたか否かを判断する。ステップS11において、GUIの表示の終了が指令されていないと判断された場合、処理は、ステップS6に戻り、それ以降の処理が繰り返される。   If it is determined in step S8 that an operation input for selecting one has not been received, in step S11, the operation input acquisition unit 353 determines whether or not the termination of the GUI display has been commanded. If it is determined in step S11 that the GUI display end is not instructed, the process returns to step S6, and the subsequent processes are repeated.

ステップS11において、GUIの表示の終了が指令されたと判断された場合、ステップS12において、GUI表示制御部359は、ステップS6において表示されたGUIの表示を終了する。   If it is determined in step S11 that the end of GUI display has been commanded, in step S12, the GUI display control unit 359 ends the display of the GUI displayed in step S6.

ステップS10またはステップS12の処理の終了後、ステップS13において、操作入力取得部353は、処理の終了が指令されたか否かを判断する。ステップS13において、処理の終了が指令されていないと判断された場合、処理は、ステップS6に戻り、それ以降の処理が繰り返される。ステップS13において、処理の終了が指令されたと判断された場合、処理が終了される。   After the process of step S10 or step S12 ends, in step S13, the operation input acquisition unit 353 determines whether or not the process end is commanded. In step S13, when it is determined that the end of the process is not instructed, the process returns to step S6, and the subsequent processes are repeated. In step S13, if it is determined that the end of the process has been commanded, the process ends.

このような処理により、GUI表示画面が表示されるので、ユーザは、複数のピクチャインピクチャアプリケーションの内容やメインストリームに対する再生位置などを、容易に明確に認識することができる。そして、GUI表示画面を参照したユーザの操作入力を基に、ユーザが所望するピクチャインピクチャ表示の再生を開始させることが可能となる。   As a result of such processing, the GUI display screen is displayed, so that the user can easily and clearly recognize the contents of a plurality of picture-in-picture applications, the playback position with respect to the main stream, and the like. Then, based on the user's operation input referring to the GUI display screen, it is possible to start playback of the picture-in-picture display desired by the user.

次に、図37のフローチャートを参照して、図36のステップS2において実行されるGUI表示準備処理について説明する。   Next, the GUI display preparation process executed in step S2 of FIG. 36 will be described with reference to the flowchart of FIG.

ステップS41において、PlayList読み出し制御部351は、装着された記録媒体11に記録されているPlayListファイルを読み出し、PlayList解析部352に供給する。   In step S <b> 41, the PlayList read control unit 351 reads the PlayList file recorded on the attached recording medium 11 and supplies it to the PlayList analysis unit 352.

ステップS42において、PlayList解析部352は、供給されたPlayListに含まれるそれぞれのPlayItemを確認し、STN_tableを取得する。   In step S42, the PlayList analysis unit 352 confirms each PlayItem included in the supplied PlayList, and acquires STN_table.

ステップS43において、PlayList解析部352は、供給されたPlayListによって再生可能なストリームにSecondary AudioまたはSecondary Videoが存在するか否かを判断する。ステップS43において、Secondary AudioまたはSecondary Videoが存在しないと判断された場合、処理は、図36のステップS2に戻り、ステップS3に進む。   In step S43, the PlayList analysis unit 352 determines whether Secondary Audio or Secondary Video exists in a stream that can be played by the supplied PlayList. If it is determined in step S43 that Secondary Audio or Secondary Video does not exist, the process returns to step S2 in FIG. 36 and proceeds to step S3.

ステップS43において、Secondary AudioまたはSecondary Videoが存在すると判断された場合、ステップS44において、PlayList解析部352は、STN_tableのstream_entryから、Secondary Audio、Secondary Videoに対応するref_to_SubPath_idを取得し、IN_time/OUT_time取得部356に供給する。   If it is determined in step S43 that Secondary Audio or Secondary Video exists, in step S44, the PlayList analysis unit 352 acquires ref_to_SubPath_id corresponding to Secondary Audio and Secondary Video from the stream_entry of STN_table, and IN_time / OUT_time acquisition unit 356.

ステップS45において、IN_time/OUT_time取得部356は、ステップS44において取得されたref_to_SubPath_idに対応する未処理のSubPathのうちの一つを選択する。   In step S45, the IN_time / OUT_time acquisition unit 356 selects one of the unprocessed SubPaths corresponding to the ref_to_SubPath_id acquired in step S44.

ステップS46において、IN_time/OUT_time取得部356は、選択されたSubPathは、SubPath_type=5であるか否かを判断する。ステップS46において、SubPath_type=5であると判断された場合、処理は、後述するステップS50に進む。   In step S46, the IN_time / OUT_time acquisition unit 356 determines whether the selected SubPath is SubPath_type = 5. If it is determined in step S46 that SubPath_type = 5, the process proceeds to step S50 described later.

ステップS46において、SubPath_type=5ではないと判断された場合、ステップS47において、IN_time/OUT_time取得部356は、選択されたSubPathは、SubPath_type=6であるか否かを判断する。   When it is determined in step S46 that SubPath_type = 5 is not satisfied, in step S47, the IN_time / OUT_time acquisition unit 356 determines whether or not the selected SubPath is SubPath_type = 6.

ステップS47において、SubPath_type=6であると判断された場合、ステップS48において、IN_time/OUT_time取得部356は、非同期のサブパスをメインストリームの最初の位置に対応つけるため、すなわち、図33および図34を用いて説明したGUI表示画面391において、対応するサブタイムライン403をメインタイムライン401の先頭に対応つけて表示させたり、図35を用いて説明したGUI表示画面421の対応するサムネイルが選択された場合のメインムービーの再生開始位置をストリームの先頭とするため、SubplayItem_IN_time´=0とし、SubPlayItem_OUT_time´=SubPlayItem_OUT_time−SubplayItem_IN_timeとし、GUI生成部357および再生開始位置情報記憶制御部358に供給する。   If it is determined in step S47 that SubPath_type = 6, in step S48, the IN_time / OUT_time acquisition unit 356 associates the asynchronous subpath with the first position of the main stream, that is, FIG. 33 and FIG. In the GUI display screen 391 described above, the corresponding sub timeline 403 is displayed in association with the head of the main timeline 401, or the corresponding thumbnail of the GUI display screen 421 described using FIG. 35 is selected. In order to set the playback start position of the main movie to the head of the stream, SubplayItem_IN_time ′ = 0 and SubPlayItem_OUT_time ′ = SubPlayItem_OUT_time−SubplayItem_IN_time are supplied to the GUI generation unit 357 and the playback start position information storage control unit 358.

ステップS47において、SubPath_type=6ではない、すなわち、SubPath_type=7であると判断された場合、または、ステップS48の処理の終了後、ステップS49において、GUI生成部357は、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを基に、対応するメインタイムライン401、サブタイムライン403、または、アイコン404など、もしくは、サムネイル441またはサムネイル442等のデータを生成する。ステップS49の処理の終了後、処理は、後述するステップS52に進む。   In step S47, when it is determined that SubPath_type = 6 is not satisfied, that is, SubPath_type = 7, or after the process of step S48 is completed, in step S49, the GUI generation unit 357 supports Secondary Video and Secondary Audio. Based on the respective SubPlayItem_IN_time and SubPlayItem_Out_time, data such as the corresponding main timeline 401, subtimeline 403, icon 404, thumbnail 441 or thumbnail 442 is generated. After the process of step S49 ends, the process proceeds to step S52 described later.

ステップS46において、SubPath_type=5であると判断された場合、ステップS50において、IN_time/OUT_time取得部356は、PlayList解析部352から供給された、Secondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを基に、対応するSubpathに含まれるSubPlayItemを抽出してストリームを解析する。具体的には、IN_time/OUT_time取得部356は、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを取得するとともに、STN_tableを基に、それらのストリームがsecondary audioであるか、secondary videoであるかなどのストリームの種類を検出し、これらの情報をGUI生成部357および再生開始位置情報記憶制御部358に供給する。   If it is determined in step S46 that SubPath_type = 5, in step S50, the IN_time / OUT_time acquisition unit 356 responds based on the ref_to_Subpath_id corresponding to the Secondary Video and Secondary Audio supplied from the PlayList analysis unit 352. Extract SubPlayItem included in Subpath to analyze the stream. Specifically, the IN_time / OUT_time acquisition unit 356 acquires the respective SubPlayItem_IN_time and SubPlayItem_Out_time from those SubPlayItems, and also determines whether those streams are secondary audio or secondary video based on the STN_table. The type of the stream is detected, and the information is supplied to the GUI generation unit 357 and the reproduction start position information storage control unit 358.

ステップS51において、GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、その他の解析データを基に、対応するメインタイムライン401、サブタイムライン403、または、アイコン404など、もしくは、サムネイル441またはサムネイル442等のデータを生成する。   In step S51, the GUI generation unit 357, based on the respective SubPlayItem_IN_time and SubPlayItem_Out_time corresponding to the Secondary Video and Secondary Audio, supplied from the IN_time / OUT_time acquisition unit 356, and other analysis data, the corresponding main timeline 401, the sub timeline 403, the icon 404, or the like, or the data such as the thumbnail 441 or the thumbnail 442 is generated.

ステップS49またはステップS51の処理の終了後、ステップS52において、IN_time/OUT_time取得部356は、全てのSubPathについて処理が終了したか否かを判断する。ステップS52において、全てのSubPathについて処理が終了していないと判断された場合、処理は、ステップS45に戻り、それ以降の処理が繰り返される。   After the process of step S49 or step S51 is completed, in step S52, the IN_time / OUT_time acquisition unit 356 determines whether the process has been completed for all the SubPaths. If it is determined in step S52 that the process has not been completed for all the SubPaths, the process returns to step S45, and the subsequent processes are repeated.

ステップS52において、全てのSubPathについて処理が終了したと判断された場合、ステップS53において、GUI生成部357は、GUI表示画面391またはGUI表示画面421に対応するデータを生成し、GUI表示制御部359に供給するとともに、生成したGUI表示画面データに関する情報を、再生開始位置情報記憶制御部358に供給する。   If it is determined in step S52 that the processing has been completed for all the SubPaths, in step S53, the GUI generation unit 357 generates data corresponding to the GUI display screen 391 or the GUI display screen 421, and the GUI display control unit 359. To the playback start position information storage control unit 358, the information about the generated GUI display screen data.

ステップS54において、再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、GUI生成部357から供給されたGUI表示画面データに関する情報を基に、GUI表示画面において表現されているSecondary VideoおよびSecondary Audioのそれぞれのサムネイル等と、それらの再生開始位置(SubPlayItem_IN_time)とを関連つけて記憶し、処理は、図36のステップS2に戻り、ステップS3に進む。   In step S54, the reproduction start position information storage control unit 358 supplies the SubPlayItem_IN_time and SubPlayItem_Out_time corresponding to the Secondary Video and Secondary Audio supplied from the IN_time / OUT_time acquisition unit 356, and the GUI supplied from the GUI generation unit 357. Based on the information about the display screen data, the thumbnails of Secondary Video and Secondary Audio represented on the GUI display screen and their playback start positions (SubPlayItem_IN_time) are stored in association with each other. The process returns to step S2 and proceeds to step S3.

このような処理により、再生装置1において再生される複数のパスにより再生されるストリームのデータが解析されて、複数のパスのうちの特に副の再生パスにより再生されるSecondary VideoまたはSecondary Audioの再生位置やその内容を示すGUI表示画面が生成される。   By such processing, stream data reproduced by a plurality of paths reproduced by the reproduction apparatus 1 is analyzed, and reproduction of Secondary Video or Secondary Audio reproduced by a secondary reproduction path among the plurality of paths is performed. A GUI display screen showing the position and its contents is generated.

具体的には、例えば、全画面301において、現在本編のどこが再生されているかを認識することができるとともに、いずれの再生位置において、ピクチャインピクチャアプリケーションが何通り存在するか、または、非同期のピクチャインピクチャアプリケーションが何通り存在するかを、視覚的に容易に把握することが可能なGUI表示画面(例えば、図33および図34を用いて説明したGUI表示画面391)や、ピクチャインピクチャアプリケーションがMainMovieに対して同期しているか否か、同期されている場合にはPlayList中でどの再生位置となるように定義されているかなどの詳細を知ることなく、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となるようなGUI表示画面(例えば、図35を用いて説明したGUI表示画面421)が生成される。   Specifically, for example, in the full screen 301, it is possible to recognize where the main part is currently being played back, and how many picture-in-picture applications exist at which playback position, or asynchronous pictures. A GUI display screen (for example, the GUI display screen 391 described with reference to FIGS. 33 and 34) that can easily visually grasp how many in-picture applications exist, and a picture-in-picture application Instructs playback of the desired picture-in-picture application without knowing details such as whether or not it is synchronized with MainMovie, and if so, what playback position is defined in the PlayList. GUI display screen (for example, the GUI display described with reference to FIG. 35) Surface 421) is generated.

このようなGUI表示画面を参照することにより、ユーザは、再生可能なピクチャインピクチャアプリケーションについて、視覚的に明確に認識することが可能となる。   By referring to such a GUI display screen, the user can visually recognize clearly a reproducible picture-in-picture application.

また、このようなGUI表示画面を参照することにより、ユーザは、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となる。   Further, by referring to such a GUI display screen, the user can instruct playback of a desired picture-in-picture application.

次に、図38および図39を参照して、再生装置1において再生可能なデータが記録された記録媒体11の製造方法について、記録媒体11がディスク状の記録媒体だった場合を例として説明する。   Next, with reference to FIGS. 38 and 39, a method of manufacturing the recording medium 11 on which data that can be reproduced by the reproducing apparatus 1 is recorded will be described by taking the case where the recording medium 11 is a disc-shaped recording medium as an example. .

即ち、図38に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。 That is, as shown in FIG. 38, a master disc made of glass or the like is prepared, and a recording material made of photoresist or the like is applied thereon. As a result, a recording master is produced.

そして、図39に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置1において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、PlayList、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置1において再生可能な記録媒体11に記録されるソフトウェアが製作される。   Then, as shown in FIG. 39, in the software production processing unit, video data in a format that can be played back by the playback device 1 and encoded by the encoding device (video encoder) is stored in a temporary buffer, and is recorded by the audio encoder. The encoded audio data is stored in the temporary buffer, and data other than the stream (for example, Indexes, PlayList, PlayItem, etc.) encoded by the data encoder is further stored in the temporary buffer. Video data, audio data, and data other than the stream stored in each buffer are multiplexed together with a synchronization signal by a multiplexer (MPX), and an error correction code is added by an error correction code circuit (ECC). Is done. Then, a predetermined modulation is applied by a modulation circuit (MOD), and software that is once recorded on a magnetic tape or the like according to a predetermined format and recorded on a recording medium 11 that can be reproduced by the reproducing apparatus 1 is manufactured.

このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、図38に示すように、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。   This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. Then, as shown in FIG. 38, the laser beam is modulated corresponding to this recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.

その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。   Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.

この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。   A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.

このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。   A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.

その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置1によって再生可能なデータが記録された記録媒体11が完成する。   Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 11 on which data reproducible by the reproducing apparatus 1 is recorded is completed.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図40に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図40において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   40, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT and LCD, an output unit 507 including a speaker, a storage unit 508 including a hard disk, a modem, a terminal adapter, and the like. A communicator 509 is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is connected to the input / output interface 505 as necessary, and a removable medium 521 made up of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム格納媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a program storage medium.

このプログラム格納媒体は、図40に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 40, the program storage medium is configured only by a package medium including a removable medium 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. Rather, it is provided with a ROM 502 in which a program is recorded and a hard disk including a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.

なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.

また、ドライブ510は、装着されたリムーバブルメディア521に記録されたデータを読み出すことができるのみならず、装着されたリムーバブルメディア521にデータを記録することができる。そして、パーソナルコンピュータ500が、図39を用いて説明したソフト製作処理部と同様の機能を有する(例えば、CPU501を用いて、ソフト製作処理部と同様の機能を実現するためのプログラムを実行する)ことが可能であるのは言うまでもない。   Further, the drive 510 can read data recorded on the attached removable medium 521 and can record data on the attached removable medium 521. The personal computer 500 has the same function as the software production processing unit described with reference to FIG. 39 (for example, the CPU 501 is used to execute a program for realizing the same function as the software production processing unit). It goes without saying that it is possible.

すなわち、パーソナルコンピュータ500は、図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、CPU501の処理により生成するか、または、外部の装置で生成された図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、通信部509またはドライブ510に装着されたリムーバブルメディア521を介して取得することができる。そして、パーソナルコンピュータ500は、生成または取得された図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、ドライブ510に装着されたリムーバブルメディア521に記録する記録装置としての機能を実現することができる。   That is, the personal computer 500 generates data similar to the data generated by the software production processing unit described with reference to FIG. 39 by the processing of the CPU 501 or uses FIG. 39 generated by an external device. Data similar to the data generated by the software production processing unit described above can be acquired via the communication unit 509 or the removable medium 521 attached to the drive 510. Then, the personal computer 500 serves as a recording device that records data similar to the data generated or acquired by the software production processing unit described with reference to FIG. 39 on the removable medium 521 attached to the drive 510. Function can be realized.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

従来の音声切り替えを説明する図である。It is a figure explaining the conventional voice switching. 従来の音声切り替えを説明する図である。It is a figure explaining the conventional voice switching. MPEG2プログラムストリームの構成を説明する図である。It is a figure explaining the structure of an MPEG2 program stream. 本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。It is a figure which shows the example of the application format on the recording medium with which the reproducing | regenerating apparatus to which this invention is applied is mounted | worn. メインパスとサブパスの構造を説明する図である。It is a figure explaining the structure of a main path and a sub path. メインパスとサブパスの例を説明する図である。It is a figure explaining the example of a main path and a sub path. メインパスとサブパスの別の例を説明する図である。It is a figure explaining another example of a main path and a sub path. 再生装置で再生可能なデータのデータ構成例を説明する図である。It is a figure explaining the data structural example of the data which can be reproduced | regenerated with a reproducing | regenerating apparatus. index.bdmvのシンタクスを示す図である。It is a figure which shows the syntax of index.bdmv. indexesシンタクスを示す図である。It is a figure which shows indexes syntax. PlayListファイルのデータ構造ついて説明するための図である。It is a figure for demonstrating the data structure of a PlayList file. AppInfoPlayList()のシンタクスについて説明するための図である。It is a figure for demonstrating the syntax of AppInfoPlayList (). PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). stream_entry()のシンタクスを示す図である。It is a figure which shows the syntax of stream_entry (). stream_attribute()のシンタクスを示す図である。It is a figure which shows the syntax of stream_attribute (). stream_cording_typeを説明する図である。It is a figure explaining stream_cording_type. video_formatを説明する図である。It is a figure explaining video_format. frame_rateを説明する図である。It is a figure explaining frame_rate. aspect_ratioを説明する図である。It is a figure explaining aspect_ratio. audio_presentation_typeを説明する図である。It is a figure explaining audio_presentation_type. sampling_frequencyを説明する図である。It is a figure explaining sampling_frequency. Character codeを説明する図である。It is a figure explaining Character code. SubPath()のシンタクスを示す図である。It is a figure which shows the syntax of SubPath (). SubPath_typeを説明する図である。It is a figure explaining SubPath_type. SubPlayItem(i)のシンタクスを示す図である。It is a figure which shows the syntax of SubPlayItem (i). 再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of a reproducing | regenerating apparatus. 図29の再生装置のAVデコーダ部の構成を示すブロック図である。FIG. 30 is a block diagram illustrating a configuration of an AV decoder unit of the playback device in FIG. 29. ピクチャインピクチャ表示について説明するための図である。It is a figure for demonstrating a picture in picture display. 図29の再生装置のコントローラが有する機能を示す機能ブロック図である。It is a functional block diagram which shows the function which the controller of the reproducing | regenerating apparatus of FIG. 29 has. GUI表示画面について説明するための図である。It is a figure for demonstrating a GUI display screen. GUI表示画面について説明するための図である。It is a figure for demonstrating a GUI display screen. GUI表示画面について説明するための図である。It is a figure for demonstrating a GUI display screen. 再生処理について説明するフローチャートである。It is a flowchart explaining a reproduction | regeneration process. GUI表示準備処理について説明するフローチャートである。It is a flowchart explaining a GUI display preparation process. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. パーソナルコンピュータの構成を示す図である。It is a figure which shows the structure of a personal computer.

符号の説明Explanation of symbols

1 再生装置, 11 記録媒体, 21 コントローラ, 26 AVデコーダ部, 30 OSD, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57乃至59 スイッチ, 71 バックグラウンドデコーダ, 72 ビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 ミキシング処理部, 351 PlayList読み出し制御部, 352 PlayList解析部, 353 操作入力取得部353, 354 ストリームデータ読み出し制御部, 355 再生制御部, 356 IN_time/OUT_time取得部, 357 GUI生成部, 358 再生開始位置情報記憶制御部, 359 GUI表示制御部, 391 GUI表示画面, 401 メインタイムライン, 402 スライダ, 403 サブタイムライン, 404 アイコン, 421 GUI表示画面, 441,442 サムネイル画像   1 playback device, 11 recording medium, 21 controller, 26 AV decoder section, 30 OSD, 32 switch, 33 AV decoder section, 34 controller, 51 to 54 buffer, 55, 56 PID filter, 57 to 59 switch, 71 background decoder , 72 video decoder, 73 presentation graphics decoder, 74 interactive graphics decoder, 75 audio decoder, 76 Text-ST composition, 77 switch, 91 background plane generation unit, 92 video plane generation unit, 93 presentation graphics plane generation Section, 94 interactive graphics plane generation section, 95 buffer 96 video data processing section, 97 mixi Processing unit, 101 mixing processing unit, 351 PlayList read control unit, 352 PlayList analysis unit, 353 operation input acquisition unit 353, 354 stream data read control unit, 355 playback control unit, 356 IN_time / OUT_time acquisition unit, 357 GUI generation unit , 358 Playback start position information storage control unit, 359 GUI display control unit, 391 GUI display screen, 401 main timeline, 402 slider, 403 sub timeline, 404 icon, 421 GUI display screen, 441, 442 thumbnail image

Claims (14)

ストリームの再生を制御するための再生管理情報を取得する第1の取得手段と、
前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得する第2の取得手段と、
前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する情報生成手段と
を備える情報処理装置。
First acquisition means for acquiring reproduction management information for controlling reproduction of a stream;
Analyzing the reproduction management information acquired by the first acquisition means, and from the analysis result, information relating to one or a plurality of sub reproduction paths is a reproduction path different from the main reproduction path of the stream. A second acquisition means for acquiring;
Information generating means for generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the information on the sub reproduction path acquired by the second acquisition means. Processing equipment.
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報を取得する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the second acquisition unit acquires information related to a reproduction position of the sub reproduction path.
前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される第2のストリームの再生位置を示す画像情報を生成する
請求項2に記載の情報処理装置。
The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path, and is reproduced by all the sub reproduction paths managed for reproduction by the reproduction management information. The information processing apparatus according to claim 2, wherein image information indicating a reproduction position of the second stream is generated.
前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれの再生範囲を示す情報を含む前記画像情報を生成する
請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the information generation unit generates the image information including information indicating a reproduction range of each of the plurality of second streams reproduced by the sub reproduction path.
前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれのストリームの種類を示す情報を含む前記画像情報を生成する
請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the information generation unit generates the image information including information indicating a type of each of the plurality of second streams reproduced by the sub reproduction path.
前記ストリームデータのうちの少なくとも一部を取得する第3の取得手段を更に備え、
前記情報生成手段は、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部を含む前記画像情報を生成する
請求項3に記載の情報処理装置。
Further comprising third acquisition means for acquiring at least part of the stream data;
The information generation means is a set of image data that constitutes the plurality of second streams to be reproduced by the secondary reproduction path based on at least a part of the stream data acquired by the third acquisition means. The information processing apparatus according to claim 3, wherein the image information including at least part of the image information is generated.
前記第2の取得手段は、前記正の再生パスおよび前記副の再生パスにより再生されるストリームを構成する画像データのうちの一部を取得し、
前記情報生成手段は、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成する
請求項1に記載の情報処理装置。
The second acquisition means acquires a part of image data constituting a stream reproduced by the primary reproduction path and the secondary reproduction path,
The information generating means is an image constituting the first stream reproduced by the main reproduction path based on at least a part of the image data constituting the stream obtained by the second obtaining means. The information processing apparatus according to claim 1, wherein image information including at least a part of data and at least a part of image data constituting the second stream reproduced by the sub reproduction path is generated. .
前記情報生成手段により生成された前記ストリームに関する情報の表示を制御する表示制御手段を更に備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising display control means for controlling display of information relating to the stream generated by the information generation means.
前記ストリームデータを取得する第3の取得手段と、
前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段と
を更に備え、
前記表示制御手段は、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御する
請求項8に記載の情報処理装置。
Third acquisition means for acquiring the stream data;
Replay control means for controlling the reproduction of the stream data obtained by the third obtaining means based on the reproduction management information obtained by the first obtaining means,
The display control means displays the information on the stream so that the information on the stream generated by the information generation means is superimposed on the stream data whose reproduction is controlled by the reproduction control means. The information processing apparatus according to claim 8 to be controlled.
ユーザによる操作入力を取得する操作入力取得手段を更に備え、
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報を取得し、
前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報を生成し、
前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御し、
前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御する
請求項8に記載の情報処理装置。
It further comprises operation input acquisition means for acquiring operation input by the user,
The second acquisition means acquires information relating to the playback position of the sub playback path,
The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path, and is reproduced by all the sub reproduction paths managed for reproduction by the reproduction management information. Generating image information indicating the playback position of the second stream;
The display control unit controls generation of the image information generated by the information generation unit,
When the operation input for selecting any one of the reproduction positions of the second stream by the user referring to the image information whose display is controlled by the display control unit is acquired by the operation input acquisition unit, The information processing apparatus according to claim 8, wherein the reproduction control unit controls reproduction of the first stream and the second stream from the selected reproduction position.
ユーザによる操作入力を取得する操作入力取得手段を更に備え、
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報、および、前記ストリームを構成する画像データのうちの一部を取得し、
前記情報生成手段は、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成し、
前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御し、
前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御する
請求項8に記載の情報処理装置。
It further comprises operation input acquisition means for acquiring operation input by the user,
The second acquisition means acquires information on the playback position of the secondary playback path and part of the image data constituting the stream,
The information generating means is based on at least a part of the stream data acquired by the second acquisition means, and includes the image data constituting the first stream reproduced by the main reproduction path. Generating image information including at least a part and at least a part of the image data constituting the second stream reproduced by the sub reproduction path;
The display control unit controls generation of the image information generated by the information generation unit,
An operation input for selecting any of the image data constituting the second stream by the user referring to the image information whose display is controlled by the display control unit is acquired by the operation input acquiring unit. In this case, the reproduction control unit controls reproduction of the first stream and the second stream from the reproduction position at the head of the second stream corresponding to the image data selected by the user. The information processing apparatus described in 1.
再生されるストリームに関する情報を生成する情報処理装置の情報処理方法において、
前記ストリームの再生を制御するための再生管理情報を取得し、
取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得し、
取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する
ステップを含む情報処理方法。
In an information processing method of an information processing device that generates information about a stream to be played back,
Obtaining reproduction management information for controlling reproduction of the stream;
Analyzing the acquired playback management information to obtain information on one or more secondary playback paths that are different from the main playback path of the stream,
An information processing method including the step of generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the acquired information on the sub reproduction path.
再生されるストリームに関する情報を生成する処理をコンピュータに実行させるためのプログラムであって、
前記ストリームの再生を制御するための再生管理情報の取得を制御し、
取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報の取得を制御し、
取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する
ステップを含む処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute processing for generating information about a stream to be played back,
Controlling the acquisition of playback management information for controlling playback of the stream;
Analyzing the playback management information whose acquisition is controlled, and controlling acquisition of information related to one or a plurality of secondary playback paths that are different from the main playback path of the stream;
A program for causing a computer to execute processing including a step of generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on information on the sub reproduction path whose acquisition is controlled.
請求項13に記載のプログラムが記録されているプログラム格納媒体。   A program storage medium in which the program according to claim 13 is recorded.
JP2006173677A 2006-06-23 2006-06-23 Information processing apparatus, information processing method, program, and program storage medium Expired - Fee Related JP4770601B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006173677A JP4770601B2 (en) 2006-06-23 2006-06-23 Information processing apparatus, information processing method, program, and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006173677A JP4770601B2 (en) 2006-06-23 2006-06-23 Information processing apparatus, information processing method, program, and program storage medium

Publications (2)

Publication Number Publication Date
JP2008005288A true JP2008005288A (en) 2008-01-10
JP4770601B2 JP4770601B2 (en) 2011-09-14

Family

ID=39009302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006173677A Expired - Fee Related JP4770601B2 (en) 2006-06-23 2006-06-23 Information processing apparatus, information processing method, program, and program storage medium

Country Status (1)

Country Link
JP (1) JP4770601B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2712206A1 (en) * 2012-09-19 2014-03-26 JBF Interlude 2009 LTD - Israel Progress bar for branched videos
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US9257148B2 (en) 2013-03-15 2016-02-09 JBF Interlude 2009 LTD System and method for synchronization of selectably presentable media streams
US9271015B2 (en) 2012-04-02 2016-02-23 JBF Interlude 2009 LTD Systems and methods for loading more than one video content at a time
US9520155B2 (en) 2013-12-24 2016-12-13 JBF Interlude 2009 LTD Methods and systems for seeking to non-key frames
US9530454B2 (en) 2013-10-10 2016-12-27 JBF Interlude 2009 LTD Systems and methods for real-time pixel switching
US9607655B2 (en) 2010-02-17 2017-03-28 JBF Interlude 2009 LTD System and method for seamless multimedia assembly
US9641898B2 (en) 2013-12-24 2017-05-02 JBF Interlude 2009 LTD Methods and systems for in-video library
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9672868B2 (en) 2015-04-30 2017-06-06 JBF Interlude 2009 LTD Systems and methods for seamless media creation
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US9792026B2 (en) 2014-04-10 2017-10-17 JBF Interlude 2009 LTD Dynamic timeline for branched video
US9832516B2 (en) 2013-06-19 2017-11-28 JBF Interlude 2009 LTD Systems and methods for multiple device interaction with selectably presentable media streams
US10218760B2 (en) 2016-06-22 2019-02-26 JBF Interlude 2009 LTD Dynamic summary generation for real-time switchable videos
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US10448119B2 (en) 2013-08-30 2019-10-15 JBF Interlude 2009 LTD Methods and systems for unfolding video pre-roll
US10462202B2 (en) 2016-03-30 2019-10-29 JBF Interlude 2009 LTD Media stream rate synchronization
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US10582265B2 (en) 2015-04-30 2020-03-03 JBF Interlude 2009 LTD Systems and methods for nonlinear video playback using linear real-time video players
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
US12047637B2 (en) 2020-07-07 2024-07-23 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
US12096081B2 (en) 2020-02-18 2024-09-17 JBF Interlude 2009 LTD Dynamic adaptation of interactive video players using behavioral analytics
US12155897B2 (en) 2021-08-31 2024-11-26 JBF Interlude 2009 LTD Shader-based dynamic video manipulation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127396A (en) * 2002-10-01 2004-04-22 Pioneer Electronic Corp Information recording medium, information recording apparatus and method, information reproducing apparatus and method, information recording and reproducing apparatus and method, computer program for recording or reproduction control, and data structure including control signal
JP2004242267A (en) * 2002-12-10 2004-08-26 Sony Computer Entertainment Inc Method and apparatus for editing image, and method and apparatus for reproducing image
WO2005011273A1 (en) * 2003-06-18 2005-02-03 Matsushita Electric Industrial Co., Ltd. Reproduction device, recording medium, program, and reproduction method
WO2006028216A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program, reproduction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127396A (en) * 2002-10-01 2004-04-22 Pioneer Electronic Corp Information recording medium, information recording apparatus and method, information reproducing apparatus and method, information recording and reproducing apparatus and method, computer program for recording or reproduction control, and data structure including control signal
JP2004242267A (en) * 2002-12-10 2004-08-26 Sony Computer Entertainment Inc Method and apparatus for editing image, and method and apparatus for reproducing image
WO2005011273A1 (en) * 2003-06-18 2005-02-03 Matsushita Electric Industrial Co., Ltd. Reproduction device, recording medium, program, and reproduction method
WO2006028216A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program, reproduction method

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11314936B2 (en) 2009-05-12 2022-04-26 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US12265975B2 (en) 2010-02-17 2025-04-01 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US9607655B2 (en) 2010-02-17 2017-03-28 JBF Interlude 2009 LTD System and method for seamless multimedia assembly
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US9271015B2 (en) 2012-04-02 2016-02-23 JBF Interlude 2009 LTD Systems and methods for loading more than one video content at a time
EP2712206A1 (en) * 2012-09-19 2014-03-26 JBF Interlude 2009 LTD - Israel Progress bar for branched videos
US9009619B2 (en) 2012-09-19 2015-04-14 JBF Interlude 2009 Ltd—Israel Progress bar for branched videos
US10474334B2 (en) 2012-09-19 2019-11-12 JBF Interlude 2009 LTD Progress bar for branched videos
US9257148B2 (en) 2013-03-15 2016-02-09 JBF Interlude 2009 LTD System and method for synchronization of selectably presentable media streams
US10418066B2 (en) 2013-03-15 2019-09-17 JBF Interlude 2009 LTD System and method for synchronization of selectably presentable media streams
US9832516B2 (en) 2013-06-19 2017-11-28 JBF Interlude 2009 LTD Systems and methods for multiple device interaction with selectably presentable media streams
US10448119B2 (en) 2013-08-30 2019-10-15 JBF Interlude 2009 LTD Methods and systems for unfolding video pre-roll
US9530454B2 (en) 2013-10-10 2016-12-27 JBF Interlude 2009 LTD Systems and methods for real-time pixel switching
US9641898B2 (en) 2013-12-24 2017-05-02 JBF Interlude 2009 LTD Methods and systems for in-video library
US9520155B2 (en) 2013-12-24 2016-12-13 JBF Interlude 2009 LTD Methods and systems for seeking to non-key frames
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US11501802B2 (en) 2014-04-10 2022-11-15 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9792026B2 (en) 2014-04-10 2017-10-17 JBF Interlude 2009 LTD Dynamic timeline for branched video
US10755747B2 (en) 2014-04-10 2020-08-25 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US10692540B2 (en) 2014-10-08 2020-06-23 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11348618B2 (en) 2014-10-08 2022-05-31 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US10885944B2 (en) 2014-10-08 2021-01-05 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11900968B2 (en) 2014-10-08 2024-02-13 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US9672868B2 (en) 2015-04-30 2017-06-06 JBF Interlude 2009 LTD Systems and methods for seamless media creation
US12132962B2 (en) 2015-04-30 2024-10-29 JBF Interlude 2009 LTD Systems and methods for nonlinear video playback using linear real-time video players
US10582265B2 (en) 2015-04-30 2020-03-03 JBF Interlude 2009 LTD Systems and methods for nonlinear video playback using linear real-time video players
US11804249B2 (en) 2015-08-26 2023-10-31 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US12119030B2 (en) 2015-08-26 2024-10-15 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US10462202B2 (en) 2016-03-30 2019-10-29 JBF Interlude 2009 LTD Media stream rate synchronization
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10218760B2 (en) 2016-06-22 2019-02-26 JBF Interlude 2009 LTD Dynamic summary generation for real-time switchable videos
US11553024B2 (en) 2016-12-30 2023-01-10 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US11528534B2 (en) 2018-01-05 2022-12-13 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US10856049B2 (en) 2018-01-05 2020-12-01 Jbf Interlude 2009 Ltd. Dynamic library display for interactive videos
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US12096081B2 (en) 2020-02-18 2024-09-17 JBF Interlude 2009 LTD Dynamic adaptation of interactive video players using behavioral analytics
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US12047637B2 (en) 2020-07-07 2024-07-23 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
US12316905B2 (en) 2020-07-07 2025-05-27 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
US12284425B2 (en) 2021-05-28 2025-04-22 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US12155897B2 (en) 2021-08-31 2024-11-26 JBF Interlude 2009 LTD Shader-based dynamic video manipulation
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
US12450306B2 (en) 2021-09-24 2025-10-21 JBF Interlude 2009 LTD Video player integration within websites

Also Published As

Publication number Publication date
JP4770601B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
JP4770601B2 (en) Information processing apparatus, information processing method, program, and program storage medium
JP4081772B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP4923751B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP4674618B2 (en) Playback device, playback method, program, data, recording medium
JP4251298B2 (en) REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, PROGRAM STORAGE MEDIUM, DATA, RECORDING MEDIUM, RECORDING DEVICE, AND RECORDING MEDIUM MANUFACTURING METHOD
JP4849343B2 (en) Data generation method, recording apparatus and method, and program
JP4720676B2 (en) Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium
JP2008193604A (en) Playback apparatus and method, and program
JP4821456B2 (en) Information processing apparatus, information processing method, program, data structure, and recording medium
JP4968562B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP2008052836A (en) Information processing apparatus, information processing method, program, and program storage medium
JP4900708B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP5201428B2 (en) Data generation method, recording apparatus and method, and program
JP5234144B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees