JP2008005288A - Information processing apparatus, information processing method, program, and program storage medium - Google Patents
Information processing apparatus, information processing method, program, and program storage medium Download PDFInfo
- Publication number
- JP2008005288A JP2008005288A JP2006173677A JP2006173677A JP2008005288A JP 2008005288 A JP2008005288 A JP 2008005288A JP 2006173677 A JP2006173677 A JP 2006173677A JP 2006173677 A JP2006173677 A JP 2006173677A JP 2008005288 A JP2008005288 A JP 2008005288A
- Authority
- JP
- Japan
- Prior art keywords
- stream
- information
- reproduction
- audio
- path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】ピクチャインピクチャで表示されるサブパスに関する情報をユーザに提示する。
【解決手段】GUI表示画面391には、例えば、Primary Videoの再生区間全体に対応するメインタイムライン401と、メインタイムライン401上の現在のPrimary Videoの再生位置を示すスライダ402が表示され、メインタイムライン401に対応付けて、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能であり、Secondary Audioが対応して再生されるかが分かるように、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoまたはSecondary Audioに応じたサブタイムライン403が表示される。そして、そのサブタイムライン403が対応付けられているストリームが、Secondary VideoまたはSecondary Audioのいずれであるかを示すアイコン404が表示される。本発明は、再生装置に適用できる。
【選択図】図34Information about sub-paths displayed in picture-in-picture is presented to a user.
A GUI display screen 391 displays, for example, a main timeline 401 corresponding to the entire primary video playback section and a slider 402 indicating the current primary video playback position on the main timeline 401. Corresponding to the timeline 401, it can be seen which secondary video can be played as the sub-screen 302 and the secondary audio is played back in correspondence with the primary video playback section. A sub timeline 403 corresponding to Secondary Video or Secondary Audio included in the stream reproduced by this PlayList file is displayed. Then, an icon 404 indicating whether the stream associated with the sub timeline 403 is Secondary Video or Secondary Audio is displayed. The present invention can be applied to a playback apparatus.
[Selection] Figure 34
Description
本発明は、情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体に関し、特に、複数のビデオストリームが合成されて表示可能なようになされている場合に用いて好適な、情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体に関する。 The present invention relates to an information processing device, an information processing method, a program, and a program storage medium, and more particularly, an information processing device suitable for use when a plurality of video streams can be combined and displayed. The present invention relates to an information processing method, a program, and a program storage medium.
DVD(Digital Versatile Disc)ビデオの規格においては、記録媒体に記録されている映画などのAV(Audio Visual)コンテンツを再生する場合、ユーザに、音声切り替えや字幕切り替えというインタラクティブな操作を提供している(例えば、非特許文献1参照)。具体的には、図1の表示装置1に表示されているAVコンテンツに対して、ユーザは、リモートコントローラ2の音声切り替えボタン11や字幕切り替えボタン12を操作することで、音声の切り替えや字幕を切り替える。例えば、音声1が初期状態として設定されており、ユーザによりリモートコントローラ2の音声切り替えボタン11が操作された場合、図2に示されるように、音声1が音声2に切り替えられる。
In the DVD (Digital Versatile Disc) video standard, when AV (Audio Visual) content such as a movie recorded on a recording medium is played, an interactive operation such as audio switching or subtitle switching is provided to the user. (For example, refer nonpatent literature 1). Specifically, for the AV content displayed on the
DVDビデオ上のAVコンテンツは、MPEG(Moving Picture Experts Group)2プログラムストリームの形式で記録されている。このMPEG2プログラムストリームには、図3に示されるように、ビデオストリーム(図3のビデオ)、複数のオーディオストリーム(図3のオーディオ1,2,3)、および複数のサブピクチャストリーム(図3のサブピクチャ1,2,3)が、ビデオストリームにAV同期して再生されるように多重化されている。サブピクチャストリーム(サブピクチャ1,2,3)は、ビットマップ画像がランレングス符号化されたストリームであり、主に字幕用途に用いられる。
AV content on a DVD video is recorded in MPEG (Moving Picture Experts Group) 2 program stream format. As shown in FIG. 3, the MPEG2 program stream includes a video stream (video in FIG. 3), a plurality of audio streams (
一般に、複数のオーディオストリームは、異なる言語の音声を記録するために用いられ、複数のサブピクチャストリームは、異なる言語の字幕を記録するために用いられる。ユーザは、ビデオが再生されている場合、インタラクティブに所望の言語の音声や字幕を、リモートコントローラ2を用いて選択することができる。
In general, a plurality of audio streams are used for recording audio in different languages, and a plurality of sub-picture streams are used for recording subtitles in different languages. When the video is being played back, the user can interactively select audio or subtitles in a desired language using the
また、追加して記録された音声(例えば、いわゆるアフレコと称される音声)を再生するために、Sub pathが用いられている技術がある(例えば、特許文献1)。 In addition, there is a technique in which a Sub path is used to reproduce additionally recorded sound (for example, so-called after-recording sound) (for example, Patent Document 1).
また、複数の映像データを編集するために、複数のビデオストリームを同一時間軸上のタイムライン上に表現する技術がある(例えば、特許文献2)。 Also, there is a technique for expressing a plurality of video streams on a timeline on the same time axis in order to edit a plurality of video data (for example, Patent Document 2).
特許文献1に記載の技術では、たしかに、追加して記録された音声(例えば、いわゆるアフレコと称される音声)を再生するために、Sub pathが用いられているが、2つの同一の種類のストリーム、すなわち、2つのオーディオストリームや2つのビデオストリームを合成して再生するための構成についてはなんら開示されていない。
In the technique described in
また、特許文献2に記載の技術では、編集作業のために、複数のビデオストリームが同一時間軸上のタイムライン上に表現することができるようになされているが、これらの複数のビデオストリームは、それぞれ個別のタイムコードに基づいて撮像された独立したビデオストリームであり、合成して再生されるものではなかった。
Further, in the technique described in
したがって、例えば、2つのビデオストリームが合成して再生される場合などにおいて、それぞれのストリームが再生時間軸上においてどの位置で合成されるのかなどを把握するための技術はなかった。 Therefore, for example, when two video streams are combined and reproduced, there has been no technique for grasping at which position each stream is combined on the reproduction time axis.
本発明はこのような状況に鑑みてなされたものであり、複数のビデオストリームが合成して再生される場合の合成の状態を把握することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to grasp the state of synthesis when a plurality of video streams are synthesized and reproduced.
本発明の一側面の情報処理装置は、ストリームの再生を制御するための再生管理情報を取得する第1の取得手段と、前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得する第2の取得手段と、前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する情報生成手段とを備える。 An information processing apparatus according to an aspect of the present invention analyzes first reproduction means for obtaining reproduction management information for controlling reproduction of a stream, and the reproduction management information obtained by the first acquisition means, From the analysis result, a second acquisition unit that acquires information on one or a plurality of sub reproduction paths, which is different from the main reproduction path of the stream, is acquired by the second acquisition unit. And information generation means for generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the information on the sub reproduction path.
前記第2の取得手段には、前記副の再生パスの再生位置に関する情報を取得させるようにすることができる。 The second acquisition unit may acquire information regarding the reproduction position of the sub reproduction path.
前記情報生成手段には、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される第2のストリームの再生位置を示す画像情報を生成させるようにすることができる。 The information generation means reproduces all the sub reproduction paths managed for reproduction by the reproduction management information in association with the reproduction time axis of the first stream reproduced by the main reproduction path. Image information indicating the reproduction position of the second stream can be generated.
前記情報生成手段には、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれの再生範囲を示す情報を含む前記画像情報を生成させるようにすることができる。 The information generation unit may generate the image information including information indicating each reproduction range of the plurality of second streams reproduced by the sub reproduction path.
前記情報生成手段には、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれのストリームの種類を示す情報を含む前記画像情報を生成させるようにすることができる。 The information generation means may generate the image information including information indicating a type of each of the plurality of second streams reproduced by the sub reproduction path.
前記ストリームデータのうちの少なくとも一部を取得する第3の取得手段を更に備えさせるようにすることができ、前記情報生成手段には、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部を含む前記画像情報を生成させるようにすることができる。 A third acquisition unit that acquires at least a part of the stream data can be further provided, and the information generation unit includes the stream data acquired by the third acquisition unit. On the basis of at least a part of the image information, the image information including at least a part of the image data constituting the plurality of second streams reproduced by the sub reproduction path can be generated.
前記第2の取得手段には、前記正の再生パスおよび前記副の再生パスにより再生されるストリームを構成する画像データのうちの一部を取得させるようにすることができ、前記情報生成手段には、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成させるようにすることができる。 The second acquisition means can acquire a part of image data constituting a stream reproduced by the primary reproduction path and the secondary reproduction path, and the information generation means Is based on at least a part of the image data that constitutes the stream acquired by the second acquisition means, among the image data that constitutes the first stream that is reproduced by the main reproduction path. Image information including at least a part and at least a part of the image data constituting the second stream reproduced by the sub reproduction path can be generated.
前記情報生成手段により生成された前記ストリームに関する情報の表示を制御する表示制御手段を更に備えさせるようにすることができる。 A display control means for controlling display of information on the stream generated by the information generation means can be further provided.
前記ストリームデータを取得する第3の取得手段と、前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段とを更に備えさせるようにすることができ、前記表示制御手段には、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御させるようにすることができる。 A third acquisition unit that acquires the stream data, and a reproduction that controls reproduction of the stream data acquired by the third acquisition unit based on the reproduction management information acquired by the first acquisition unit Control means, and the display control means superimposes information on the stream generated by the information generation means on the stream data whose reproduction is controlled by the reproduction control means. The display of information regarding the stream can be controlled so that the information is displayed.
ユーザによる操作入力を取得する操作入力取得手段を更に備えさせるようにすることができ、前記第2の取得手段には、前記副の再生パスの再生位置に関する情報を取得させるようにすることができ、前記情報生成手段には、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報を生成させるようにすることができ、前記表示制御手段には、前記情報生成手段により生成された前記画像情報の生成を制御させるようにすることができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段には、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御させるようにすることができる。 Operation input acquisition means for acquiring an operation input by a user can be further provided, and the second acquisition means can acquire information related to the reproduction position of the secondary reproduction path. The information generating means reproduces the reproduction data by all the sub reproduction paths managed for reproduction by the reproduction management information in association with the reproduction time axis of the first stream reproduced by the main reproduction path. Image information indicating a reproduction position of the second stream can be generated, and the display control unit can control generation of the image information generated by the information generation unit. And the playback position of the second stream by the user with reference to the image information whose display is controlled by the display control means by the operation input acquisition means. When an operation input for selecting any one of them is acquired, the playback control unit controls playback of the first stream and the second stream from the selected playback position. be able to.
ユーザによる操作入力を取得する操作入力取得手段を更に備えさせるようにすることができ、前記第2の取得手段には、前記副の再生パスの再生位置に関する情報、および、前記ストリームを構成する画像データのうちの一部を取得させるようにすることができ、前記情報生成手段には、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成させるようにすることができ、前記表示制御手段には、前記情報生成手段により生成された前記画像情報の生成を制御させるようにすることができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段には、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御させるようにすることができる。 An operation input acquisition means for acquiring an operation input by a user can be further provided. The second acquisition means includes information on the reproduction position of the secondary reproduction path and images constituting the stream. A part of the data can be acquired, and the information generation unit is configured to acquire the main reproduction based on at least a part of the stream data acquired by the second acquisition unit. An image including at least a part of the image data constituting the first stream reproduced by the path and at least a part of the image data constituting the second stream reproduced by the sub reproduction path Information may be generated, and the display control unit may control generation of the image information generated by the information generation unit. The operation input acquisition unit selects any of the image data constituting the second stream by the user with reference to the image information whose display is controlled by the display control unit. When the operation input is acquired, the reproduction control unit receives the first stream and the second stream from the first reproduction position of the second stream corresponding to the image data selected by the user. Playback can be controlled.
本発明の一側面の情報処理方法は、再生されるストリームに関する情報を生成する情報処理装置の情報処理方法であって、前記ストリームの再生を制御するための再生管理情報を取得し、取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得し、取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成するステップを含む。 An information processing method according to an aspect of the present invention is an information processing method for an information processing apparatus that generates information about a stream to be played back, and acquires and manages playback management information for controlling playback of the stream. Analyzing the reproduction management information, obtaining information relating to one or a plurality of secondary reproduction paths, which is different from the primary reproduction path of the stream, and obtaining information relating to the obtained secondary reproduction path And generating information related to the stream reproduced by the main reproduction path and the sub reproduction path.
本発明の一側面のプログラムまたはプログラム格納媒体に格納されているプログラムは、ストリームの再生を制御するための再生管理情報の取得を制御し、取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報の取得を制御し、取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成するステップを含む処理をコンピュータに実行させる。 The program of one aspect of the present invention or the program stored in the program storage medium controls acquisition of reproduction management information for controlling reproduction of a stream, analyzes the reproduction management information for which acquisition is controlled, The playback path is different from the main playback path of the stream, controls acquisition of information on one or more secondary playback paths, and based on the information on the secondary playback path whose acquisition is controlled, Causing the computer to execute a process including a step of generating information relating to the stream reproduced by the main reproduction path and the sub reproduction path.
本発明の一側面においては、ストリームの再生を制御するための再生管理情報が取得され、再生管理情報が解析されて、ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報が取得され、副の再生パスに関する情報を基に、主の再生パスおよび副の再生パスにより再生されるストリームに関する情報が生成される。 In one aspect of the present invention, reproduction management information for controlling the reproduction of a stream is acquired, the reproduction management information is analyzed, and the reproduction path is different from the main reproduction path of the stream, and one or more Information on the secondary reproduction path is acquired, and information on the main reproduction path and the stream reproduced by the secondary reproduction path is generated based on the information on the secondary reproduction path.
ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。 The network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device. The devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。 The communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. May be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.
再生装置は、独立した装置であっても良いし、記録再生装置の再生処理を行うブロックであっても良い。 The playback device may be an independent device or a block that performs playback processing of the recording / playback device.
以上のように、本発明の一側面によれば、再生管理情報が解析され、特に、副の再生パスに関する情報を基に、主の再生パスおよび副の再生パスにより再生されるストリームに関する情報が生成されるので、ユーザに、主の再生パスにより再生されるストリームのみならず、副の再生パスにより再生されるストリームの内容や再生位置などを分かりやすく提示することができる。 As described above, according to one aspect of the present invention, the reproduction management information is analyzed. In particular, based on the information on the secondary reproduction path, information on the main reproduction path and the stream reproduced by the secondary reproduction path is obtained. Thus, not only the stream reproduced by the main reproduction path but also the contents and reproduction position of the stream reproduced by the sub reproduction path can be presented to the user in an easily understandable manner.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の情報処理装置は、ストリームの再生を制御するための再生管理情報(例えば、PlayList)を取得する第1の取得手段(例えば、図32のPlayList読み出し制御部351)と、前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)を取得する第2の取得手段(例えば、図32のPlayList解析部352およびIN_time/OUT_time取得部356)と、前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータまたは図32の再生開始位置情報記憶制御部358に記憶される情報)を生成する情報生成手段とを備える。
An information processing apparatus according to an aspect of the present invention includes first acquisition means (for example, PlayList read
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)を取得することができる。 The second acquisition unit can acquire information (for example, IN_time and OUT_time) regarding the playback position of the secondary playback path.
前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸(例えば、図34のメインタイムライン401)に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される第2のストリームの再生位置を示す画像情報(例えば、図33または図34のGUI表示画面391のデータ)を生成することができる。
The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path (for example, the
前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれの再生範囲を示す情報(例えば、サブタイムライン403)を含む前記画像情報を生成することができる。 The information generation unit can generate the image information including information (for example, a sub timeline 403) indicating a reproduction range of each of the plurality of second streams reproduced by the sub reproduction path.
前記情報生成手段は、前記副の再生パスにより再生される複数の前記第2のストリームのそれぞれのストリームの種類を示す情報(例えば、アイコン404)を含む前記画像情報を生成することができる。 The information generation unit can generate the image information including information (for example, an icon 404) indicating each stream type of the plurality of second streams reproduced by the sub reproduction path.
前記ストリームデータのうちの少なくとも一部を取得する第3の取得手段(例えば、図32のストリームデータ読み出し制御部354)を更に備えることができ、前記情報生成手段は、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部(例えば、サムネイル)を含む前記画像情報を生成することができる。
A third acquisition unit (for example, the stream data read
前記第2の取得手段は、前記正の再生パスおよび前記副の再生パスにより再生されるストリームを構成する画像データ(例えば、サムネイルの基となる画像データ)のうちの一部を取得することができ、前記情報生成手段は、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像441)、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像442)を含む画像情報(例えば、図35のGUI表示画面421のデータ)を生成することができる。
The second acquisition means may acquire a part of image data (for example, image data that is a basis of a thumbnail) that constitutes a stream that is reproduced by the primary reproduction path and the secondary reproduction path. The information generation means can configure a first stream to be reproduced by the main reproduction path based on at least a part of the image data constituting the stream acquired by the second acquisition means. At least a part of the image data (for example, the
前記情報生成手段により生成された前記ストリームに関する情報の表示を制御する表示制御手段(例えば、図32のGUI表示制御部359)を更に備えることができる。
The display control means (for example, GUI
前記ストリームデータを取得する第3の取得手段(例えば、図32のストリームデータ読み出し制御部354)と、前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段(例えば、図32の再生制御部355)とを更に備え、前記表示制御手段は、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御(OSD30による画像合成を制御)することができる。
Based on the third acquisition means for acquiring the stream data (for example, the stream data read
ユーザによる操作入力を取得する操作入力取得手段(例えば、図32の操作入力取得部353)を更に備えることができ、前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)を取得することができ、前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸(例えば、図34のタイムライン401)に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報(例えば、図33または図34のGUI表示画面391のデータ)を生成することができ、前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御することができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御することができる。
An operation input acquisition unit (for example, an operation
ユーザによる操作入力を取得する操作入力取得手段(例えば、図32の操作入力取得部353)を更に備えることができ、前記第2の取得手段は、前記副の再生パスの再生位置に関する情報(例えば、IN_timeとOUT_time)、および、前記ストリームを構成する画像データ(例えば、サムネイルの基となる画像データ)のうちの一部を取得することができ、前記情報生成手段は、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像441)、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部(たとえば、図35のサムネイル画像442)を含む画像情報(例えば、図35のGUI表示画面421のデータ)を生成することができ、前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御することができ、前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御することができる。
An operation input acquisition unit (for example, an operation
本発明の一側面の情報処理方法は、再生されるストリームに関する情報を生成する情報処理装置の情報処理方法であって、前記ストリームの再生を制御するための再生管理情報(例えば、PlayList)を取得し(例えば、図37のステップS41の処理)、取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)を取得し(例えば、図37のステップS42乃至ステップS51の処理)、取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータまたは図32の再生開始位置情報記憶制御部358に記憶される情報)を生成する(例えば、図37のステップS53の処理)ステップを含む。 An information processing method according to an aspect of the present invention is an information processing method of an information processing device that generates information about a stream to be played back, and acquires playback management information (for example, PlayList) for controlling playback of the stream (For example, the process of step S41 in FIG. 37), the obtained reproduction management information is analyzed, and is a reproduction path different from the main reproduction path of the stream, and one or a plurality of sub reproduction paths. Information (for example, image data or IN_time and OUT_time) is acquired (for example, processing in steps S42 to S51 in FIG. 37), and the main reproduction is performed based on the acquired information regarding the sub reproduction path. Information on the stream reproduced by the path and the sub reproduction path (for example, data on the GUI display screen of FIGS. 33 to 35 or reproduction start position information of FIG. 32) Generates information) stored in the 憶 controller 358 (e.g., including processing) step in step S53 of FIG. 37.
本発明の一側面のプログラムは、再生されるストリームに関する情報を生成する処理をコンピュータに実行させるためのプログラムであって、前記ストリームの再生を制御するための再生管理情報(例えば、PlayList)の取得を制御し(例えば、図37のステップS41の処理)、取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報(例えば、画像データ、または、IN_timeとOUT_time)の取得を制御し(例えば、図37のステップS42乃至ステップS51の処理)、取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報(例えば、図33乃至図35のGUI表示画面のデータ) または図32の再生開始位置情報記憶制御部358に記憶される情報を生成する(例えば、図37のステップS53の処理)
ステップを含む処理をコンピュータに実行させる。
A program according to one aspect of the present invention is a program for causing a computer to execute processing for generating information regarding a stream to be played back, and acquiring playback management information (for example, PlayList) for controlling playback of the stream (For example, the process of step S41 in FIG. 37), the playback management information whose acquisition is controlled is analyzed, and is a playback path different from the main playback path of the stream, and one or more Information on the secondary reproduction path (for example, image data or IN_time and OUT_time) is controlled (for example, processing in steps S42 to S51 in FIG. 37), and information on the secondary reproduction path whose acquisition is controlled. On the basis of the information related to the stream reproduced by the main reproduction path and the sub reproduction path (for example, GUI display in FIGS. 33 to 35) To produce information which is stored in the reproduction start position information
Causes a computer to execute processing including steps.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図4は、本発明を適用した再生装置(図29を参照して後述する)のローカルストレージ(例えば、ハードディスクやメモリなど)上の、または、装着される記録媒体上のアプリケーションフォーマットの例を示す図である。記録媒体は、後述する光ディスクの他、磁気ディスクや半導体メモリであってもよい。 FIG. 4 shows an example of an application format on a local storage (for example, a hard disk or a memory) of a playback apparatus (described later with reference to FIG. 29) to which the present invention is applied or on a recording medium to be mounted. FIG. The recording medium may be a magnetic disk or a semiconductor memory in addition to the optical disk described later.
アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayListとClipの2つのレイヤを有している。ここでは、AVストリームとそれに付随する情報であるクリップインフォメーション(Clip Information)のペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。なお、AVストリームファイルには、音声データや映像データ以外にも、これらのデータとともに再生される各種のストリームファイルが含まれていてもよい。また、ClipインフォメーションをClipインフォメーションファイルとも称する。 The application format has two layers, PlayList and Clip, for managing AV (Audio Visual) streams. Here, a pair of an AV stream and clip information (Clip Information) that is information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. In addition to audio data and video data, the AV stream file may include various stream files that are reproduced together with these data. Clip information is also referred to as a Clip information file.
一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。 In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.
Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。 When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.
PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図4に示されるように1つ、または複数のPlayItemにより構成される。 The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Therefore, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.
図4において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。 In FIG. 4, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.
例えば、図4のディスクナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。 For example, when the disc navigation program of FIG. 4 specifies the left PlayItem included in the first PlayList from the left as the information indicating the playback position at that time, it is included in the left Clip referred to by the PlayItem. The first half of the AV stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.
ディスクナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ディスクナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このディスクナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述され、記録媒体上に用意される。 The disc navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The disc navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This disc navigation program is described in a programming language such as Java (registered trademark), and is prepared on a recording medium.
本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに並行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置(図29を参照して後述する)内部のローカルストレージ上の、または、装着される記録媒体上のアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)をPlayListの中に持つことが可能である。 In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and in the PlayList, parallel to the Main Path (in parallel) ) And a playback path created by a sequence of one or more sub paths (which may be discontinuous or may be continuous) is referred to as a sub path. That is, the application format on the local storage in the playback apparatus (to be described later with reference to FIG. 29) or on the recording medium to be loaded is a sub path (Sub) that is played back in association with (in addition to) the main path. Path) can be included in the PlayList.
図5は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。 FIG. 5 is a diagram for explaining the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.
図5の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。 In the case of the example in FIG. 5, the PlayList has one main path made up of a sequence of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. A subpath of Subpath_id = 0 includes one SubPlayItem, a subpath of Subpath_id = 1 includes two SubPlayItems, and a subpath of Subpath_id = 2 includes one SubPlayItem.
Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。 The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.
1つのPlayItemが参照するClip AVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリーム(Presentation Graphic stream)が1つ以上含まれてもよいし、含まれなくてもよい。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、Clip AVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。 A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the Clip AV stream file may or may include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the Clip AV stream file. It does not have to be. Furthermore, the Clip AV stream file may or may not include one or more bitmap subtitle streams (Presentation Graphic streams) that are played back at the same timing as the video stream included in the Clip AV stream file. Good. The Clip AV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the Clip AV stream file. The video stream included in the Clip AV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more. The interactive graphics stream data is multiplexed.
すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。 That is, a Clip AV stream file referred to by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream.
また、1つのSubPlayItemは、PlayItemが参照するClip AVストリームファイルとは異なるストリーム(別ストリーム)の、ビデオストリーム、オーディオストリーム、または、字幕データなどを参照する。 Also, one SubPlayItem refers to a video stream, an audio stream, subtitle data, or the like of a stream (different stream) different from the Clip AV stream file referred to by the PlayItem.
メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中から音声や字幕を選択することのみが可能である。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClip AVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを選択して再生させることができる。 When playing a PlayList that has only the main path, the user's operation of switching audio or subtitles selects audio or subtitles from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. It is only possible. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem And a sub-picture stream can be selected and reproduced.
このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClip AVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。 In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the Clip AV stream referred to by MainPath, a SubPlayItem can be added later.
図6は、メインパスとサブパスの例を説明する図である。図6においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。 FIG. 6 is a diagram illustrating an example of a main path and a sub path. In FIG. 6, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path.
図6のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、メインClipAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図6の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、Clip(ここでは、Auxiliary audio stream)の中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図6の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図6の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。 The PlayList in FIG. 6 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main Clip AV stream. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the example of FIG. 6, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for designating the playback section of the Sub Path in the Clip (Auxiliary audio stream here). Further, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be reproduced on the time axis of the Main path. In the case of the example in FIG. 6, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. As a result, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 6, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.
ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。 Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities).
また、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClip AVストリーム(主に再生されるメインAVストリーム)とは異なるClip AVストリームのオーディオストリームを参照して、再生することができる。 Also, information included in SubPlayItem () (information specifying a Clip referred to by Sub Path, information specifying a playback section of Sub Path, and time at which Sub Path starts playback on the time axis of Main path) Based on the information), the audio stream of the clip AV stream different from the clip AV stream (mainly reproduced main AV stream) referred to by the main path can be referred to and reproduced.
このように、PlayItemとSubPlayItemは、Clip AVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClip AVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClip AVストリームファイルは同一のファイルに多重化されていても良いし、異なるファイルとしてもよい。 As described above, PlayItem and SubPlayItem manage Clip AV stream files, respectively. Here, the Clip AV stream file (main AV stream) managed by PlayItem and the Clip AV stream file managed by SubPlayItem are the same file. Multiple files may be multiplexed, or different files may be used.
なお、図6の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。 Similar to the example of FIG. 6, a subtitle stream playback path that is played back at the same timing as the main path can be expressed using a sub path.
図7は、メインパスとサブパスの別の例を説明する図である。図7においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。ここで、メインパスのPlayItemが参照するメインClipAVストリームファイルは、図6と同様であるので省略している。 FIG. 7 is a diagram illustrating another example of the main path and the sub path. In FIG. 7, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path. Here, the main Clip AV stream file referred to by PlayItem in the main path is the same as in FIG.
例えば、メインパスにより参照されるClipAVストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスのオーディオパスにより参照されるAuxiliary audio stream(Clip)をその映画に対する監督のコメントとし、メインパスで参照されるClipAVストリームのオーディオストリームにサブパスのオーディオパスで参照されるAuxiliary audio streamをミキシング(重ねて)再生するような場合に、このような構成が利用される。すなわち、図7に示されるメインパスとサブパスの構成は、ユーザが、映画を見ながら、その映画に対する監督のコメントを合わせて聞く指令を再生装置(プレーヤ)へ入力した場合、換言すれば、メインパスで参照されるClipAVストリームの音声と、サブパスのオーディオパスで参照されるAuxiliary audio streamとを、ミキシングして再生させる場合に利用される。 For example, a clip AV stream referenced by the main path is set as one movie content (AV content), an auxiliary audio stream (Clip) referenced by the sub-path audio path is set as a director's comment for the movie, and is referenced by the main path. Such an arrangement is used in the case where an auxiliary audio stream referred to by the audio path of the sub path is mixed (reproduced) with the audio stream of the clip AV stream. That is, the configuration of the main path and the sub path shown in FIG. 7 is that when the user inputs an instruction to listen to the director's comment together with the movie while watching the movie, in other words, This is used when the audio of the Clip AV stream referenced by the path and the auxiliary audio stream referenced by the sub-path audio path are mixed and reproduced.
図7においては、メインパスに3つのPlayItemがPlayItem_id=0,1,2と配置され、サブパス(Subpath_id=0)に2つのSubPlayItemが配置されている。そして、Subpath_id=0のSubPath(図26にて後述する)で呼び出すSubPlayItem(図28にて後述する)は、Auxiliary audio stream(SubClip_entry_id=0の英語のAuxiliary audio streamのクリップ及びSubClip_entry_id=1の日本語のAuxiliary audio streamのクリップ)のSubpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。 In FIG. 7, three PlayItems are arranged in the main path as PlayItem_id = 0, 1, 2, and two SubPlayItems are arranged in the subpath (Subpath_id = 0). SubPlayItem (described later in FIG. 28) called by SubPath_id = 0 (described later in FIG. 26) is an Auxiliary audio stream (English Auxiliary audio stream clip of SubClip_entry_id = 0 and SubClip_entry_id = 1 in Japanese) SubPlayItem_IN_time and SubPlayItem_out_time for specifying the subpath playback section of (Auxiliary audio stream clip).
図7と図6とを比較するに、図7においては、SubPlayItemによって、SubClip_entry_id=0,1のAuxiliary audio stream(英語または日本語のオーディオストリーム)を参照することができる。すなわち、SubPlayItemを用いて、複数のオーディオストリームファイルを参照する構造を有し、このSubPlayItemを再生する場合には、複数のオーディオストリームファイルからオーディオストリームファイルが選ばれて再生される。図7の例の場合、英語のオーディオストリームファイルと日本語のオーディオストリームファイルのうち、1つのオーディオストリームファイルが選ばれて再生される。具体的には、subClip_entry_id=0,1の中から(例えば、ユーザの指令に基づいて)1つが選択され、そのIDが参照するAuxiliary audio streamが再生される。また、これに加えて、さらにメインパスにより参照されるオーディオストリームとの組み合わせによる再生が選択された場合、メインパスで参照される1stオーディオストリームと、サブパスのオーディオパスで参照される2ndオーディオストリームファイルとが、ミキシングされて再生される。なお、2つのサブパスで参照される2つのオーディオストリームが、ミキシングされて再生されるようにすることも可能であるが、これについては後述する。 7 is compared with FIG. 6, in FIG. 7, an auxiliary audio stream (English or Japanese audio stream) of SubClip_entry_id = 0, 1 can be referred to by SubPlayItem. In other words, a SubPlayItem is used to refer to a plurality of audio stream files, and when the SubPlayItem is reproduced, the audio stream file is selected from the plurality of audio stream files and reproduced. In the case of the example in FIG. 7, one audio stream file is selected and reproduced from the English audio stream file and the Japanese audio stream file. Specifically, one of subClip_entry_id = 0 and 1 is selected (for example, based on a user instruction), and an auxiliary audio stream referred to by the ID is reproduced. In addition to this, when playback in combination with an audio stream referenced by the main path is further selected, the 1st audio stream referenced by the main path and the 2nd audio stream file referenced by the audio path of the sub path are selected. Are mixed and played back. Note that two audio streams referenced in the two sub-paths may be mixed and played back, which will be described later.
次に、図5乃至図7を用いて説明したメインパスとサブパスの構造を具体的に実現するためのデータ構造(シンタクス)を説明する。 Next, a data structure (syntax) for specifically realizing the main path and sub path structures described with reference to FIGS. 5 to 7 will be described.
図8は、再生装置において再生可能なデータファイルのファイルシステムの例を示す図である。図8には、一例として、再生装置において再生可能なデータファイルが光ディスクなどの記録媒体によって供給されている場合を示しており、このファイルシステムはディレクトリ構造を有している。 FIG. 8 is a diagram illustrating an example of a file system of a data file that can be played back by the playback apparatus. FIG. 8 shows, as an example, a case where a data file that can be played back by a playback apparatus is supplied by a recording medium such as an optical disk, and this file system has a directory structure.
このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディレクトリが用意され、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これらのファイルをそれぞれIndexファイル、NavigationObjectファイルと称する。また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。 In this file system, a directory with the name “BDMV” is prepared under “root”, and a file with the name “Index.bdmv” and a file “NavigationObject.bdmv” Contains a file with a name. Hereinafter, these files will be referred to as an Index file and a NavigationObject file, respectively, as appropriate. As appropriate, each file is referred to by adding “file” to “file name”, or each directory is referred to by adding “directory” to “directory name”.
Indexファイルは、インデックステーブルが記載されたファイルであり、再生装置において再生可能なデータファイルを再生するメニューに関する情報を含む。再生装置は、例えば、再生装置において再生可能なデータファイルに含まれるコンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面をIndexファイルに基づいて、表示装置に表示させる。Indexファイルのインデックステーブルには各項目が選択されたときに実行するNavigationObjectを設定することができ、ユーザにより再生メニュー画面から1つの項目が選択された場合、再生装置はIndexファイルのインデックステーブルに設定されているNavigationObjectのコマンドを実行する。 The Index file is a file in which an index table is described, and includes information related to a menu for reproducing a data file that can be reproduced by the reproducing apparatus. For example, the playback device displays a playback menu screen including items such as all content included in a data file that can be played back by the playback device, only a specific chapter is played, repeated playback, and an initial menu is displayed. Display on the display device based on the Index file. The navigation object to be executed when each item is selected can be set in the index file index table. When one item is selected from the playback menu screen by the user, the playback device is set in the index file index table. Execute the NavigationObject command.
NavigationObjectファイルは、NavigationObjectを含むファイルである。NavigationObjectは、再生装置において再生可能なデータファイルに含まれているPlayListの再生を制御するコマンドを含み、例えば、再生装置は、このファイルシステムに含まれているNavigationObjectの中から1つを選択して、実行することにより、コンテンツを再生させることができる。 The NavigationObject file is a file containing NavigationObject. The NavigationObject includes a command for controlling playback of a PlayList included in a data file that can be played back by the playback device. For example, the playback device selects one of the NavigationObjects included in the file system. By executing, the content can be reproduced.
BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ(BACKUPディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、「CLIPINF」の名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定されたディレクトリ(AUXDATAディレクトリ)が設けられている。 The BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), and a directory with the name “CLIPINF” (CLIPINF directory). , A directory (STREAM directory) in which the name “STREAM” is set, and a directory (AUXDATA directory) in which the name “AUXDATA” is set.
BACKUPディレクトリには、再生装置において再生可能なファイルやデータをバックアップするためのファイルやデータが記録される。 In the BACKUP directory, files and data for backing up files and data that can be played back by the playback device are recorded.
PLAYLISTディレクトリには、PlayListファイルが格納される。各PlayListファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.mpls」を付加した名称が命名される。 A PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name consisting of a 5-digit number.
CLIPINFディレクトリには、Clip Informationファイルが格納される。各Clip Informationファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.clpi」を付加した名称が命名される。 A Clip Information file is stored in the CLIPINF directory. Each Clip Information file is named by adding the extension “.clpi” to a file name consisting of five digits as shown in the figure.
STREAMディレクトリには、Clip AVストリームファイルやサブストリームファイルが格納される。各ストリームファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.m2ts」を付加した名称が命名される。 In the STREAM directory, a Clip AV stream file and a substream file are stored. Each stream file is given a name obtained by adding an extension “.m2ts” to a file name consisting of five digits as shown in the figure.
AUXDATAディレクトリには、Clip AVストリームファイルやサブストリームファイルに含まれずに、Clip AVストリームファイルやサブストリームファイルから参照されるデータや、Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデータなどのファイルが格納される。図8の例においては、AUXDATAディレクトリには、「11111.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名前が設定された効果音などのサウンドデータが格納されている。 The AUXDATA directory is not included in the Clip AV stream file or substream file, but is referred to from the Clip AV stream file or substream file, or data used independently of the Clip AV stream file or substream file. And other files are stored. In the example of FIG. 8, the AUXDATA directory stores sound data such as subtitle font files with the name “11111.otf” and sound effects with the name “sound.bdmv”. ing.
以下、主に再生出力される音声データをプライマリオーディオストリーム(Primary audio stream)と称し、例えば、ユーザの操作入力に対応して発生するクリック音や効果音など、上述したAUXDATAディレクトリにsound.bdmvとして記載されている音声データをサウンドデータと称するものとする。サウンドデータはプライマリオーディオストリームに合成可能である。また、プライマリオーディオストリームとは別のストリームであって、例えば、副音声など、プライマリオーディオストリームに合成可能な音声データをセカンダリオーディオストリームと称するものとする。なお、プライマリオーディオストリームとは別のストリームであって、プライマリオーディオストリームに合成可能な音声データはであるセカンダリオーディオストリームは複数存在してもよく、その場合、例えば、異なるIDを用いて、それぞれ、区別可能なようにすればよい。 Hereinafter, the audio data that is mainly played back and output is referred to as a primary audio stream (Primary audio stream) .For example, clicks and sound effects generated in response to user operation inputs, such as sound.bdmv in the AUXDATA directory described above. The described audio data is referred to as sound data. Sound data can be synthesized into the primary audio stream. Also, audio data that is different from the primary audio stream and can be synthesized with the primary audio stream, such as sub audio, is referred to as a secondary audio stream. Note that there may be a plurality of secondary audio streams that are different from the primary audio stream and can be synthesized with the primary audio stream.In this case, for example, using different IDs, What is necessary is just to make it distinguishable.
また、再生装置において再生可能なデータファイルが光ディスクによって配布されている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルオーサに割り当てられた識別子であるauthor_id、および、author_idに示されるタイトルオーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子であるdisc_idが、ユーザなどにより書き換えることができないセキュアな電子データとして、または、物理的にピットによって記録されている。 Also, when data files that can be played back on the playback device are distributed on an optical disc, for example, the content author, such as a production company or a movie distribution company, or the title author that is the supply source of this recording medium is identified. Therefore, the author_id that is the identifier assigned to each title author and the disc_id that is the identifier assigned to identify the type of optical disc produced by the title author indicated by the author_id can be rewritten by the user or the like. It cannot be recorded as secure electronic data or physically by pits.
また、再生装置において再生可能なデータファイルが光ディスク以外のリムーバブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされている場合も、author_id、および、author_idに相当するidが割り当てられてそれぞれ区別可能なようになされ、図8に示す場合と同様のディレクトリ構造を有していると好適である。また、再生装置において再生可能なデータファイルには、author_id、および、author_idに相当するidが割り当てられていないとしても、図8を用いて説明した場合と同様に、「Index.bdmv」の名前が設定されたファイル、「NavigationObject.bdmv」の名前が設定されたファイルが含まれており、「BACKUP」の名前が設定されたファイル群、「PLAYLIST」の名前が設定されたファイル群、「CLIPINF」の名前が設定されたファイル群、「STREAM」の名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル群のうち、適宜必要なファイル群が含まれている。 In addition, when a data file that can be played back by a playback device is recorded on a removable recording medium other than an optical disk or downloaded via a network, an id corresponding to author_id and author_id is assigned. Each can be distinguished, and preferably has a directory structure similar to that shown in FIG. In addition, even if an author_id and an id corresponding to author_id are not assigned to a data file that can be played back by the playback device, the name “Index.bdmv” is the same as in the case described with reference to FIG. The set file, the file with the name "NavigationObject.bdmv" is included, the file group with the name "BACKUP", the file group with the name "PLAYLIST", "CLIPINF" Necessary file groups are included among the file group set with the name of "," the file group set with the name of "STREAM", and the file group set with the name of "AUXDATA".
Indexファイル(Index.bdmv)のシンタクスを図9に示す。 FIG. 9 shows the syntax of the Index file (Index.bdmv).
Type_indicatorは、ISO646に基づいて符号化された"INDX"の値が記述されるフィールドである。 Type_indicator is a field in which the value of “INDX” encoded based on ISO646 is described.
version_numberは、Index.bdmvのバージョンナンバを示す4文字の文字列であり、ISO646に基づいて符号化された"0089"の値が記述される。 version_number is a 4-character string indicating the version number of Index.bdmv, and the value “0089” encoded based on ISO646 is described.
Indexes_start_addressは、Indexes()ブロックのスタートアドレスが記載されるフィールドである。 Indexes_start_address is a field in which the start address of the Indexes () block is described.
AppInfoBDMV()には、このIndexファイルを含むデータファイルの供給元を示す、個別の識別子などが記載されている。 In AppInfoBDMV (), an individual identifier indicating the supply source of the data file including this Index file is described.
Indexes()には、例えば、メニューを読み出したり、タイトルを検索したり、所定のタイトルにジャンプしたり、または、このIndexファイルを含むデータファイルが記録されている光ディスクなどの記録媒体が再生装置に装着された場合に自動的に起動する処理を実行するアプリケーション(NavigationObject)とのリンクが記載されている。Indexes()のシンタクスについては、図10を用いて後述する。 In Indexes (), for example, a menu is read, a title is searched, a jump is made to a predetermined title, or a recording medium such as an optical disk in which a data file including this Index file is recorded is stored in the playback device. A link with an application (NavigationObject) that executes a process that automatically starts when attached is described. The syntax of Indexes () will be described later with reference to FIG.
Padding_wordは、Index.bdmvのシンタクスに基づいて挿入されるものであり、0または正の整数で表される。 Padding_word is inserted based on the syntax of Index.bdmv, and is represented by 0 or a positive integer.
Indexes()のシンタクスの例を、図10に示す。 An example of the syntax of Indexes () is shown in FIG.
lengthは、Indexes()に何バイトの情報が記載されているかを表すフィールドである。 The length is a field indicating how many bytes of information are described in Indexes ().
FirstPlaybackは、このファイルシステムのデータが再生される場合に最初に実行されるNavigationObjectに関する情報が含まれているデータブロックである。具体的には、このファイルシステムのデータが記録された光ディスクなどの記録媒体が再生装置に装着されたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれているデータブロックである。 FirstPlayback is a data block that includes information related to a NavigationObject that is executed first when data of this file system is reproduced. Specifically, it is a data block that includes information related to a NavigationObject that is automatically executed first when a recording medium such as an optical disk on which data of this file system is recorded is loaded in a playback apparatus.
FirstPlayback_mobj_id_refは、最初に実行されるNavigationObjectのmobj_idの値を指定するためのフィールドである。mobj_idは、NavigationObjectがそれぞれ固有に与えられているIDである。また、再生開始時に自動的に実行されるNavigationObjectが設定されない場合、すなわち、再生開始時にはアプリケーションはいずれも実行されず、ユーザによる指令を受けて、いずれかのアプリケーションが実行されるようになされている場合、このフィールドには、"0Xffff"が記載される。 FirstPlayback_mobj_id_ref is a field for designating the value of mobj_id of the NavigationObject that is executed first. mobj_id is an ID to which NavigationObject is uniquely given. Also, if the NavigationObject that is automatically executed at the start of playback is not set, that is, no application is executed at the start of playback, and any application is executed in response to an instruction from the user. In this case, “0Xffff” is described in this field.
TopMenu()は、ユーザがメニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれているデータブロックである。 TopMenu () is a data block that includes information related to NavigationObject of TopMenu that is called when the user displays a menu screen.
TopMenu_mobj_id_refは、TopMenuのNavigationObjectのmobj_idの値を指定するためのフィールドである。TopMenuが設定されない場合、このフィールドには、"0xFFFF"が記載される。 TopMenu_mobj_id_ref is a field for designating the value of mobj_id of NavigationObject of TopMenu. When TopMenu is not set, “0xFFFF” is described in this field.
number_of_Titlesは、Indexes()に記載されているタイトルの数を表すフィールドである。 number_of_Titles is a field representing the number of titles described in Indexes ().
Title[title_id]()は、title_idによって固有に区別されているそれぞれのタイトルに関する情報が記載されるブロックである。title_idは0から割り当てられる。 Title [title_id] () is a block in which information about each title uniquely distinguished by title_id is described. title_id is assigned from 0.
Title_playback_type[title_id]は、そのtitle_idによって指定されるタイトルの再生タイプを示す情報であり、例えば、再生される動画と音声による一般的なコンテンツであるMovie Titleか、ユーザの操作入力によって再生される動画や音声が変更されるなどの双方向のやり取りが可能なコンテンツであるInteractive Titleなどのタイプが示される。例えば、そのタイトルがMovie Titleである場合、PlayListに基づいた再生処理が実行される。 Title_playback_type [title_id] is information indicating the playback type of the title specified by the title_id, for example, a movie title that is a general content with a video to be played and audio, or a video that is played by user operation input And Interactive Title, which is a content that can be interactively exchanged, such as a change in voice or sound. For example, when the title is Movie Title, playback processing based on PlayList is executed.
Title_access_type[title_id]は、そのtitle_idによって指定されるタイトルが、Title_Searchを用いて再生することが許可されているか否かを示す情報である。 Title_access_type [title_id] is information indicating whether or not the title specified by the title_id is permitted to be reproduced using Title_Search.
reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている29ビットのフィールドである。 reserved_for_future_use is a 29-bit field whose data description content is not set in preparation for future expansion.
Title_mobj_id_ref[title_id]は、そのtitle_idによって指定されるタイトルがエントリーされているNavigationObjectのmobj_idの値を指定するためのフィールドである。 Title_mobj_id_ref [title_id] is a field for specifying the value of mobj_id of the NavigationObject in which the title specified by the title_id is entered.
図11に、PlayListファイルのデータ構造を示す。PlayListファイルは、再生装置に装着された記録媒体、または、再生装置内部の記憶部(例えば、ハードディスクなどからなるローカルストレージ)において、PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するデータファイルである。 FIG. 11 shows the data structure of the PlayList file. The PlayList file is a data file having an extension “.mpls” stored in the PLAYLIST directory in a recording medium attached to the playback device or a storage unit inside the playback device (for example, a local storage including a hard disk). It is.
type_indicatorは、このファイルの種類を示す情報が記載されているものである。すなわち、このフィールドには、このファイルの種類が映像の再生を管理する再生管理情報であるPlayList(MoviePlayList)であることを示す情報が記載される。 type_indicator describes information indicating the type of the file. That is, in this field, information indicating that this file type is PlayList (MoviePlayList) that is playback management information for managing video playback.
version_numberは、このxxxx.mpls(MoviePlayList)のバージョンナンバを示す4個のキャラクター文字を示すものである。 version_number indicates four character characters indicating the version number of the xxxx.mpls (MoviePlayList).
PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示すものである。 PlayList_start_address indicates the start address of PlayList () with the relative number of bytes from the start byte of the PlayList file as a unit.
PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示すものである。 PlayListMark_start_address indicates the head address of PlayListMark () with the relative number of bytes from the head byte of the PlayList file as a unit.
ExtensionData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、ExtensionData()の先頭アドレスを示すものである。 ExtensionData_start_address indicates the start address of ExtensionData () in units of the relative number of bytes from the start byte of the PlayList file.
AppInfoPlayList()には、例えば、再生制限など、PlayListの再生コントロールに関するパラメータが格納されている。AppInfoPlayList()の詳細は、図12を用いて後述する。 AppInfoPlayList () stores parameters related to playback control of the PlayList, such as playback restrictions. Details of AppInfoPlayList () will be described later with reference to FIG.
PlayList()には、PlayListのメインパスやサブパスなどに関するパラメータが格納されている。PlayList()の詳細は、図13を用いて後述する。 PlayList () stores parameters related to the main path and sub path of the PlayList. Details of PlayList () will be described later with reference to FIG.
PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納されている。 PlayListMark () stores PlayList mark information, that is, information about a mark that is a jump destination (jump point) in a user operation or command that commands chapter jump or the like.
ExtensionData()には、プライベートデータが挿入できるようになっている。 Private data can be inserted into ExtensionData ().
次に、図12を参照して、AppInfoPlayList()のシンタクスについて説明する。 Next, the syntax of AppInfoPlayList () will be described with reference to FIG.
lengthは、length以下のシンタクスの長さ、すなわち、このlengthフィールドの直後からreserved_for_future_useの最後までのAppInfoPlayList()のバイト数を示すものである。このlengthの後には、8ビットのreserved_for_future_useが用意される。 The length indicates a syntax length equal to or less than length, that is, the number of bytes of AppInfoPlayList () from immediately after this length field to the end of reserved_for_future_use. After this length, 8-bit reserved_for_future_use is prepared.
PlayList_playback_typeは、連続再生、ランダムアクセス、シャッフルのいずれの再生を行うPlayListであるかを示す情報を記載するフィールドである。 PlayList_playback_type is a field that describes information indicating whether the PlayList is to be played back by continuous playback, random access, or shuffle playback.
Playback_countは、ランダムアクセス、シャッフルを行うPlayListの場合、再生に用いるPlayItemの数を示す情報を記載するフィールドである。 Playback_count is a field that describes information indicating the number of PlayItems used for playback in the case of a PlayList that performs random access and shuffle.
そして、UO_mask_table()は、一時停止、チャプタサーチ、ジャンプ、早送り、早戻し(後方高速再生)等の特殊再生、または、表示等に関するユーザ操作の制限を決める情報である。 UO_mask_table () is information that determines restrictions on user operations related to special playback such as pause, chapter search, jump, fast forward, fast reverse (backward fast playback), or display.
そして、PlayList_random_access_flagは、他のPlayListからのジャンプ再生を制御するためのフラグ情報である。ここでは、PlayList_random_access_flag=1に設定されている場合、他のPlayListからのジャンプ再生を禁止するものとする。 PlayList_random_access_flag is flag information for controlling jump playback from another PlayList. Here, when PlayList_random_access_flag = 1 is set, jump playback from another PlayList is prohibited.
例えば、再生装置においては、例えば、現在のPlayListにより参照されている再生位置から、他のPlayListにより参照される所定のPlayItemの先頭またはチャプタの位置への再生位置のジャンプを指令するユーザオペレーションなど、装置独自で拡張的なユーザオペレーションを用意することができる。PlayList_random_access_flagは、例えば、これらのユーザオペレーションにより、他のPlayListによって参照されるClip AV Streamのある再生位置から、このPlayListによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。 For example, in a playback device, for example, a user operation that commands a jump of a playback position from the playback position referenced by the current PlayList to the beginning or chapter position of a predetermined PlayItem referenced by another PlayList, etc. Device-specific and extended user operations can be prepared. PlayList_random_access_flag is, for example, when a jump from the playback position of a Clip AV Stream referenced by another PlayList to a Clip AV Stream referenced by this PlayList (movement of the playback position) is commanded by these user operations This is flag information for setting whether or not to restrict this user operation.
なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayList_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。 Note that when a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, the PlayList_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).
is_MixAppは、このPlayListファイルにより再生されるストリームが音声や効果音の合成を行うか否かのフラグである。すなわち、このis_MixAppは、このPlayListにより参照されるデータに、プライマリオーディオストリームに合成され得るサウンドデータまたはセカンダリオーディオストリームが含まれているか否かを示すフラグとして定義されている。この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否かを、迅速に認識することが可能となる。 is_MixApp is a flag indicating whether or not the stream reproduced by the PlayList file synthesizes sound and sound effects. That is, this is_MixApp is defined as a flag indicating whether or not the data referred to by this PlayList includes sound data or secondary audio stream that can be combined with the primary audio stream. Only by confirming this one flag, it is possible to quickly recognize whether or not audio data is synthesized.
また、Lossless_may_bypass_mixer_flagは、ロスレスの音声の再生に関するフラグである。この後には、13ビットのreserved_for_future_useが用意される。 Lossless_may_bypass_mixer_flag is a flag relating to the reproduction of lossless audio. After this, 13-bit reserved_for_future_use is prepared.
次に、図13は、PlayList()のシンタクスを示す図である。 Next, FIG. 13 is a diagram illustrating the syntax of PlayList ().
lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlayListの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図5の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図5に示されるように、PlayItem_id=0,1,2が割り振られる。 length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the PlayList. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 5, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIG. 5, PlayItem_id = 0, 1, and 2 are allocated.
number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図5の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図5に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。 number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 5, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 5, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.
次に、図14を参照して、PlayItem()のシンタクスについて説明する。 Next, the syntax of PlayItem () will be described with reference to FIG.
lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図14の例の場合、Clip_Information_file_ name[0]により、メインClipAVストリームファイルが参照される。また、PlayItem()には、Clipのコーディック方式を指定するClip_codec_identifier[0]、将来の拡張に備えるためにデータの記述内容が未設定とされているreserved_for_future_use、マルチアングル再生に対応しているか否かを示すフラグであるis_multi_angle、接続状態に関する情報であるconnection_condition、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]が含まれる。さらに、PlayItem()には、Clipの中のPlayItemの再生区間を指定するためのIN_timeとOUT_timeが含まれる。図14の例の場合、IN_timeとOUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。 length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 14, the main Clip AV stream file is referred to by Clip_Information_file_name [0]. In PlayItem (), Clip_codec_identifier [0] that specifies the codec format of Clip, reserved_for_future_use in which the data description content is not set in preparation for future expansion, whether multi-angle playback is supported Is_multi_angle indicating the connection state, connection_condition indicating the connection state, and ref_to_STC_id [0] indicating information regarding the STC discontinuity (system time base discontinuity). Further, PlayItem () includes IN_time and OUT_time for designating the playback section of the PlayItem in the Clip. In the example of FIG. 14, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time.
また、PlayItem()には、ユーザ入力の受付制限をするUO_mask_table()、他のPlayItemからのジャンプ再生を制御するPlayItem_random_access_flagが含まれる。 In addition, PlayItem () includes UO_mask_table () for restricting user input and PlayItem_random_access_flag for controlling jump playback from other PlayItems.
図14に示される、PlayItem()のUO_mask_table()には、このPlayItemを参照してClip AV Streamが再生されているときに操作入力される各種のユーザオペレーションについて、それぞれ許可するか否かが設定されている。 In UO_mask_table () of PlayItem () shown in FIG. 14, whether or not to allow various user operations that are input when Clip AV Stream is played with reference to this PlayItem is set. Has been.
そして、図14に示される、PlayItem()のPlayItem_random_access_flagは、ユーザオペレーションにより、他のPlayItemによって参照されるClip AV Streamのある再生位置から、このPlayItemによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。ここでは、PlayItem_random_access_flag=1に設定されている場合、他のPlayItemからのジャンプ再生を禁止するものとする。このフラグについての詳細な説明は後述する。 Then, PlayItem_random_access_flag of PlayItem () shown in FIG. 14 is a jump (playback position) from a playback position of a Clip AV Stream referred to by another PlayItem to a Clip AV Stream referred to by this PlayItem. Flag information for setting whether or not to restrict this user operation. Here, when PlayItem_random_access_flag = 1 is set, jump playback from other PlayItems is prohibited. A detailed description of this flag will be described later.
なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayItem_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。 Note that if a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, PlayItem_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).
さらに、PlayItem()には、最後に表示をした映像を静止画として表示をさせるか否かを示すstill_modeが含まれる。なお、is_multi_angleが複数ある場合(is_multi_angle==1)については、本発明と直接的には関係ないのでその説明を省略する。 Further, PlayItem () includes still_mode indicating whether or not to display the last displayed video as a still image. Note that the case where there are a plurality of is_multi_angles (is_multi_angle == 1) is not directly related to the present invention, and the description thereof will be omitted.
そして、STN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、例えば、音声切り替えや字幕切り替え、または、子画面の表示非表示の選択を指令するユーザの操作入力、または、アプリケーションによるコマンドの発生などによって、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipの中から、再生されるストリームを選択することができる仕組みを提供するための情報である。 When the target PlayItem and one or more SubPaths to be played back are prepared, STN_table () selects, for example, audio switching, subtitle switching, or display / non-display of the sub-screen. A mechanism that allows a stream to be played to be selected from a clip that is referenced by the PlayItem and a clip that is referenced by one or more of these SubPaths, depending on the operation input of the commanding user or the generation of a command by an application. It is information for providing.
例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、Main Pathを構成するPlayItemが参照するClipに含まれるビデオストリームをプライマリビデオストリーム(Primary video stream)とし、SubPathを構成するSubPlayItemが参照するClipに含まれるビデオストリームをセカンダリビデオストリーム(secondary video stream)としたり、または、PlayItemが参照するClip(メインClip)に含まれるビデオストリームのうちの2つのビデオストリームを、それぞれプライマリビデオストリームとセカンダリビデオストリームとして、これらをミキシングして、全画面(プライマリビデオストリーム)と子画面(セカンダリビデオストリーム)で再生することができる仕組みを提供するようにした。このような手法は、ピクチャインピクチャ(Picture in Picture)手法と称される。 For example, when PlayItem () and one or more SubPaths to be played back are prepared, a video stream included in a Clip referred to by PlayItem configuring Main Path is represented as a primary video stream (Primary video stream). The video stream included in the Clip referred to by the SubPlayItem constituting the SubPath is used as a secondary video stream (secondary video stream), or two of the video streams included in the Clip (Main Clip) referenced by the PlayItem. A stream is provided as a primary video stream and a secondary video stream, respectively, and these are mixed to provide a mechanism that can be played back on the full screen (primary video stream) and the sub-screen (secondary video stream). Such a technique is called a picture-in-picture technique.
また、同様にして、例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、Main Pathを構成するPlayItemが参照するClipに含まれるオーディオストリームをプライマリオーディオストリーム(Primary audio stream)とし、SubPathを構成するSubPlayItemが参照するClipに含まれるオーディオストリームをセカンダリオーディオストリーム(secondary audio stream)としたり、または、PlayItemが参照するClip(メインClip)に含まれるオーディオストリームのうちの2つのオーディオストリームを、それぞれプライマリオーディオストリームとセカンダリオーディオストリームとして、これらをミキシングして再生することができる仕組みを提供するようにした。 Similarly, for example, when PlayItem () and one or more SubPaths to be played back are prepared, the audio stream included in the Clip referred to by the PlayItem that constitutes the Main Path is the primary audio. Stream (Primary audio stream) and the audio stream included in the Clip referenced by the SubPlayItem constituting the SubPath is used as the secondary audio stream (Secondary Audio Stream), or the audio stream included in the Clip (Main Clip) referenced by the PlayItem Two of these audio streams are provided as a primary audio stream and a secondary audio stream, respectively, and a mechanism that can mix and reproduce these is provided.
そして、プライマリビデオストリームと同時に再生され得るストリームとして、ここでは、次の第1乃至第4の種類のストリームが用意される。 Then, the following first to fourth types of streams are prepared as streams that can be reproduced simultaneously with the primary video stream.
第1の種類のストリームとは、STN_tableにおいてPrimary_audio_stream_idで定義されるオーディオストリーム、即ち、上述したプライマリオーディオストリームである。 The first type of stream is an audio stream defined by Primary_audio_stream_id in STN_table, that is, the above-described primary audio stream.
第2の種類のストリームとは、STN_tableにおいてSecondary_video_stream_idで定義されるビデオストリーム、すなわち、上述したセカンダリビデオストリームである。 The second type of stream is a video stream defined by Secondary_video_stream_id in STN_table, that is, the above-described secondary video stream.
第3の種類のストリームとは、STN_tableにおいてSecondary_audio_stream_idで定義されるオーディオストリーム、即ち、上述したセカンダリオーディオストリームである。 The third type of stream is an audio stream defined by Secondary_audio_stream_id in STN_table, that is, the above-described secondary audio stream.
第4の種類のストリームとは、サブパスで参照されるテキスト字幕ストリーム(txtST)や、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)等であり、STN_tableにおいて、PG_txtST_stream_id、IG_stream_idで定義される。 The fourth type of stream is a text subtitle stream (txtST) referred to in a sub path, a stream (PG, Presentation Graphics stream) obtained by run-length encoding a bitmap subtitle such as a DVD sub-picture, and the like. In STN_table, it is defined by PG_txtST_stream_id and IG_stream_id.
STN_table()は、これらのストリームの組み合わせを定義する情報である。 STN_table () is information defining a combination of these streams.
次に、図15および図16を用いて、STN_table()のシンタクスについて説明する。 Next, the syntax of STN_table () will be described using FIG. 15 and FIG.
このSTN_table()は、プライマリビデオストリームと組み合わせて同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義するにあたって、特に、セカンダリオーディオストリームとプライマリオーディオストリームとの組み合わせ、セカンダリビデオストリームとセカンダリオーディオストリームとの組み合わせ、セカンダリビデオストリームとピクチャインピクチャアプリケーション用のプレゼンテーショングラフィックス(PG)またはテキスト字幕の組み合わせを定義する。 This STN_table () is used to define a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that can be simultaneously played in combination with the primary video stream. , Combinations of secondary video streams and secondary audio streams, and combinations of secondary video streams and presentation graphics (PG) or text subtitles for picture-in-picture applications.
lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。 length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length.
number_of_primary_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)primary_video_stream_idが与えられるストリーム数を示す。primary_video_stream_idは、ビデオストリームを識別するための情報であり、primary_video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。 number_of_primary_video_stream_entries indicates the number of streams to which primary_video_stream_id entered (registered) in STN_table () is given. primary_video_stream_id is information for identifying a video stream, and primary_video_stream_number is a video stream number that is used for video switching and is visible to the user.
number_of_primary_audio_stream_entriesは、STN_table()の中でエントリーされるprimary_audio_stream_idが与えられるストリーム数を示す。primary_audio_stream_idは、オーディオストリームを識別するための情報であり、primary_audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。 number_of_primary_audio_stream_entries indicates the number of streams to which primary_audio_stream_id entered in STN_table () is given. primary_audio_stream_id is information for identifying an audio stream, and primary_audio_stream_number is an audio stream number that can be seen by the user used for audio switching.
number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。 number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.
number_of_IG_stream_entriesは、STN_table()の中でエントリーされる IG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。 number_of_IG_stream_entries indicates the number of streams provided with IG_stream_id entered in STN_table (). In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.
number_of_secondary_audio_stream_entriesは、STN_table()の中でエントリーされる(登録される)secondary_audio_stream_idが与えられるストリーム数を示す。secondary_audio_stream_idは、オーディオストリームを識別するための情報であり、secondary_audio_stream_numberは、オーディオ切り替えに使われる、ユーザから見えるオーディオストリーム番号である。 number_of_secondary_audio_stream_entries indicates the number of streams to which secondary_audio_stream_id entered (registered) in STN_table () is given. secondary_audio_stream_id is information for identifying an audio stream, and secondary_audio_stream_number is an audio stream number that is used for audio switching and is visible to the user.
number_of_secondary_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)secondary_video_stream_idが与えられるストリーム数を示す。secondary_video_stream_idは、ビデオストリームを識別するための情報であり、secondary_video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。 number_of_secondary_video_stream_entries indicates the number of streams to which secondary_video_stream_id entered (registered) in STN_table () is given. secondary_video_stream_id is information for identifying a video stream, and secondary_video_stream_number is a video stream number that is used for video switching and is visible to the user.
そして、number_of_PiP_PG_textST_stream_entries_plusは、STN_table()の中でエントリーされる(登録される)ピクチャインピクチャ用の字幕ストリーム(PiP_PG_textST_stream)のストリーム数を示す。 And number_of_PiP_PG_textST_stream_entries_plus indicates the number of picture-in-picture subtitle streams (PiP_PG_textST_stream) entered (registered) in STN_table ().
プライマリビデオストリームID (primary_video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からprimary_video_stream_idが与えられる。なお、プライマリビデオストリームID(primary_video_stream_id)の代わりに、プライマリビデオストリーム番号(primary_video_stream_number)を用いるようにしてもよい。この場合、primary_video_stream_numberは、0ではなく1から与えられる。すなわち、primary_video_stream_idの値に1を加算したものがprimary_video_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。 In the for loop of the primary video stream ID (primary_video_stream_id), primary_video_stream_id is given from 0 to one video elementary stream that is identified for each stream_entry () in order. Note that the primary video stream number (primary_video_stream_number) may be used instead of the primary video stream ID (primary_video_stream_id). In this case, primary_video_stream_number is given from 1 instead of 0. That is, primary_video_stream_number is obtained by adding 1 to the value of primary_video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.
それぞれのforループの中のstream_entry()については、図17を用いて後述する。 The stream_entry () in each for loop will be described later with reference to FIG.
また、それぞれのforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのエレメンタリストリームのストリーム属性情報が記述されている。stream_attribute()については、図18を用いて後述する。 Also, stream_attribute () in each for loop gives stream attribute information of one elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one elementary stream specified for each stream_entry () is described. The stream_attribute () will be described later with reference to FIG.
また、同様に、プライマリオーディオストリームID (primary_audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からprimary_audio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、プライマリオーディオストリームID(primary_audio_stream_id)の代わりに、プライマリオーディオストリーム番号(primary_audio_stream_number)を用いるようにしてもよい。この場合、primary_audio_stream_numberは、0ではなく1から与えられる。すなわち、primary_audio_stream_idの値に1を加算したものがprimary_audio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。 Similarly, in the for loop of the primary audio stream ID (primary_audio_stream_id), primary_audio_stream_id is given from 0 to one audio elementary stream specified for each stream_entry () in order. As in the case of the video stream, the primary audio stream number (primary_audio_stream_number) may be used instead of the primary audio stream ID (primary_audio_stream_id). In this case, primary_audio_stream_number is given from 1 instead of 0. That is, primary_audio_stream_number is obtained by adding 1 to the value of primary_audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.
同様に、字幕ストリームID (PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。また、PiP_ PG_txtST_streamについても、同様にして、連続したIDが与えられる。ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。 Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). Similarly, consecutive IDs are assigned to PiP_PG_txtST_stream. As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.
同様に、グラフィックスストリームID (IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。 Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is identified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.
また、同様に、セカンダリオーディオストリームID (secondary_audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からsecondary_audio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、セカンダリオーディオストリームID(secondary_audio_stream_id)の代わりに、セカンダリオーディオストリーム番号(secondary_audio_stream_number)を用いるようにしてもよい。この場合、secondary_audio_stream_numberは、0ではなく1から与えられる。すなわち、secondary_audio_stream_idの値に1を加算したものがsecondary_audio_stream_numberである。セカンダリオーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるセカンダリオーディオストリーム番号であるので、1から定義される。 Similarly, in the for loop of the secondary audio stream ID (secondary_audio_stream_id), secondary_audio_stream_id is assigned from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, a secondary audio stream number (secondary_audio_stream_number) may be used instead of the secondary audio stream ID (secondary_audio_stream_id). In this case, secondary_audio_stream_number is given from 1 instead of 0. That is, secondary_audio_stream_number is obtained by adding 1 to the value of secondary_audio_stream_id. The secondary audio stream number is a secondary audio stream number that is used for audio switching and is visible to the user, and is defined from 1.
そして、comb_info_Secondary_audio_Primary_audio()のブロックは、セカンダリオーディオとプライマリオーディオの組み合わせを示す。 A block of comb_info_Secondary_audio_Primary_audio () indicates a combination of secondary audio and primary audio.
comb_info_Secondary_audio_Primary_audio()のブロック内において、number_of_primary_audio_stream_ref_entriesの8ビットのフィールドは、セカンダリオーディオストリームと組み合わせることが出来るプライマリオーディオストリームの数を示す。そして、primary_audio_stream_id_refの8ビットのフィールドは、セカンダリオーディオストリームと組み合わせることが出来るプライマリオーディオストリームのIDを示す。 In the comb_info_Secondary_audio_Primary_audio () block, the 8-bit field of number_of_primary_audio_stream_ref_entries indicates the number of primary audio streams that can be combined with the secondary audio stream. The 8-bit field of primary_audio_stream_id_ref indicates the ID of the primary audio stream that can be combined with the secondary audio stream.
また、同様に、セカンダリビデオストリームID (secondary_video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からsecondary_video_stream_idが与えられる。なお、ビデオストリームの場合と同様に、セカンダリビデオストリームID(secondary_video_stream_id)の代わりに、セカンダリビデオストリーム番号(secondary_video_stream_number)を用いるようにしてもよい。この場合、secondary_video_stream_numberは、0ではなく1から与えられる。すなわち、secondary_video_stream_idの値に1を加算したものがsecondary_video_stream_numberである。セカンダリビデオストリーム番号は、音声切り替えに使われる、ユーザから見えるセカンダリビデオストリーム番号であるので、1から定義される。 Similarly, in the for loop of the secondary video stream ID (secondary_video_stream_id), one audio elementary stream specified for each stream_entry () in order is given secondary_video_stream_id from 0. As in the case of the video stream, a secondary video stream number (secondary_video_stream_number) may be used instead of the secondary video stream ID (secondary_video_stream_id). In this case, secondary_video_stream_number is given from 1 instead of 0. That is, secondary_video_stream_number is obtained by adding 1 to the value of secondary_video_stream_id. The secondary video stream number is a secondary video stream number that is used for audio switching and is visible to the user.
次に、comb_info_Secondary_video_Secondary_audio()のブロックは、セカンダリビデオストリームとセカンダリオーディオストリームの組み合わせを示す。 Next, a block of comb_info_Secondary_video_Secondary_audio () indicates a combination of a secondary video stream and a secondary audio stream.
comb_info_Secondary_video_Secondary_audio()のブロック内において、number_of_Secondary_audio_stream_ref_entriesの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るセカンダリオーディオストリームの数を示す。そして、Secondary_audio_stream_id_refの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るセカンダリオーディオストリームのIDを示す。 In the comb_info_Secondary_video_Secondary_audio () block, an 8-bit field of number_of_Secondary_audio_stream_ref_entries indicates the number of secondary audio streams that can be combined with the secondary video stream. The 8-bit field of Secondary_audio_stream_id_ref indicates the ID of a secondary audio stream that can be combined with the secondary video stream.
そして、comb_info_Secondary_video_PiP_PG_textST()のブロックは、セカンダリビデオストリームとピクチャインピクチャアプリケーション用のPG・テキスト字幕のストリームの組み合わせを示す。 A block of comb_info_Secondary_video_PiP_PG_textST () indicates a combination of a secondary video stream and a PG / text subtitle stream for a picture-in-picture application.
comb_info_Secondary_video_PiP_PG_textST()のブロック内において、number_of_PiP_PG_textST_ref_entriesの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るPIPアプリケーション用のPG・テキスト字幕のストリームの数を示す。また、PiP_PG_textST_stream_id_refの8ビットのフィールドは、セカンダリビデオストリームと組み合わせることが出来るピクチャインピクチャアプリケーション用のPG・テキスト字幕のストリームのIDを示す。 In the comb_info_Secondary_video_PiP_PG_textST () block, the 8-bit field of number_of_PiP_PG_textST_ref_entries indicates the number of PG / text subtitle streams for the PIP application that can be combined with the secondary video stream. Also, the 8-bit field of PiP_PG_textST_stream_id_ref indicates the ID of the PG / text subtitle stream for the picture-in-picture application that can be combined with the secondary video stream.
このようなSTN_tableを用いることにより、プライマリビデオストリームと同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリーム(PG TextSTストリーム)の組み合わせに加えて、ピクチャインピクチャアプリケーション用のPG・テキスト字幕ストリーム(PiP PG TextSTストリーム)の組み合わせとして矛盾するような組み合わせを選択することを防ぐようにすることができる。 By using such STN_table, in addition to a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream (PG TextST stream) that can be played back simultaneously with the primary video stream, for a picture-in-picture application It is possible to prevent a conflicting combination from being selected as a combination of the PG / text subtitle stream (PiP PG TextST stream).
図17は、Stream_entry()のシンタクスを示す図である。 FIG. 17 is a diagram illustrating the syntax of Stream_entry ().
type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。 In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.
type=2では、SubPathが一度に複数個のClipsを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。 In type = 2, when SubPath refers to multiple Clips at a time and each Clip multiplexes multiple elementary streams, multiple elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.
このように、type(type1とtype2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。
As described above, when a type (two types of
そして、type=3は、対応するPlayItemにおいて、MainClipに含まれ、SubPathによって参照されるエレメンタリストリームを識別するためのものである。 Type = 3 is for identifying the elementary stream included in the MainClip and referenced by the SubPath in the corresponding PlayItem.
すなわち、type=3では、SubPathがMainPathと同じClipを参照し、換言すれば、MainClipに複数のエレメンタリストリームが多重化され、MainPathとSubPathとのいずれも、MainClipに多重化されているエレメンタリストリームのうちのいずれかを参照している場合に、MainClipの複数のエレメンタリストリームの中から、SubPathによって参照される1つのエレメンタリストリームを再生時に特定するために、ref_to_stream_PID_of_MainClipにより、MainClipのパケットID(PID)が指定される。また、ref_to_SubPath_idによりSubPath_idが示され、このSubPath_idにより図9のPlayList()で定義されたSubPathが特定され、このSubpathから対応するSubPlayItem(図28)が呼び出されることにより、エレメンタリストリームの再生時間(IN_time, OUT_time)等を把握することができるようになされている。 That is, when type = 3, SubPath refers to the same Clip as MainPath, in other words, a plurality of elementary streams are multiplexed on MainClip, and both MainPath and SubPath are multiplexed on MainClip. When referring to any of the streams, the Ref_to_stream_PID_of_MainClip is used to specify one elementary stream referenced by the SubPath from among the multiple elementary streams of the MainClip. (PID) is specified. Also, SubPath_id is indicated by ref_to_SubPath_id, the SubPath defined in PlayList () in FIG. 9 is specified by this SubPath_id, and the corresponding SubPlayItem (FIG. 28) is called from this Subpath, so that the elementary stream playback time ( IN_time, OUT_time) etc. can be grasped.
なお、type=3、すなわち、MainClipに複数のエレメンタリストリームが多重化され、MainPathとSubPathとのいずれも、MainClipに多重化されているエレメンタリストリームのうちのいずれかを参照するのは、図27を用いて後述するSubPath_typeが、SubPath_type =7である場合である。 It should be noted that type = 3, that is, a plurality of elementary streams are multiplexed on the MainClip, and both the MainPath and SubPath refer to any of the elementary streams multiplexed on the MainClip. This is a case where SubPath_type, which will be described later with reference to No. 27, is SubPath_type = 7.
このように、type(type1乃至type3の3つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipが、さらに、SubPathから参照されている場合であっても、Clipの中から1つのエレメンタリストリームを特定することができる。
As described above, when a type (three types of
次に、stream_attribute()のシンタクスについて図18を参照して説明する。 Next, the syntax of stream_attribute () will be described with reference to FIG.
lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。 The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().
stream_coding_typeは、図19に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream、HDMV LPCM audio、Dolby AC-3 audio、dts audio、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。なお、このstream_coding_typeを拡張し、MPEG−4 AVC、VC−1等の他のコーディックにより圧縮されたビデオストリームを扱えるようにしてもよい。 The stream_coding_type indicates the encoding type of the elementary stream as shown in FIG. As encoding types of elementary streams, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, and Text subtitle stream are described. Note that this stream_coding_type may be extended so that a video stream compressed by another codec such as MPEG-4 AVC or VC-1 can be handled.
video_formatは、図20に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。 video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.
frame_rateは、図21に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。 frame_rate indicates the frame rate of the video elementary stream, as shown in FIG. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.
aspect_ratioは、図22に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。 The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.
audio_presentation_typeは、図23に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。 audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.
sampling_frequencyは、図24に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。 Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.
audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).
PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.
IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.
textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.
character_codeは、図25に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。
Character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including
以下に、図18のstream_attribute()のシンタクスについて、図18と、図19乃至図25を用いて具体的な例を説明する。 A specific example of the syntax of stream_attribute () in FIG. 18 will be described below with reference to FIGS. 18 and 19 to 25.
エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がMPEG-2 video stream(図19)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図20)、フレームレート(図21)、およびアスペクト比情報(図22)が含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is an MPEG-2 video stream (FIG. 19), the stream_attribute () includes the video format (FIG. 20) and frame rate (FIG. 21) of the elementary stream. ), And aspect ratio information (FIG. 22).
エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がHDMV LPCM audio、Dolby AC-3 audio、またはdts audio(図19)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図23)、サンプリング周波数(図24)、および言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is HDMV LPCM audio, Dolby AC-3 audio, or dts audio (FIG. 19), the stream_attribute () includes the presentation type information of the audio elementary stream. (FIG. 23), sampling frequency (FIG. 24), and language code are included.
エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がPresentation graphics stream(図19)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is a Presentation graphics stream (FIG. 19), stream_attribute () includes the language code of the bitmap subtitle elementary stream.
エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がInteractive graphics stream(図19)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is Interactive graphics stream (FIG. 19), stream_attribute () includes the language code of the interactive graphics elementary stream.
エレメンタリストリームの符号化タイプ(図18のstream_coding_type)がText subtitle stream(図19)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図25)、言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 18) is a Text subtitle stream (FIG. 19), stream_attribute () includes the character code (FIG. 25) and language code of the text subtitle elementary stream. .
なお、これらの属性情報はこれに限定されない。 Note that the attribute information is not limited to this.
このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定されたエレメンタリストリーム(type=1とtype=2の場合は1つ、type=3の場合は2つ)の属性情報をstream_attribute()によって知ることができる。 As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of the identified elementary stream (one if type = 1 and type = 2, two if type = 3) can be known by stream_attribute ().
再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。 By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.
例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。 For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).
また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザが副音声(すなわちSecondary audio)への切り替えまたは、主音声と副音声とのミキシング再生を指示した場合、再生装置は、副音声として用意されているオーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。 Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback device to switch to the secondary audio (ie, secondary audio) or to mix and play the main audio and the secondary audio, the playback device uses the audio stream ID ( Only audio elementary streams whose language code is Japanese are sequentially selected from the for loop of (Audio stream id) and played.
さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、サブパスにより参照されるオーディオストリーム(監督や出演者によるコメント)とのミキシング再生が指令された場合、再生装置は、メインパスにより参照される1stオーディオストリームに、さらに、サブパスにより参照される2ndオーディオストリームをミキシング(重畳)して、ビデオストリームとともに再生する。 Further, for example, when an AV stream (movie) composed of a video stream and an audio stream, which is referred to by the main path, is reproduced, the user instructs the playback apparatus to switch the audio, and the audio stream which is referred to by the sub path. When mixing playback with (comment by a director or a performer) is instructed, the playback device further mixes (superimposes) the 2nd audio stream referenced by the sub path on the 1st audio stream referenced by the main path. Play with the video stream.
また、例えば、ユーザが音声の切り替えを指令し、2つのサブパスにより参照される2つのオーディオストリームのミキシング再生が再生装置に対して指令された場合(図16と図17のシンタクスが用いられ、図17のtypeがともに2とされているオーディオストリームIDに対応するオーディオストリームの再生が指令された場合)、再生装置は、2つのサブパスによりそれぞれ参照される2つのオーディオストリームをミキシング(重畳)して、ビデオストリームとともに再生する。 Also, for example, when the user commands switching of audio and mixing playback of two audio streams referenced by two subpaths is commanded to the playback device (the syntaxes of FIGS. 16 and 17 are used, FIG. When the reproduction of the audio stream corresponding to the audio stream ID in which the 17 type is both 2 is instructed), the reproducing device mixes (superimposes) the two audio streams respectively referred to by the two sub paths. Play with the video stream.
このようにして、PlayItem()の中にSTN_table()を設けることにより、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作により、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から再生されるストリームを選ぶことができる仕組みが提供されるので、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。 In this way, by providing STN_table () in PlayItem (), when PlayItem and one or more SubPaths to be played back are prepared, operations such as audio switching and subtitle switching by the user Provides a mechanism for selecting a stream to be played back from the Clip referenced by this PlayItem and the Clip referenced by one or more SubPaths, so that a stream or data file different from the AV stream to be played back can be selected. Even interactive operations can be performed.
図26は、SubPath()のシンタクスを示す図である。 FIG. 26 is a diagram illustrating the syntax of SubPath ().
lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからSubPath()の最後までのバイト数を示すフィールドである。このlengthの後には、8ビットのreserved_for_future_useが用意される。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeの例については、図27を参照して後述する。 length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of SubPath (). After this length, 8-bit reserved_for_future_use is prepared. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. An example of this SubPath_type will be described later with reference to FIG.
SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipに含まれるストリームとの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。 15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that designates the SubPath playback method, and indicates whether the SubPath playback is repeated during the main path playback or the SubPath playback is performed only once. For example, when the playback timing of the main AV stream and the stream included in the clip specified by the sub path are different (when the main path is a still image slide show and the sub path audio path is used as the BGM (background music) of the main path ).
Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図6のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。 8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 in FIG. 6 and two SubPlayItems with SubPath_id = 1. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.
図27は、SubPath_type(サブパスのタイプ)の例を説明する図である。 FIG. 27 is a diagram illustrating an example of SubPath_type (subpath type).
なお、「Out-of-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照されるESが含まれるTSとが異なっている場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるプレイアイテムが含まれるTSに多重化されていないサブパスのタイプ(種類)であることを示している。以下、かかる種類を、メインパスTS非多重型のパスと称する。 Note that the description “Out-of-mux” is a subpath type (kind) when a TS including an ES referred to in a subpath is different from a TS including an ES referred to in a main path. That is, the ES referred to in the sub path indicates that the sub path type is not multiplexed in the TS including the play item referred to in the main path. Hereinafter, this type is referred to as a main path TS non-multiplex type path.
そして、「In-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照される1以上のESが含まれるTSとが同一の場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるESを含むTSに多重化されているサブパスのタイプ(種類)であることを示している。換言すれば、メインクリップに含まれるメインTSに、メインのClip AVストリームと、サブのClip AVストリームとが含まれている状態である。以下、かかる種類を、メインパスTS多重型のパスと称する。 The description “In-mux” is a subpath type (kind) in the case where a TS including an ES referred to in a subpath and a TS including one or more ES referred to in a main path are the same. That is, it is indicated that the ES referred to in the subpath is the type (type) of the subpath multiplexed in the TS including the ES referred to in the main path. In other words, the main TS included in the main clip includes the main Clip AV stream and the sub Clip AV stream. Hereinafter, this type is referred to as a main path TS multiplexing type path.
また、メインパスで参照されるESとサブパスで参照されるESとが非同期である場合、そのサブパスのタイプ(種類)を、以下、非同期型のパスと称する。一方、メインパスで参照されるESとサブパスで参照されるESとが同期する場合、そのサブパスのタイプ(種類)を、以下、同期型のパスと称する。 In addition, when the ES referred to in the main path and the ES referred to in the sub path are asynchronous, the type (kind) of the sub path is hereinafter referred to as an asynchronous path. On the other hand, when the ES referenced in the main path and the ES referenced in the sub path are synchronized, the type (kind) of the sub path is hereinafter referred to as a synchronous path.
SubPath_type=0,1は、reservedとされている。 SubPath_type = 0 and 1 are reserved.
SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期である(非同期型のパスである)ことを示している。 SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 is a main path TS non-multiplexed type path, and in the playlist, the audio presentation path referenced by the sub path and the main path referenced by the play item are asynchronous (asynchronous type). Pass).
SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期(非同期型のパスである)であることを示している。 SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 is a main path TS non-multiplex type path, and an interactive graphics menu referenced by a sub path and a main path referenced by a play item are asynchronous (asynchronous type) in a playlist. This is a path of
SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、メインパスTS非多重型のパスであり、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期している(同期型のパスである)ことを示している。 SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 is a main path TS non-multiplex type path, and in the playlist, the text subtitle presentation path referred to by the sub path and the main path referred to by the play item are synchronized. (This is a synchronous path).
SubPath_type=5は、Out-of-mux and AV Synchronized type of one or more elementary streams path(Primary audio/PG/IG/Secondary audio path).Out of mux and AV synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=5は、メインパスTS非多重型、かつ、同期型のパスであって、1本以上のES(Primary audio/PG/IG/Secondary audio)のパスや、ピクチャインピクチャプレゼンテーションパスとされている。 SubPath_type = 5 is Out-of-mux and AV Synchronized type of one or more elementary streams path (Primary audio / PG / IG / Secondary audio path) .Out of mux and AV synchronized type of Picture-in-Picture presentation path which Contains one or more elementary streams paths. In other words, SubPath_type = 5 is a main path TS non-multiplexed and synchronous path, and includes one or more ES (Primary audio / PG / IG / Secondary audio) paths, picture-in-picture presentation paths, and so on. Has been.
ここで、ピクチャインピクチャプレゼンテーションパスとは、ピクチャインピクチャ手法において、所定のプライマリビデオストリーム(メインパスで参照されるビデオストリーム)に対応して再生される、プライマリオーディオストリームストリーム、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームのうちの1以上のパス(そのようなサブパスのタイプ)であることをいう。 Here, the picture-in-picture presentation path refers to a primary audio stream, a secondary video stream, and a secondary that are played back corresponding to a predetermined primary video stream (a video stream referred to in the main path) in the picture-in-picture method. It means one or more paths (types of such sub paths) of the audio stream and the subtitle stream.
SubPath_type=6は、Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=6は、メインパスTS非多重型、かつ、非同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。 SubPath_type = 6 is Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths. That is, SubPath_type = 6 is a main path TS non-multiplexed and asynchronous path, and is a picture-in-picture presentation path (one or more ES paths).
SubPath_type=7は、In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。 SubPath_type = 7 is In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths.
即ち、SubPath_type=7は、メインパスTS多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。 That is, SubPath_type = 7 is a main path TS multiplexing type and synchronous type path, which is a picture-in-picture presentation path (one or more ES paths).
そして、SubPath_type=8乃至255は予備(reserved)とされている。 SubPath_type = 8 to 255 is reserved.
図28は、SubPlayItem(i)のシンタクスを示す図である。 FIG. 28 is a diagram illustrating the syntax of SubPlayItem (i).
lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。 The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().
図28においては、SubPlayItemが1つのClip を参照する場合と、複数のClip を参照する場合に分けられている。 In FIG. 28, there are a case where SubPlayItem refers to one Clip and a case where it refers to a plurality of Clips.
最初に、SubPlayItemが1つのClipを参照する場合について説明する。 First, a case where SubPlayItem refers to one Clip will be described.
SubPlayItemには、Clipを指定するためのClip_Information_file_ name[0]が含まれる。また、Clipのコーディック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。 SubPlayItem includes Clip_Information_file_name [0] for specifying Clip. Also, Clip_codec_identifier [0] that specifies the codec system of Clip, reserved_for_future_use, is_multi_Clip_entries that indicates the presence / absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts to be played on the time axis of the main path.
このsync_PlayItem_id と sync_start_PTS_of_PlayItemは、上述したように、図6と図7の場合(メインAVストリームとサブパスにより示されるファイルに含まれるストリームの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルに含まれるストリームの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。 As described above, the sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 6 and 7 (when the playback timing of the stream included in the file indicated by the main AV stream and the sub path is the same), and the main AV stream and the sub path are used. When the playback timings of the streams included in the file indicated by are different (for example, when the still image referenced by the main path and the audio referenced by the sub path are not synchronized, such as BGM of a slide show composed of still images) ) Is not used. Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.
次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図7に示されるように、SubPlayItemが複数のClip を参照する場合を示す。 Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 7, a case where SubPlayItem refers to a plurality of Clips is shown.
num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーディック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。 num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec system of Clip, ref_to_STC_id [SubClip_entry_id] that is information on STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.
なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図7の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。 Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 7, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is timeSubPlayItem_id Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.
ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。 Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.
次に、図29は、図8乃至図28を用いて説明したデータ構造を有するデータ、すなわち、上述したメインパスとサブパスを有するPlayListを再生する再生装置1の構成を示すブロック図である。
Next, FIG. 29 is a block diagram showing the configuration of the
コントローラ21は、予め用意されている制御プログラムを実行するか、または、ストレージドライブ22を制御して、例えば、光ディスクなどの記録媒体11に記録されている、または、ローカルストレージ24に記録されているナビゲーションプログラムを読み出し、メモリ23に展開して実行することで、再生装置1の全体の動作を制御する。例えば、コントローラ21は、記録媒体11が装着されたとき、または、所定の操作入力を受けた場合、所定のメニュー画面(GUI表示画面)を外部の表示装置に表示させることができる。
The
すなわち、コントローラ21は、光ディスクなどの記録媒体11、または、ローカルストレージ24に再生されるコンテンツ(PlayListおよびAVストリームなどで構成されたコンテンツ)とともに記録されているメニュー画面(GUI表示画面)の表示を制御するのみならず、記録媒体11、または、ローカルストレージ24に再生されるコンテンツのデータを基に、GUI表示画面に対応するデータを生成して、外部の表示装置に表示させることも可能である。コントローラ21により、GUI表示画面に対応するデータが生成されて、OSD30が制御され、表示画面に生成されたGUI表示画面を重畳させて表示させる処理についての詳細は、後述する。
That is, the
ストレージドライブ22は、コントローラ21による制御に従って記録媒体11からデータを読み出し、読み出したデータを、コントローラ21、メモリ23、または、AVデコーダ部26に出力する。記録媒体11から読み出された情報が、ナビゲーションプログラムやPlayListなどであった場合、ストレージドライブ22により読み出された情報は、コントローラ21、または、メモリ23に出力される。記録媒体11から読み出された情報が、AVストリームやテキストデータであった場合、ストレージドライブ22により読み出された情報は、AVデコーダ部26に出力される。
The
メモリ23は、コントローラ21が各種の処理を実行する上において必要なデータなどを適宜記憶する。さらに、メモリ23の記憶領域の一部には、再生装置1の再生処理において必要な情報が設定される各種のレジスタが設けられている。ローカルストレージ24は、例えば、HDD(Hard Disk Drive)などより構成される。
The
インターネットインタフェース25は、有線または無線によりネットワーク2に接続されており、コントローラ21からの制御に従って、ネットワーク2を介して、サーバ3との間で通信を行い、サーバ3からダウンロードされたデータをローカルストレージ24に供給する。サーバ3からは、例えば、そのとき再生装置1に装着されている記録媒体11に記録されている、図4を用いて説明したデータをアップデートさせるデータがコンテンツとしてダウンロードされる。ローカルストレージ24は、サーバ3からネットワーク2経由でダウンロードしたコンテンツを記録することができる。
The
AVデコーダ部26は、ストレージドライブ22、または、ローカルストレージ24から供給されるAVストリーム、または、テキストデータをデコードし、得られたビデオ信号をOSD(On Screen Display)30に供給するとともに、オーディオ信号を外部の表示装置に出力する。
The
OSD30は、コントローラ21の制御に基づいて、供給されたビデオ信号を外部の表示装置に出力するか、または、供給されたビデオ信号に所定のメニュー画面(GUI表示画面)のデータを重畳して、生成された画像信号を、外部の表示装置に出力する。
Based on the control of the
表示装置においては、AVデコーダ部26によりデコードされた信号に基づいて、例えば、記録媒体11に記録されているコンテンツの出力(映像の表示、音声の出力)が行われる。
In the display device, based on the signal decoded by the
操作入力部29は、例えば、ボタン、キー、タッチパネル、ジョグダイヤル、マウスなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成され、ユーザの操作入力を取得し、コントローラ21に供給する。
The
また、コントローラ21には、必要に応じてドライブ27も接続されており、ドライブ27には、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVDを含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア28が装着される。
In addition, a
最初に、コントローラ21がストレージドライブ22を介して、HDD、Blu−ray Disc(商標)、またはDVDなどの記録媒体11から、または、ローカルストレージ24から、PlayListファイルを読み出し、PlayListファイルの情報に基づいて、必要に応じて、GUI表示画面に対応するデータを生成するとともに、ストレージドライブ22を介して、HDD、Blu−ray Disc(商標)、またはDVDなどの記録媒体11から、または、ローカルストレージ24から、AVストリームやAVデータを読み出す。ユーザは、操作入力部29を用いて、コントローラ21に対し、音声や字幕などの切り替えの指令や、GUI表示画面の表示の指令などを行うことができる。また、コントローラ21は、メモリ23のレジスタに登録されている、例えば、再生装置1の言語設定の初期情報などの各種設定情報を読み込む。
First, the
PlayListファイルには、Main Path、Sub Pathの情報の他、上述したSTN_table()が含まれている。コントローラ21は、PlayListファイルに含まれるPlayItemが参照するメインClip AVストリームファイル、SubPlayItemが参照するサブClip AVストリームファイル、およびSubPlayItemが参照するテキストサブタイトルデータを、ストレージドライブ22を介して記録媒体11から、または、ローカルストレージ24から読み出す。ここで、PlayItemが参照するメインClip AVストリームファイルとSubPlayItemが参照するサブClip AVストリームファイルとが、異なる記録媒体に記録されていてもよい。例えば、メインClip AVストリームファイルが記録媒体11に記録されており、対応するサブClip AVストリームファイルは図示せぬネットワーク2を介して供給され、HDDなどのローカルストレージ24に記憶されたものであってもよい。また、逆に、メインClip AVストリームファイルがHDDなどのローカルストレージ24に記憶されたものであり、サブClip AVストリームファイルが記録媒体11に記録されていてもよい。
The PlayList file includes the above-described STN_table () in addition to the information on Main Path and Sub Path. The
また、コントローラ21は、メモリ23のレジスタに登録されている各種設定情報を参照して、自分自身(再生装置1)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置1の言語設定の初期情報に対応するエレメンタリストリームを選択し、再生するよう制御する。
In addition, the
図30は、図29の再生装置1のAVデコーダ部26の構成例を示すブロック図である。
FIG. 30 is a block diagram illustrating a configuration example of the
AVデコーダ部26には、スイッチ32、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57乃至59、PIDフィルタ60、バックグラウンドデコーダ71、1stビデオデコーダ72−1、2ndビデオデコーダ72−2、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、プリロードバッファ81、バックグラウンドプレーン生成部91、1stビデオプレーン生成部92−1、2ndビデオプレーン生成部92−2、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、およびミキシング処理部101が設けられている。
The
1stビデオデコーダ72−1と2ndビデオデコーダ72−2は、ともにビデオストリームをデコードする。基本的には、STN_table()において、primary_video_stream_idで与えられるビデオストリームをデコードするためのものが1stビデオデコーダ72−1であり、Secondary_video_stream_idで与えられるビデオストリームをデコードするためのものが2ndビデオデコーダ72−2である。すなわち、再生装置1は、2つのビデオストリームをデコードするために、2つのビデオデコーダ(1stビデオデコーダ72−1、2ndビデオデコーダ72−2)を有している。また、1stビデオデコーダ72−1は、2ndビデオデコーダ72−2よりも優先的に使用されるビデオデコーダであるものとすることもできる。すなわち、デコードするビデオストリームが1つしかない場合、そのビデオストリームがメインClip AVストリームファイルに含まれるビデオストリームであっても、サブClip AVストリームファイルに含まれるビデオストリームであっても、1stビデオデコーダ72−1でデコードされるようにしてもよい。なお、以下において、1stビデオデコーダ72−1と2ndビデオデコーダ72−2とを個々に区別しない場合、ビデオデコーダ72と称する。
Both the 1st video decoder 72-1 and the 2nd video decoder 72-2 decode the video stream. Basically, in STN_table (), the 1st video decoder 72-1 is for decoding the video stream given by primary_video_stream_id, and the 2nd video decoder 72-is for decoding the video stream given by Secondary_video_stream_id. 2. That is, the
また、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2も、ともにオーディオストリームをデコードする。基本的には、STN_table()において、primary_audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、Secondary_audio_stream_idで与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。すなわち、再生装置1は、2つのオーディオストリームをデコードするために、2つのオーディオデコーダ(1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2)を有している。また、1stオーディオデコーダ75−1は、2ndオーディオデコーダ75−2よりも優先的に使用されるオーディオデコーダであるものとすることもできる。すなわち、デコードするオーディオストリームが1つしかない場合、そのオーディオストリームがメインClip AVストリームファイルに含まれるオーディオストリームであっても、サブClip AVストリームファイルに含まれるオーディオストリームであっても、1stオーディオデコーダ75−1でデコードされるようにしてもよい。なお、以下において、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2とを個々に区別しない場合、オーディオデコーダ75と称する。
Both the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 also decode the audio stream. Basically, in STN_table (), the one for decoding the audio stream given by primary_audio_stream_id is the 1st audio decoder 75-1, and the one for decoding the audio stream given by Secondary_audio_stream_id is the 2nd audio decoder 75-. 2. That is, the
コントローラ21により読み出されたファイルデータは、図示せぬ復調、ECC復号部により、復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ21からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ21からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClip AVストリームファイルのデータをバッファ52に供給し、サブClipのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。
The file data read by the
バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AVストリームファイルのデータをバッファリングし、バッファ53は、サブClip AVストリームファイルのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。
The
メインClip AVストリームファイルは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClip AVストリームファイルは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスとのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。 The main Clip AV stream file is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub-Clip AV stream file is a stream obtained by multiplexing one or more streams of video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.
また、メインClip AVストリームファイルとサブClip AVストリームファイルおよびテキストサブタイトルデータを、ストレージドライブ22(記録媒体11)またはローカルストレージ24から読み出すときに、それぞれのファイルを時分割に交互に読み出しても良いし、または、メインClipを読み出す前に、サブClip AVストリームファイルやテキストサブタイトルデータを予め読み出しておき、先行してバッファ(バッファ53またはバッファ54)へプリロードしてもよい。
Further, when the main clip AV stream file, the sub clip AV stream file, and the text subtitle data are read from the storage drive 22 (recording medium 11) or the
そして、メインClip AVストリームファイル用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClip AVストリームファイルをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームを1stビデオデコーダ72−1と2ndビデオデコーダ72−2への供給元となるPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。
Then, the stream data read from the
なお、プレゼンテーショングラフィックスストリームは、上述したように、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、上述したように、例えば、テキスト字幕データである。 The presentation graphics stream is, for example, bitmap subtitle data as described above, and the text subtitle data is, for example, text subtitle data as described above.
サブClip AVストリームファイル用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClip AVストリームファイルをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、ビデオストリームを1stビデオデコーダ72−1と2ndビデオデコーダ72−2への供給元となるPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。
The stream data read from the
また、PIDフィルタ60には、メインClip AV Streamのビデオストリーム、または、サブClip AV Streamのビデオストリームが、PIDフィルタ55またはPIDフィルタ56を介して入力されてくる。そこで、PIDフィルタ60は、入力されたビデオストリームを、そのPID(パケットID)に応じて、後段の1stビデオデコーダ72−1または2ndビデオデコーダ72−2に振り分けて出力する。即ち、PIDフィルタ60は、プライマリビデオストリームが入力された場合には、そのプライマリビデオストリームを1stビデオデコーダ72−1に供給する。これに対して、PIDフィルタ60は、セカンダリビデオストリームが入力された場合には、そのセカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。
Also, the main Clip AV Stream video stream or the sub Clip AV Stream video stream is input to the
なお、ここでは、プライマリビデオストリームとして、メインClip AV Streamのビデオストリームのみが利用され、サブClip AV Streamのビデオストリームは利用されないとされている。ただし、将来、サブClip AV Streamのビデオストリームもプライマリビデオストリームとして利用され得ることも考慮して、PIDフィルタ56から供給されたサブClip AV Streamのビデオストリームも1stビデオデコーダ72に供給され得るように、PIDフィルタ60が構成されている。すなわち、Subpathにより指定されたサブClipに含まれるビデオストリームのみを再生し、ビデオストリームの再生にメインClipを使わず、オーディオストリームの再生は、サブClip、もしくは、メインClipを用いる場合である。
Here, only the main clip AV stream video stream is used as the primary video stream, and the sub clip AV stream video stream is not used. However, the sub-Clip AV Stream video stream supplied from the
バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。
Data read from the
1stビデオデコーダ72−1は、ビデオストリームをデコードし、デコードしたビデオデータを1stビデオプレーン生成部92−1へ出力する。2ndビデオデコーダ72−2は、ビデオストリームをデコードし、デコードしたビデオデータを2ndビデオプレーン生成部92−2へ出力する。 The 1st video decoder 72-1 decodes the video stream and outputs the decoded video data to the 1st video plane generating unit 92-1. The 2nd video decoder 72-2 decodes the video stream and outputs the decoded video data to the 2nd video plane generating unit 92-2.
スイッチ57は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるプレゼンテーショングラフィックスストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。
The
また、スイッチ58は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるインタラクティブグラフィックスストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、プリロードバッファ81に供給する。
The switch 58 also selects one of the interactive graphics stream included in the main Clip AV stream file supplied from the
プリロード用バッファ81は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームを一時記憶する。例えば、再生装置1が、一度に2つのTS(Transport stream)しか読み出せないという制限が課せられている場合などにおいて、再生装置1は、インタラクティブグラフィックスストリームを予め取得しておくことで(プリロードしておくことで)、ビデオストリームやオーディオストリームを再生するときに、プリロードしておいたインタラクティブグラフィックスストリームも同時再生することができる、といった機能を有している。かかる機能を実現するために、即ち、プリロードされたインタラクティブグラフィックスストリームを、ビデオストリームやオーディオストリームが再生されるタイミングまで保存しておくために、プリロード用バッファ81が設けられているのである。
The preload buffer 81 temporarily stores the interactive graphics stream supplied from the
プリロード用バッファ81に蓄積されたデコード済みのインタラクティブグラフィックスストリームは、所定のタイミングでインタラクティブグラフィックスプレーン生成部94に供給される。 The decoded interactive graphics stream stored in the preload buffer 81 is supplied to the interactive graphics plane generating unit 94 at a predetermined timing.
さらに、スイッチ59は、PIDフィルタ55から供給されたメインClip AVストリームファイルに含まれるオーディオストリームと、PIDフィルタ56から供給されたサブClip AVストリームファイルに含まれるオーディオストリームを、後段の1stオーディオデコーダ75−1、または、2ndオーディオデコーダ75−2に供給する。具体的には、スイッチ59は、stream_entry()のtypeの値によって、その選択を切り替える。
Further, the
1stオーディオデコーダ75−1は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。また、2ndオーディオデコーダ75−2は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。
The 1st audio decoder 75-1 decodes the audio stream and supplies the decoded audio stream data to the mixing
ここで、2つのオーディオストリームを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたオーディオストリームとが、ミキシング処理部101に供給される。
Here, when two audio streams are superimposed and reproduced, the audio stream decoded by the 1st audio decoder 75-1 and the audio stream decoded by the 2nd audio decoder 75-2 are mixed into the mixing
例えば、メインパスで参照される1stオーディオストリームとサブパスで参照される2ndオーディオストリームとを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたメインClip AVストリームファイルのオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたサブClip AVストリームファイルのオーディオストリームとが、ミキシング処理部101に供給される。
For example, when the 1st audio stream referred to in the main path and the 2nd audio stream referred to in the sub path are superimposed and reproduced, the audio stream of the main Clip AV stream file decoded by the 1st audio decoder 75-1 The audio stream of the sub Clip AV stream file decoded by the 2nd audio decoder 75-2 is supplied to the mixing
また、例えば、サブパスで参照される2本のオーディオストリームを重畳して再生するような場合、1stオーディオデコーダ75−1によりデコードされたサブClip AVストリームファイルのオーディオストリームと、2ndオーディオデコーダ75−2によりデコードされたサブClip AVストリームファイルのオーディオストリームとが、ミキシング処理部101に供給される。
Further, for example, when two audio streams referenced in the sub path are superimposed and reproduced, the audio stream of the sub Clip AV stream file decoded by the 1st audio decoder 75-1 and the 2nd audio decoder 75-2. The audio stream of the sub-Clip AV stream file decoded by the above is supplied to the mixing
ミキシング処理部101は、1stオーディオデコーダ75−1からのオーディオデータと、2ndオーディオデコーダ75−2からのオーディオデータとをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオデータと2ndオーディオデコーダ75−2から出力されるオーディオデータとをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。
The mixing
また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、例えば、メニュー選択などによる効果音のデータなどである。ミキシング処理部97は、ミキシング処理部101によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、音声信号として出力する。
The sound data selected by the
テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。
The data read from the
スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン生成部93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClip AVストリームファイルまたはサブClip AVストリームファイルのいずれかから分離されたストリームである。したがって、プレゼンテーショングラフィックスプレーン生成部93へ同時に出力される字幕画像は、メインClip AVストリームファイルからのプレゼンテーショングラフィックスストリーム、またはサブClip AVストリームファイルからのからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。
The
バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合や、ストリーム再生中以外に後述するGUI表示画面を表示する場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。
Based on the background image data supplied from the
1stビデオプレーン生成部92−1は、1stビデオデコーダ72−1から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。2ndビデオプレーン生成部92−2は、2ndビデオデコーダ72−2から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。
The 1st video plane generating unit 92-1 generates a video plane based on the video data supplied from the 1st video decoder 72-1, and supplies this to the video
プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。
The presentation graphics plane generation unit 93 generates, for example, a presentation graphics plane which is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the
インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。
The interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the
ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、1stビデオプレーン生成部92−1からのビデオプレーン、2ndビデオプレーン生成部92−2からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。
The video
なお、ビデオデータ処理部96は、ピクチャインピクチャ表示が行われる場合、すなわち、1stビデオプレーン生成部92−1からのビデオプレーン、および、2ndビデオプレーン生成部92−2からのビデオプレーンの両方の入力を受けるとき、メイン画面(親画面)の中に、サブ画面(子画面)を有するピクチャインピクチャ表示画面(図31を用いて後述する)を生成する。
Note that the video
また、これらのスイッチ57乃至59、並びにスイッチ77は、操作入力部29を介するユーザからの選択に基づいて、または、対象となるデータが含まれるファイルが供給される側に、スイッチを切り替える。例えば、サブClip AVストリームファイルのみにしか、オーディオストリームが含まれていない場合、スイッチ59はサブClip AVストリームファイルを供給する側(PIDフィルタ56の出力)にスイッチを切り替える。
The
次に、再生装置1における再生処理について説明する。操作入力部29を用いてユーザにより所定のAVストリームの再生が指令されたとき、コントローラ21は、ストレージドライブ22を介して記録媒体11から、または、HDD(Hard Disk Drive)などで構成されるローカルストレージ24から、PlayListファイルに含まれるPlayList(PlayListに含まれるPlayItemおよびSubPlayItem)に基づいて、メインClip AVストリーム、サブClip AVストリーム、およびテキストサブタイトルデータ(Text-STデータ)を読み出して、AVデコーダ部26に供給する。
Next, playback processing in the
コントローラ21は、バックグラウンドイメージデータをバッファ51に供給し、メインClip AVストリームのデータをバッファ52に供給し、サブClip AVストリームのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。
The
そして、スイッチ32が切り替えられて、バックグラウンドイメージデータはバッファ51に供給され、メインClip AVストリームのデータはバッファ52に供給され、サブClip AVストリームのデータはバッファ53に供給され、テキストサブタイトルデータはバッファ54に供給され、各バッファ51乃至54は、供給されたデータをそれぞれバッファリングする。
Then, the
そして、バッファ51は、バックグラウンドイメージデータをバックグラウンドデコーダ71に出力し、バッファ52はメインClip AVストリームのストリームデータをPIDフィルタ55に出力し、バッファ54は、テキストサブタイトルデータをテキストサブタイトルコンポジション76に出力し、バッファ53は、サブClip AVストリームのストリームデータをPIDフィルタ56に出力する。
The
PIDフィルタ55は、ビデオストリームをPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームをスイッチ59に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞれ異なるPIDが付されている。
The
そして、PIDフィルタ56は、ビデオストリームをPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームをスイッチ59に供給する。
Then, the
PIDフィルタ60は、プライマリビデオストリームが入力された場合には、そのプライマリビデオストリームを1stビデオデコーダ72−1に供給する。これに対して、PIDフィルタ60は、セカンダリビデオストリームが入力された場合には、そのセカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。
When the primary video stream is input, the
そして、PIDフィルタ55およびPIDフィルタ56の後段のスイッチ57、および、スイッチ58は、コントローラ21からの制御に基づいて、メインClipとサブClipのいずれかを選択する。すなわち、スイッチ57は、PIDフィルタ55から供給されたメインClip AVストリームまたはサブClip AVストリームのプレゼンテーショングラフィックスストリームを選択し、後段のプレゼンテーショングラフィックスデコーダ73に供給する。また、スイッチ58は、PIDフィルタ55から供給されたメインClip AVストリームまたはサブClip AVストリームのインタラクティブグラフィックスストリームを選択し、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。
Then, the
さらに、スイッチ59は、オーディオの合成が行われない場合、PIDフィルタ55から供給されたメインClip AVストリーム、または、PIDフィルタ56から供給されたサブClip AVストリームのオーディオストリームのうちのいずれかを選択し、後段の1stオーディオデコーダ75−1に供給する。なお、音声を切り替えるような指令や、音声を合成するような指令がユーザにより行われた場合には、スイッチ59は、メインClip AVストリームのオーディオストリームを2ndオーディオデコーダ75−2に供給したり、サブClip AVストリームのオーディオストリームを1stオーディオデコーダ75−1や2ndオーディオデコーダ75−2に供給する。
Further, when audio synthesis is not performed, the
そして、バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、これをバックグラウンドプレーン生成部91に出力し、1stビデオデコーダ72−1および2ndビデオデコーダ72−2は、ビデオストリームをデコードし、これを、それぞれ、1stビデオプレーン生成部92−1および2ndビデオプレーン生成部92−2に出力し、プレゼンテーショングラフィックスデコーダ73は、スイッチ57により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、これを後段のスイッチ77に出力し、インタラクティブグラフィックスデコーダ74は、スイッチ58により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを後段のインタラクティブグラフィックスプレーン生成部94に出力し、Text-STコンポジション76は、テキストサブタイトルデータをデコードし、これを後段のスイッチ77に出力する。
The
そして、1stオーディオデコーダ75−1は、スイッチ59により選択され、供給されたオーティオストリーム(プライマリオーディオストリーム)をデコードし、これを後段のミキシング処理部101に出力する。例えば、音声の切り替えがユーザにより指示されていない状態における再生処理では、2ndオーディオデコーダ75−2からオーディオデータが出力されることはないので、ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータを、そのまま後段のミキシング処理部97に供給する。また、音声の合成がユーザにより指令されている状態においては、2ndオーディオデコーダ75−2は、スイッチ59により選択され、供給されたオーティオストリームをデコードし、これを後段のミキシング処理部101に出力する。ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとを合成(ミキシング)し、後段のミキシング処理部97に供給する。
Then, the 1st audio decoder 75-1 decodes the supplied audio stream (primary audio stream) selected by the
スイッチ77は、プレゼンテーショングラフィックスデコーダ73またはText-STコンポジション76からのデータのいずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。
The
バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、バックグラウンドプレーンを生成し、ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成し、プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたプレゼンテーショングラフィックスデコーダ73からのデータまたはText-STコンポジション76からのデータに基づいて、プレゼンテーショングラフィックスプレーンを生成し、インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成する。
The background plane generating unit 91 generates a background plane based on the background image data supplied from the
そして、ビデオデータ処理部96は、各プレーンのデータを合成し、ビデオデータとして出力する。
Then, the video
また、バッファ95は、供給されたサウンドデータをバッファリングし、所定のタイミングでミキシング処理部97に供給する。ミキシング処理部97は、オーディオデータ(ミキシング処理部101から出力されたオーディオデータ)とサウンドデータをミキシング(合成)し、出力する。
The
このような処理により、PlayListに含まれるメインパスとサブパスによりメインClip AVストリーム、サブClip AVストリーム、およびテキストサブタイトルデータが参照され、再生される。PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指定するClip AVストリームファイルとは異なるClip AVストリームである、サブClip AVストリームを指定可能な構成としたので、メインパスのPlayItemが指すメインClipとは異なるClipであるサブClipに含まれるデータとメインClipに含まれるデータとを一緒に(同じタイミングで)再生することができる。 By such processing, the main Clip AV stream, the sub Clip AV stream, and the text subtitle data are referred to and reproduced by the main path and sub path included in the PlayList. Since the main path and the sub path are provided in the PlayList, and the sub path is a clip AV stream different from the clip AV stream file specified by the main path, the sub clip AV stream can be specified. Data included in a sub clip, which is a different clip from the indicated main clip, and data included in the main clip can be reproduced together (at the same timing).
ところで、上述したように、本発明の再生装置1に装着される記録媒体11上、または、再生装置1のローカルストレージ24に記録されるデータのアプリケーションフォーマットは、PlayListとClipの2つのレイヤを有している。そして、PlayListは、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られるメインパス(Main Path)と、そのMain Pathに並行(並列)して、1つ以上のSubPlayItemの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られるサブパス(Sub Path)を1以上含むことができる。
By the way, as described above, the application format of data recorded on the
このような構成を有するデータを、図29および図30を用いて説明した再生装置1において再生することにより、図31に示されるように、全画面(親画面)301と子画面302のそれぞれに別々のコンテンツを同時再生させる、といったピクチャインピクチャ手法を適用することが可能になる。
By reproducing the data having such a configuration on the
例えば、図31に示されるように、1画面のうちの、全画面301に、メインパスで参照されるAVストリーム(図31中、Primary Videoと記述されているビデオストリーム311、および、Primary Audioと記述されているオーディオストリーム312)に対応する映画本編等のコンテンツを再生させるとともに、全画面301に配置される子画面302に、サブパスで参照されるAVストリーム(図31中、Secondary Videoと記述されているビデオストリーム313、および、Secondary Audioと記述されているオーディオストリーム314)に対応する映画の監督のコメンタリー等、メインパスで参照されるAVストリームとは別のコンテンツを再生させる、といった手法を適用することが可能になる。
For example, as shown in FIG. 31, an AV stream (
具体的には、ピクチャインピクチャは、例えば映画本編(Primary Video, Primary Audio)を全画面301に表示しているときに、監督のコメンタリー(Secondary Video, Secondary Audio)を子画面302に入れ子画面にして、必要に応じて、音声を合成し、同時に表示出力されるように再生するアプリケーションである。
Specifically, for example, when the movie main part (Primary Video, Primary Audio) is displayed on the
なお、サブタイトルストリームの再生位置(字幕等の表示位置)は、特に子画面内である必要は無く、全画面のうちの何れの位置でもよい。このため、図31の例では、サブタイトルストリーム315は、子画面302からはみ出すように描画されている。
Note that the playback position of the subtitle stream (the display position of subtitles and the like) does not have to be in the child screen, and may be any position on the entire screen. Therefore, in the example of FIG. 31, the
ユーザがピクチャインピクチャアプリケーションに関して許されているユーザオペレーションは、セカンダリビデオを表示するか否か、換言すれば、ピクチャインピクチャアプリケーションのon/offを指令するためのユーザオペレーションと、一つの区間に複数のセカンダリビデオが用意されている場合に、現在表示されているセカンダリビデオを他のセカンダリビデオに切り替えるユーザオペレーションである。また、セカンダリビデオが表示されている場合には、セカンダリオーディオのon/offおよび再生されるセカンダリオーディオの変更、並びに、ピクチャインピクチャ用の字幕のon/offおよび字幕の変更を指令するユーザオペレーションも許されている。 The user operations that the user is permitted with respect to the picture-in-picture application include whether to display secondary video, in other words, a user operation for commanding on / off of the picture-in-picture application, and a plurality of operations in one section. This is a user operation for switching the currently displayed secondary video to another secondary video when the secondary video is prepared. In addition, when secondary video is displayed, user operations that command on / off of secondary audio and change of secondary audio to be reproduced, and on / off of subtitles for picture-in-picture and subtitles are also provided. It is forgiven.
ピクチャインピクチャにおいて、子画面302として表示可能なSecondary Videoは、1つのPlayList中に複数定義することができる。例えば、1つのPlayList中に子画面302として表示可能なSecondary Videoを255個含めることができるようになされているなど、多数のピクチャインピクチャアプリケーションがPlayList中に定義されていた場合、ユーザが、そのコンテンツにおいて再生可能なピクチャインピクチャアプリケーションを把握することは困難である。
In picture-in-picture, a plurality of Secondary Videos that can be displayed as the sub-screen 302 can be defined in one PlayList. For example, when a large number of picture-in-picture applications are defined in the PlayList, such as 255 Secondary Videos that can be displayed as the
また、例えば、全画面301に表示されるPrimary Videoに対しては、従来行われてきたように、チャプタなどを用いて、特定のシーンを呼び出して再生させることなどができる。しかしながら、これに対して、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することは困難である。したがって、全画面301に表示されるPrimary Videoとともに子画面302に表示されるSecondary Videoの特定のシーンを呼び出す方法は提供されていない。
Further, for example, for a Primary Video displayed on the
また、Secondary VideoおよびSecondary Audioは、Primary Videoの全ての再生区間に対して用意されているとは限らず、また、同一の再生区間に、複数のSecondary VideoおよびSecondary Audioが用意されている場合もある。また、Secondary Videoと、それに対応するSecondary Audioは、全てが所定のタイミングで再生されるのではなく、ユーザの所望のタイミングで再生される(非同期)のものも存在する。このため、例えば、再生開始時刻を指定することにより、Secondary Videoと、それに対応するSecondary Audioの特定のシーンを任意に呼び出すのは困難であった。 Also, Secondary Video and Secondary Audio are not necessarily prepared for all playback sections of Primary Video, and there may be cases where multiple Secondary Video and Secondary Audio are prepared in the same playback section. is there. Further, there are some types of secondary video and secondary audio corresponding to the secondary video that are not reproduced at a predetermined timing but are reproduced at a timing desired by the user (asynchronous). For this reason, for example, it is difficult to arbitrarily call a specific scene of Secondary Video and the corresponding Secondary Audio by specifying the playback start time.
そこで、再生装置1においては、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面を生成して表示する機能を有するものとする。
Therefore, in the
ユーザは、このGUI表示画面を参照することにより、Secondary Videoと、それに対応するSecondary Audioの特定のシーンを効率的に選択することが可能となる。 By referring to the GUI display screen, the user can efficiently select a secondary video and a specific scene of the secondary audio corresponding to the secondary video.
また、再生装置1は、全画面301に表示されるPrimary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面のみならず、例えば、Primary VideoとSecondary Videoとをユーザが明確に区別することなく、Primary VideoとSecondary Videoとのいずれかの特定のシーンを選択することができるようなGUI表示画面を生成して表示するようにしてもよい。
In addition, the
図32に、コントローラ21が有する機能のうち、このようなGUI表示画面を生成して表示する機能について説明するための機能ブロック図を示す。
FIG. 32 is a functional block diagram for explaining a function of generating and displaying such a GUI display screen among the functions of the
なお、コントローラ21は、例えば、GUI表示画面を生成して表示する機能や、装着された記録媒体11またはローカルストレージ24に記録されているデータを再生する処理以外にも、さまざまな機能を有するものとしてもよいが、図32においては、GUI表示画面の生成および表示の制御、並びに、ストリームデータの再生の制御以外の機能については、省略する。
The
PlayList読み出し制御部351は、PlayListファイルを取得する。PlayList読み出し制御部351は、例えば、通常再生時においては、取得したPlayListファイルに含まれるPlayItemおよびSubPlayItemに基づいて、対応するClipのClip_Information_file_nameを検出し、ストリームデータ読み出し制御部354に供給する。また、PlayList読み出し制御部351は、例えば、上述したようなGUI表示画面を表示するために、取得したPlayListファイルを、PlayList解析部352に供給する。
The PlayList read
PlayList解析部352は、供給されたPlayListファイルから、STN_table()を読み出し、STN_table()のstream_entryに基づいて、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを取得し、IN_time/OUT_time取得部356に供給する。
The
操作入力取得部353は、操作入力部29から供給されるユーザの操作入力を取得し、ストリームデータ読み出し制御部354、再生開始位置情報記憶制御部358、または、GUI表示制御部359に供給する。
The operation
ストリームデータ読み出し制御部354は、PlayList読み出し制御部351から供給されたClip_Information_file_nameを基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。またストリームデータ読み出し制御部354は、操作入力取得部353から供給された、GUI表示画面を参照したユーザの操作入力を基に、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置に関する情報を参照し、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。
The stream data read
再生制御部355は、ストリームデータ読み出し制御部354の制御に基づいて、AVデコーダ部26へ供給されたデータのデコードおよび再生出力を制御する。
The
IN_time/OUT_time取得部356は、PlayList解析部352から供給された、Secondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを基に、対応するSubpathに含まれるSubPlayItemを抽出し、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを取得し、GUI生成部357および再生開始位置情報記憶制御部358に供給する。
The IN_time /
GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを基に、GUI表示画面に対応するデータを生成し、GUI表示制御部359に供給する。また、GUI生成部357は、必要に応じて、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得し、生成するGUI表示画面データに含ませるようにすることも可能である。また、GUI生成部357は、生成したGUI表示画面データに関する情報を、再生開始位置情報記憶制御部358に供給する。
The
再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、GUI生成部357から供給されたGUI表示画面データに関する情報を基に、GUI表示画面において表現されているSecondary VideoおよびSecondary Audioと、それらの再生開始位置(SubPlayItem_IN_time)とを関連つけて記憶する。これにより、操作入力取得部353から、生成されたGUI表示画面を参照したユーザが行う操作入力に関する情報が取得された場合、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給することができる。
The playback start position information
GUI表示制御部359は、操作入力取得部353から供給されるユーザの操作入力に基づいて、GUI生成部357により生成されたGUI表示画面データの表示および表示の取り消しを制御する。具体的には、GUI表示制御部359は、OSD30を制御し、AVデコーダ部26から供給されたビデオ信号または画像信号への、GUI表示画面データの重畳を制御する。
The GUI
図32に示されるような機能を有するコントローラ21は、再生装置1に記録媒体11が装着されるなどにより、記録媒体11またはローカルストレージ24に記録されているコンテンツの再生が可能な状態となったとき、GUI表示画面データを生成する。
The
すなわち、PlayList読み出し制御部351により読み出されたPlayListファイルが、PlayList解析部352により解析されて、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoおよびSecondary Audioに対応するref_to_Subpath_idが取得され、IN_time/OUT_time取得部356により、対応するSubpathに含まれるSubPlayItemが抽出されて、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeが取得される。
That is, the PlayList file read by the PlayList read
GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、必要に応じて、ストリームデータ読み出し制御部354により取得される、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)などを基に、GUI表示画面に対応するデータを生成し、GUI表示制御部359に供給する。
The
例えば、ユーザが、映画本編など、MainPathのPrimary VideoおよびPrimary Audioを再生中に、操作入力部19よりGUI表示画面の表示を指令すると、操作入力取得部353は、GUI表示画面の表示を指令するユーザの操作入力を取得し、GUI表示制御部359に、GUI表示画面の表示を制御させる。
For example, when the user instructs display of the GUI display screen from the operation input unit 19 during playback of the main video Primary Video and Primary Audio such as a movie main part, the operation
そのとき、例えば、図33に示されるように、映画本編などが表示されている画面381の一部に、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能なようになされているかをユーザが把握することができるようなGUI表示画面391が表示される。
At this time, for example, as shown in FIG. 33, in the part of the
GUI表示画面391について、図34を参照して説明する。
The
GUI表示画面391には、例えば、MainMovie、すなわち、Primary Videoの再生区間全体に対応するメインタイムライン401と、メインタイムライン401上に、現在のPrimary Videoの再生位置を示すスライダ402が表示され、メインタイムライン401に対応付けて、Primary Videoの再生区間に対して、いずれの区間に、いずれのSecondary Videoが子画面302として再生可能であり、Secondary Audioが対応して再生されるかが分かるように、このPlayListファイルによって再生されるストリームに含まれるSecondary VideoまたはSecondary Audioに応じたサブタイムライン403(図34においては、サブタイムライン403−1乃至サブタイムライン403−5)が表示される。
On the
そして、サブタイムライン403に対応付けられて、そのサブタイムライン403が対応付けられているストリームが、Secondary VideoまたはSecondary Audioのいずれであるかを示すためのアイコン404(図34においては、アイコン404-1乃至アイコン404-5)が表示されている。 Then, an icon 404 (in FIG. 34, the icon 404) indicating whether the stream associated with the sub time line 403 is associated with the sub time line 403 is Secondary Video or Secondary Audio. -1 to 404-4) are displayed.
また、例えば、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得し、アイコン404のうち、ビデオストリームに対応するアイコン404を、いわゆるサムネイル画像としてもよい。
In addition, for example, the stream data read
また、ユーザの所望のタイミングで再生される(非同期の)Secondary VideoまたはSecondary Audioに対応するサブタイムライン403は、ユーザの所望のタイミングで再生される(非同期)であることがユーザに認識可能なように表示されると好適である。このようなサブタイムライン403は、例えば、メインタイムライン401に対して、再生先頭位置に対応するように表示されても良いし、メインタイムライン401に対応しない異なる位置に表示されるようにしても良い。
Further, it is possible for the user to recognize that the sub timeline 403 corresponding to Secondary Video or Secondary Audio that is played back (asynchronous) at the user's desired timing is played back (asynchronous) at the user's desired timing. Is preferably displayed. Such a sub timeline 403 may be displayed so as to correspond to the reproduction start position with respect to the
このようなGUI表示画面391を表示させることにより、ユーザは、全画面301において、現在本編のどこが再生されているかを認識することができるとともに、いずれの再生位置において、ピクチャインピクチャアプリケーションが何通り存在するか、または、非同期のピクチャインピクチャアプリケーションが何通り存在するかを、視覚的に容易に把握することが可能になる。
By displaying such a
したがって、ユーザは、GUI表示画面391を参照することにより、セカンダリビデオを表示するか否かのユーザオペレーションを容易に実行することができる。また、ユーザは、更に、複数のピクチャインピクチャアプリケーションが存在しているか否かも容易に認識できるので、ピクチャインピクチャアプリケーションのon/offを指令するユーザオペレーションを容易に効率的に実行することができる。更に、GUI表示画面391は、ユーザによるForward Play/Backward Play操作にも役立つと考えられる。
Therefore, the user can easily execute a user operation as to whether or not to display the secondary video by referring to the
また、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データ(例えば、Secondary Video のストリームの先頭、すなわち、SubPlayItem_IN_timeに対応する部分のフレーム画像データや、その他のいずれかのフレーム画像データなど)を取得して、サムネイル画像をサブタイムライン403とともに表示した場合、ユーザは、ピクチャインピクチャアプリケーションの内容を容易に認識することが可能となる。
Also, the stream data read
なお、MainPathのPrimary VideoおよびPrimary Audioを再生していないときに、GUI表示画面391の表示が指令された場合、AVデコーダ部26から出力されるバックグラウンドプレーン、すなわち、いわゆる背景画像に対して、OSD30によりGUI表示画面391が重畳されて表示される。
When the display of the
そして、ユーザにより、サブタイムライン403またはアイコン404が選択された場合、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置情報が参照されて、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが、MainPathのPrimary VideoおよびPrimary Audioとともに再生される。
When the user selects the sub timeline 403 or the icon 404, the reproduction start position information whose storage is controlled by the reproduction start position information
なお、非同期のSecondary VideoまたはSecondary Audioに対応するサブタイムライン403またはアイコン404が選択された場合、例えば、MainPath先頭位置からのPrimary VideoおよびPrimary Audioとともに、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが再生されるものとすることができる。 When the sub timeline 403 or the icon 404 corresponding to the asynchronous secondary video or secondary audio is selected, for example, at least the secondary video or secondary audio desired by the user, together with the primary video and primary audio from the main path head position, are selected. Either can be played.
また、GUI生成部357は、ストリームデータ読み出し制御部354により、Secondary Videoに対応するサムネイル画像の基となる画像データを取得して、これを基にGUI表示画面を生成することが可能であるので、例えば、図35に示されるように、ピクチャインピクチャアプリケーション(Secondary VideoおよびSecondary Audio)とMainMovie(Primary VideoおよびPrimary Audio)とを詳細に区別する必要なくユーザが選択できるようなGUI表示画面421を生成し、表示するようにしても良い。
Further, the
図35のGUI表示画面421には、例えば、MainMovieに対応するサムネイル画像411に加えて、ピクチャインピクチャのそれぞれに対応するサムネイル画像442(図35においては、サムネイル画像442-1乃至442-6)が表示される。
In the
なお、MainPathのPrimary VideoおよびPrimary Audioが再生されているときに、図35を用いて説明したGUI表示画面421の表示が指令された場合、AVデコーダ部26から出力される画像信号(例えば、Primary Videoに字幕などが合成された画像信号)に対して、OSD30によりGUI表示画面421が重畳されて表示される。MainPathのPrimary VideoおよびPrimary Audioを再生していないときに、GUI表示画面421の表示が指令された場合、AVデコーダ部26から出力されるバックグラウンドプレーン、すなわち、いわゆる背景画像に対して、OSD30によりGUI表示画面421が重畳されて表示される。
Note that when the display of the
このようなGUI表示画面421を参照したユーザは、ピクチャインピクチャアプリケーションがMainMovieに対して同期しているか否か、同期されている場合にはPlayList中でどの再生位置となるように定義されているかなどの詳細を知ることなく、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となる。
The user who refers to such a
この場合においても、ユーザにより、ピクチャインピクチャのそれぞれに対応するサムネイル画像442が選択された場合、再生開始位置情報記憶制御部358により記憶が制御されている再生開始位置情報が参照されて、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが、MainPathのPrimary VideoおよびPrimary Audioとともに再生される。
Also in this case, when the user selects a thumbnail image 442 corresponding to each picture-in-picture, the reproduction start position information whose storage is controlled by the reproduction start position information
また、同様にして、非同期のSecondary VideoまたはSecondary Audioに対応する、ピクチャインピクチャのそれぞれに対応するサムネイル画像442が選択された場合、例えば、MainPath先頭位置からのPrimary VideoおよびPrimary Audioとともに、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかが再生されるものとすることができる。 Similarly, when the thumbnail image 442 corresponding to each of the picture-in-picture corresponding to asynchronous Secondary Video or Secondary Audio is selected, for example, along with the Primary Video and Primary Audio from the MainPath head position, the user It is assumed that at least one of the desired Secondary Video or Secondary Audio is played back.
すなわち、再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeの情報の供給を受けるとともに、GUI生成部357から、GUI表示画面データに関する情報の供給を受ける。そして、再生開始位置情報記憶制御部358は、これらの情報を基に、GUI表示画面において、いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442として表現されているそれぞれのSecondary VideoおよびSecondary Audioと、それらの再生開始位置(SubPlayItem_IN_time)とが関連つけて記憶されるように制御を行っているので、ストリームデータ読み出し制御部354は、この情報を基に、ユーザが所望するピクチャインピクチャ表示における再生開始を指令することが可能となる。
That is, the reproduction start position information
具体的には、図33および図34を用いて説明したGUI表示画面391、または、図35を用いて説明したGUI表示画面421がAVデコーダ部26から出力される画像信号または背景画像などに重畳されて表示されているときに、ユーザにより、いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442を選択する操作入力を受けた場合、操作入力取得部353は、サブタイムライン403、アイコン404、または、サムネイル画像442のうちのいずれが選択されたかを示す情報を再生開始位置情報記憶制御部358に供給する。
Specifically, the
再生開始位置情報記憶制御部358は、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給する。
The reproduction start position information
ストリームデータ読み出し制御部354は、操作入力取得部353から供給された、GUI表示画面を参照したユーザの操作入力と、再生開始位置情報記憶制御部358から供給された再生開始位置情報を基に、対応するClipに含まれるPrimary VideoおよびPrimary Audio、並びに、Secondary Video、および、必要に応じてSecondary Audioのストリームデータの読み出しを制御するとともに、読み出したストリームデータのAVデコーダ部26への供給を制御する。
The stream data read
再生制御部355は、ストリームデータ読み出し制御部354の制御に基づいて、AVデコーダ部26へ供給されたデータのデコード、合成、および再生出力を制御する。そして、ピクチャインピクチャ表示で、ユーザが指定した位置から、コンテンツの再生が開始される。
The
次に、図36のフローチャートを参照して、再生装置1において実行される再生処理について説明する。
Next, with reference to the flowchart of FIG. 36, the reproduction process executed in the
ステップS1において、PlayList読み出し制御部351は、記録媒体11が装着されたか否かを判断する。ステップS1において、記録媒体11が装着されたと判断されなかった場合、記録媒体11が装着されたと判断されるまで、ステップS1の処理が繰り返される。
In step S1, the PlayList read
ステップS1において、記録媒体11が装着されたと判断された場合、ステップS2において、図37を用いて後述するGUI表示準備処理が実行される。
If it is determined in step S1 that the
ステップS3において、操作入力取得部353は、ストリームの再生を指令する操作入力を取得したか否かを判断する。ステップS3において、ストリームの再生を指令する操作入力は取得されていないと判断された場合、処理は、後述するステップS6に進む。
In step S <b> 3, the operation
ステップS3において、ストリームの再生を指令する操作入力を取得したと判断された場合、ステップS4において、PlayList読み出し制御部351は、装着された記録媒体11からPlayListファイルを読み出し、取得したPlayListファイルに含まれるPlayItemおよびSubPlayItemに基づいて、対応するClipのClip_Information_file_nameを検出し、ストリームデータ読み出し制御部354に供給する。
If it is determined in step S3 that an operation input commanding playback of a stream has been acquired, in step S4, the PlayList read
ステップS5において、ストリームデータ読み出し制御部354は、PlayList読み出し制御部351から供給されたPlayListのClip_Information_file_nameを基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。再生制御部355は、AVデコーダ部26へ供給されたデータのデコードおよび再生出力を制御する。
In step S5, the stream data read
ステップS3において、ストリームの再生を指令する操作入力は取得されていないと判断された場合、または、ステップS5の処理の終了後、ステップS6において、操作入力取得部353は、GUI表示が指令されたか否かを判断する。ステップS6において、GUI表示が指令されていないと判断された場合、処理は、後述するステップS13に進む。
In step S3, when it is determined that the operation input for instructing the reproduction of the stream has not been acquired, or after the processing in step S5 is completed, in step S6, the operation
ステップS6において、GUI表示が指令されたと判断された場合、ステップS7において、GUI表示制御部359は、ステップS2のGUI表示準備処理において生成されたGUIの表示を制御する。
If it is determined in step S6 that GUI display has been commanded, in step S7, the GUI
ステップS8において、操作入力取得部353は、いずれかのSubPlayItemに対応するサムネイル等(いずれかのサブタイムライン403、アイコン404、または、サムネイル画像442)を選択する操作入力を受けたか否かを判断する。ステップS8において、いずれかを選択する操作入力を受けていないと判断された場合、処理は、後述するステップS11に進む。
In step S8, the operation
ステップS8において、いずれかを選択する操作入力を受けたと判断された場合、ステップS9において、操作入力取得部353は、サブタイムライン403、アイコン404、または、サムネイル画像442のうちのいずれが選択されたかを示す情報を再生開始位置情報記憶制御部358に供給する。再生開始位置情報記憶制御部358は、ユーザが所望するSecondary VideoまたはSecondary Audioの少なくともいずれかをMainPathのPrimary VideoおよびPrimary Audioとともに再生させるための再生開始位置情報を抽出し、ストリームデータ読み出し制御部354に供給する。ストリームデータ読み出し制御部354は、対応する再生開始位置を示す情報を取得する。
If it is determined in step S8 that an operation input for selecting one has been received, in step S9, the operation
ステップS10において、ストリームデータ読み出し制御部354は、再生開始位置情報記憶制御部358から取得した対応する再生開始位置を示す情報を基に、対応するClipに含まれるストリームデータの読み出しと、AVデコーダ部26への供給を制御する。再生制御部355は、AVデコーダ部26へ供給されたデータのデコードおよび再生出力、すなわち、所定の再生開始位置からのピクチャインピクチャアプリケーションの再生を制御する。
In step S10, the stream data read
なお、Subpath_type=6の場合には、サブパスはメインパスに対して非同期であるが、サブパス、すなわち、子画面に対応するsecondary videoおよびsecondary audioは、SubPlayItem_IN_timeおよびSubPlayItem_Out_timeのそのままの値に基づいて、ストリームの読み出しが制御され、全画面に対応するprimary videoおよびprimary audioは、そのPlayListにより再生される先頭位置からの読み出しが制御されて、それぞれが合成されて再生される。 When Subpath_type = 6, the subpath is asynchronous with respect to the main path, but the subpath, that is, the secondary video and secondary audio corresponding to the child screen are streamed based on the values of SubPlayItem_IN_time and SubPlayItem_Out_time as they are. The primary video and primary audio corresponding to the entire screen are controlled to be read from the head position reproduced by the PlayList, and each is synthesized and reproduced.
ステップS8において、いずれかを選択する操作入力を受けていないと判断された場合、ステップS11において、操作入力取得部353は、GUIの表示の終了が指令されたか否かを判断する。ステップS11において、GUIの表示の終了が指令されていないと判断された場合、処理は、ステップS6に戻り、それ以降の処理が繰り返される。
If it is determined in step S8 that an operation input for selecting one has not been received, in step S11, the operation
ステップS11において、GUIの表示の終了が指令されたと判断された場合、ステップS12において、GUI表示制御部359は、ステップS6において表示されたGUIの表示を終了する。
If it is determined in step S11 that the end of GUI display has been commanded, in step S12, the GUI
ステップS10またはステップS12の処理の終了後、ステップS13において、操作入力取得部353は、処理の終了が指令されたか否かを判断する。ステップS13において、処理の終了が指令されていないと判断された場合、処理は、ステップS6に戻り、それ以降の処理が繰り返される。ステップS13において、処理の終了が指令されたと判断された場合、処理が終了される。
After the process of step S10 or step S12 ends, in step S13, the operation
このような処理により、GUI表示画面が表示されるので、ユーザは、複数のピクチャインピクチャアプリケーションの内容やメインストリームに対する再生位置などを、容易に明確に認識することができる。そして、GUI表示画面を参照したユーザの操作入力を基に、ユーザが所望するピクチャインピクチャ表示の再生を開始させることが可能となる。 As a result of such processing, the GUI display screen is displayed, so that the user can easily and clearly recognize the contents of a plurality of picture-in-picture applications, the playback position with respect to the main stream, and the like. Then, based on the user's operation input referring to the GUI display screen, it is possible to start playback of the picture-in-picture display desired by the user.
次に、図37のフローチャートを参照して、図36のステップS2において実行されるGUI表示準備処理について説明する。 Next, the GUI display preparation process executed in step S2 of FIG. 36 will be described with reference to the flowchart of FIG.
ステップS41において、PlayList読み出し制御部351は、装着された記録媒体11に記録されているPlayListファイルを読み出し、PlayList解析部352に供給する。
In step S <b> 41, the PlayList read
ステップS42において、PlayList解析部352は、供給されたPlayListに含まれるそれぞれのPlayItemを確認し、STN_tableを取得する。
In step S42, the
ステップS43において、PlayList解析部352は、供給されたPlayListによって再生可能なストリームにSecondary AudioまたはSecondary Videoが存在するか否かを判断する。ステップS43において、Secondary AudioまたはSecondary Videoが存在しないと判断された場合、処理は、図36のステップS2に戻り、ステップS3に進む。
In step S43, the
ステップS43において、Secondary AudioまたはSecondary Videoが存在すると判断された場合、ステップS44において、PlayList解析部352は、STN_tableのstream_entryから、Secondary Audio、Secondary Videoに対応するref_to_SubPath_idを取得し、IN_time/OUT_time取得部356に供給する。
If it is determined in step S43 that Secondary Audio or Secondary Video exists, in step S44, the
ステップS45において、IN_time/OUT_time取得部356は、ステップS44において取得されたref_to_SubPath_idに対応する未処理のSubPathのうちの一つを選択する。
In step S45, the IN_time /
ステップS46において、IN_time/OUT_time取得部356は、選択されたSubPathは、SubPath_type=5であるか否かを判断する。ステップS46において、SubPath_type=5であると判断された場合、処理は、後述するステップS50に進む。
In step S46, the IN_time /
ステップS46において、SubPath_type=5ではないと判断された場合、ステップS47において、IN_time/OUT_time取得部356は、選択されたSubPathは、SubPath_type=6であるか否かを判断する。
When it is determined in step S46 that SubPath_type = 5 is not satisfied, in step S47, the IN_time /
ステップS47において、SubPath_type=6であると判断された場合、ステップS48において、IN_time/OUT_time取得部356は、非同期のサブパスをメインストリームの最初の位置に対応つけるため、すなわち、図33および図34を用いて説明したGUI表示画面391において、対応するサブタイムライン403をメインタイムライン401の先頭に対応つけて表示させたり、図35を用いて説明したGUI表示画面421の対応するサムネイルが選択された場合のメインムービーの再生開始位置をストリームの先頭とするため、SubplayItem_IN_time´=0とし、SubPlayItem_OUT_time´=SubPlayItem_OUT_time−SubplayItem_IN_timeとし、GUI生成部357および再生開始位置情報記憶制御部358に供給する。
If it is determined in step S47 that SubPath_type = 6, in step S48, the IN_time /
ステップS47において、SubPath_type=6ではない、すなわち、SubPath_type=7であると判断された場合、または、ステップS48の処理の終了後、ステップS49において、GUI生成部357は、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを基に、対応するメインタイムライン401、サブタイムライン403、または、アイコン404など、もしくは、サムネイル441またはサムネイル442等のデータを生成する。ステップS49の処理の終了後、処理は、後述するステップS52に進む。
In step S47, when it is determined that SubPath_type = 6 is not satisfied, that is, SubPath_type = 7, or after the process of step S48 is completed, in step S49, the
ステップS46において、SubPath_type=5であると判断された場合、ステップS50において、IN_time/OUT_time取得部356は、PlayList解析部352から供給された、Secondary VideoおよびSecondary Audioに対応するref_to_Subpath_idを基に、対応するSubpathに含まれるSubPlayItemを抽出してストリームを解析する。具体的には、IN_time/OUT_time取得部356は、それらのSubPlayItem から、それぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_timeを取得するとともに、STN_tableを基に、それらのストリームがsecondary audioであるか、secondary videoであるかなどのストリームの種類を検出し、これらの情報をGUI生成部357および再生開始位置情報記憶制御部358に供給する。
If it is determined in step S46 that SubPath_type = 5, in step S50, the IN_time /
ステップS51において、GUI生成部357は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、その他の解析データを基に、対応するメインタイムライン401、サブタイムライン403、または、アイコン404など、もしくは、サムネイル441またはサムネイル442等のデータを生成する。
In step S51, the
ステップS49またはステップS51の処理の終了後、ステップS52において、IN_time/OUT_time取得部356は、全てのSubPathについて処理が終了したか否かを判断する。ステップS52において、全てのSubPathについて処理が終了していないと判断された場合、処理は、ステップS45に戻り、それ以降の処理が繰り返される。
After the process of step S49 or step S51 is completed, in step S52, the IN_time /
ステップS52において、全てのSubPathについて処理が終了したと判断された場合、ステップS53において、GUI生成部357は、GUI表示画面391またはGUI表示画面421に対応するデータを生成し、GUI表示制御部359に供給するとともに、生成したGUI表示画面データに関する情報を、再生開始位置情報記憶制御部358に供給する。
If it is determined in step S52 that the processing has been completed for all the SubPaths, in step S53, the
ステップS54において、再生開始位置情報記憶制御部358は、IN_time/OUT_time取得部356から供給された、Secondary VideoおよびSecondary Audioに対応するそれぞれのSubPlayItem_IN_timeおよびSubPlayItem_Out_time、並びに、GUI生成部357から供給されたGUI表示画面データに関する情報を基に、GUI表示画面において表現されているSecondary VideoおよびSecondary Audioのそれぞれのサムネイル等と、それらの再生開始位置(SubPlayItem_IN_time)とを関連つけて記憶し、処理は、図36のステップS2に戻り、ステップS3に進む。
In step S54, the reproduction start position information
このような処理により、再生装置1において再生される複数のパスにより再生されるストリームのデータが解析されて、複数のパスのうちの特に副の再生パスにより再生されるSecondary VideoまたはSecondary Audioの再生位置やその内容を示すGUI表示画面が生成される。
By such processing, stream data reproduced by a plurality of paths reproduced by the
具体的には、例えば、全画面301において、現在本編のどこが再生されているかを認識することができるとともに、いずれの再生位置において、ピクチャインピクチャアプリケーションが何通り存在するか、または、非同期のピクチャインピクチャアプリケーションが何通り存在するかを、視覚的に容易に把握することが可能なGUI表示画面(例えば、図33および図34を用いて説明したGUI表示画面391)や、ピクチャインピクチャアプリケーションがMainMovieに対して同期しているか否か、同期されている場合にはPlayList中でどの再生位置となるように定義されているかなどの詳細を知ることなく、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となるようなGUI表示画面(例えば、図35を用いて説明したGUI表示画面421)が生成される。
Specifically, for example, in the
このようなGUI表示画面を参照することにより、ユーザは、再生可能なピクチャインピクチャアプリケーションについて、視覚的に明確に認識することが可能となる。 By referring to such a GUI display screen, the user can visually recognize clearly a reproducible picture-in-picture application.
また、このようなGUI表示画面を参照することにより、ユーザは、所望のピクチャインピクチャアプリケーションの再生を指令することが可能となる。 Further, by referring to such a GUI display screen, the user can instruct playback of a desired picture-in-picture application.
次に、図38および図39を参照して、再生装置1において再生可能なデータが記録された記録媒体11の製造方法について、記録媒体11がディスク状の記録媒体だった場合を例として説明する。
Next, with reference to FIGS. 38 and 39, a method of manufacturing the
即ち、図38に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。 That is, as shown in FIG. 38, a master disc made of glass or the like is prepared, and a recording material made of photoresist or the like is applied thereon. As a result, a recording master is produced.
そして、図39に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置1において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、PlayList、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置1において再生可能な記録媒体11に記録されるソフトウェアが製作される。
Then, as shown in FIG. 39, in the software production processing unit, video data in a format that can be played back by the
このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、図38に示すように、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。 This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. Then, as shown in FIG. 38, the laser beam is modulated corresponding to this recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.
その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。 Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.
この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。 A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.
このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。 A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.
その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置1によって再生可能なデータが記録された記録媒体11が完成する。
Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図40に示されるようなパーソナルコンピュータ500により実行される。
The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a
図40において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
40, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a
CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
The
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。
The input /
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム格納媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software is installed from a network or a program storage medium.
このプログラム格納媒体は、図40に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
As shown in FIG. 40, the program storage medium is configured only by a package medium including a
なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.
また、ドライブ510は、装着されたリムーバブルメディア521に記録されたデータを読み出すことができるのみならず、装着されたリムーバブルメディア521にデータを記録することができる。そして、パーソナルコンピュータ500が、図39を用いて説明したソフト製作処理部と同様の機能を有する(例えば、CPU501を用いて、ソフト製作処理部と同様の機能を実現するためのプログラムを実行する)ことが可能であるのは言うまでもない。
Further, the
すなわち、パーソナルコンピュータ500は、図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、CPU501の処理により生成するか、または、外部の装置で生成された図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、通信部509またはドライブ510に装着されたリムーバブルメディア521を介して取得することができる。そして、パーソナルコンピュータ500は、生成または取得された図39を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、ドライブ510に装着されたリムーバブルメディア521に記録する記録装置としての機能を実現することができる。
That is, the
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
1 再生装置, 11 記録媒体, 21 コントローラ, 26 AVデコーダ部, 30 OSD, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57乃至59 スイッチ, 71 バックグラウンドデコーダ, 72 ビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 ミキシング処理部, 351 PlayList読み出し制御部, 352 PlayList解析部, 353 操作入力取得部353, 354 ストリームデータ読み出し制御部, 355 再生制御部, 356 IN_time/OUT_time取得部, 357 GUI生成部, 358 再生開始位置情報記憶制御部, 359 GUI表示制御部, 391 GUI表示画面, 401 メインタイムライン, 402 スライダ, 403 サブタイムライン, 404 アイコン, 421 GUI表示画面, 441,442 サムネイル画像
1 playback device, 11 recording medium, 21 controller, 26 AV decoder section, 30 OSD, 32 switch, 33 AV decoder section, 34 controller, 51 to 54 buffer, 55, 56 PID filter, 57 to 59 switch, 71 background decoder , 72 video decoder, 73 presentation graphics decoder, 74 interactive graphics decoder, 75 audio decoder, 76 Text-ST composition, 77 switch, 91 background plane generation unit, 92 video plane generation unit, 93 presentation graphics plane generation Section, 94 interactive graphics plane generation section, 95
Claims (14)
前記第1の取得手段により取得された前記再生管理情報を解析し、解析結果から、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得する第2の取得手段と、
前記第2の取得手段により取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する情報生成手段と
を備える情報処理装置。 First acquisition means for acquiring reproduction management information for controlling reproduction of a stream;
Analyzing the reproduction management information acquired by the first acquisition means, and from the analysis result, information relating to one or a plurality of sub reproduction paths is a reproduction path different from the main reproduction path of the stream. A second acquisition means for acquiring;
Information generating means for generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the information on the sub reproduction path acquired by the second acquisition means. Processing equipment.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the second acquisition unit acquires information related to a reproduction position of the sub reproduction path.
請求項2に記載の情報処理装置。 The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path, and is reproduced by all the sub reproduction paths managed for reproduction by the reproduction management information. The information processing apparatus according to claim 2, wherein image information indicating a reproduction position of the second stream is generated.
請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the information generation unit generates the image information including information indicating a reproduction range of each of the plurality of second streams reproduced by the sub reproduction path.
請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the information generation unit generates the image information including information indicating a type of each of the plurality of second streams reproduced by the sub reproduction path.
前記情報生成手段は、前記第3の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記副の再生パスにより再生される複数の前記第2のストリームを構成する画像データのうちの少なくとも一部を含む前記画像情報を生成する
請求項3に記載の情報処理装置。 Further comprising third acquisition means for acquiring at least part of the stream data;
The information generation means is a set of image data that constitutes the plurality of second streams to be reproduced by the secondary reproduction path based on at least a part of the stream data acquired by the third acquisition means. The information processing apparatus according to claim 3, wherein the image information including at least part of the image information is generated.
前記情報生成手段は、前記第2の取得手段により取得された前記ストリームを構成する画像データのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成する
請求項1に記載の情報処理装置。 The second acquisition means acquires a part of image data constituting a stream reproduced by the primary reproduction path and the secondary reproduction path,
The information generating means is an image constituting the first stream reproduced by the main reproduction path based on at least a part of the image data constituting the stream obtained by the second obtaining means. The information processing apparatus according to claim 1, wherein image information including at least a part of data and at least a part of image data constituting the second stream reproduced by the sub reproduction path is generated. .
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising display control means for controlling display of information relating to the stream generated by the information generation means.
前記第1の取得手段により取得された前記再生管理情報に基づいて、前記第3の取得手段により取得された前記ストリームデータの再生を制御する再生制御手段と
を更に備え、
前記表示制御手段は、前記再生制御手段により再生が制御される前記ストリームデータに、前記情報生成手段により生成された前記ストリームに関する情報が重畳されて表示されるように、前記ストリームに関する情報の表示を制御する
請求項8に記載の情報処理装置。 Third acquisition means for acquiring the stream data;
Replay control means for controlling the reproduction of the stream data obtained by the third obtaining means based on the reproduction management information obtained by the first obtaining means,
The display control means displays the information on the stream so that the information on the stream generated by the information generation means is superimposed on the stream data whose reproduction is controlled by the reproduction control means. The information processing apparatus according to claim 8 to be controlled.
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報を取得し、
前記情報生成手段は、前記主の再生パスにより再生される第1のストリームの再生時間軸に対応つけて、前記再生管理情報により再生が管理される全ての前記副の再生パスにより再生される前記第2のストリームの再生位置を示す画像情報を生成し、
前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御し、
前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームの再生位置のうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、選択された前記再生位置からの前記第1のストリームおよび前記第2のストリームの再生を制御する
請求項8に記載の情報処理装置。 It further comprises operation input acquisition means for acquiring operation input by the user,
The second acquisition means acquires information relating to the playback position of the sub playback path,
The information generating means is associated with the reproduction time axis of the first stream reproduced by the main reproduction path, and is reproduced by all the sub reproduction paths managed for reproduction by the reproduction management information. Generating image information indicating the playback position of the second stream;
The display control unit controls generation of the image information generated by the information generation unit,
When the operation input for selecting any one of the reproduction positions of the second stream by the user referring to the image information whose display is controlled by the display control unit is acquired by the operation input acquisition unit, The information processing apparatus according to claim 8, wherein the reproduction control unit controls reproduction of the first stream and the second stream from the selected reproduction position.
前記第2の取得手段は、前記副の再生パスの再生位置に関する情報、および、前記ストリームを構成する画像データのうちの一部を取得し、
前記情報生成手段は、前記第2の取得手段により取得された前記ストリームデータのうちの少なくとも一部を基に、前記主の再生パスにより再生される第1のストリームを構成する画像データのうちの少なくとも一部、および、前記副の再生パスにより再生される第2のストリームを構成する画像データのうちの少なくとも一部を含む画像情報を生成し、
前記表示制御手段は、前記情報生成手段により生成された前記画像情報の生成を制御し、
前記操作入力取得手段によって、前記表示制御手段により表示が制御された前記画像情報を参照したユーザによる前記第2のストリームを構成する前記画像データのうちのいずれかを選択する操作入力が取得された場合、前記再生制御手段は、ユーザにより選択された前記画像データに対応する第2のストリームの先頭の再生位置からの、前記第1のストリームおよび前記第2のストリームの再生を制御する
請求項8に記載の情報処理装置。 It further comprises operation input acquisition means for acquiring operation input by the user,
The second acquisition means acquires information on the playback position of the secondary playback path and part of the image data constituting the stream,
The information generating means is based on at least a part of the stream data acquired by the second acquisition means, and includes the image data constituting the first stream reproduced by the main reproduction path. Generating image information including at least a part and at least a part of the image data constituting the second stream reproduced by the sub reproduction path;
The display control unit controls generation of the image information generated by the information generation unit,
An operation input for selecting any of the image data constituting the second stream by the user referring to the image information whose display is controlled by the display control unit is acquired by the operation input acquiring unit. In this case, the reproduction control unit controls reproduction of the first stream and the second stream from the reproduction position at the head of the second stream corresponding to the image data selected by the user. The information processing apparatus described in 1.
前記ストリームの再生を制御するための再生管理情報を取得し、
取得された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報を取得し、
取得された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する
ステップを含む情報処理方法。 In an information processing method of an information processing device that generates information about a stream to be played back,
Obtaining reproduction management information for controlling reproduction of the stream;
Analyzing the acquired playback management information to obtain information on one or more secondary playback paths that are different from the main playback path of the stream,
An information processing method including the step of generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on the acquired information on the sub reproduction path.
前記ストリームの再生を制御するための再生管理情報の取得を制御し、
取得が制御された前記再生管理情報を解析して、前記ストリームの主の再生パスとは異なる再生パスであって、1つまたは複数の副の再生パスに関する情報の取得を制御し、
取得が制御された前記副の再生パスに関する情報を基に、前記主の再生パスおよび前記副の再生パスにより再生される前記ストリームに関する情報を生成する
ステップを含む処理をコンピュータに実行させるプログラム。 A program for causing a computer to execute processing for generating information about a stream to be played back,
Controlling the acquisition of playback management information for controlling playback of the stream;
Analyzing the playback management information whose acquisition is controlled, and controlling acquisition of information related to one or a plurality of secondary playback paths that are different from the main playback path of the stream;
A program for causing a computer to execute processing including a step of generating information on the main reproduction path and the stream reproduced by the sub reproduction path based on information on the sub reproduction path whose acquisition is controlled.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006173677A JP4770601B2 (en) | 2006-06-23 | 2006-06-23 | Information processing apparatus, information processing method, program, and program storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006173677A JP4770601B2 (en) | 2006-06-23 | 2006-06-23 | Information processing apparatus, information processing method, program, and program storage medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008005288A true JP2008005288A (en) | 2008-01-10 |
| JP4770601B2 JP4770601B2 (en) | 2011-09-14 |
Family
ID=39009302
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006173677A Expired - Fee Related JP4770601B2 (en) | 2006-06-23 | 2006-06-23 | Information processing apparatus, information processing method, program, and program storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4770601B2 (en) |
Cited By (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2712206A1 (en) * | 2012-09-19 | 2014-03-26 | JBF Interlude 2009 LTD - Israel | Progress bar for branched videos |
| US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
| US9257148B2 (en) | 2013-03-15 | 2016-02-09 | JBF Interlude 2009 LTD | System and method for synchronization of selectably presentable media streams |
| US9271015B2 (en) | 2012-04-02 | 2016-02-23 | JBF Interlude 2009 LTD | Systems and methods for loading more than one video content at a time |
| US9520155B2 (en) | 2013-12-24 | 2016-12-13 | JBF Interlude 2009 LTD | Methods and systems for seeking to non-key frames |
| US9530454B2 (en) | 2013-10-10 | 2016-12-27 | JBF Interlude 2009 LTD | Systems and methods for real-time pixel switching |
| US9607655B2 (en) | 2010-02-17 | 2017-03-28 | JBF Interlude 2009 LTD | System and method for seamless multimedia assembly |
| US9641898B2 (en) | 2013-12-24 | 2017-05-02 | JBF Interlude 2009 LTD | Methods and systems for in-video library |
| US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
| US9672868B2 (en) | 2015-04-30 | 2017-06-06 | JBF Interlude 2009 LTD | Systems and methods for seamless media creation |
| US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US9792026B2 (en) | 2014-04-10 | 2017-10-17 | JBF Interlude 2009 LTD | Dynamic timeline for branched video |
| US9832516B2 (en) | 2013-06-19 | 2017-11-28 | JBF Interlude 2009 LTD | Systems and methods for multiple device interaction with selectably presentable media streams |
| US10218760B2 (en) | 2016-06-22 | 2019-02-26 | JBF Interlude 2009 LTD | Dynamic summary generation for real-time switchable videos |
| US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
| US10448119B2 (en) | 2013-08-30 | 2019-10-15 | JBF Interlude 2009 LTD | Methods and systems for unfolding video pre-roll |
| US10462202B2 (en) | 2016-03-30 | 2019-10-29 | JBF Interlude 2009 LTD | Media stream rate synchronization |
| US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
| US10582265B2 (en) | 2015-04-30 | 2020-03-03 | JBF Interlude 2009 LTD | Systems and methods for nonlinear video playback using linear real-time video players |
| US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
| US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
| US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
| US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
| US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
| US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
| US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
| US11601721B2 (en) | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
| US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
| US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
| US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
| US12047637B2 (en) | 2020-07-07 | 2024-07-23 | JBF Interlude 2009 LTD | Systems and methods for seamless audio and video endpoint transitions |
| US12096081B2 (en) | 2020-02-18 | 2024-09-17 | JBF Interlude 2009 LTD | Dynamic adaptation of interactive video players using behavioral analytics |
| US12155897B2 (en) | 2021-08-31 | 2024-11-26 | JBF Interlude 2009 LTD | Shader-based dynamic video manipulation |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004127396A (en) * | 2002-10-01 | 2004-04-22 | Pioneer Electronic Corp | Information recording medium, information recording apparatus and method, information reproducing apparatus and method, information recording and reproducing apparatus and method, computer program for recording or reproduction control, and data structure including control signal |
| JP2004242267A (en) * | 2002-12-10 | 2004-08-26 | Sony Computer Entertainment Inc | Method and apparatus for editing image, and method and apparatus for reproducing image |
| WO2005011273A1 (en) * | 2003-06-18 | 2005-02-03 | Matsushita Electric Industrial Co., Ltd. | Reproduction device, recording medium, program, and reproduction method |
| WO2006028216A1 (en) * | 2004-09-10 | 2006-03-16 | Matsushita Electric Industrial Co., Ltd. | Recording medium, reproduction device, program, reproduction method |
-
2006
- 2006-06-23 JP JP2006173677A patent/JP4770601B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004127396A (en) * | 2002-10-01 | 2004-04-22 | Pioneer Electronic Corp | Information recording medium, information recording apparatus and method, information reproducing apparatus and method, information recording and reproducing apparatus and method, computer program for recording or reproduction control, and data structure including control signal |
| JP2004242267A (en) * | 2002-12-10 | 2004-08-26 | Sony Computer Entertainment Inc | Method and apparatus for editing image, and method and apparatus for reproducing image |
| WO2005011273A1 (en) * | 2003-06-18 | 2005-02-03 | Matsushita Electric Industrial Co., Ltd. | Reproduction device, recording medium, program, and reproduction method |
| WO2006028216A1 (en) * | 2004-09-10 | 2006-03-16 | Matsushita Electric Industrial Co., Ltd. | Recording medium, reproduction device, program, reproduction method |
Cited By (53)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
| US11314936B2 (en) | 2009-05-12 | 2022-04-26 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
| US12265975B2 (en) | 2010-02-17 | 2025-04-01 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
| US9607655B2 (en) | 2010-02-17 | 2017-03-28 | JBF Interlude 2009 LTD | System and method for seamless multimedia assembly |
| US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
| US9271015B2 (en) | 2012-04-02 | 2016-02-23 | JBF Interlude 2009 LTD | Systems and methods for loading more than one video content at a time |
| EP2712206A1 (en) * | 2012-09-19 | 2014-03-26 | JBF Interlude 2009 LTD - Israel | Progress bar for branched videos |
| US9009619B2 (en) | 2012-09-19 | 2015-04-14 | JBF Interlude 2009 Ltd—Israel | Progress bar for branched videos |
| US10474334B2 (en) | 2012-09-19 | 2019-11-12 | JBF Interlude 2009 LTD | Progress bar for branched videos |
| US9257148B2 (en) | 2013-03-15 | 2016-02-09 | JBF Interlude 2009 LTD | System and method for synchronization of selectably presentable media streams |
| US10418066B2 (en) | 2013-03-15 | 2019-09-17 | JBF Interlude 2009 LTD | System and method for synchronization of selectably presentable media streams |
| US9832516B2 (en) | 2013-06-19 | 2017-11-28 | JBF Interlude 2009 LTD | Systems and methods for multiple device interaction with selectably presentable media streams |
| US10448119B2 (en) | 2013-08-30 | 2019-10-15 | JBF Interlude 2009 LTD | Methods and systems for unfolding video pre-roll |
| US9530454B2 (en) | 2013-10-10 | 2016-12-27 | JBF Interlude 2009 LTD | Systems and methods for real-time pixel switching |
| US9641898B2 (en) | 2013-12-24 | 2017-05-02 | JBF Interlude 2009 LTD | Methods and systems for in-video library |
| US9520155B2 (en) | 2013-12-24 | 2016-12-13 | JBF Interlude 2009 LTD | Methods and systems for seeking to non-key frames |
| US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
| US11501802B2 (en) | 2014-04-10 | 2022-11-15 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
| US9792026B2 (en) | 2014-04-10 | 2017-10-17 | JBF Interlude 2009 LTD | Dynamic timeline for branched video |
| US10755747B2 (en) | 2014-04-10 | 2020-08-25 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
| US10692540B2 (en) | 2014-10-08 | 2020-06-23 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US11348618B2 (en) | 2014-10-08 | 2022-05-31 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US10885944B2 (en) | 2014-10-08 | 2021-01-05 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US11900968B2 (en) | 2014-10-08 | 2024-02-13 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
| US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
| US9672868B2 (en) | 2015-04-30 | 2017-06-06 | JBF Interlude 2009 LTD | Systems and methods for seamless media creation |
| US12132962B2 (en) | 2015-04-30 | 2024-10-29 | JBF Interlude 2009 LTD | Systems and methods for nonlinear video playback using linear real-time video players |
| US10582265B2 (en) | 2015-04-30 | 2020-03-03 | JBF Interlude 2009 LTD | Systems and methods for nonlinear video playback using linear real-time video players |
| US11804249B2 (en) | 2015-08-26 | 2023-10-31 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
| US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
| US12119030B2 (en) | 2015-08-26 | 2024-10-15 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
| US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
| US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
| US10462202B2 (en) | 2016-03-30 | 2019-10-29 | JBF Interlude 2009 LTD | Media stream rate synchronization |
| US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
| US10218760B2 (en) | 2016-06-22 | 2019-02-26 | JBF Interlude 2009 LTD | Dynamic summary generation for real-time switchable videos |
| US11553024B2 (en) | 2016-12-30 | 2023-01-10 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
| US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
| US11528534B2 (en) | 2018-01-05 | 2022-12-13 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
| US10856049B2 (en) | 2018-01-05 | 2020-12-01 | Jbf Interlude 2009 Ltd. | Dynamic library display for interactive videos |
| US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
| US11601721B2 (en) | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
| US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
| US12096081B2 (en) | 2020-02-18 | 2024-09-17 | JBF Interlude 2009 LTD | Dynamic adaptation of interactive video players using behavioral analytics |
| US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
| US12047637B2 (en) | 2020-07-07 | 2024-07-23 | JBF Interlude 2009 LTD | Systems and methods for seamless audio and video endpoint transitions |
| US12316905B2 (en) | 2020-07-07 | 2025-05-27 | JBF Interlude 2009 LTD | Systems and methods for seamless audio and video endpoint transitions |
| US12284425B2 (en) | 2021-05-28 | 2025-04-22 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
| US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
| US12155897B2 (en) | 2021-08-31 | 2024-11-26 | JBF Interlude 2009 LTD | Shader-based dynamic video manipulation |
| US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
| US12450306B2 (en) | 2021-09-24 | 2025-10-21 | JBF Interlude 2009 LTD | Video player integration within websites |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4770601B2 (en) | 2011-09-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4770601B2 (en) | Information processing apparatus, information processing method, program, and program storage medium | |
| JP4081772B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM | |
| JP4923751B2 (en) | REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF | |
| JP4674618B2 (en) | Playback device, playback method, program, data, recording medium | |
| JP4251298B2 (en) | REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, PROGRAM STORAGE MEDIUM, DATA, RECORDING MEDIUM, RECORDING DEVICE, AND RECORDING MEDIUM MANUFACTURING METHOD | |
| JP4849343B2 (en) | Data generation method, recording apparatus and method, and program | |
| JP4720676B2 (en) | Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium | |
| JP2008193604A (en) | Playback apparatus and method, and program | |
| JP4821456B2 (en) | Information processing apparatus, information processing method, program, data structure, and recording medium | |
| JP4968562B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD | |
| JP2008052836A (en) | Information processing apparatus, information processing method, program, and program storage medium | |
| JP4900708B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM | |
| JP5201428B2 (en) | Data generation method, recording apparatus and method, and program | |
| JP5234144B2 (en) | REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090612 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101028 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101102 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101222 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110524 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110606 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |