[go: up one dir, main page]

WO2006092996A1 - 記録媒体、再生装置および再生方法 - Google Patents

記録媒体、再生装置および再生方法 Download PDF

Info

Publication number
WO2006092996A1
WO2006092996A1 PCT/JP2006/303148 JP2006303148W WO2006092996A1 WO 2006092996 A1 WO2006092996 A1 WO 2006092996A1 JP 2006303148 W JP2006303148 W JP 2006303148W WO 2006092996 A1 WO2006092996 A1 WO 2006092996A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
playback
title
time
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2006/303148
Other languages
English (en)
French (fr)
Inventor
Shigeki Matsunaga
Hideyuki Kuwano
Ryuichiro Takamatsu
Wataru Ikeda
Takashi Kakiuchi
Kakuya Yamamoto
Takahiro Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of WO2006092996A1 publication Critical patent/WO2006092996A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • G11B20/00137Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving measures which result in a restriction to contents recorded on or reproduced from a record carrier to authorised users
    • G11B20/00159Parental control systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • G11B20/00731Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving a digital rights management system for enforcing a usage restriction
    • G11B20/00739Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving a digital rights management system for enforcing a usage restriction wherein the usage restriction is associated with a specific geographical region
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B2020/1264Formatting, e.g. arrangement of data block or words on the record carriers wherein the formatting concerns a specific kind of data
    • G11B2020/1288Formatting by padding empty spaces with dummy data, e.g. writing zeroes or random data when de-icing optical discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Definitions

  • the present invention relates to a recording medium on which AV stream data is recorded, such as a Blu-ray Disc (BD) -ROM, a reproducing apparatus and a reproducing method for reproducing the recording medium.
  • a recording medium on which AV stream data is recorded such as a Blu-ray Disc (BD) -ROM
  • BD Blu-ray Disc
  • a typical information recording medium on which video data is recorded is a DVD (hereinafter also referred to as “Standard Definition (SD) —DVD”).
  • SD Standard Definition
  • DVD DVD
  • the conventional DVD will be described below.
  • FIG. 1 is a diagram showing the structure of an SD-DVD. As shown in the lower part of Fig. 1, a logical address space is provided on the DVD disk from lead-in to lead-out. In the logical address space, volume information of the leading file system is recorded, followed by application data such as video and audio.
  • a file system is a mechanism for managing data defined by standards such as ISO9660 and Universal Disc Format (UDF).
  • UDF Universal Disc Format
  • SD-DVD uses both UDF and ISO9660 file systems. Together, they are also called “UDF bridges”.
  • the recorded data can be read by either UDF or ISO9660 file system drivers.
  • the DVD handled here is a ROM disk for package media, and is not physically writable.
  • Data recorded on a DVD can be viewed as a directory or file as shown in the upper left of FIG. 1 through a UDF bridge.
  • a directory called “VIDEO TS” is placed directly under the root directory (“ROO T” in Fig. 1). Case data is recorded.
  • Application data is recorded as multiple files, and the following types of files are the main files.
  • IFO Video Title Set # 1 Playback Control Information File VTS 01 0.
  • VOB Video Title Set # 1 Stream File As shown in the above example, two extensions are defined. riFOj is an extension indicating that the file has playback control information recorded therein, and “VOB” is an extension indicating that the file is an MPEG stream of AV data.
  • Playback control information refers to information used to implement interactivity (a technology that dynamically changes playback according to user operations) used in DVDs, and AV data such as metadata. The information that comes with the data.
  • the playback control information is generally called navigation information.
  • the playback control information file includes “VIDEO—TS. IFO” for managing the entire disc and “VTS-01-0. IFO” which is playback control information for each video title set.
  • a DVD can record multiple titles, in other words, multiple different movies and songs on a single disc.
  • “01” in the file name body indicates the number of the video title set. For example, in the case of the video title set # 2, “VTS-02-02. IFO” is obtained.
  • the upper right part of FIG. 1 is a DVD navigation space in the DVD application layer, which is a logical structure space in which the playback control information described above is expanded.
  • “VIDEO—TS. IFOJ information is VIDEO Manager Information (VMGI) and“ VTS— 01— 0. I FO ”or other video title set playback control information is Video Title Set Information (VTSI). ) As a DVD navigation space.
  • VTSI describes Program Chain Information (PGCI), which is information of a playback sequence called Program Chain (PGC).
  • PPC Program Chain
  • PGCI consists of a set of cells and a kind of programming information called commands. Cell himself
  • VOB abbreviation of Video Object, indicating MPEG stream
  • the command is processed by a virtual machine of the DVD, and is close to, for example, a Java (registered trademark) script executed on a browser that displays a web page.
  • Java® scripts control windows and browsers in addition to logical operations (for example, opening a new browser window)
  • DVD commands can be used in addition to logical operations.
  • the only difference is that the playback control of the AV title, for example, the designation of the chapter to be played back is only executed.
  • the Cell is recorded on the disc and has the VOB start and end addresses (logical addresses) as its internal information, and the player uses the VOB start and end address information described in the Cell. Use to read and play data.
  • VOB start and end addresses logical addresses
  • FIG. 2 is a schematic diagram for explaining navigation information embedded in an MPEG stream that is AV data.
  • the interactivity that is a feature of SD—DVD is realized only by the navigation information recorded in “VIDEO—TS. IFO” and “VTS—01—0. IFO” mentioned above.
  • Some important information is multiplexed with video and audio data in VOB using a dedicated carrier called Navigation 'Pack (Navi Pack or NV_PCK).
  • buttons appear on the menu screen, and each button defines the processing when the button is selected and executed.
  • one button is selected on the menu screen (a translucent color is overlaid on the selection button by highlighting), and the user uses the up / down / left / right keys on the remote control to select the selected button. It can be moved to any button up / down / left / right.
  • the program of the corresponding command is executed by determining (pressing the enter key)
  • playback of a corresponding title or chapter is executed by a command.
  • the upper left part of FIG. 2 shows an outline of information stored in the NV-PCK.
  • the NV—PCK contains information on the color, illite color and individual button information. No, illite color In the information, color palette information is described, and the semi-transparent color of the highlighted highlight is specified.
  • the button information includes rectangular area information that is position information of each button, movement information from the button to another button (designation of a movement destination button corresponding to each of the user's up / down / left / right key operations), Button command information (command executed when the button is determined) is described.
  • the highlight on the menu screen is created as an overlay image as shown in the upper right part of FIG.
  • the overlay image is an image obtained by adding the color palette information color to the rectangular area information of the button information. This overlay image is combined with the background image shown on the right and displayed on the screen.
  • a menu screen is realized on DVD. Also, why is it necessary to embed part of the navigation data in the stream using NV-PCK! /, For the following reasons.
  • the menu information is dynamically updated in synchronization with the stream.For example, when the menu screen is displayed only during the movie playback for 5 to 10 minutes, the processing that is likely to cause the synchronization timing is a problem. This is so that it can be realized.
  • FIG. 3 is a schematic diagram showing the configuration of a VOB in a DVD.
  • data such as video, audio, and subtitles (stage 1) is packetized and packed (stage 2) based on the MPEG system (ISOZIEC13818-1) standard, and each is multiplexed into one MPEG program stream (stage 3).
  • MPEG system ISOZIEC13818-1
  • NV-PCK that includes button commands for realizing interactive functions is also multiplexed.
  • individual data to be multiplexed is a bit string based on the decoding order, but it is not always reproduced between multiplexed data, that is, between video, audio, and subtitles.
  • Order based on decoding order if you change the word! A bit string is formed, and V is not.
  • stage 4 This is an MPEG system stream decoder model (stage 4, generally called System Targ et Decoder, or STD) that has a decoder buffer corresponding to each elemental stream after demultiplexing. Data temporarily by Accumulate and derive from things.
  • stage 4 generally called System Targ et Decoder, or STD
  • This decoder buffer has a different size for each elementary stream, and has 232 kB for video, 4 kB for audio, and 52 kB for subtitles. For this reason, since the data input timing to each decoder buffer is different for each elementary stream, there is a difference between the order in which the bit string is formed as the MPEG system stream and the display (decoding) timing.
  • subtitle data multiplexed side by side with video data is not necessarily decoded at the same timing.
  • Patent Document 1 Japanese Patent No. 2813245
  • BD-ROM which is the next-generation information recording medium, is scheduled to record content including programs consisting of XML 'XHTML and scripts that are not used by the navigation commands as described above.
  • Interactive applications can be realized by executing scripts that run on and off events.
  • a playback device is a playback device that plays back a title that is digital content, a title playback device that acquires and plays back the title, A point list in which an event to be generated in playback is associated with an event time that is the time at which the event is generated is acquired, and the playback time of the title being played back by the title playback means according to the acquired point list
  • an event generation unit that generates an event corresponding to the event time, and a process corresponding to the event described in the point list acquired by the event generation unit
  • An application that describes event processing A script execution unit that acquires a script that is a program and executes event processing corresponding to the event generated by the event generation unit according to the acquired script, and the event generation unit includes the title reproduction unit.
  • An event including reproduction state information indicating a reproduction state of a title is generated, and the script execution unit switches event processing to be executed depending on the reproduction state information included in the event generated by the event generation unit. It is characterized by that. With such a configuration, it is possible to execute a script that generates an event that is linked to the playback time of the content, and that performs an optimal process for the event. This also makes it possible to realize expressive applications.
  • the event generation means generates an event including reproduction status information indicating that the title is specially reproduced when the title reproduction means performs special reproduction of the title. As well.
  • the script execution means sets the visible attribute of the image associated with the event to an invisible state when the reproduction state information included in the event indicates that the title is specially reproduced. After setting to visible state, the image set to visible state may be displayed.
  • an event generation condition that is a condition for generating the event is described in association with the event, and the event generation unit reproduces the title being reproduced by the title reproduction unit.
  • the time reaches the event time described in the point list, it is determined whether or not the event generation condition corresponding to the event time is satisfied, and the event corresponding to the event time is satisfied only when the event generation condition is satisfied. You may generate.
  • the event generation condition is a condition indicating whether or not an event needs to be generated during special playback, and the event generation unit is configured such that the title playback unit performs special playback of the title.
  • the event may or may not be generated according to the condition indicated by the event generation condition corresponding to the event time.
  • the event is an event generated for each chapter that is a unit of a story constituting the title, and an event process corresponding to the event is a chapter. Even if it is a process corresponding to the switching of.
  • the present invention is also a playback method for playing back a title which is digital content, a title playback step for acquiring and playing back the title, an event to be generated over the playback of the title, and the A point list described in association with an event time that is an event generation time is acquired, and the playback time of the title being played back by the title playback step is described in the point list according to the acquired point list.
  • An event generation step that generates an event corresponding to the event time when the event time is reached, and an event process that is a process corresponding to the event described in the point list acquired in the event generation step are described.
  • the script execution step provides a playback method for switching event processing to be executed depending on playback state information included in the event generated in the event generation step.
  • the present invention also provides a program for a playback device that plays back a title that is digital content, and causes a computer to execute the steps recited in claim 7.
  • the recording medium of the present invention is a computer-readable recording medium on which a program for a reproducing apparatus for reproducing a title that is digital content is recorded, and the program according to claim 8 is recorded on the recording medium. It is characterized by.
  • the integrated circuit of the present invention is an integrated circuit for playing back a title that is digital content, and should be generated in the title playback means for acquiring and playing back the title, and playback of the title.
  • a point list in which an event is associated with an event time that is the time when the event is generated is acquired, and the playback time of the title being played back by the title playback means is stored in the point list according to the acquired point list.
  • the event generation means for generating an event corresponding to the event time, and the point list acquired by the event generation means are described.
  • Script execution means for acquiring a script that is an application program that describes event processing that is processing corresponding to the event generated, and executing event processing corresponding to the event generated by the event generation means according to the acquired script
  • the event generation means generates an event including reproduction state information indicating a reproduction state of the title by the title reproduction means
  • the script execution means includes a reproduction included in the event generated by the event generation means.
  • the event processing to be executed is switched depending on the state information.
  • the recording medium of the present invention is a computer-readable recording medium, which is a title that is digital content, an event that is to be generated in reproduction of the title, and an event that is a time at which the event is generated
  • FIG. 1 is a diagram showing the structure of an SD-DVD.
  • FIG. 2 is a schematic diagram for explaining navigation information embedded in an MPEG stream that is AV data.
  • FIG. 3 is a schematic diagram showing the configuration of a VOB in a DVD.
  • FIG. 4 is a diagram showing a data hierarchy of a BD-ROM.
  • FIG. 5 is a diagram showing the structure of logical data recorded on a BD-ROM.
  • FIG. 6 is a diagram showing an outline of a basic configuration of a BD-ROM player that plays BD-ROM.
  • FIG. 7 is a detailed block diagram of the configuration of the player shown in FIG.
  • FIG. 8 is a diagram showing a BD-ROM application space.
  • FIG. 9 is a diagram showing the structure of an MPEG stream (VOB).
  • FIG. 10 is a diagram illustrating a pack configuration in an MPEG stream.
  • FIG. 11 is a diagram for explaining the relationship between AV data and a player configuration.
  • FIG. 12 is a diagram for explaining a VOB data continuous supply model using a track buffer.
  • FIG. 13 is a diagram showing an internal structure of a VOB management information file.
  • FIG. 14 is a diagram for explaining details of VOBU information.
  • FIG. 15 is a diagram for explaining an address information acquisition method using a time map.
  • FIG. 16 is a diagram showing a structure of playlist information.
  • FIG. 17 is a diagram showing a structure of an event handler table.
  • FIG. 18 is a diagram showing a structure of BD. INFO that is BD-ROM overall information.
  • FIG. 19 is a diagram showing a configuration of a global event handler table.
  • FIG. 20 is a diagram showing an example of a time event.
  • FIG. 21 is a diagram showing an example of a user event by a user's menu operation.
  • FIG. 22 is a diagram showing an example of a global event.
  • FIG. 23 is a diagram for explaining a functional configuration of a program processor.
  • FIG. 24 is a diagram showing a list of system parameters (SPRM).
  • FIG. 25 is a diagram showing an example of a program in an event handler related to control of a menu screen having two selection buttons.
  • FIG. 26 is a diagram showing an example of a program in an event handler related to a user event of menu selection.
  • FIG. 27 is a flowchart showing a flow of basic processing of AV data reproduction in a BD-ROM player.
  • FIG. 28 is a flowchart showing the flow of processing from the start of playlist playback to the end of VOB playback in the BD-ROM player.
  • FIG. 29 (A) is a flowchart showing a process flow related to a time event in a BD-ROM player
  • FIG. 29 (B) shows a process flow related to a user event in a BD-ROM player. It is a flowchart to show.
  • FIG. 30 is a flowchart showing a flow of processing of caption data in a BD-ROM player.
  • FIG. 31 is a diagram for explaining the module configuration and control flow of the playback apparatus of the present invention.
  • FIG. 32 is a diagram for explaining the relationship between the Index Table and the XHTML file.
  • FIG. 33 is a diagram showing an example of an XHTML file in which buttons are displayed.
  • FIG. 34 is an explanatory diagram for explaining the life cycle of data.
  • FIG. 35 is a timing chart illustrating a data life cycle.
  • FIG. 36 is a diagram for explaining a method of combining data into one.
  • FIG. 37 is an explanatory diagram of a method for introducing memory size expansion.
  • FIG. 38 is a diagram of a player variable table to which language settings for applications are added.
  • FIG. 39 is a diagram showing an example of switching the language displayed or processed by the application according to the language setting for the application.
  • FIG. 40 is a diagram showing an example of switching the language to be displayed or processed by the application based on the description of XML'XHTML and the script.
  • FIG. 41 is a sequence diagram of a language switching method using an IndexTable for a set language, a file list, or a compressed file.
  • FIG. 42 is a diagram showing an example in which an IndexTable for a set language, a file list, or a compressed file is recorded on a disc.
  • FIG. 43 is a configuration diagram of a playlist file in which a point list has been added and modified.
  • FIG. 44 is a diagram showing an example in which a commentary picture application is realized by a system that generates and processes an event linked to a content playback time.
  • FIG. 45 is a flowchart of a system for generating and processing an event linked to a content playback time.
  • FIG. 46 is a diagram illustrating a description example of a commentary picture application.
  • Fig. 47 generates an event that can be linked to the content playback time and can also notify the playback status.
  • FIG. 48 is a flowchart of a system that generates and processes an event that is linked to the content playback time and can also notify the playback state.
  • FIG. 49 is a diagram showing a description example of a chapter title application.
  • FIG. 50 is a configuration diagram of a playlist file in which event generation condition information is added to the point information and modified.
  • FIG. 51 is a diagram showing an outline of the operation of a system that generates and processes events linked to content playback times according to event generation conditions.
  • FIG. 52 is a flowchart of a system for generating and processing an event linked to a content playback time according to an event generation condition.
  • VOB information (YYY. VOBI) reading step 5403 VOB (YYY. VOB) reading step
  • FIG. 4 shows the data hierarchy of the BD-ROM.
  • BD-ROM 104 which is a disk medium
  • AV data 103 As shown in FIG. 4, on the BD-ROM 104, which is a disk medium, AV data 103,
  • BD management information 102 such as management information related to AV data and an AV playback sequence, and a BD playback program 101 that realizes interactive operations are recorded.
  • the entity data of each title exists as AV data 103, and the scenario control description data (hereinafter also simply referred to as "scenario") of each title exists as BD management information 102.
  • BD-ROM mainly for AV applications for reproducing AV contents such as movies, etc.
  • BD-ROM is a computer like CD-ROM and DVD-ROM. Of course, it can be used as a recording medium for various purposes.
  • FIG. 5 is a diagram showing the structure of logical data recorded on the BD-ROM 104 described above.
  • BD-ROM104 like other optical discs such as DVD and CD, has a recording area that spirals from the inner periphery to the outer periphery, and stores logical data between the inner lead-in and outer lead-out. It has a logical address space that can be recorded.
  • BCA Burst Cutting Area
  • file system information (volume).
  • the file system is a mechanism for managing data defined by standards such as UDF and ISO9660 as explained in the prior art.
  • Logical data recorded in the same way as a normal PC is stored in the directory and file structure. It is possible to read out using.
  • the directory and file structure on the BD-ROM 104 is the BD VIDEO directory immediately under the root directory (ROOT).
  • This directory is a directory in which data such as AV data and management information handled by the BD-ROM (BD playback program 101, BD management information 102, AV data 103 shown in FIG. 4) is recorded.
  • BD management information is a file that records information about the entire BD-ROM. The BD-ROM player first reads this file.
  • BD management information is a file that records playlist information for recording scenarios. There is one file per playlist.
  • VOB VOB explained in the conventional example.
  • VOB VOB
  • BD management information is a file that records management information related to VOB, which is AV data.
  • the correspondence with the VOB is identified by the file body name ("YYY" matches).
  • PNG (standardized by the World Wide Web Consortium (W3C)), which is one of the “AV data” and is image data for composing subtitles and menu screens. It is an image format and is read as “bing”. ) Format image file.
  • W3C World Wide Web Consortium
  • One PNG image corresponds to one file.
  • FIG. 6 the configuration of the player that plays the BD-ROM 104 will be described with reference to FIGS. 6 and 7.
  • FIG. 6 is a diagram showing an outline of a basic configuration of a BD-ROM player that reproduces the BD-ROM 104.
  • BD-ROM player data on the BD-ROM 104 is read through the optical pickup 202.
  • the read data is recorded in a dedicated memory according to the type of each data.
  • BD playback programs ("BD. PROG” or "XXX. PROG” files) are stored in the program recording memory 203, and BD management information (“: BD. INFO", "X XX. PL” or “YYY. VOBI” files) AV data (“YYY. VOB” or “ZZZ. PNG” file) is recorded in the management information recording memory 204 in the AV recording memory 205, respectively.
  • the BD playback program recorded in the program recording memory 203 is processed by the program processing unit 206.
  • the BD management information recorded in the management information recording memory 204 is processed by the management information processing unit 207.
  • the AV data recorded in the AV recording memory 205 is processed by the presentation processing unit 208.
  • the program processing unit 206 receives the event information such as the playlist information to be reproduced and the execution timing of the program from the management information processing unit 207, and processes the program. In addition, it is possible to dynamically change the playlist to be played back by the program. In this case, it is realized by sending a playback instruction for the playlist after the change to the management information processing unit 207.
  • the program processing unit 206 further receives an event from the user, for example, a remote control request that is operated by the user, and executes an execution process if there is a program corresponding to the user event.
  • the management information processing unit 207 receives an instruction from the program processing unit 206, and analyzes the playlist corresponding to the instruction and the management information of the VOB corresponding to the playlist. In addition, The presentation processing unit 208 is instructed to reproduce AV data to be reproduced.
  • management information processing unit 207 receives reference time information from presentation processing unit 208, and instructs presentation processing unit 208 to stop AV data reproduction based on the time information. Furthermore, an event indicating the program execution timing is generated for the program processing unit 206.
  • the presentation processing unit 208 has a decoder corresponding to video, audio, and subtitle data, and decodes and outputs AV data in accordance with instructions from the management information processing unit 207.
  • Video data and subtitle data are drawn on each dedicated plane after decoding. Specifically, video data is drawn on the video plane 210, and image data such as caption data is drawn on the image plane 209. Further, the composition processing of the video drawn on the two planes is performed by the composition processing unit 211 and output to a display device such as a TV.
  • the BD-ROM player is recorded on the BD-ROM 104 shown in FIG.
  • FIG. 7 is a detailed block diagram of the configuration of the player shown in FIG.
  • the correspondence between each component shown in FIG. 6 and each component shown in FIG. 7 is as follows.
  • the AV recording memory 205 corresponds to the image memory 308 and the track buffer 309.
  • the program processing unit 206 corresponds to a program processor 302 and a UO (User Operation) manager 303.
  • the management information processing unit 207 corresponds to the scenario processor 305 and the presentation controller 306.
  • the presentation processing unit 208 corresponds to a clock 307, a demultiplexer 310, an image processor 311, a video processor 312, and a sound processor 313.
  • VOB data MPEG stream
  • PNG image data
  • the demultiplexer 310 extracts the VOB data recorded in the track buffer 309 based on the time obtained from the clock 307. Furthermore, the video data included in the VOB data is sent to the video processor 312 and the audio data is sent to the sound processor 313. [0075]
  • the video processor 312 and the sound processor 313 are each configured with a decoder buffer and a decoder power, respectively, as defined by the MPEG system standard. In other words, the video and audio data sent from the demultiplexer 310 are temporarily recorded in the respective decoder buffers and decoded by the individual decoders according to the clock 307.
  • PNG data recorded in the image memory 308 has the following two processing methods.
  • the presentation controller 306 instructs the decoding timing. Display and hide subtitles to the presentation controller 306 at the subtitle display time (start and end) so that the scenario processor 305 receives the time information from the clock 307 and can display appropriate subtitles. Give instructions.
  • the image processor 311 extracts the corresponding PNG data from the image memory 308, decodes it, and renders it on the image plane 209.
  • the program processor 302 instructs the decoding timing. Whether the program processor 302 instructs to decode the image depends on the BD program being processed by the program processor 302, and it is unclear!
  • the image data and the video data are recorded on the image plane 209 and the video plane 210 after being decoded, drawn, and synthesized and output by the synthesis processing unit 211.
  • Management information (scenario, AV management information) read from the BD-ROM 104 is recorded in the management information recording memory 204.
  • Scenario information (“BD. INFO” and "XXX. PL" is a scenario. It is read and processed by the processor 305.
  • the AV management information (“YYY. VOBI”) is read and processed by the presentation controller 306.
  • the scenario processor 305 analyzes the information of the playlist and instructs the presentation controller 306 on the VOB referenced by the playlist and its playback position.
  • the presentation controller 306 manages the target VOB. Pray the information (“YYY. VOBI”) and instruct the drive controller 317 to read out the target VOB.
  • the drive controller 317 moves the optical pickup according to the instruction of the presentation controller 306, and reads the target AV data.
  • the read AV data is recorded in the image memory 308 or the track buffer 309 as described above.
  • scenario processor 305 monitors the time of the clock 307 and throws an event to the program processor 302 at the timing set in the management information.
  • the BD program (“BD. PROG” or “XXX. PROG”) recorded in the program recording memory 203 is executed by the program processor 302.
  • the program processor 302 processes the BD program when an event is sent from the scenario processor 305 or when an event is sent from the UO manager 303.
  • the UO manager 303 When a request is sent from the user by a remote control key, the UO manager 303 generates an event corresponding to the request and sends it to the program processor 302.
  • the BD-ROM is played back by the operation of each component as described above.
  • FIG. 8 is a diagram showing a BD-ROM application space.
  • a playlist becomes one playback unit! /.
  • the playlist has a static scenario that also configures the playback sequence of the cell and a dynamic scenario described by the program. Unless there is a dynamic scenario by the program, the playlist only plays back individual cells in order, and playback of the playlist ends when playback of all cells is finished.
  • the program can dynamically change the playback target according to the playback description beyond the playlist, the user's selection or the state of the player.
  • a typical example is dynamic change of a playback target via a menu screen.
  • the menu is one of the components of the function for dynamically selecting a scenario to be played back by the user's selection, that is, a playlist.
  • the program referred to here is an event handler executed by a time event or a user event.
  • a time event is an event generated based on time information embedded in a playlist. Sent from the scenario processor 305 described in FIG. 7 to the program processor 302 This is equivalent to the event to be performed. When a time event is issued, the program processor
  • the program to be executed can instruct playback of another playlist. In this case, playback of the currently played playlist is stopped and playback of the specified playlist is performed. Transition to.
  • the user event is an event generated by a user's remote control key operation.
  • Event handlers corresponding to menu selection events are valid only for a limited period in the playlist. In other words, the validity period of each event handler is set as playlist information.
  • the program processor 302 searches for a valid event handler when the “Up”, “Down”, “Left”, “Right” key or “Determination” key of the remote control is pressed. The handler is executed. In other cases, the menu selection event will be ignored.
  • the second user event is a menu screen call event generated by operating the “menu” key.
  • a menu screen call event When a menu screen call event is generated, a global event handler is called. Global event handlers are always valid event handlers independent of playlists. Using this feature, DVD menu calls can be implemented. By implementing the menu call, it is possible to call up the audio, subtitle menu, etc. during the title playback, and execute the title playback at the point where it was interrupted after changing the audio or subtitle.
  • a cell which is a unit constituting a static scenario in a playlist, refers to all or part of a playback section of a VOB (MPEG stream).
  • the cell has the playback period in the VOB as information on the start and end times.
  • the VOB management information (VOBI) paired with each VOB has a time map (Time Map or TM) inside it, and the playback and end times of the VOB described above are stored in the VOB ( In other words, the read start address and end address of the target file “YYY. VOBJ” are derived. It is possible. Details of the time map will be described later with reference to FIG.
  • FIG. 9 is a diagram showing the structure of an MPEG stream (VOB) used in the present embodiment.
  • a VOB is composed of multiple Video Object Units (VOBU).
  • VOBU is a unit based on Group Of Pictures (GOP) in an MPEG video stream, and is one playback unit as a multiplexed stream including audio data.
  • GIP Group Of Pictures
  • VOBU has a playback time of 0.4 to 1.0 seconds, and normally has a playback time of 0.5 seconds. This is driven by the fact that the MPEG GOP structure is usually 15 frames Z seconds (in the case of NTSC).
  • the VOBU has therein a video pack (V—PCK) that is video data and an audio pack (A—PCK) that is audio data.
  • V—PCK video pack
  • A—PCK audio pack
  • Each pack is composed of one sector, and in this embodiment, it is composed of 2 kB units.
  • Fig. 10 is a diagram illustrating a pack configuration in an MPEG stream.
  • V and Tatsu elementary data are sequentially put in the data storage area of the packet called the payload.
  • a packet header is attached to the payload to form one packet.
  • the packet header includes information indicating which stream data is stored in the payload, information indicating whether the data is video data or audio data, and video data or audio data.
  • ID for identifying which stream data
  • DTS Decode Time Stamp
  • PTS Presentation Time Stamp
  • DTS and PTS are not necessarily recorded in all packet headers.
  • Rules for recording in MPEG are specified. The details of the rules are described in the MPEG system (ISOZIEC13818-1) standard, and will be omitted.
  • Pack header Contains a System Clock Reference (SCR), which is a time stamp indicating when the pack passes through the demultiplexer and is input to the decoder buffer of each elementary stream!
  • SCR System Clock Reference
  • FIG. 11 is a diagram for explaining the relationship between AV data and the configuration of a BD-ROM player.
  • FIG. 11 The upper part of FIG. 11 is a part of the player configuration diagram described above with reference to FIG. As shown in the figure, the data on the BD-ROM is input to the track buffer 309 if it is a VOB or MPEG stream through an optical pickup, and to the image memory 308 if it is PNG or image data.
  • the track buffer 309 is First-In First-Out (FIFO), and the input VOB data is sent to the demultiplexer 310 in the order of input. At this time, each pack is extracted from the track buffer 309 according to the SCR described above, and data is sent to the video processor 312 or the sound processor 313 via the demultiplexer 310.
  • FIFO First-In First-Out
  • image data which image is drawn is instructed by the presentation controller 306 (see FIG. 7). Further, the image data used for drawing is left in the image memory as it is in the case of image data for power menu that is deleted from the image memory 308 at the same time in the case of subtitle image data. This is because the menu drawing may depend on user operations, so the same image may be drawn multiple times.
  • the lower diagram in Fig. 11 is a diagram showing interleaved recording of the VOB finale and the PNG finale on the BD-ROM.
  • AV data that is a series of continuous playback units is continuously recorded.
  • the drive only needs to read the data sequentially and send it to the player.
  • AV data that should be played continuously is divided and discretely arranged on the disc, individual continuous sections During this time, a seek operation is performed, and data reading is stopped during this period. In other words, the supply of data may stop.
  • VOB file can be recorded in a continuous area.
  • data that is reproduced in synchronization with video data recorded in the VOB such as caption data.
  • VOB files it is necessary to read the BD-ROM power of caption data by some method.
  • VOB file is divided into several blocks, and the VOB file and the image data are recorded in an interleaved manner.
  • the lower part of Fig. 11 is a diagram for explaining the interleaved recording.
  • FIG. 12 is a diagram for explaining a VOB data continuous supply model using a track buffer 309 that solves the problem in the interleaved recording described above.
  • VOB data is stored in the track buffer 309. If the data input rate to the track buffer 309 is set higher if there is a difference between the data output rate from the track buffer 309, the amount of data stored in the track buffer 309 will remain as long as the BD-ROM data continues to be read. Will increase.
  • the input rate to the track buffer 309 is Va and the output rate from the track buffer is Vb.
  • a continuous recording area of VOB continues from “a 1” to “a 2” of logical addresses.
  • the interval between “a2” and “a3” is a section where image data is recorded and VOB data cannot be read.
  • the lower diagram of FIG. 12 is a diagram showing the accumulation amount of the track buffer 309.
  • the horizontal axis indicates time, and the vertical axis indicates the amount of data stored in the track buffer 309.
  • Time “tl” is It shows the time when reading of “al”, which is the starting point of one continuous recording area of VOB, was started.
  • the time “t2” is the time when the data “a2” that is the end point of the continuous recording area is read. That is, the amount of data in the track buffer increases from time “tl” to time “t2” at the rate Va ⁇ Vb, and the data storage amount B (t2) at time “t2” is obtained by the following (formula 1). be able to.
  • the structure of the navigation data (BD management information) recorded on the BD-ROM will be described with reference to FIG. 13 and FIG.
  • FIG. 13 shows the internal structure of the VOB management information file (“YYY. VOBI”).
  • the VOB management information includes the stream attribute information (Attribute) and time map (T)
  • Stream attribute information includes video attribute (Video), audio attribute
  • the time map (TMAP) is a table having information for each VOBU, and has the number of VOBUs (Number) and the information of each VOBU (VOBU # 1 to VOBU #n).
  • Each VOBU information has a playback time length (Duration) of the VOBU and a data size (Size) of the VOBU.
  • FIG. 14 is a diagram for explaining the details of the VOBU information.
  • an MPEG stream has two physical quantity aspects, a temporal aspect and a data size aspect.
  • Audio Code number 3 which is a compression standard for audio, performs compression at a fixed bit rate, so the relationship between time and address can be obtained by a linear expression.
  • each frame has a fixed display time, for example, in the case of NTSC, one frame has a display time of 1Z29.97 seconds, but the data size after compression of each frame is The data size varies greatly depending on the characteristics of the picture, the picture type used for compression, and the so-called IZ PZB picture. Therefore, in the case of MPEG video, the relationship between time and address cannot be expressed in the general form.
  • the time map (TMA P) links the relationship between time and address in the VOB.
  • the time map (TMAP) is a table having the number of frames in the VOBU and the number of packs in the VOBU as entries for each VOBU.
  • FIG. 15 is a diagram for explaining an address information acquisition method using a time map.
  • time information Time
  • a search is performed for which VOBU the time belongs to. Specifically, the number of frames for each VOBU in the time map is added, and the sum of the number of frames exceeds or matches the value obtained by converting the time into the number of frames, and the VOBU corresponding to the time becomes the VOBU .
  • the size of each VOBU in the time map is calculated up to the VOBU immediately before the VOBU, and the start of the pack to be read to reproduce the frame including the given time. It is an address (Adess).
  • Fig. 16 is a diagram showing the structure of playlist information.
  • the playlist information includes a cell list (CellList) and an event list (EventList).
  • the cell list (CellList) is information indicating a reproduction cell sequence in the playlist, and the cells are reproduced in the description order of the list.
  • CellList The contents of the cell list (CellList) are the number of cells (Number) and cell information (Cell #l to Cel l #n).
  • Each cell information (Cell # to Cell #n) includes a VOB file name (VOBName), a valid section start time (In) and a valid section end time (Out) in the VOB, and a subtitle table (SubtitleTable )have.
  • VOBName VOB file name
  • In valid section start time
  • Out valid section end time
  • SubtitleTable subtitle table
  • the valid section start time (In) and valid section end time (Out) are each represented by the frame number in the VOB, and VOB data necessary for playback by using the time map (TMAP) described above. You can get the address.
  • the subtitle table is a table having subtitle information to be reproduced in synchronization with the VOB. Subtitles can have multiple languages like audio, and the subtitle table (Sub titleTable) consists of a number of languages (Number) followed by a table for each individual language (Language # 1 ⁇ : Language #k). And
  • the table for each language contains the language information (Language) and Subtitle information number (Number) of the displayed subtitles and subtitle information of the displayed subtitles (Speech #l to Speech #j).
  • Each subtitle information corresponds to It consists of an image data file name (Name), a caption display start time (In), a caption display end time (Out), and a caption display position (Position).
  • the event list (EventList) is a table that defines events that occur in the play list.
  • the event list is composed of the number of events (Number) followed by individual events (Event # l to Event # m).
  • Each event (Event # l to Event # m) has an event type (Type), It consists of event ID (ID), event generation time (Time), and effective period (Duration).
  • FIG. 17 is a diagram showing a configuration of an event handler table (“XXX. PROG”) having event handlers (time events and user events for menu selection) for each playlist.
  • XXX. PROG event handler table
  • the event handler table has a defined number of event handler Z programs (Num ber) and individual event handler Z programs (Program #l to Program #n).
  • the description in each event handler Z program is the event handler ID (event—) paired with the event handler start definition (event—handler> tag) and the above event ID. handler id), followed by the parenthesis following the program function function ".
  • BD. INFO information relating to the entire BD-ROM
  • FIG. 18 is a diagram showing the structure of BD. INFO, which is BD-ROM overall information.
  • the entire BD-ROM information is composed of a title list (TitleList) and an event list (EventList) for global events.
  • the title list (TitleList) is composed of the number of titles in the disc (Number) and the following title information (Title #l to Title #n).
  • Each title information (Titlel-Title # n) is a table of playlists included in the title (
  • the playlist table contains the number of playlists in the title (Number) and the playlist name ( Name), that is, have the file name of the playlist!
  • the chapter list (ChapterList) is composed of the number of chapters (Number) included in the title and each chapter information (Chapter #l to Chapter #n), and each chapter information (Chapter #l to Chapter #n) Has a cell table (CellTable) included in the corresponding chapter, and the cell table (CellTable) is composed of the number of cells (Number) and entry information of each cell (Cell Entry # 1 to CellEntry #k). .
  • Cell entry information (CellEntry # 1 to CellEntry #k) is described by the name of the playlist including the cell and the cell number in the playlist.
  • the event list includes the number of global events (Number) and information about each global event (Event #l to Event #m). It should be noted here that the first global event defined is called the first event (FirstEvent) and is the first event that is called when the BD-ROM is inserted into the player. Each global event information (Event #l to Event #m) has only event type (Type) and event ID (ID)! /.
  • FIG. 19 shows the structure of the global event handler table (“BD. PROG”). This table has the same contents as the event handler table described in FIG. 17, and its description is omitted.
  • BD. PROG global event handler table
  • the event generation mechanism will be described with reference to FIGS.
  • FIG. 20 is a diagram illustrating an example of a time event.
  • the time event is defined by the event list (EventList) of the playlist information ("XXX. PL").
  • FIG. 21 is a diagram showing an example of a user event by a user's menu operation.
  • EventList EventList of the playlist information
  • event type (Type) is "UserEvent”
  • the user event becomes ready when the event generation time (“tl") is reached. At this time, the event itself has not yet been generated. The event is in the ready state for the period ( ⁇ T1 ⁇ ) described in the valid standard information (Duration).
  • the UO event It is generated by the UO manager 303 and output to the program processor 302.
  • the program processor 302 sends a UO event to the scenario processor 305, and the scenario processor 305 searches for a valid user event at the time when the U U event is received.
  • the scenario processor 305 When there is a target user event as a result of the search, the scenario processor 305 generates a user event and outputs it to the program processor 302.
  • the program processor 302 searches for an event handler having an event ID, for example, “Evl” in the case of the example shown in FIG. 21, and executes the target event handler. In this example, playback of playlist # 2 is started.
  • the generated user event does not include information on which remote control key is pressed by the user.
  • Information on the selected remote control key is transmitted to the program processor 302 by the UO event, and is recorded and held in the register SPRM (8) of the virtual player.
  • the event handler program can check the value of this register and execute branch processing.
  • FIG. 22 is a diagram illustrating an example of a global event.
  • EventList the event list of the entire BD-ROM information ("BD. INFO").
  • An event defined as a global event that is, the event type (Type) is "Global
  • An event that is Event ⁇ ⁇ is generated only when the user operates the remote control key.
  • a UO event is generated by the UO manager 303 and output to the program processor 302.
  • the program processor 302 sends a UO event to the scenario processor 305.
  • the scenario processor 305 generates a corresponding global event and sends it to the program processor 302.
  • the program processor 302 searches for an event handler having the event ID “menu” and executes the target event handler. For example, in the example shown in FIG. 22, playback of playlist # 3 is started.
  • menu keys like a remote control in a player who plays a power DVD simply called a menu key.
  • ID corresponding to each menu key By defining the ID corresponding to each menu key, appropriate processing corresponding to each menu key can be performed.
  • FIG. 23 is a diagram for explaining a functional configuration of the program processor.
  • the program processor 302 is a processing module having a virtual player machine inside.
  • the virtual player machine is a functional model defined as BD-ROM and does not depend on the implementation of each BD-ROM player. In other words, ensure that any BD-ROM player can perform the same function! /
  • the virtual player machine has two main functions. Programming functions and player variables (registers).
  • the programming function is based on Java (registered trademark) Script, and the following two functions are defined as BD-ROM specific functions.
  • Link function Stops the current playback and starts playback from the specified playlist, cell, and time
  • playback start time in the cell PNG drawing function draws the specified PNG data on the image plane Draw (File, X, Y)
  • Image plane clear function Clear specified area of image plane Clear (X, Y, W, H)
  • the player variable includes a system parameter (SPRM) indicating the player status and a general parameter (GPRM) that can be used for general purposes.
  • SPRM system parameter
  • GPRM general parameter
  • FIG. 24 is a diagram showing a list of system parameters (SPRM).
  • SPRM (8) Selection key information
  • the programming function of the virtual player is based on Java (registered trademark) Script.
  • B-shell used in UNIX (registered trademark) OS, etc. which is not Java (registered trademark) Script, It could be another programming function such as Perl Script.
  • the program language used in the present invention is not limited to «Java (registered trademark) Script.
  • 25 and 26 are diagrams showing examples of programs in the event handler.
  • FIG. 25 is a diagram showing an example of a program in an event handler related to control of a menu screen having two selection buttons.
  • Program (PlavList # l. Cell # 1) using time event at the top of the program on the left side of Figure 25 Is executed.
  • "1" is set to GPRM (O), one of the general parameters.
  • GPRM (O) is used to identify the selected button in the program. In the initial state, the button 1 placed on the left side is selected as the initial value.
  • Button 1 draws the PNG image "lblack.png” starting at the coordinates (10, 200) (upper left corner).
  • Button 2 draws the PNG image "2white.png” starting from the coordinates (330, 200) (upper left corner).
  • FIG. 26 is a diagram showing an example of a program in the event handler related to the user event of menu selection.
  • the program shown in FIG. 26 is interpreted and executed as described above.
  • FIG. 27 is a flowchart showing the flow of basic processing of AV data playback in the BD-ROM player.
  • the BD-ROM player When the BD-ROM is inserted (S101), the BD-ROM player reads and analyzes "BD. INFO” (S102) and reads "BD. PROG” (S103) To do. Both “BD.INFO” and “BD.PROG” are stored in the management information recording memory 204 and analyzed by the scenario processor 305.
  • the scenario processor 305 generates the first event according to the first event (FirstEvent) information in the “BD. INFO” file (S 104).
  • the generated first event is received by the program processor 302, and an event handler corresponding to the event is executed (S105).
  • the event handler corresponding to the first event is expected to record information specifying the playlist to be played first. If play list reproduction is not instructed, the player simply waits to accept a user event without reproducing anything (No in S201).
  • the UO manager 303 When receiving a remote control operation from the user (Yes in S201), the UO manager 303 generates a UO event for the program manager processor 302 (S202).
  • the program manager processor 302 determines whether it is due to the UO event force menu key (S203). In the case of the menu key (Yes in S203), the program manager processor 302 sends a UO event to the scenario processor 305, and the scenario processor 305 generates a user event (S204). The program processor 302 executes an event handler corresponding to the generated user event (S205).
  • FIG. 28 is a flowchart showing a process flow from the start of playlist playback to the end of VOB playback in the BD-ROM player.
  • playlist reproduction is started by the first event handler or the global event handler (S301).
  • the scenario processor 305 reads and analyzes the playlist information “XXX. PL” (S302) and reads the program information “XXX. PROG302 corresponding to the playlist as information necessary for playback of the playlist to be played back. (S303).
  • the scenario processor 305 starts cell reproduction based on the cell information registered in the playlist (S304).
  • Cell playback means that a request is sent from the scenario processor to the presentation controller 306, and the presentation controller 306 starts AV data playback (S305).
  • the presentation controller 306 reads the VOB information file "XXX. VOBI" corresponding to the cell to be reproduced (S402) and analyzes it.
  • the presentation controller 306 specifies the VOBU to start playback using the time map and its address, and instructs the drive controller 317 about the read address.
  • the drive controller 317 reads the target VOB data “YYY. VOB” (S403).
  • the read VOB data is sent to the decoder and reproduction is started (S404). VOB playback continues until the playback section of the VOB ends (S405). When the next cell exists (Yes in S406), the process proceeds to cell playback (S304). If there is no next cell (No in S406), the process related to playback ends.
  • FIG. 29 is a flowchart showing a flow of event processing after the start of AV data reproduction.
  • FIG. 29 (A) is a flowchart showing a flow of processing relating to a time event in the BD-ROM player.
  • the BD-ROM player is an event-driven player model.
  • playlist playback starts, the event processing processes for the time event system, user event system, and caption display system are started, and event processing is executed in parallel.
  • FIG. 29 (B) is a flowchart showing a flow of processing relating to a user event in the BD-ROM player.
  • the scenario processor 305 determines whether the current time is within the user event valid period. If it is within the valid period (Yes in S606), the scenario processor 305 generates a user event (S607), The program processor 302 executes and processes the target event handler (S608).
  • FIG. 30 is a flowchart showing the flow of processing of caption data in a BD-ROM player.
  • the presentation controller 306 instructs the image processor 311 to erase the caption.
  • the image processor 311 deletes the subtitles drawn and drawn from the image plane 209 according to the instruction (S706).
  • the BD-ROM player performs basic processing related to playback of the BD-ROM based on a user instruction or BD management information recorded on the BD-ROM.
  • the second embodiment relates to the introduction of an XML 'XHTML-based screen configuration environment and a programming environment using events and scripts in order to realize richer interactivity in the BD-ROM. It is.
  • the contents are basically based on the first embodiment, and the explanation will focus on the expanded or different parts.
  • FIG. 31 is a diagram showing how the module configuration, control flow, events, etc. related to scenario control using XHTML and script of the playback apparatus of the present invention are transmitted.
  • the user event processing unit is a module that receives a remote control signal or the like and allocates an event to the next module.
  • Events related to playback control such as playback Z stop Z fast forward Z rewind Z skip Z angle change Z audio switching Z subtitle switching, etc. are sent to the AV playback control unit.
  • Events such as button focus movement (up / down / left / right keys) and determination are sent to the XHTML processor.
  • Events for title selection and menu call related to title switching are sent to the title control unit.
  • the Index Table is a file listing the titles on the disc.
  • the Title List part in Fig. 18 is cut out into one.
  • the title control unit is a module that performs title switching according to the Index Table when title switching is requested. If the title is defined in XHTML, control is performed so that the XHTML file associated with the title is read in the XHTML processing section.
  • the XHTML processing unit is a module that reads an XHTML file, configures the screen according to style definition information, and executes related scripts according to events. As a result of executing the script, if AV playback is necessary, the AV playback control unit is controlled to start playback, and if title switching is necessary, the title control unit is controlled.
  • the AV playback control unit plays back an AV stream according to the event or instruction, and generates an event when the state of the AV playback control unit changes or when the playback position of the AV stream reaches a specific position. Notify the XHTML processor.
  • the event notifying that the state of the player has changed is that the user's power is also instructed to play, and when the user event processing unit notifies the AV playback control unit of the playback start request event, the AV playback control unit performs playback. Start. At this time, the event is such that the AV playback control section notifies the change from the stopped state to the playback state.
  • the event for notifying the playback position is the point when the end of the AV stream is reached, when the cell boundary is reached, or when there is data indicating a point in time of the AV stream called a mark. It is an event to notify that it has been reached.
  • FIG. 32 is a diagram for explaining the relationship between the Index Table and the XHTML file.
  • Figure 32 shows the behavior when a title is selected.
  • the XHTML file also contains a script that controls playback.
  • the script file is indirectly referenced, but it can also be described directly in the XHTML file.
  • it is written as X HTML, but if it follows the XML format, it may be in a format using its own tags.
  • the "onLoad” attribute described in the XHTML file in the figure specifies a script to be executed when the file is loaded.
  • the script “playTitlel” is called, and the script itself is described in the script file.
  • the user event processing unit and AV playback control unit also provide a mechanism for executing a script in response to the notified event.
  • the script "jumpTitle2" is called.
  • the “EndOfStream” event is an event generated by the AV playback control unit when, for example, AV playback reaches the end of the file.
  • FIG. 33 is a diagram showing an example of an XHTML file in which buttons are displayed.
  • Fig. 33 shows an example of screen generation in addition to the previous example.
  • XHTML is called from the Index Table as before, and the XHTML is written with information to generate a menu screen etc.! /.
  • buttons are placed on the screen.
  • the corresponding script is executed.
  • the script defined by the "onClick” attribute is executed. Selecting the button on the left associated with the PNG image file labeled TitleA executes the “playA” script and jumps to title 1.
  • the TitleB button is selected, after jumping to Title 2 after a certain AV stream has been played.
  • a data file such as a PNG image file is referenced.
  • the more sophisticated the menu the more complex the graphics that are displayed and the larger the size of the image data used to display it.
  • An XHTML file can also be created so that the screen can be switched by a user operation. This is the case when selecting an item in the menu screen causes a submenu to appear. In such a case, it may be necessary to use powerful image data and back force that are not displayed at the first moment when the menu screen is displayed.
  • FIG. 34 is an explanatory diagram for explaining the life cycle of data.
  • Figure 34 shows the data life cycle in such cases.
  • buffer data files such as XHT ML files and script files that are necessary to display the screen, and PNG image files referenced from those files. Preload on top.
  • the XHTML processing unit When the XHTML processing unit needs data, it is read from the buffer into the work memory of the XHTML processing unit and used for screen display. When the screen disappears, the data that is no longer needed is released from the work memory, and the next necessary data is read with the buffer capacity.
  • This work memory may be shared with a buffer.
  • the memory in the noffer is stored until the data loaded in it is no longer needed, and freed when it is no longer needed.
  • the content creator can easily determine the content configuration that can be operated by any player, and the content creation becomes easy.
  • the start timing and end timing of the data life cycle should be the timing at which AV playback is stopped, or when it is temporarily stopped or not played continuously even when it is played continuously. ,.
  • timings include AV stream switching points, screen switching points configured with XHTML files, title switching timings, and other points as long as the above conditions are satisfied. ! /.
  • the timing of title switching can be referred to explicitly as static data in the Index Table and is easy to control from the player. For this reason, the data life cycle starts when a certain title starts, and ends when a certain title ends.
  • FIG. 35 is a timing chart showing the flow of control between each module, the flow of data, and the data life cycle corresponding thereto.
  • the buffer may be released forcibly from the title control unit or a higher-level module, or may be performed by the XHTML processing unit.
  • the title control unit cancels the currently executing script and instructs the XHTML processing unit to release the buffer. Also, when the title is switched, it is instructed to load the file related to the next title into the buffer.
  • Fig. 36 is a diagram for explaining a method of combining data into one. Therefore, as shown in Fig. 36 (a), a file list that lists the files required for each title is created for each title, and when a title is selected, all the files listed in the title list are buffered. Just load it into
  • the files are grouped together in a ZIP file together with the directory structure, and the file is expanded in the buffer after being read into the buffer, and the directory structure etc. It may be configured. It is not necessary to be a ZIP file as long as it can format the files together and maintain the directory structure. Nor does it need to be a compressed file.
  • FIG. 37 is an explanatory diagram of a method for introducing memory size expansion. Therefore, as shown in Fig. 37, a method for controlling the size that is guaranteed to be installed in the player and the actual size of the installed noffer is shown. When this method is used, if more rich content is produced in the future, the corresponding player will display it richly, but even if it is V, the minimum display can be secured. Become.
  • the content creator prepares two types of data. Both are forces that are data read with the same title.
  • the datal in the figure is stored below the buffer size guaranteed by any player. Therefore, any player can read and play datal.
  • data2 is larger than the guaranteed buffer size. If necessary minimum Only the size of ⁇ is installed, and in the case of a player, data cannot be read! /. However, a player with a larger buffer can read this data, making it possible to play richer content by taking advantage of the larger data size of data2 than datal. Richer content means that the size of image data, resolution, number of colors, and more scripts are included, allowing various additional controls! / Things! Uh.
  • data that is always kept to a size smaller than the guaranteed buffer size is indispensable data recorded on the disc.
  • data that is larger than the guaranteed nofa size but can provide richer content is optional data that may or may not be recorded according to the author's intention.
  • the player language setting or the user setting It is related to introducing a mechanism to switch the language to be displayed or processed according to the situation. Basically, the contents are based on the first embodiment and the second embodiment, and the explanation will be focused on the expanded or different parts.
  • FIG. 38 is a diagram of a player variable table to which language settings for applications are added.
  • a system parameter indicating the player's own language setting or user-specified language specification for the XML 'XHTML-based screen configuration environment and programming environment using events and scripts, in this embodiment, as shown in FIG.
  • the language code parameter for navigation is added to the system parameter (SPRM) described in 24 as the language setting for the application.
  • SPRM system parameter
  • Introducing the system parameters shown in Figure 38 Is an example, and may be a player's own language area information (region or country name) or a fixed value (eg, English) given at the time of player manufacture as a language designation method from the user.
  • the language code for the audio stream (Language code for AST) and the language code for the character stream (Language code for STST) are applied as described in Fig. 24. Subsequent processing may be performed assuming that the language is set for use.
  • FIG. 39 is a diagram showing an example of switching the language displayed or processed by the application according to the language setting for the application.
  • the outline of the third embodiment will be described with reference to FIG. 39.
  • scripts for example, a function that executes the same function for English or Japanese, such as a program function for language selection, or a program function for a video privilege. Some functions are executed differently for English and Japanese.
  • FIG. 40 shows an example in which the application example used in FIG. 39 is switched by XML 'XHTML and script description.
  • the playback button for English and Japanese is described as a single XML ⁇ XHTML file with an invisible attribute, and the program function onload () of the script that is executed when this application is executed with the body> element It is specified.
  • the program function onload () the variable lang corresponding to the language setting for the above-mentioned application is checked. If the language setting for the application is Japanese, the playback button for Japanese is made visible, and if it is English, English is displayed. The playback button for is made visible.
  • FIG. 40 is merely an example, and although it is not illustrated, other descriptions may be used as long as the description is for switching the language displayed or processed by the application based on the description of XML 'XHTML or script!
  • the application corresponds to the language specified in the language setting for the application
  • the language displayed or processed by the application as a standard language is set as the standard language. You may switch to another language.
  • the standard language may be determined as a compelling specification such as English, the representative language of the region to which the player belongs, the language code for the audio stream described above, and the language code for the subtitle stream described above. May be the standard language.
  • file names and reserved words are examples only, and a separate extension may be added instead of the file body.
  • the XML'XHTML and script application language described in this embodiment can change the language that is displayed or processed based on the language setting for the application, and has been changed as described in the second embodiment.
  • This section explains how to achieve both the method of reading only the files necessary for the language into the buffer.
  • First prepare the above-mentioned IndexTable or the above-mentioned file list or the above-mentioned compressed file for each language, which is described to load the file group for each language, and record it on the disk.
  • there is a method of loading the IndexTable, file list or compressed file for the set language there is a method of loading the IndexTable, file list or compressed file for the set language.
  • FIG. 41 is a sequence diagram of a language switching method using an IndexTable for a set language, a file list, or a compressed file.
  • the XHTML processing unit sets the value of the navigation language code. Confirm the setting language for the application (step S802).
  • step S803 in order to confirm whether or not the application corresponding to the title can display or process the language confirmed in step S802, whether or not there is an IndexTable or a file list or a compressed file corresponding to the language confirmed in step S802. Search (step S803).
  • FIGS. 42 (a) and 42 (b) there is a method of adding a reserved word of the corresponding language to the index table or file list for each language or the file name of the compressed file.
  • the index table file name for standard language is Index, bd
  • the file name of Japanese index table file name is given the Japanese reserved word "JPN ⁇ and file body n.
  • Index_JPN.bd The file name and reserved word are just examples, and a separate extension may be added instead of the file body.
  • IndexTable has a list of the number of languages supported by the application, the supported languages, and the corresponding file list or compressed file link pairs. Also good.
  • step S804 if the search is successful in step S803, step S805 is executed, and if the search is unsuccessful, step S806 is executed.
  • step S805 the IndexTable, file list, or compressed file corresponding to the language confirmed in step S802 is loaded. Specifically, in the case of IndexTable, the title control section reads IndexTable of the corresponding language and executes the title (Step S807). On the other hand, in step S806, an IndexTable, a file list or a compressed file corresponding to the standard language described above is loaded. Specifically, in the case of IndexTable, the title control unit reads the standard language IndexTable and executes the title (step S807).
  • the application may correspond to the language specified in the language setting for the application, or the standard language for the case. As shown in FIG. 39, FIG. 40, and FIG. 42, it may be specified that the above reserved word is not added to the file name corresponding to the standard language.
  • special playback such as fast-forwarding and rewinding is performed in the XML 'XHTML-based screen configuration environment and programming environment using events and scripts described in the second embodiment.
  • event processing mechanism that also takes into account. It also relates to a technology that makes such a mechanism applicable to stream distribution on a network.
  • the contents are basically based on the first embodiment and the second embodiment, and the description will be focused on the expansion or different parts.
  • the configuration of the playback device of the present embodiment is the same as that described in the second embodiment with reference to FIG. 31 on the block diagram.
  • the playback apparatus executes an event according to the playback state of the AV playback control unit (for example, during special playback or normal playback), and plays back a title that is digital content.
  • the point is different from the above embodiment. Therefore, the playback device of this embodiment
  • the AV playback control unit described the title playback means for acquiring and playing back the title, the event to be generated in the playback of the title, and the event time that is the time for generating the event.
  • a point list is acquired, and when the playback time of the title being played back by the title playback means reaches the event time described in the point list according to the acquired point list, it corresponds to the event time.
  • the XHTML processing unit acquires a script that is an application program that describes event processing that is processing corresponding to the event described in the point list acquired by the event generation unit realized by the AV playback control unit, In accordance with the acquired script, it has a function of realizing a script execution means for executing event processing corresponding to the event generated by the event generation means, and the script execution means adds an event generated by the event generation means to the event generated by the event generation means. Depending on the playback status information included, the event processing to be executed is switched.
  • an application using XMLZXHTML and script realizes interactive application by event and script.
  • event processing such as fast forward and rewind during normal playback.
  • description of content was complicated.
  • the above-mentioned "BD management information" is applied to generate an event linked to the content playback time, thereby realizing an event generation and handle system capable of realizing a more expressive application. .
  • FIG. 43 is a configuration diagram of a playlist file obtained by correcting the point list.
  • the event list in the playlist information described with reference to FIG. 16 is deleted, and a point list (PointList) is added as shown in FIG.
  • the point list consists of multiple point information (Point #l to Point #m), and each point information specifies the point type (PointType) that is the type of point information and the content playback time to generate the event.
  • Cell—ID indicates the event to be generated in the Cell
  • Time indicates at which playback time (playback position) the event is generated in the Cell specified by the Cell— ID
  • the period during which the event is generated Four information powers of a certain duration.
  • PointType has three types as an example.
  • the first is ChapterPoint, which indicates the point at which chapters provided as story breaks in the title are switched.
  • the second is JumpPoint, which indicates the point at which playback jumps to a specific playback position for a specific title from the application.
  • Third there is an EventPoint that indicates a point (event) that provides some application mainly in conjunction with the playback time of the content, such as the aforementioned commentary picture. Also, when the point type is ChapterPoint or JumpPoint, and it is not necessary to specify the duration of the point, “0” is assigned to Duration, which is the period during which the event continues to be generated.
  • FIG. 44 is a diagram showing an example in which a commentary picture application is realized by a system that generates and processes an event linked to a content playback time. The outline of the event generation system according to the present invention will be described with reference to FIG.
  • the lower part shows the behavior of the AV playback control unit that performs AV stream playback control processing based on the AV stream VOB file, VOB management information file, and playlist information file.
  • the middle section shows the behavior of the above-mentioned XHTML processing unit that receives information such as various events and playback times from the AV playback control unit and controls execution of applications using XMLZXH TML and scripts.
  • the top row shows an example of an application (commentary picture here) realized by this system! /
  • the AV playback control unit plays back the AV stream based on the VOB file, the VOB management information file, and the playlist information file.
  • the AV playback controller monitors whether or not the content playback time power reaches the playback time indicated by the point information included in the playlist information described above.
  • the AV playback control unit When the content playback time reaches the playback time described in the above point information ((1) Point detection), the AV playback control unit notifies the XHTML processing unit of the event with the above point type information. ((2) Point event notification). When notified of an event, the XHTML processor checks the event description of the application and executes a stub (event handler) that should be executed when the event occurs ((3) Event processing).
  • Event processing When the content playback time comes, a balloon (commentary picture) with an altitude of 3776m is drawn on Mt. Fuji that appears in the scene ((4) Commentary picture display).
  • FIG. 45 is a flowchart of a system for generating and processing an event linked to content playback time.
  • FIG. 45 a specific flowchart of the event generation 'handle system according to the present invention described with reference to FIG. 44 will be described with reference to FIG.
  • the AV playback control unit caches point information (Point information) included in the playlist information (step S902).
  • the AV playback control unit repeats the following processing (step S903: no) until playback of the playlist ends (step S903: yes).
  • step S903: yes When the playback time of the AV stream reaches the time specified by the point information cached in step S902 (step S904yes), the AV playback control unit generates an event based on the above point information and generates an XHTML processing unit. (Step S905).
  • the event includes at least point type information (PointType) and event period information (Duration) as necessary.
  • the XHTML processing unit executes the event handler (event processing script) of the event based on the description of the application (step S906).
  • FIG. 46 is a diagram illustrating a description example of the commentary picture application.
  • Figure 46 shows a specific application description example.
  • the application description is a description of screen drawing items such as buttons, images, and text information on menu screens, popup screens, games, etc., and the screen description items described in the content description.
  • a style description that describes the position, appearance, etc.
  • a stub description that describes the specific operation of the application, such as when a button is pressed or an event is generated, and a script that is executed when any event occurs It also has the ability to describe events that describe information such as (event handler) and its arguments.
  • the XHTML processing unit receives the event of the point when the playback time of the content reaches the time described in Point # 0001.
  • the XHTML processing unit first confirms the event description delimited by the bdi: bevent> element, and searches for the bdi: beitem> element for which information related to "EventPoint" is to be described.
  • Type "EventPointFired”
  • bdi The information is described in the beitem> element, and the script to be executed as the event handler is specified in the onoccur attribute.
  • the script display As information that can be handled in the script, specify "comment” in the object attribute and describe the object name to be operated in the script (here, "comment” indicated by the object attribute).
  • This application description is only an example. Other information such as a point information number may also be provided as an attribute.
  • the XHTML processing unit checks the script description separated into ⁇ script> elements and executes the display () function.
  • the XHTML processing unit draws the image "comment, png" corresponding to the above-mentioned commentary picture to realize a commentary picture.
  • the system according to the present embodiment described above can easily realize an application that provides some service in conjunction with content, such as a commentary picture that attaches a detailed information image in synchronization with a video.
  • content such as a commentary picture that attaches a detailed information image in synchronization with a video.
  • the start timing of the application to be provided in conjunction with the content is described in the point information of the point list in association with the playback time of the content. Therefore, even during special playback such as fast-forward playback and rewind playback, a pop-up event can be described in a concise manner that requires no special description on the content side.
  • FIG. 3 is a diagram illustrating an example in which a chapter title application is realized by a system that operates. Specifically, as shown in the upper part of Fig. 47, there is a need to display the chapter title of the chapter when it reaches the chapter at the time of fast-forward playback in order to help the user understand. This chapter title will not be displayed during normal playback, so it will not be displayed, and will only be displayed during fast forward playback.
  • the AV playback control unit which is the event generation unit, includes playback state information indicating that the title is specially played when the title playback unit specially plays the title! Generate an event.
  • the lower part shows the behavior of the AV playback control unit that performs AV stream playback control processing based on the AV stream VOB file, VOB management information file, and playlist information file.
  • the middle section shows the behavior of the XHTML processing unit that receives information such as various events and playback time from the AV playback control unit, and controls the execution of applications using XMLZXHTML and scripts.
  • the upper row shows an example of the application realized by this system (chapter title display during fast forward).
  • the AV playback control unit plays back the AV stream based on the VOB file, the VOB management information file, and the playlist information file.
  • the AV playback controller monitors whether or not the content playback time power reaches the playback time indicated by the point information included in the playlist information described above.
  • the AV playback control unit detects that the point that has reached the above point information power is a chapter point ((1) Point detection ).
  • the AV playback control unit acquires player status information when the point is reached ((2) playback status check).
  • the player status information is set to the title playback status, Check that the title playback state is the fast forward playback state.
  • the player status information is, for example, the content playback time, setting information for the player such as language and angle, Even real time information at the time of playback.
  • the AV playback control unit notifies the XHTML processing unit of the event with the above point type information and title playback state information ((3) Point + playback state event notification).
  • the XHT ML processor checks the event description of the application and executes a script (event handler) that should be executed when the event occurs ((4) Event processing).
  • Event handler a script that should be executed when the event occurs.
  • FIG. 48 is a flowchart of a system that generates and processes an event that is linked to the content playback time and can also notify the playback state.
  • FIG. 48 a specific flowchart of the event generation node system according to the present invention described with reference to FIG. 47 will be described with reference to FIG.
  • the AV playback control unit when instructed to play a playlist (step S1001), it caches point information (Point information) included in the playlist information (step S1002).
  • step S1003 no
  • step S1003 yes
  • step S1004yes When the playback time of the AV stream reaches the time specified by the point information cached in step S1002 (step S1004yes), the AV playback control unit displays the playback state when the point is reached. Check the information (step S 1005). Next, the AV playback control unit generates an event based on the above point information and notifies the XHTML processing unit (step S1006).
  • the event includes at least point type information (PointType) and playback status information confirmed in step S1005, and also includes event period information (Duration) as necessary.
  • FIG. 49 is a diagram illustrating a description example of the chapter title application. Figure 49 shows a specific application description example.
  • the 12th point information (Point # 0012) force is the delimiter of the 12th chapter and the point type is "ChapterPoint".
  • the playback time of the content has reached the time described in Point # 0012
  • the XHTML processing unit will first check the event description delimited by bdi: bevent> element and “I want to write information about ChapterPoint bdi: beitem> Search for elements (only one in this example).
  • the type "ChapterPointFired” and the information is described in the bdi: beitem> element, and the script to be executed as the event handler is specified in the onoccur attribute.
  • the script chaptertitle O is described to be executed. That is, the event is an event generated for each chapter that is a unit of a group of stories constituting the title, and the event process corresponding to the event is a process corresponding to switching of chapters.
  • the XHTML processing unit checks the script description divided into ⁇ script> elements and executes the chaptertitle O function.
  • chaptertitle O function captures the order number of point information as beitem.pointld, and when the order number power of the point is 12 "as in this embodiment, chapter 12 (id attribute of ⁇ object> element) And! ⁇ ⁇ Substitute 'isible (visible state)' for the visibility attribute of the object.
  • the visible attribute of the image associated with the event is set to the invisible state force visible state, and then the image set to the visible state is displayed.
  • the system in which the AV playback control unit notifies the XHTML processing unit including the player status information at the time of event generation is limited to the event whose point type is ChapterPoint. It is not something.
  • the AV playback control unit may also be notified including the player status information.
  • a generation condition flag is newly added for each event described in the BD management information.
  • FIG. 50 is a configuration diagram of a playlist file in which event generation condition information is added to the point information and modified. This will be specifically described with reference to FIG.
  • event generation condition information is further added as a member of each point information of the point list added in FIG.
  • This event generation condition information describes the conditions for generating an event based on the point information. For example, in this embodiment, it is necessary to generate an event even during fast forward playback (required) ) Describe whether it is power or not. Since the roles of other existing members are the same as described above, the explanation is omitted.
  • the playlist information shown in FIG. 50 is merely an example, and other methods may be used as long as the player can store point information such as event generation conditions at the time of content playback.
  • point information such as event generation conditions at the time of content playback.
  • information corresponding to the above point information may be described in XMLZXHTML or a script describing the VOB management information and application shown in FIG. [0344]
  • the above generation conditions are merely examples, and the contents of the event generation condition information are not particularly limited to the above contents. For example, it may be the content of whether or not the event generation is indispensable in any regeneration situation.
  • a condition according to the state of the player may be set such that an event is generated only during a special playback (such as when rewinding only and when).
  • the conditions may be in accordance with the player's ability, such as whether or not the player is connected to the network. A combination of these conditions may also be used.
  • you may write a conditional branch that determines whether to acquire information and execute the corresponding process. However, by including it in the playlist information as an event generation condition, the event is generated. The processing itself can be omitted, and there is an advantage that the load on the player is lighter than in the case of judging the conditions in the scribing.
  • Event Information necessary for event processing such as handlers, may be stored in the memory and cached, or some processing may be executed intensively.
  • FIG. 51 is a diagram showing an outline of the operation of the system that generates and processes an event linked to the content playback time according to the event generation condition.
  • An example in which the event generation condition information is information on whether or not it is necessary to generate an event during special playback will be described with reference to FIG.
  • Event Point A is located at the content playback time before Event Point B, and the event generation condition information of Event Point A describes that event generation during special playback is unnecessary.
  • the event generation condition information of Point B shall describe that event generation during special playback is mandatory.
  • Event A based on the Point information
  • Event B based on the Point information is generated. That is, in the point list, an event generation condition that is a condition for generating the event is described in association with the event, and the event is realized by the AV playback control unit.
  • the event generation means determines whether or not an event generation condition corresponding to the event time is satisfied when the reproduction time of the title being reproduced by the title reproduction means reaches the event time described in the point list. The event corresponding to the event time is generated only when it is satisfied.
  • Event Point B when Event Point B is reached ((1) Point detection), event generation condition information included in the Point information of Event Point B is confirmed ((2) Generation condition confirmation). Since the event generation condition information of Event Point B describes that event generation during special playback is essential, the AV playback control unit uses the playback status information of the title when Event Point B is reached. Confirm ((3) Playback status check), generate an event with playback status information based on Event Point B point information, and notify the XHTML processing section ((4) Point + playback status event notification ). When the XHTML processing unit receives an event, it executes the corresponding event processing based on the application description ((5) Event processing).
  • the event generation condition realized by the AV playback control unit is a condition indicating whether or not an event needs to be generated during special playback, and the event generation unit is configured such that the title playback unit selects the title.
  • the event is generated or not generated according to the condition indicated by the event generation condition corresponding to the event time.
  • point information, information necessary for event processing, and scripts may be preliminarily cached in a memory in order to reduce the load required for event processing during special playback.
  • FIG. 52 is a flowchart of a system that generates and processes an event linked to the content playback time according to the event generation condition.
  • the event generation based on the event generation condition information is concretely described. A simple flowchart will be described with reference to FIG.
  • the AV playback control unit when instructed to play a playlist (step S1101), it caches point information (Point information) included in the playlist information (step S1102).
  • step S1103: no the AV playback control unit repeats the following processing (step S1103: no) until playback of the playlist ends (step S1103: yes).
  • the AV playback control unit includes the point information of the point. Event generation conditions are confirmed, and it is confirmed whether the state force event generation conditions when the point is reached are met (step S1105). If the event generation conditions are met, the process proceeds to step S 1106 to continue the event generation process (step S1105 yes), and if the event generation conditions are not met, the play of the playlist is continued without generating an event (step S1105). SI 105no).
  • the AV playback control unit checks the playback state information when the point is reached (step S1106). Next, the AV playback control unit generates an event based on the above point information and notifies the XHTML processing unit (step S1107).
  • the event includes at least point type information (PointType) and playback state information confirmed in step S1106, and also includes event period information (Duration) as necessary.
  • the XHTML processing unit executes the event handler of the event based on the description of the application (step S1108).
  • the force S described for the event generation based on the event generation condition S can reduce the event generation load of the player during special playback.
  • content descriptions with a higher degree of freedom are possible.
  • this embodiment can be applied to network distribution.
  • the playback device first downloads the IndexTable, and then downloads the stub that is described in XHTML and the stream to be played based on it.
  • the playback device of the present invention has the IndexTable and the scribing as already described in the second embodiment.
  • the title and the stream may be stored on the hard disk for each title and cached in the memory immediately before playback. By doing so, it is possible to obtain an effect that it is possible to enjoy interactive playback of content in real time and seamlessly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

明 細 書
記録媒体、再生装置および再生方法
技術分野
[0001] 本発明は、 Blu— ray Disc (BD)—ROM等、 AVストリームデータを記録した記録 媒体、その記録媒体を再生する再生装置及び再生方法に関する。
背景技術
[0002] 映像データを記録した情報記録媒体の代表格は、 DVD (以下、「Standard Defi nition (SD)—DVD」ともいう。)である。以下に従来の DVDについて説明する。
[0003] 図 1は、 SD— DVDの構造を示す図である。図 1の下段に示すように、 DVDデイス ク上にはリードインからリードアウトまでの間に論理アドレス空間が設けられている。そ の論理アドレス空間には先頭力 ファイルシステムのボリューム情報が記録され、続 V、て映像音声などのアプリケーションデータが記録されて 、る。
[0004] ファイルシステムとは、 ISO9660や Universal Disc Format (UDF)等の規格に より定められたデータを管理する仕組みのことであり、ディスク上のデータをディレクト リまたはファイルと呼ばれる単位で表現する仕組みである。
[0005] 日常使っているパーソナルコンピュータ(PC)の場合でも、 File Allocation Tabl es (FAT)または NT File System (NTFS)と呼ばれるファイルシステムにより、デ ィレクトリゃファイルという構造でノヽードディスクに記録されたデータがコンピュータ上 で表現され、ユーザピリティを高めている。
[0006] SD— DVDの場合、 UDF及び ISO9660の両方のファイルシステムが使用されて いる。両方を合わせて「UDFブリッジ」とも呼ばれる。記録されているデータは UDFま たは ISO9660どちらのファイルシステムドライバによってもデータの読み出しができ るようになっている。なお、ここで取り扱う DVDはパッケージメディア用の ROMデイス クであり、物理的に書き込みが不可能である。
[0007] DVD上に記録されたデータは、 UDFブリッジを通して、図 1左上に示すようなディ レクトリまたはファイルとして見ることができる。ルートディレクトリ(図 1における「ROO T」)の直下に「VIDEO TS」と呼ばれるディレクトリが置かれ、ここに DVDのアプリ ケーシヨンデータが記録されている。アプリケーションデータは、複数のファイルとして 記録され、主なファイルとして以下の種類のファイルがある。
VIDEO— TS. IFO ディスク再生制御情報ファイル
VTS— 01— 0. IFO ビデオタイトルセット # 1再生制御情報ファイル VTS 01 0. VOB ビデオタイトルセット # 1ストリームファイル 上記例に示すように 2つの拡張子が規定されている。 riFOjは再生制御情報が記 録されたファイルであることを示す拡張子であり、「VOB」は AVデータである MPEG ストリームが記録されたファイルであることを示す拡張子である。
[0009] 再生制御情報とは、 DVDで採用されたインタラクテイビティ (ユーザの操作に応じて 再生を動的に変化させる技術)を実現するための情報や、メタデータのような、 AVデ ータに付属する情報などのことである。また、 DVDでは一般的に再生制御情報のこ とをナビゲーシヨン情報と呼ぶことがある。
[0010] 再生制御情報ファイルは、ディスク全体を管理する「VIDEO— TS. IFO」と、個々 のビデオタイトルセット毎の再生制御情報である「VTS— 01— 0. IFO」がある。なお 、 DVDでは複数のタイトル、言い換えれば複数の異なる映画や楽曲を 1枚のディスク に記録することが可能である。ここで、ファイル名ボディにある「01」はビデオタイトル セットの番号を示しており、例えば、ビデオタイトルセット # 2の場合は、「VTS— 02— 0. IFO」となる。
[0011] 図 1の右上部は、 DVDのアプリケーション層での DVDナビゲーシヨン空間であり、 上述した再生制御情報が展開された論理構造空間である。「VIDEO— TS. IFOJ 内の情報は、 VIDEO Manager Information (VMGI)として、「VTS— 01— 0. I FO」または、他のビデオタイトルセット毎に存在する再生制御情報は Video Title Set Information (VTSI)として DVDナビゲーシヨン空間に展開される。
[0012] VTSIの中には Program Chain (PGC)と呼ばれる再生シーケンスの情報である Program Chain Information (PGCI)が記述されている。 PGCIは、 Cellの集合 とコマンドと呼ばれる一種のプログラミング情報によって構成されている。 Cell自身は
VOB (Video Objectの略であり、 MPEGストリームを指す)の一部区間または全部 区間を指定する情報であり、 Cellの再生は、当該 VOBの Cellによって指定された区 間を再生することを意味して 、る。
[0013] コマンドは、 DVDの仮想マシンによって処理されるものであり、例えば、ウェブべ一 ジを表示するブラウザ上で実行される Java (登録商標)スクリプトなどに近 、ものであ る。し力しながら Java (登録商標)スクリプトが論理演算の他にウィンドウやブラウザの 制御(例えば、新しいブラウザのウィンドウを開くなど)を行うのに対して、 DVDのコマ ンドは、論理演算の他に AVタイトルの再生制御、例えば、再生するチヤプタの指定 などを実行するだけのものである点で異なっている。
[0014] Cellはディスク上に記録されて 、る VOBの開始及び終了アドレス (論理アドレス)を その内部情報として有しており、プレーヤは、 Cellに記述された VOBの開始及び終 了アドレス情報を使ってデータの読み出し、再生を実行する。
[0015] 図 2は、 AVデータである MPEGストリーム中に埋め込まれているナビゲーシヨン情 報を説明する概要図である。 SD— DVDの特長であるインタラクテイビティは上述した 「VIDEO— TS. IFO」や「VTS— 01— 0. IFO」などに記録されているナビゲーショ ン情報だけによつて実現されて 、るのではなぐ幾つかの重要な情報はナビゲーショ ン 'パック(ナビパックまたは、 NV_PCKという。)と呼ばれる専用キャリアを使い VO B内に映像、音声データと一緒に多重化されている。
[0016] ここでは簡単なインタラクテイビティの例としてメニュー画面について説明する。メ- ユー画面上には、幾つかのボタンが現れ、それぞれのボタンには当該ボタンが選択 実行された時の処理が定義されている。また、メニュー画面上では一つのボタンが選 択されており(ハイライトによって選択ボタン上に半透明色がオーバーレイされている )、ユーザは、リモコンの上下左右キーを使って、選択状態のボタンを上下左右の何 れかのボタンに移動させることが出来る。
[0017] リモコンの上下左右キーを使って、選択実行したいボタンまでノヽイライトを移動させ
、決定する (決定キーを押す)ことによって対応するコマンドのプログラムが実行される
。一般的には対応するタイトルやチヤプタの再生がコマンドによって実行されている。
[0018] 図 2の左上部は NV—PCKに格納される情報の概要を示している。 NV— PCK内 には、ノ、イライトカラー情報と個々のボタン情報などが含まれている。ノ、イライトカラー 情報には、カラーパレット情報が記述され、オーバーレイ表示されるハイライトの半透 明色が指定される。
[0019] ボタン情報には、個々のボタンの位置情報である矩形領域情報と、当該ボタンから 他のボタンへの移動情報 (ユーザの上下左右キー操作それぞれに対応する移動先 ボタンの指定)と、ボタンコマンド情報(当該ボタンが決定された時に実行されるコマ ンド)とが記述されている。
[0020] メニュー画面上のハイライトは、図 2の右上部に示すように、オーバーレイ画像として 作られる。オーバーレイ画像は、ボタン情報の矩形領域情報にカラーパレット情報の 色を付した物である。このオーバーレイ画像は右部に示す背景画像と合成されて画 面上に表示される。
[0021] 上述のようにして、 DVDではメニュー画面を実現して!/、る。また、何故、ナビゲーシ ヨンデータの一部を NV—PCKを使ってストリーム中に埋め込んで!/、るのかにつ 、て は、以下の理由からである。すなわち、ストリームと同期して動的にメニュー情報を更 新、例えば、映画再生中の途中 5分〜 10分の間にだけメニュー画面を表示するとい つた、同期タイミングが問題となりやすい処理を、問題なく実現できるようにするため である。
[0022] 図 3は、 DVDにおける VOBの構成を示す概要図である。図に示すように、映像、 音声、字幕などのデータ(1の段)は、 MPEGシステム(ISOZIEC13818— 1)規格 に基づいて、パケット及びパック化し(2の段)、それぞれを多重化して 1本の MPEG プログラムストリームにしている(3の段)。また、上述した通りインタラクティブを実現す るためのボタンコマンドを含んだ NV—PCKも一緒に多重化をされている。
[0023] MPEGシステムの多重化の特徴として、多重化する個々のデータは、そのデコード 順に基づくビット列になっているが、多重化されるデータ間、即ち、映像、音声、字幕 の間は必ずしも再生順、言 ヽ換えればデコード順に基づ!ヽてビット列が形成されて V、るわけではな 、ことが挙げられる。
[0024] これは MPEGシステムストリームのデコーダモデル(4の段、一般に System Targ et Decoder,または STDと呼ばれる)が多重化を解 ヽた後に個々のエレメンタリスト リームに対応するデコーダバッファを持ち、デコードタイミングまでに一時的にデータ を蓄積して 、る事に由来して 、る。
[0025] このデコーダバッファは、個々のエレメンタリストリーム毎にサイズが異なり、映像に 対しては、 232kB、音声に対しては 4kB、字幕に対しては 52kBをそれぞれ有してい る。このため、各デコーダバッファへのデータ入力タイミングは個々のエレメンタリスト リームで異なるため、 MPEGシステムストリームとしてビット列を形成する順番と表示( デコード)されるタイミングにずれが生じている。
[0026] 即ち、映像データと並んで多重化されている字幕データが必ずしも同一タイミング でデコードされて 、るわけでは無 、。
[0027] 上述のような DVDに関する技術は、以下の特許文献 1に記載されている。
特許文献 1:特許第 2813245号公報
発明の開示
発明が解決しょうとする課題
[0028] ところで次世代の情報記録媒体である BD— ROMは、上述したようなナビゲーショ ンコマンドではなぐ XML 'XHTMLおよびスクリプトからなるプログラムを含むコンテ ンッの記録が予定されており、このプログラムではイベントとそのイベントをノ、ンドルし 実行されるスクリプトによりインタラクティブなアプリケーションを実現可能である。
[0029] し力しながら、通常再生時はともかぐ早送りや巻き戻しなどの特殊再生時のィベン ト処理への考慮が十分ではなく、スタジオの望むアプリケーションを実現出来なかつ たり、コンテンツの記述が複雑になったりしていた。
課題を解決するための手段
[0030] 上記課題を解決するため本発明に力かる再生装置は、デジタルコンテンツであるタ イトルを再生する再生装置であって、前記タイトルを取得して再生するタイトル再生手 段と、前記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻 であるイベント時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリ ストに従って、前記タイトル再生手段によって再生されているタイトルの再生時刻が前 記ポイントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対応 するイベントを生成するイベント生成手段と、前記イベント生成手段が取得したポイン トリストに記述されたイベントに対応する処理であるイベント処理を記述したアプリケー シヨンプログラムであるスクリプトを取得し、取得したスクリプトに従って、前記イベント 生成手段によって生成されたイベントに対応したイベント処理を実行するスクリプト実 行手段とを備え、前記イベント生成手段は、前記タイトル再生手段によるタイトルの再 生状態を示す再生状態情報を含むイベントを生成し、前記スクリプト実行手段は、前 記イベント生成手段によって生成されたイベントに含まれる再生状態情報に依存して 、実行するイベント処理を切り替えることを特徴とする。このような構成により、コンテン ッの再生時刻に連動したイベントを生成し、かつ、そのイベントに最適な処理を実行 するスクリプトを実行可能である。また、これにより表現に富んだアプリケーションを実 現することが可能となる。
[0031] また、前記イベント生成手段は、前記タイトル再生手段が前記タイトルを特殊再生し て 、る場合に、前記タイトルが特殊再生されて 、る旨を示す再生状態情報を含むィ ベントを生成するとしてもよ 、。
[0032] さらに、前記スクリプト実行手段は、前記イベントに含まれる再生状態情報が、前記 タイトルが特殊再生されて 、る旨を示す場合に、前記イベントに対応づけられた画像 の可視属性を不可視状態から可視状態に設定した後に、可視状態に設定された画 像を表示するとしてもよい。
[0033] また、前記ポイントリストには、前記イベントを生成する条件であるイベント生成条件 が前記イベントに対応づけて記述され、前記イベント生成手段は、前記タイトル再生 手段によって再生されているタイトルの再生時刻が前記ポイントリストに記述されたィ ベント時刻に到達した際に、当該イベント時刻に対応するイベント生成条件が満たさ れるか否かを判断し、満たされる場合にだけ、当該イベント時刻に対応するイベントを 生成するとしてもよ 、。
[0034] 前記イベント生成条件は、特殊再生時にイベントを生成する必要があるか否かを示 す条件であり、前記イベント生成手段は、前記タイトル再生手段が前記タイトルを特 殊再生している場合に、前記イベント時刻に対応したイベント生成条件が示す条件 に従って、前記イベントを生成する、又は、生成しないとしてもよい。
[0035] さらに、前記イベントは、前記タイトルを構成するひとまとまりの話の単位であるチヤ プタ毎に生成されるイベントであり、前記イベントに対応するイベント処理は、チヤプタ の切り替わりに対応する処理であるとしてもょ 、。
[0036] 本発明はまた、デジタルコンテンツであるタイトルを再生する再生方法であって、前 記タイトルを取得して再生するタイトル再生ステップと、前記タイトルの再生にぉ ヽて 生成すべきイベントと当該イベントを生成する時刻であるイベント時刻とを対応づけて 記述したポイントリストを取得し、取得したポイントリストに従って、前記タイトル再生ス テツプによって再生されているタイトルの再生時刻が前記ポイントリストに記述された イベント時刻に到達した際に、当該イベント時刻に対応するイベントを生成するィベン ト生成ステップと、前記イベント生成ステップで取得したポイントリストに記述されたィ ベントに対応する処理であるイベント処理を記述したアプリケーションプログラムであ るスクリプトを取得し、取得したスクリプトに従って、前記イベント生成ステップで生成さ れたイベントに対応したイベント処理を実行するスクリプト実行ステップとを含み、前記 イベント生成ステップでは、前記タイトルの再生状態を示す再生状態情報を含むィべ ントを生成し、前記スクリプト実行ステップでは、前記イベント生成ステップで生成され たイベントに含まれる再生状態情報に依存して、実行するイベント処理を切り替える 再生方法を提供する。
[0037] 本発明はまた、デジタルコンテンツであるタイトルを再生する再生装置のためのプロ グラムであって、請求項 7記載のステップをコンピュータに実行させるプログラムを提 供する。
[0038] また、本発明の記録媒体は、デジタルコンテンツであるタイトルを再生する再生装 置のためのプログラムが記録されたコンピュータ読み取り可能な記録媒体であって、 請求項 8記載のプログラムが記録されていることを特徴とする。
[0039] さらに、本発明の集積回路は、デジタルコンテンツであるタイトルを再生するための 集積回路であって、前記タイトルを取得して再生するタイトル再生手段と、前記タイト ルの再生において生成すべきイベントと当該イベントを生成する時刻であるイベント 時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリストに従って、 前記タイトル再生手段によって再生されているタイトルの再生時刻が前記ポイントリス トに記述されたイベント時刻に到達した際に、当該イベント時刻に対応するイベントを 生成するイベント生成手段と、前記イベント生成手段が取得したポイントリストに記述 されたイベントに対応する処理であるイベント処理を記述したアプリケーションプログ ラムであるスクリプトを取得し、取得したスクリプトに従って、前記イベント生成手段に よって生成されたイベントに対応したイベント処理を実行するスクリプト実行手段とを 備え、前記イベント生成手段は、前記タイトル再生手段によるタイトルの再生状態を 示す再生状態情報を含むイベントを生成し、前記スクリプト実行手段は、前記イベント 生成手段によって生成されたイベントに含まれる再生状態情報に依存して、実行す るイベント処理を切り替えることを特徴とする。
[0040] また、本発明の記録媒体は、コンピュータ読み取り可能な記録媒体であって、デジ タルコンテンツであるタイトルと、前記タイトルの再生において生成すべきイベントと当 該イベントを生成する時刻であるイベント時刻とを対応づけて記述したポイントリストと 、前記ポイントリストに記述されたイベントに対応する処理であるイベント処理を記述し たアプリケーションプログラムであるスクリプトとが記録されていることを特徴とする。 発明の効果
[0041] 上述した構成では、コンテンツの再生時刻に連動したイベントを生成し、かつそのィ ベントに最適な処理を実行するスクリプトを記述可能であり、より表現に富んだアプリ ケーシヨンを実現可能である。
図面の簡単な説明
[0042] [図 1]図 1は、 SD— DVDの構造を示す図である。
[図 2]図 2は、 AVデータである MPEGストリーム中に埋め込まれているナビゲーシヨン 情報を説明する概要図である。
[図 3]図 3は、 DVDにおける VOBの構成を示す概要図である。
[図 4]図 4は、 BD— ROMのデータ階層を示す図である。
[図 5]図 5は、 BD— ROMに記録されている論理データの構造を示す図である。
[図 6]図 6は、 BD— ROMを再生する BD— ROMプレーヤの基本的な構成の概要を 示す図である。
[図 7]図 7は、図 6に示すプレーヤの構成を詳細化したブロック図である。
[図 8]図 8は、 BD— ROMのアプリケーション空間を示す図である。
[図 9]図 9は、 MPEGストリーム(VOB)の構成を示す図である。 [図 10]図 10は、 MPEGストリームにおけるパックの構成を示す図である。
[図 11]図 11は、 AVデータとプレーヤ構成の関係を説明するための図である。
[図 12]図 12は、トラックバッファを使った VOBデータ連続供給モデルを説明するため の図である。
[図 13]図 13は、 VOB管理情報ファイルの内部構造を示す図である。
[図 14]図 14は、 VOBU情報の詳細を説明するための図である。
[図 15]図 15は、タイムマップを使ったアドレス情報取得方法を説明するための図であ る。
[図 16]図 16は、プレイリスト情報の構成を示す図である。
[図 17]図 17は、イベントハンドラテーブルの構成を示す図である。
[図 18]図 18は、 BD—ROM全体情報である BD. INFOの構成を示す図である。
[図 19]図 19は、グローバルイベントハンドラテーブルの構成を示す図である。
[図 20]図 20は、タイムイベントの例を示す図である。
[図 21]図 21は、ユーザのメニュー操作によるユーザイベントの例を示す図である。
[図 22]図 22は、グローバルイベントの例を示す図である。
[図 23]図 23は、プログラムプロセッサの機能的な構成を説明するための図である。
[図 24]図 24は、システムパラメータ(SPRM)の一覧を示す図である。
[図 25]図 25は、 2つの選択ボタンを持つメニュー画面の制御に係るイベントハンドラ におけるプログラムの例を示す図である。
[図 26]図 26は、メニュー選択のユーザイベントに係るイベントハンドラにおけるプログ ラムの例を示す図である。
[図 27]図 27は、 BD— ROMプレーヤにおける AVデータ再生の基本処理の流れを 示すフローチャートである。
[図 28]図 28は、 BD— ROMプレーヤにおけるプレイリスト再生開始から VOB再生終 了までの処理の流れを示すフローチャートである。
[図 29]図 29 (A)は、 BD— ROMプレーヤにおけるタイムイベントに係る処理の流れ を示すフローチャートであり、図 29 (B)は、 BD— ROMプレーヤにおけるユーザィべ ントに係る処理の流れを示すフローチャートである。 [図 30]図 30は、 BD— ROMプレーヤにおける字幕データの処理の流れを示すフロ 一チャートである。
[図 31]図 31は、本発明の再生装置のモジュール構成や制御の流れを説明する図で ある。
[図 32]図 32は、 Index Tableと XHTMLファイルの関係を説明する図である。
[図 33]図 33は、ボタンが表示される XHTMLファイルの例を示す図である。
圆 34]図 34は、データのライフサイクルを説明する説明図である。
[図 35]図 35は、データのライフサイクルを説明するタイミングチャートである。
[図 36]図 36は、データを 1つにまとめる方法を説明する図である。
圆 37]図 37は、メモリサイズの拡張を導入する方法の説明図である。
[図 38]図 38は、アプリケーション用の言語設定を追加したプレーヤ変数テーブルの 図である。
[図 39]図 39は、アプリケーション用の言語設定に応じてアプリケーションが表示また は処理する言語を切り替える例を示す図である。
[図 40]図 40は、 XML'XHTMLおよびスクリプトの記述によりアプリケーションが表示 または処理する言語を切り替える例を示す図である。
[図 41]図 41は、設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルに よる言語切替方法のシーケンス図である。
[図 42]図 42は、設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルを ディスクに記録した例を示す図である。
[図 43]図 43は、ポイントリストを追加'修正したプレイリストファイルの構成図である。
[図 44]図 44は、コンテンツ再生時刻に連動したイベントを生成 ·処理するシステム〖こ よりコメンタリピクチャアプリケーションを実現した例を示す図である。
[図 45]図 45は、コンテンツ再生時刻に連動したイベントを生成 ·処理するシステムの フローチャート図である。
[図 46]図 46は、コメンタリピクチャアプリケーションの記述例を示す図である。
[図 47]図 47は、コンテンツ再生時刻に連動し、再生状態も通知可能なイベントを生成
•処理シするステムにより、チャプタータイトルアプリケーションを実現した例を示す図 である。
[図 48]図 48は、コンテンツ再生時刻に連動し、再生状態も通知可能なイベントを生成 '処理するシステムのフローチャート図である。
[図 49]図 49は、チャプタータイトルアプリケーションの記述例を示す図である。
[図 50]図 50は、ポイント情報にイベント生成条件情報を追加'修正したプレイリストフ アイルの構成図である。
[図 51]図 51は、イベント生成条件に応じてコンテンツ再生時刻に連動したイベントを 生成 ·処理するシステムの動作概要を示す図である。
[図 52]図 52は、イベント生成条件に応じてコンテンツ再生時刻に連動したイベントを 生成 ·処理するシステムのフローチャート図である。
符号の説明
201 BDディスク
202 光ピックアップ
203 プログラム記録メモリ
204 管理情報記録メモリ
205 AV記録メモリ
206 プログラム処理部
207 管理情報処理部
208 プレゼンテーション処理部
209 イメージプレーン
210 ビデ才プレーン
211 合成処理部
301 プログラム記録メモリ
302 プログラムプロセッサ
303 UOPマネージャ
304 管理情報記録メモリ
305 シナリオプロセッサ
306 プレゼンテーションコントローラ 307 クロック
308 イメージメモリ
309 トラックノ ッファ
310 デマルチプレクサ
311 イメージプロセッサ
312 ビデオプロセッサ
313 サウンドプロセッサ
314 イメージプレーン
315 ビデオプレーン
316 合成処理部
317 ドライブコントローラ
S101 ディスク挿入ステップ
5102 BD. INFO読み込みステップ
5103 BD. PROG読み込みステップ
S104 ファーストイベント生成ステップ
S105 イベントハンドラ実行ステップ
S201 UOP受付ステップ
5202 UOPイベント生成ステップ
5203 メニューコール判定ステップ
S204 イベント生成ステップ
S205 イベントハンドラ実行ステップ
S301 プレイリスト再生開始ステップ
S302 プレイリスト情報 (XXX. PL)読み込みステップ
S303 プレイリストプログラム(XXX. PROG)読み込みステップ
S304 セル再生開始ステップ
S305 AV再生開始ステップ
S401 AV再生開始ステップ
S402 VOB情報(YYY. VOBI)読み込みステップ 5403 VOB (YYY. VOB)読み込みステップ
5404 VOB再生開始ステップ
5405 VOB再生終了ステップ
S406 次セル存在判定ステップ
S501 プレイリスト再生開始ステップ
S502 プレイリスト再生終了判定ステップ
S503 タイムイベント時刻判定ステップ
S504 イベント生成ステップ
S505 イベントハンドラ実行ステップ
S601 プレイリスト再生開始ステップ
S602 プレイリスト再生終了判定ステップ
5603 UOP受付判定ステップ
5604 UOPイベント生成ステップ
5605 メニューコール判定ステップ
S606 ユーザイベント有効期間判定ステップ
S607 イベント生成ステップ
S608 イベントハンドラ実行ステップ
S701 プレイリスト再生開始ステップ
S702 プレイリスト再生終了判定ステップ
S703 字幕描画開始判定ステップ
S704 字幕描画ステップ
S705 字幕表示終了判定ステップ
S706 字幕消去ステップ
S801 ナビゲーシヨン用言語コード更新ステップ
S802 アプリケーション用の言語設定確認ステップ
S803 選択言語の IndexTableまたはファイルリストまたは ZIPファイル検索ステツ
S804 検索結果判定ステップ S805 選択言語用 IndexTableまたはファイルリストまたは ZIPファイル読込ステツ プ
S806 標準言語用 IndexTableまたはファイルリストまたは ZIPファイル読込ステツ プ
S807 タイトル実行ステップ
S901 プレイリスト再生ステップ
S902 Point情報のキャッシュステップ
S903 プレイリスト再生終了判定ステップ
S904 Point到達判定ステップ
S905 Pointイベント生成ステップ
S906 イベント対応処理実行ステップ
S1001 プレイリスト再生ステップ
S1002 Point情報のキャッシュステップ
S1003 プレイリスト再生終了判定ステップ
S1004 Point到達判定ステップ
S1005 再生状態確認ステップ
S1006 Pointイベント生成ステップ
S1007 イベント対応処理実行ステップ
S1101 プレイリスト再生ステップ
S1102 Point情報のキャッシュステップ
S1103 プレイリスト再生終了判定ステップ
S1104 Point到達判定ステップ
S1105 イベント生成条件適合判定ステップ
S1106 再生状態確認ステップ
S1107 Pointイベント生成ステップ
S1108 イベント対応処理実行ステップ
発明を実施するための最良の形態
以下、添付の図面を参照しながら、本発明を実施するための最良の形態にっレ、て 説明する。
[0045] (実施の形態 1)
まず、 BD— ROMおよび BD— ROMを再生する BD— ROMプレーヤの基本的な 構成および動作について、図 4〜図 30を用いて説明する。
[0046] (ディスク上の論理データ構造)
図 4は、 BD— ROMのデータ階層を示す図である。
[0047] 図 4に示すように、ディスク媒体である BD—ROM104上には、 AVデータ 103と、
AVデータに関する管理情報及び AV再生シーケンスなどの BD管理情報 102と、ィ ンタラタティブを実現する BD再生プログラム 101とが記録されている。
[0048] なお、各タイトルの実体データは、 AVデータ 103として存在し、各タイトルのシナリ ォ制御記述データ(以下、単に「シナリオ」ともいう。)は、 BD管理情報 102として存在 する。
[0049] なお、本実施の形態では、映画などの AVコンテンツを再生するための AVアプリケ ーシヨンを主眼において BD— ROMの説明を行う力 BD— ROMを CD— ROMや DVD— ROMの様にコンピュータ用途の記録媒体として使用することも当然のことな 力 可能である。
[0050] 図 5は、上述の BD— ROM104に記録されている論理データの構造を示す図であ る。 BD— ROM104は、他の光ディスク、例えば DVDや CDなどと同様にその内周か ら外周に向けてらせん状に記録領域を持ち、内周のリードインと外周のリードアウトの 間に論理データを記録できる論理アドレス空間を有している。また、リードインの内側 には Burst Cutting Area (BCA)と呼ばれる、ドライブでしか読み出せない特別な 領域がある。この領域はアプリケーション力も読み出せないため、例えば著作権保護 技術などに利用されることがよくある。
[0051] 論理アドレス空間には、ファイルシステム情報 (ボリューム)を先頭に映像データなど のアプリケーションデータが記録されて 、る。ファイルシステムとは従来技術で説明し た通り、 UDFや ISO9660等の規格により定められたデータを管理する仕組みのこと であり、通常の PCと同じように記録されている論理データをディレクトリ、ファイル構造 を使って読み出しする事が可能になって 、る。 [0052] 本実施の形態の場合、 BD—ROM104上のディレクトリ、ファイル構造は、ルートデ ィレクトリ(ROOT)直下に BD VIDEOディレクトリが置かれている。このディレクトリは BD— ROMで扱う AVデータや管理情報などのデータ(図 4に示す BD再生プログラ ム 101、 BD管理情報 102、 AVデータ 103)が記録されているディレクトリである。
[0053] BDVIDEOディレクトリの下には、次の 7種類のファイルが記録されている。
[0054] BD. INFO (ファイル名固定)
「BD管理情報」の一つであり、 BD— ROM全体に関する情報を記録したファイルで ある。 BD— ROMプレーヤは最初にこのファイルを読み出す。
[0055] BD. PROG (ファイル名固定)
「BD再生プログラム」の一つであり、 BD— ROM全体に関わるプログラムを記録し たファイルである。
[0056] XXX. PL (「XXX」は可変、拡張子「PL」は固定)
「BD管理情報」の一つであり、シナリオを記録するプレイリスト (Play List)情報を 記録したファイルである。プレイリスト毎に 1つのファイルを持っている。
[0057] XXX. PROG (「XXX」は可変、拡張子「PROG」は固定)
「BD再生プログラム」の一つであり、上述したプレイリスト毎のプログラムを記録した ファイルである。プレイリストとの対応はファイルボディ名(「XXX」がー致する)によつ て識別される。
[0058] YYY. VOB (「YYY」は可変、拡張子「VOB」は固定)
「AVデータ」の一つであり、 VOB (従来例で説明した VOBと同じ)を記録したフアイ ルである。 1つの VOBは 1つのファイルに対応する。
[0059] YYY. VOBI (「YYY」は可変、拡張子「VOBI」は固定)
「BD管理情報」の一つであり、 AVデータである VOBに関わる管理情報を記録した ファイルである。 VOBとの対応はファイルボディ名(「YYY」が一致する)によって識 別される。
[0060] ZZZ. PNG (「ΖΖΖ」は可変、拡張子「PNG」は固定)
「AVデータ」の一つであり、字幕及びメニュー画面を構成するためのイメージデー タである PNG (World Wide Web Consortium (W3C)によって標準化された画 像フォーマットであり「ビング」と読む。)形式のイメージファイルである。 1つの PNGィ メージは 1つのファイルに対応する。
[0061] (プレーヤの構成)
次に、上述の BD— ROM104を再生するプレーヤの構成につ!、て図 6及び図 7を 用いて説明する。
[0062] 図 6は、 BD— ROM104を再生する BD— ROMプレーヤの基本的な構成の概要を 示す図である。
[0063] 図 6に示す BD— ROMプレーヤにおいて、 BD—ROM104上のデータは、光ピッ クアップ 202を通して読み出される。読み出されたデータはそれぞれのデータの種類 に応じて専用のメモリに記録される。 BD再生プログラム(「BD. PROG」または「XXX . PROG」ファイル)はプログラム記録メモリ 203に、 BD管理情報(「: BD. INFO」、 「X XX. PL」または「YYY. VOBI」ファイル)は管理情報記録メモリ 204に、 AVデータ( 「YYY. VOB」または「ZZZ. PNG」ファイル)は AV記録メモリ 205にそれぞれ記録 される。
[0064] プログラム記録メモリ 203に記録された BD再生プログラムはプログラム処理部 206 によって処理される。管理情報記録メモリ 204に記録された BD管理情報は管理情報 処理部 207によって処理される。また、 AV記録メモリ 205に記録された AVデータは プレゼンテーション処理部 208によって処理される。
[0065] プログラム処理部 206は、管理情報処理部 207から再生するプレイリストの情報や プログラムの実行タイミングなどのイベント情報を受け取りプログラムの処理を行う。ま た、プログラムで再生するプレイリストを動的に変更する事が可能であり、この場合は 管理情報処理部 207に対して変更後のプレイリストの再生命令を送ることで実現する
[0066] プログラム処理部 206は、更に、ユーザからのイベント、例えば、ユーザが操作する リモコン力ものリクエストを受け付け、ユーザイベントに対応するプログラムがある場合 は、実行処理する。
[0067] 管理情報処理部 207は、プログラム処理部 206の指示を受け、その指示に対応す るプレイリスト及びそのプレイリストに対応した VOBの管理情報を解析する。更に、プ レゼンテーシヨン処理部 208に再生の対象となる AVデータの再生を指示する。
[0068] また、管理情報処理部 207は、プレゼンテーション処理部 208から基準時刻情報を 受け取り、時刻情報に基づいてプレゼンテーション処理部 208に AVデータ再生の 停止指示を行う。更に、プログラム処理部 206に対してプログラム実行タイミングを示 すイベントを生成する。
[0069] プレゼンテーション処理部 208は、映像、音声、および字幕それぞれのデータに対 応するデコーダを持ち、管理情報処理部 207からの指示に従い、 AVデータのデコ ード及び出力を行う。映像データ及び字幕データは、デコード後にそれぞれの専用 プレーンに描画される。具体的には、映像データはビデオプレーン 210に描画され、 字幕データ等のイメージデータはイメージプレーン 209に描画される。更に、 2つの プレーンに描画された映像の合成処理が合成処理部 211によって行われ TVなどの 表示デバイスへ出力される。
[0070] 図 6で示すように、 BD— ROMプレーヤは図 4で示した BD— ROM104に記録され て 、るデータ構成に基づ!/、た構成をとつて 、る。
[0071] 図 7は、図 6に示すプレーヤの構成を詳細化したブロック図である。図 6に示す各構 成部と、図 7に示す各構成部との対応は以下の通りである。
[0072] AV記録メモリ 205はイメージメモリ 308とトラックバッファ 309に対応する。プログラ ム処理部 206はプログラムプロセッサ 302と UO (User Operation)マネージャ 303 に対応する。管理情報処理部 207はシナリオプロセッサ 305とプレゼンテーションコ ントローラ 306とに対応する。プレゼンテーション処理部 208はクロック 307、デマル チプレクサ 310、イメージプロセッサ 311、ビデオプロセッサ 312とサウンドプロセッサ 313とに対応する。
[0073] BD—ROM104から読み出された VOBデータ(MPEGストリーム)はトラックバッフ ァ 309に、イメージデータ(PNG)はイメージメモリ 308にそれぞれ記録される。
[0074] デマルチプレクサ 310は、クロック 307から得られる時刻に基づき、トラックバッファ 3 09に記録された VOBデータを抜き出す。更に、 VOBデータに含まれる映像データ をビデオプロセッサ 312に音声データをサウンドプロセッサ 313にそれぞれ送り込む [0075] ビデオプロセッサ 312及びサウンドプロセッサ 313はそれぞれ MPEGシステム規格 で定められる通りに、デコーダバッファとデコーダ力もそれぞれ構成されている。即ち 、デマルチプレクサ 310から送りこまれる映像、音声それぞれのデータは、それぞれ のデコーダバッファに一時的に記録され、クロック 307に従い個々のデコーダでデコ ード処理される。
[0076] イメージメモリ 308に記録された PNGデータは、次の 2つの処理方法がある。 PNG データが字幕用の場合は、プレゼンテーションコントローラ 306によってデコードタイ ミングが指示される。クロック 307からの時刻情報をシナリオプロセッサ 305がー且受 け、適切な字幕表示が行えるように、字幕表示時刻(開始及び終了)になればプレゼ ンテーシヨンコントローラ 306に対して字幕の表示、非表示の指示を出す。プレゼン テーシヨンコントローラ 306からデコード/表示の指示を受けたイメージプロセッサ 31 1は対応する PNGデータをイメージメモリ 308から抜き出し、デコードし、イメージプレ ーン 209に描画する。
[0077] また、 PNGデータカ -ユー画面用の場合は、プログラムプロセッサ 302によって デコードタイミングが指示される。プログラムプロセッサ 302が!、つイメージのデコード を指示するかは、プログラムプロセッサ 302が処理している BDプログラムに因るもの であって一概には決まらな!/ヽ。
[0078] イメージデータ及び映像データは、図 6で説明したようにそれぞれデコード後にィメ ージプレーン 209およびビデオプレーン 210に記録され描画され、合成処理部 211 によって合成出力される。
[0079] BD—ROM104から読み出された管理情報 (シナリオ、 AV管理情報)は、管理情 報記録メモリ 204に記録される力 シナリオ情報(「BD. INFO」及び「XXX. PL」)は シナリオプロセッサ 305によって読み出され処理される。また、 AV管理情報(「YYY . VOBI」)はプレゼンテーションコントローラ 306によって読み出され処理される。
[0080] シナリオプロセッサ 305は、プレイリストの情報を解析し、プレイリストによって参照さ れている VOBとその再生位置をプレゼンテーションコントローラ 306に指示し、プレ ゼンテーシヨンコントローラ 306は対象となる VOBの管理情報(「YYY. VOBI」)を解 祈して、対象となる VOBを読み出すようにドライブコントローラ 317に指示を出す。 [0081] ドライブコントローラ 317はプレゼンテーションコントローラ 306の指示に従い、光ピ ックアップを移動させ、対象となる AVデータの読み出しを行う。読み出された AVデ ータは、上述したようにイメージメモリ 308またはトラックバッファ 309に記録される。
[0082] また、シナリオプロセッサ 305は、クロック 307の時刻を監視し、管理情報で設定さ れているタイミングでイベントをプログラムプロセッサ 302に投げる。
[0083] プログラム記録メモリ 203に記録された BDプログラム(「BD. PROG」または「XXX . PROG」)は、プログラムプロセッサ 302によって実行処理される。プログラムプロセ ッサ 302が BDプログラムを処理するのは、シナリオプロセッサ 305からイベントが送ら れてきた場合か、 UOマネージャ 303からイベントが送られてきた場合である。
[0084] UOマネージャ 303は、ユーザからリモコンキーによってリクエストが送られてきた場 合に、当該リクエストに対応するイベントを生成しプログラムプロセッサ 302に送る。
[0085] このような各構成部の動作により、 BD— ROMの再生がおこなわれる。
[0086] (アプリケーション空間)
図 8は、 BD— ROMのアプリケーション空間を示す図である。
[0087] BD— ROMのアプリケーション空間では、プレイリスト(PlayList)がーつの再生単 位になって!/、る。プレイリストはセル(Cell)の再生シーケンス力も構成される静的なシ ナリオと、プログラムによって記述される動的なシナリオとを有している。プログラムに よる動的なシナリオが無い限り、プレイリストは個々のセルを順に再生するだけであり 、また、全てのセルの再生を終了した時点でプレイリストの再生は終了する。
[0088] 一方で、プログラムは、プレイリストを超えての再生記述や、ユーザの選択またはプ レーャの状態に応じて再生する対象を動的に変えることが可能である。典型的な例と してはメニュー画面を介した再生対象の動的変更が挙げられる。 BD— ROMの場合 、メニューとはユーザの選択によって再生するシナリオ、即ちプレイリストを動的に選 択するための機能の構成要素の 1つである。
[0089] また、ここで言うプログラムは、時間イベントまたはユーザイベントによって実行され るイベントハンドラの事である。
[0090] 時間イベントは、プレイリスト中に埋め込まれた時刻情報に基づいて生成されるィべ ントである。図 7で説明したシナリオプロセッサ 305からプログラムプロセッサ 302に送 られるイベントがこれに相当する。時間イベントが発行されると、プログラムプロセッサ
302は IDによって対応付けられるイベントハンドラを実行処理する。上述した通り、実 行されるプログラムが他のプレイリストの再生を指示することが可能であり、この場合 には、現在再生されているプレイリストの再生は中止され、指定されたプレイリストの 再生へと遷移する。
[0091] ユーザイベントは、ユーザのリモコンキー操作によって生成されるイベントである。ュ 一ザイベントは大きく 2つのタイプに分けられる。一つ目は、リモコンが備えるカーソル キー(「上」「下」「左」「右」キー)または「決定」キーの操作によって生成されるメニュー 選択のイベントである。
[0092] メニュー選択のイベントに対応するイベントハンドラはプレイリスト内の限られた期間 でのみ有効である。つまり、プレイリストの情報として、個々のイベントハンドラの有効 期間が設定されている。プログラムプロセッサ 302は、リモコンの「上」「下」「左」「右」 キーまたは「決定」キーが押された時に有効なイベントハンドラを検索して、有効なィ ベントハンドラがある場合は当該イベントハンドラが実行処理される。他の場合は、メ ニュー選択のイベントは無視されることになる。
[0093] 二つ目のユーザイベントは、「メニュー」キーの操作によって生成されるメニュー画 面呼び出しのイベントである。メニュー画面呼び出しのイベントが生成されると、グロ 一バルイベントハンドラが呼ばれる。グローバルイベントハンドラはプレイリストに依存 せず、常に有効なイベントハンドラである。この機能を使うことにより、 DVDのメニュー コールを実装することができる。メニューコールを実装することにより、タイトル再生中 に音声、字幕メニューなどを呼び出し、音声または字幕を変更後に中断した地点力 のタイトル再生を実行することができる。
[0094] プレイリストで静的シナリオを構成する単位であるセル(Cell)は VOB (MPEGストリ ーム)の全部または一部の再生区間を参照したものである。セルは VOB内の再生区 間を開始、終了時刻の情報として持っている。個々の VOBと一対になっている VOB 管理情報 (VOBI)は、その内部にタイムマップ (Time Mapまたは TM)を有しており 、このタイムマップによって上述した VOBの再生、終了時刻を VOB内(即ち対象とな るファイル「YYY. VOBJ内)での読み出し開始アドレス及び終了アドレスを導き出す ことが可能である。なおタイムマップの詳細は図 14を用いて後述する。
[0095] (VOBの詳細)
図 9は、本実施の形態で使用する MPEGストリーム (VOB)の構成を示す図である 。図 9に示すように、 VOBは複数の Video Object Unit (VOBU)によって構成さ れている。 VOBUは、 MPEGビデオストリームにおける Group Of Pictures (GOP )を基準とする単位であり、音声データも含んだ多重化ストリームとしての一再生単位 である。
[0096] VOBUは 0. 4秒から 1. 0秒の再生時間を持ち、通常は 0. 5秒の再生時間を持つ ている。これは MPEGの GOPの構造が通常は 15フレーム Z秒(NTSCの場合)であ ることによって導力れるものである。
[0097] VOBUは、その内部に映像データであるビデオパック(V— PCK)と、音声データ であるオーディオパック (A— PCK)とを有している。各パックは 1セクタで構成され、 本実施の形態の場合は 2kB単位で構成されて 、る。
[0098] 図 10は、 MPEGストリームにおけるパックの構成を示す図である。
[0099] 図 10に示すように、ビデオデータ映像データ及びオーディオデータ音声データと
V、つたエレメンタリデータは、ペイロードと呼ばれるパケットのデータ格納領域に先頭 力 順次入れられていく。ペイロードにはパケットヘッダが付けられ 1つのパケットを構 成する。
[0100] パケットヘッダには、ペイロードに格納してあるデータがどのストリームのデータであ るのかを示す情報、映像データであるのか音声データであるのかを示す情報、また、 映像データまたは音声データがそれぞれ複数ストリームある場合は、どのストリームの データなのかを識別するための ID (stream— id)、および、当該ペイロードのデコー ド及び表示時刻情報であるタイムスタンプである Decode Time Stamp (DTS)及 び Presentation Time Stamp (PTS)が記録されている。
[0101] DTSおよび PTSは必ずしも全てのパケットヘッダに記録されている訳ではなぐ M PEGによって記録するルールが規定されている。ルールの詳細については MPEG システム(ISOZIEC13818— 1)規格書に記述されているので省略する。
[0102] パケットには更にヘッダ (パックヘッダ)が付けられ、パックを構成する。パックヘッダ には、当該パックがいつデマルチプレクサを通過し、個々のエレメンタリストリームの デコーダバッファに入力されるかを示すタイムスタンプである System Clock Refer ence (SCR)が記録されて!、る。
[0103] (VOBのインターリーブ記録)
図 11及び図 12を用いて VOBファイルのインターリーブ記録につ!、て説明する。
[0104] 図 11は、 AVデータと BD— ROMプレーヤの構成との関係を説明するための図で ある。
[0105] 図 11上段の図は、図 7を用いて上述したプレーヤ構成図の一部である。図の通り、 BD— ROM上のデータは、光ピックアップを通して VOB即ち MPEGストリームであ ればトラックバッファ 309へ入力され、 PNG即ちイメージデータであればイメージメモ リ 308へと入力される。
[0106] トラックバッファ 309は First— In First— Out (FIFO)であり、入力された VOBの データは入力された順にデマルチプレクサ 310へと送られる。この時、上述した SCR に従って個々のパックはトラックバッファ 309から引き抜かれデマルチプレクサ 310を 介してビデオプロセッサ 312またはサウンドプロセッサ 313へとデータが送り届けられ る。
[0107] 一方で、イメージデータの場合は、どのイメージを描画するかはプレゼンテーション コントローラ 306 (図 7参照)によって指示される。また、描画に使ったイメージデータ は、字幕用イメージデータの場合は同時にイメージメモリ 308から削除される力 メ- ユー用のイメージデータの場合は、イメージメモリ内にそのまま残される。これはメ-ュ 一の描画はユーザ操作に依存するところがあるため、同一イメージを複数回描画す る可能 ¾があるためである。
[0108] 図 11下段の図は、 BD— ROM上での VOBフアイノレ及び PNGフアイノレのインターリ ーブ記録を示す図である。
[0109] 一般的に ROM、例えば CD— ROMや DVD— ROMの場合、一連の連続再生単 位となる AVデータは連続記録されている。連続記録されている限り、ドライブは順次 データを読み出しプレーヤ側に送り届けるだけで良い。しかしながら、連続再生すベ き AVデータが分断されてディスク上に離散配置されている場合は、個々の連続区間 の間でシーク操作が入ることになり、この間データの読み出しが止まることになる。つ まり、データの供給が止まる可能性がある。
[0110] BD— ROMの場合も同様に、 VOBファイルは連続領域に記録することができる方 が望ましいが、例えば字幕データのように VOBに記録されている映像データと同期 して再生されるデータがあり、 VOBファイルと同様に字幕データも何らかの方法によ つて BD— ROM力も読み出す事が必要になる。
[0111] 字幕データの読み出し方法の一手段として、 VOBの再生開始前に一まとめで字幕 用のイメージデータ(PNGファイル)を読み出してしまう方法がある。しかしながら、こ の場合には一時記録に使用する大量のメモリが必要となり、現実的ではない。
[0112] そこで、本実施の形態では、 VOBファイルを幾つかのブロックに分けて、 VOBファ ィルとイメージデータとをインターリーブ記録する方式を使用する。
[0113] 図 11下段はそのインターリーブ記録を説明するための図である。 VOBファイルとィ メージデータを適切にインターリーブ配置することで、上述したような大量の一時記録 メモリ無しに、必要なタイミングでイメージデータをイメージメモリに格納することが可 能になる。し力しながらイメージデータを読み出している際には、 VOBデータの読み 込みは当然のことながら停止することになる。
[0114] 図 12は、上記のインターリーブ記録における問題を解決するトラックバッファ 309を 使った VOBデータ連続供給モデルを説明するための図である。
[0115] 既に説明したように、 VOBのデータは、ー且トラックバッファ 309に蓄積される。トラ ックバッファ 309へのデータ入力レートとをトラックバッファ 309からのデータ出力レー トの間に差を設けるとより高く設定すると、 BD— ROM力 データを読み出し続けてい る限り、トラックバッファ 309のデータ蓄積量は増加をしていくことになる。
[0116] ここでトラックバッファ 309への入力レートを Va、トラックバッファからの出力レートを Vbとする。図 12の上段の図に示すように VOBの一連続記録領域が論理アドレスの" a 1"から" a2"まで続くとする。また、 "a2"から" a3"の間は、イメージデータが記録され ていて、 VOBデータの読み出しが行えない区間であるとする。
[0117] 図 12の下段の図は、トラックバッファ 309の蓄積量を示す図である。横軸が時間、 縦軸がトラックバッファ 309内部に蓄積されているデータ量を示している。時刻" tl"が VOBの一連続記録領域の開始点である" al"の読み出しを開始した時刻を示してい る。
[0118] この時刻以降、トラックバッファ 309にはレート Va—Vbでデータが蓄積されていくこ とになる。このレートは言うまでもなくトラックバッファの入出力レートの差である。時刻 "t2"は一連続記録領域の終了点である" a2"のデータを読み込む時刻である。即ち 時刻" tl"から" t2"の間レート Va—Vbでトラックバッファ内はデータ量が増加していき 、時刻" t2"でのデータ蓄積量 B (t2)は下記の(式 1)によって求めることができる。
[0119] B (t2) = (Va-Vb) X (t2~tl) (式 1)
この後、 BD— ROM上のアドレス" a3"まではイメージデータが続くため、トラックバッ ファへの入力は 0となり、出力レートである〃 Vb〃でトラックバッファ内のデータ量は 減少していくことになる。このデータ量の減少は読み出し位置" a3"まで、つまり、時刻 でいう" t3"まで続く。
[0120] ここで大事なことは、時刻" t3"より前にトラックバッファに蓄積されているデータ量が 0になると、デコーダへ供給する VOBのデータが無くなってしまい、 VOBの再生がス トップしてしまうことである。し力しながら、時亥『t3"でトラックバッファにデータが残つ て 、る場合には、 VOBの再生がストップすることなく連続して行われることを意味して いる。
[0121] この VOBの再生がストップすることなく連続して行われるための条件は下記の(式 2
)によって示すことができる。
[0122] B (t2) ≥ Vb X (t3— 12) (式 2)
即ち、(式 2)を満たすようにイメージデータの配置を決めればよい事になる。
[0123] (ナビゲーシヨンデータ構造)
図 13力ら図 19を用いて、 BD— ROMに記録されたナビゲーシヨンデータ(BD管理 情報)の構造について説明をする。
[0124] 図 13は、 VOB管理情報ファイル("YYY. VOBI")の内部構造を示す図である。
[0125] VOB管理情報は、当該 VOBのストリーム属性情報 (Attribute)とタイムマップ (T
MAP)とを有している。ストリーム属性情報は、ビデオ属性 (Video)、オーディオ属性
(Audio # 0〜Audio # m)個々に持つ構成となっている。特にオーディオストリーム の場合は、 VOBが複数本のオーディオストリームを同時に持つことができることから、 オーディオストリーム数 (Number)によって、オーディオ属性のデータフィールドの有 無を示している。数が特定される。
[0126] 下記はビデオ属性 (Video)の持つフィールドとそれぞれが持ち得る値の例である。
[0127] 圧縮方式(Coding):
MPEG1
MPEG2
MPEG4
解像度(Resolution):
1920x1080
1280x720
720x480
720x565
アスペクト比(Aspect):
4 : 3
16 : 9
フレ1 ~~ムレ ^ ~~ト (Framerate):
60
59. 94
50
30
29. 97
25
24
下記はオーディオ属性 (Audio)の持つフィールドとそれぞれが持ち得る値の例で める。
[0128] 圧縮方式(Coding):
AC 3 MPEG1
MPEG2
LPCM
チャンネル数(Ch):
1〜8
m 属性 (Language):
JPN、 ENG、 · · ·
タイムマップ (TMAP)は VOBU毎の情報を持つテーブルであって、当該 VOBが 有する VOBU数(Number)と各 VOBU情報(VOBU # l〜VOBU # n)を持つ。
[0129] 個々の VOBU情報は、 VOBUの再生時間長(Duration)と VOBUのデータサイ ズ(Size)とを有している。
[0130] 図 14は、 VOBU情報の詳細を説明するための図である。
[0131] 広く知られているように、 MPEGストリームは時間的側面とデータサイズとしての側 面との 2つの物理量についての側面を有している。例えば、音声の圧縮規格である A udio Code number 3 (AC3)は固定ビットレートでの圧縮を行っているため、時 間とアドレスとの関係は 1次式によって求めることができる。
[0132] しかしながら MPEGビデオデータの場合、個々のフレームは固定の表示時間、例 えば NTSCの場合、 1フレームは 1Z29. 97秒の表示時間を持つが、個々のフレー ムの圧縮後のデータサイズは絵の特性や圧縮に使ったピクチャタイプ、 、わゆる IZ PZBピクチャによってデータサイズは大きく変わってくる。従って、 MPEGビデオの 場合は、時間とアドレスとの関係は一般式の形で表現することは不可能である。
[0133] 当然の事として、 MPEGビデオデータを多重化している MPEGストリーム、即ち VO Bについても、時間とデータとを一般式の形で表現することは不可能である。これに 代わって、 VOB内での時間とアドレスとの関係を結びつけるのがタイムマップ (TMA P)である。図 14に示すように、 VOBU毎に VOBU内のフレーム数と、 VOBU内のパ ック数とをそれぞれエントリとして持つテーブルがタイムマップ (TMAP)である。
[0134] 図 15を使って、タイムマップ (TMAP)の使い方を説明する。
[0135] 図 15は、タイムマップを使ったアドレス情報取得方法を説明するための図である。 [0136] 図 15に示すように時刻情報 (Time)が与えられた場合、まずは当該時刻がどの VO BUに属するのかを検索する。具体的には、タイムマップの VOBU毎のフレーム数を 加算して行き、フレーム数の和が、当該時刻をフレーム数に換算した値を超えるまた は一致する VOBUが当該時刻に対応する VOBUになる。
[0137] 次に、タイムマップの VOBU毎のサイズを当該 VOBUの直前の VOBUまで力卩算し て行き、その値が与えられた時刻を含むフレームを再生するために読み出すべきパ ックの先頭アドレス(Adess)になっている。
[0138] このようにして、 MPEGストリームにおいて、与えられた時刻情報に対応するァドレ スを得ることができる。
[0139] 次に図 16を使って、プレイリスト情報("XXX. PL")の内部構造を説明する。
[0140] 図 16は、プレイリスト情報の構成を示す図である。
[0141] プレイリスト情報は、セルリスト(CellList)とイベントリスト(EventList)とから構成さ れている。
[0142] セルリスト(CellList)は、プレイリスト内の再生セルシーケンスを示す情報であり、本 リストの記述順でセルが再生される事になる。
[0143] セルリスト(CellList)の中身は、セルの数(Number)と各セル情報(Cell # l〜Cel l # n)である。
[0144] 各セル情報(Cell #〜Cell # n)は、 VOBファイル名 (VOBName)、当該 VOB内 での有効区間開始時刻(In)及び有効区間終了時刻 (Out)と、字幕テーブル (Subt itleTable)を持っている。
[0145] 有効区間開始時刻 (In)及び有効区間終了時刻 (Out)は、それぞれ当該 VOB内 でのフレーム番号で表現され、上述したタイムマップ (TMAP)を使うことによって再 生に必要な VOBデータのアドレスを得る事ができる。
[0146] 字幕テーブル (SubtitleTable)は、当該 VOBと同期再生される字幕情報を持つテ 一ブルである。字幕は音声同様に複数の言語を持つことができ、字幕テーブル (Sub titleTable)は言語数 (Number)とそれに続く個々の言語ごとのテーブル (Langua ge # 1〜: Language # k)とから構成されて 、る。
[0147] 各言語のテーブル (Language # 1〜: Language # k)は、言語情報(Language)と 、表示される字幕の字幕情報数 (Number)と、表示される字幕の字幕情報 (Speech # l〜Speech #j)とから構成され、各字幕情報(Speech# l〜Speech #j)は対応 するイメージデータファイル名(Name)、字幕表示開始時刻(In)及び字幕表示終了 時刻 (Out)と、字幕の表示位置 (Position)とから構成されて 、る。
[0148] イベントリスト(EventList)は、当該プレイリスト内であげられる発生するイベントを 定義したテーブルである。イベントリストは、イベント数 (Number)に続いて個々のィ ベント(Event # l〜Event # m)とから構成され、各イベント(Event # l〜Event # m)は、イベントの種類 (Type)、イベントの ID (ID)、イベント生成時刻(Time)と有効 期間(Duration)とから構成されて 、る。
[0149] 図 17は、個々のプレイリスト毎のイベントハンドラ(時間イベントと、メニュー選択用 のユーザイベント)を持つイベントハンドラテーブル ("XXX. PROG")の構成を示す 図である。
[0150] イベントハンドラテーブルは、定義されているイベントハンドラ Zプログラム数 (Num ber)と個々のイベントハンドラ Zプログラム(Program # l〜Program # n)を有して いる。各イベントハンドラ Zプログラム(Program # l〜Program # n)内の記述は、ィ ベントハンドラ開始の定義(く event— handler >タグ)と上述したイベントの IDと対 になるイベントハンドラの ID (event— handler id)を持ち、その後に当該プログラム 力 function "に続く括弧 ど との間に記述される。
[0151] 次に図 18を用いて BD— ROM全体に関する情報("BD. INFO")の内部構造に ついて説明をする。
[0152] 図 18は、 BD— ROM全体情報である BD. INFOの構成を示す図である。
[0153] BD— ROM全体情報は、タイトルリスト(TitleList)とグローバルイベント用のィベン トリスト(EventList)とから構成されて ヽる。
[0154] タイトルリスト(TitleList)は、ディスク内のタイトル数(Number)と、これに続く各タ ィトル情報 (Title # l〜Title # n)と力ら構成されて 、る。
[0155] 各タイトル情報(Titlel〜Title # n)は、タイトルに含まれるプレイリストのテーブル (
PLTalble)とタイトル内のチヤプタリスト(ChapterList)とを含んで!/、る。プレイリスト のテーブル(PLTable)はタイトル内のプレイリストの数(Number)と、プレイリスト名( Name)即ちプレイリストのファイル名を有して!/、る。
[0156] チヤプタリスト(ChapterList)は、当該タイトルに含まれるチヤプタ数(Number)と 各チヤプタ情報(Chapter # l〜Chapter # n)と力 構成され、各チヤプタ情報(Ch apter # l〜Chapter # n)は当該チヤプタが含むセルのテーブル (CellTable)を持 ち、セルのテーブル (CellTable)はセル数(Number)と各セルのエントリ情報(Cell Entry # l〜CellEntry # k)とから構成されて 、る。セルのエントリ情報(CellEntry # l〜CellEntry # k)は当該セルを含むプレイリスト名と、プレイリスト内でのセル番 号によって記述されている。
[0157] イベントリスト(EventList)は、グローバルイベントの数(Number)と各グローバル イベントの情報(Event # l〜Event # m)とを持っている。ここで注意すべきは、最初 に定義されるグローバルイベントは、ファーストイベント(FirstEvent)と呼ばれ、 BD —ROMがプレーヤに挿入された時、最初に呼ばれる実行されるイベントである。各 グローバルイベントの情報(Event # l〜Event # m)はイベントタイプ(Type)とィべ ントの ID (ID)だけを持って!/、る。
[0158] 図 19は、グローバルイベントハンドラテーブル("BD. PROG")の構成を示す図で ある。本テーブルは、図 17で説明したイベントハンドラテーブルと同一内容であり、そ の説明は省略する。
[0159] (イベント発生のメカニズム)
図 20から図 22を使ってイベント発生のメカニズムについて説明する。
[0160] 図 20は、タイムイベントの例を示す図である。
[0161] 上述したとおり、タイムイベントはプレイリスト情報("XXX. PL")のイベントリスト(Ev entList)で定義される。
[0162] タイムイベントとして定義されて 、るイベント、即ちイベントタイプ (Type)力 'TimeE vent〃の場合、イベント生成時刻("tl")になった時点で、 ID"Exl"を持つタイムィべ ントがシナリオプロセッサ 305からプログラムプロセッサ 302に対して出力される。プロ グラムプロセッサ 302は、イベント ID"Exl"を持つイベントハンドラを探し、対象のィ ベントハンドラを実行処理する。例えば、本実施の形態の場合では、 2つのボタンィメ ージの描画を行うことなどが可能である。 [0163] 図 21は、ユーザのメニュー操作によるユーザイベントの例を示す図である。
[0164] 上述したとおり、メニュー操作を行うによるユーザイベントもプレイリスト情報("XXX . PL")のイベントリスト(EventList)で定義される。
[0165] ユーザイベントとして定義されるイベント、即ちイベントタイプ(Type)が" UserEven t"の場合、イベント生成時刻 ("tl")になった時点で、当該ユーザイベントがレディと なる。この時、イベント自身は未だ生成されてはいない。当該イベントは、有効規格情 報 (Duration)で記される期間(〃T1〃)レディ状態にある。
[0166] 図 21に示すように、ユーザによりリモコンキーの「上」「下」「左」「右」キーの 、ずれか のキー、または「決定」キーが押された場合、まず UOイベントが UOマネージャ 303 によって生成されプログラムプロセッサ 302に出力される。プログラムプロセッサ 302 は、シナリオプロセッサ 305に対して UOイベントを流し、シナリオプロセッサ 305は U Οイベントを受け取った時刻に有効なユーザイベントが存在するかを検索する。
[0167] シナリオプロセッサ 305は、検索の結果、対象となるユーザイベントがあった場合、 ユーザイベントを生成し、プログラムプロセッサ 302に出力する。プログラムプロセッサ 302では、イベント ID、例えば、図 21に示す例の場合では "Evl"を持つイベントハン ドラを探し、対象のイベントハンドラを実行処理する。本例の場合、プレイリスト # 2の 再生を開始する。
[0168] 生成されるユーザイベントには、どのリモコンキーがユーザによって押されたかの情 報は含まれていない。選択されたリモコンキーの情報は、 UOイベントによってプログ ラムプロセッサ 302に伝えられ、仮想プレーヤが持つレジスタ SPRM (8)に記録保持 される。イベントハンドラのプログラムは、このレジスタの値を調べ、分岐処理を実行す ることが可能である。
[0169] 図 22は、グローバルイベントの例を示す図である。
[0170] 上述のように、グローバルイベントは BD— ROM全体情報("BD. INFO")のィベン トリスト(EventList)で定義される。
[0171] グローバルイベントとして定義されるイベント、即ちイベントタイプ (Type)が" Global
Event〃であるイベントは、ユーザのリモコンキー操作があった場合にのみ生成される [0172] ユーザによりメニューキーが押された場合、先ず UOイベントが UOマネージャ 303 によって生成されプログラムプロセッサ 302に出力される。プログラムプロセッサ 302 は、シナリオプロセッサ 305に対して UOイベントを流す。シナリオプロセッサ 305は、 該当するグローバルイベントを生成し、プログラムプロセッサ 302に送る。プログラム プロセッサ 302は、イベント ID"menu"を持つイベントハンドラを探し、対象のイベント ハンドラを実行する。例えば、図 22に示す例の場合、プレイリスト # 3の再生を開始し ている。
[0173] 本実施の形態では、単にメニューキーと呼んでいる力 DVDを再生するプレーヤ におけるリモコンのように複数のメニューキーがあってもよい。各メニューキーに対応 する IDをそれぞれ定義することで各メニューキーに対応する適切な処理が可能であ る。
[0174] (仮想プレーヤマシン)
図 23は、プログラムプロセッサの機能的な構成を説明するための図である。
[0175] 図 23を用いてプログラムプロセッサ 302の機能的な構成を説明する。
[0176] プログラムプロセッサ 302は、内部に仮想プレーヤマシンを持つ処理モジュールで ある。仮想プレーヤマシンは BD— ROMとして定義された機能モデルであって、各 B D— ROMプレーヤの実装には依存しないものである。即ち、どの BD— ROMプレー ャにお 、ても同様の機能を実行できることを保証して!/、る。
[0177] 仮想プレーヤマシンは大きく 2つの機能を持っている。プログラミング関数とプレー ャ変数 (レジスタ)である。
[0178] プログラミング関数は、 Java (登録商標) Scriptをベースとして、以下に記す 2つ 3 つの機能を BD— ROM固有関数として定義している。
[0179] リンク関数:現在の再生を停止し、指定するプレイリスト、セル、時刻からの再生を 開始する
Link (PL # , Cell # , time)
PL # : プレイリスト名
Cell # : セル番号
time : セル内での再生開始時刻 PNG描画関数:指定 PNGデータをイメージプレーンに描画する Draw (File, X, Y)
File : PNGファイル名
X : X座標位置
Y : Y座標位置
イメージプレーンクリア関数:イメージプレーンの指定領域をクリアする Clear (X, Y, W, H)
X : X座標位置
Y : Y座標位置
W : X方向幅
H : Y方向幅
また、プレーヤ変数は、プレーヤの状態を示すシステムパラメータ(SPRM)と、一 般用途として使用可能なゼネラルパラメータ(GPRM)とがある。
[0180] 図 24は、システムパラメータ(SPRM)の一覧を示す図である。
[0181] SPRM (0) : 言語コード
SPRM (l) : 音声ストリーム番号
SPRM (2) : 字幕ストリーム番号
SPRM (3) : アングル番号
SPRM (4) : タイトル番号
SPRM (5) : チヤプタ番号
SPRM (6) : プログラム番号
SPRM (7) : セル番号
SPRM (8) : 選択キー情報
SPRM (9) : ナビゲーシヨンタイマ
SPRM (10) : 再生時刻情報
SPRM (11) : カラオケ用ミキシングモード
SPRM (12) : パレンタル用国情報
SPRM (13) : ノ レンタノレレべノレ SPRM(14) : プレーヤ設定値 (ビデオ)
SPRM(15) : プレーヤ設定値 (オーディオ)
SPRM(16) : 音声ストリ -ム用目ロロ 1 -ド、
SPRM(17) : 音声ストリ -ム用目ロロ 1 -ド (拡張)
SPRM(18) : 字幕ストリ -ム用目ロロ 1 -ド、
SPRM(19) : 字幕ストリ -ム用目ロロ 1 -ド (拡張)
SPRM(20) : プレーヤリ一ジョンコード
SPRM(21) : 予備
SPRM(22) : 予備
SPRM(23) : 再生状態
SPRM(24) : 予備
SPRM(25) : 予備
SPRM(26) : 予備
SPRM(27) : 予備
SPRM(28) : 予備
SPRM(29) : 予備
SPRM(30) : 予備
SPRM(31) : 予備
なお、本実施の形態では、仮想プレーヤのプログラミング関数を Java (登録商標) Scriptベースとしたが、 Java (登録商標) Scriptではなぐ UNIX (登録商標) OS などで使われている B— Shellや、 Perl Scriptなど他のプログラミング関数であって もよ 、。言 、換えれば、本発明における使用プログラム言語 «Java (登録商標) Scr iptに限定されるものでは無 、。
[0182] (プログラムの例)
図 25及び図 26は、イベントハンドラにおけるプログラムの例を示す図である。
[0183] 図 25は、 2つの選択ボタンを持つメニュー画面の制御に係るイベントハンドラにお けるプログラムの例を示す図である。
[0184] セル(PlavList#l. Cell # 1)先頭でタイムイベントを使って図 25左側のプログラム が実行される。ここでは、最初にゼネラルパラメータの一つ GPRM (O)に" 1 "がセット されている。 GPRM (O)は、当該プログラムの中で、選択されているボタンを識別する のに使っている。最初の状態では、左側に配置するボタン 1が選択されている状態を 初期値として持たされて 、る。
[0185] 次に、 PNGの描画を描画関数である〃 Draw〃を使ってボタン 1、ボタン 2それぞれに ついて行っている。ボタン 1は、座標(10、 200)を起点(左上端)として PNGイメージ "lblack. png"を描画している。ボタン 2は、座標(330, 200)を起点(左上端)として PNGイメージ" 2white. png"を描画している。
[0186] また、本セル最後ではタイムイベントを使って図 25右側のプログラムが実行される。
ここでは、 Link関数を使って当該セルの先頭力も再度再生するように指定している。
[0187] 図 26は、メニュー選択のユーザイベントに係るイベントハンドラにおけるプログラム の例を示す図である。
[0188] 「左」キー、「右」キー、「決定」キー何れかのリモコンキーが押された場合それぞれ に対応するプログラムがイベントハンドラに書かれて 、る。ユーザによりリモコンキー が押された場合、図 21を用いて説明したように、ユーザイベントが生成され、図 26の イベントハンドラが起動されることになる。本イベントハンドラでは、選択ボタンを識別 して!/、る GPRM (0)の値と、選択されたリモコンキーを識別する SPRM (8)を使って 以下のように分岐処理を行って!/、る。
[0189] 条件 1)ボタン 1が選択されている、かつ、選択キーが「右」キーの場合
GPRM (0)を 2に再設定して、選択状態にあるボタンを右のボタン 2に変更する。 ボタン 1、ボタン 2のイメージをそれぞれ書き換える。
[0190] 条件 2)選択キーが「決定 (OK)」の場合で、ボタン 1が選択されて 、る場合
プレイリスト # 2の再生を開始する。
[0191] 条件 3)選択キーが「決定 (OK)」の場合で、ボタン 2が選択されて 、る場合
プレイリスト # 3の再生を開始する。
[0192] 図 26に示すプログラムは、上記のように解釈され実行される。
[0193] (プレーヤ処理フロー)
図 27から図 30を用いてプレーヤでの処理の流れを説明する。 [0194] 図 27は、 BD— ROMプレーヤにおける AVデータ再生の基本処理の流れを示すフ ローチャートである。
[0195] BD—ROMが挿入されると(S101)、 BD—ROMプレーヤは" BD. INFO"の読み 込みと解析(S 102)、および、〃BD. PROG〃の読み込み(S 103)を実行する。〃BD . INFO"及び" BD. PROG"は共に管理情報記録メモリ 204にー且格納され、シナリ ォプロセッサ 305によって解析される。
[0196] 続いて、シナリオプロセッサ 305は、 "BD. INFO"ファイル内のファーストイベント( FirstEvent)情報に従い、最初のイベントを生成する(S 104)。生成されたファースト イベントは、プログラムプロセッサ 302で受け取られ、当該イベントに対応するイベント ハンドラを実行処理する(S 105)。
[0197] ファーストイベントに対応するイベントハンドラには、最初に再生するべきプレイリスト を指定する情報が記録されていることが期待される。仮に、プレイリスト再生が指示さ れていない場合には、プレーヤは何も再生することなぐユーザイベントを受け付ける のを待ち続けるだけになる(S201で No)。ユーザからのリモコン操作を受け付けると( S201で Yes)、 UOマネージャ 303はプログラムマネージャプロセッサ 302に対する UOイベントを生成する(S202)。
[0198] プログラムマネージャプロセッサ 302は、 UOイベント力メニューキーによるものであ るかを判別し(S203)、メニューキーの場合(S203で Yes)は、シナリオプロセッサ 30 5に UOイベントを流し、シナリオプロセッサ 305がユーザイベントを生成する(S204) 。プログラムプロセッサ 302は生成されたユーザイベントに対応するイベントハンドラ を実行処理する(S205)。
[0199] 図 28は、 BD— ROMプレーヤにおけるプレイリスト再生開始から VOB再生終了ま での処理の流れを示すフローチャートである。
[0200] 上述したように、ファーストイベントハンドラまたはグローバノレイベントハンドラによつ てプレイリスト再生が開始される(S301)。シナリオプロセッサ 305は、再生対象のプ レイリスト再生に必要な情報として、プレイリスト情報" XXX. PL"の読み込みと解析( S302)、および、プレイリストに対応するプログラム情報" XXX. PROG〃の読み込み を行う(S303)。 [0201] 続いてシナリオプロセッサ 305は、プレイリストに登録されているセル情報に基づい てセルの再生を開始する(S304)。セル再生は、シナリオプロセッサからプレゼンテ ーシヨンコントローラ 306に対して要求が出される事を意味し、プレゼンテーションコン トローラ 306は AVデータ再生を開始する(S 305)。
[0202] AVデータの再生が開始されると、プレゼンテーションコントローラ 306は、再生する セルに対応する VOBの情報ファイル" XXX. VOBI"を読み込み(S402)、解析する 。プレゼンテーションコントローラ 306は、タイムマップを使って再生開始する VOBU とそのアドレスを特定し、ドライブコントローラ 317に読み出しアドレスを指示する。ドラ イブコントローラ 317は対象となる VOBデータ" YYY. VOB"を読み出す(S403)。
[0203] 読み出された VOBデータはデコーダに送られ再生が開始される(S404)。 VOB再 生は、当該 VOBの再生区間が終了するまで続けられ (S405)、終了すると次のセル が存在する場合(S406で Yes)、 Cellの再生(S304)へ移行する。また、次のセルが 無い場合(S406で No)は、再生に係る処理が終了する。
[0204] 図 29は、 AVデータ再生開始後力ものイベント処理の流れを示すフローチャートで ある。
[0205] 図 29 (A)は、 BD— ROMプレーヤにおけるタイムイベントに係る処理の流れを示 すフローチャートである。
[0206] なお、 BD— ROMプレーヤはイベントドリブン型のプレーヤモデルである。プレイリ ストの再生を開始すると、タイムイベント系、ユーザイベント系、字幕表示系のイベント 処理プロセスがそれぞれ起動され、平行してイベント処理を実行するようになる。
[0207] BD— ROMプレーヤにおいてプレイリスト再生の再生が開始されると(S501)、プレ イリスト再生が終了していないことが確認され(S502で No)、シナリオプロセッサ 305 は、タイムイベント発生時刻になつたかを確認する。タイムイベント発生時刻になって いる場合(S503で Yes)には、シナリオプロセッサ 305はタイムイベントを生成する(S 504)。プログラムプロセッサ 302はタイムイベントを受け取り、イベントハンドラを実行 処理する(S505)。
[0208] また、タイムイベント発生時刻になっていない場合(S503で No)、および、イベント ハンドラの実行処理が終了した場合、プレイリスト再生の終了確認 (S502)以降の処 理を繰り返す。
[0209] また、プレイリスト再生が終了したことが確認されると(S502で Yes)、タイムイベント 系の処理は強制的に終了する。
[0210] 図 29 (B)は、 BD— ROMプレーヤにおけるユーザイベントに係る処理の流れを示 すフローチャートである。
[0211] BD— ROMプレーヤ 1においてプレイリストの再生が開始されると(S601)、プレイリ スト再生が終了していないことが確認され(S602で No)、 UOマネージャ 303は、 U Oの受け付けがあつたかを確認する。 UOの受け付けがあった場合(S603で Yes)、 UOマネージャ 303は UOイベントを生成する(S604)。プログラムプロセッサ 302は UOイベントを受け取り、その UOイベントがメニューコールであるかを確認する。メ- ユーコールであった場合(S605で Yes)、プログラムプロセッサ 302はシナリオプロセ ッサ 305にイベントを生成させ(S607)、プログラムプロセッサ 302はイベントハンドラ を実行処理する(S608)。
[0212] また、 UOイベントがメニューコールで無いと判断された場合(S605で No)、 UOィ ベントはカーソルキーまたは「決定」キーによるイベントである事を示して 、る。この場 合、現在時刻がユーザイベント有効期間内であるかをシナリオプロセッサ 305が判断 し、有効期間内である場合(S606で Yes)には、シナリオプロセッサ 305がユーザィ ベントを生成し(S607)、プログラムプロセッサ 302が対象のイベントハンドラを実行 処理する(S608)。
[0213] また、 UO受付が無い場合 (S603で No)、現在時刻がユーザイベント有効期間内 にない場合(S606で No)、および、イベントハンドラの実行処理が終了した場合、プ レイリスト再生の終了確認 (S602)以降の処理を繰り返す。
[0214] また、プレイリスト再生が終了したことが確認されると(S602で Yes)、ユーザィベン ト系の処理は強制的に終了する。
[0215] 図 30は、 BD— ROMプレーヤにおける字幕データの処理の流れを示すフローチヤ ートである。
[0216] BD— ROMプレーヤにおいてプレイリストの再生が開始されると、プレイリスト再生 が終了していないことが確認され(S702で No)、シナリオプロセッサ 305は、字幕表 示開始時刻になつたかを確認する。字幕表示開始時刻になって!/ヽる場合 (S703で Yes)、シナリオプロセッサ 305はプレゼンテーションコントローラ 306に字幕描画を指 示し、プレゼンテーションコントローラ 306はイメージプロセッサ 311に字幕描画を指 示する。イメージプロセッサ 311は、その指示に従い字幕をイメージプレーン 209に 字幕を描画する (S704)。
[0217] また、字幕表示開始時刻になっていない場合 (S703で No)、字幕表示終了時刻 であるかを確認する。字幕表示終了時刻であると判断された場合 (S705で Yes)、プ レゼンテーシヨンコントローラ 306がイメージプロセッサ 311に字幕消去指示を行う。ィ メージプロセッサ 311は、その指示に従!、描画されて!、る字幕をイメージプレーン 20 9から消去する(S706)。
[0218] また、イメージプロセッサ 311による字幕描画 (S704)が終了した場合、イメージプ 口セッサ 311による字幕消去(S706)のが終了した場合、および、字幕表示終了時 刻でないと判断 (S705で No)された場合、プレイリスト再生の終了確認 (S702)以降 の処理を繰り返す。
[0219] また、プレイリスト再生が終了したことが確認されると(S702で Yes)、字幕表示系の 処理は強制的に終了する。
[0220] 以上の動作により、 BD— ROMプレーヤは、ユーザの指示または BD— ROMに記 録されている BD管理情報等に基づき、 BD— ROMの再生に係る基本的な処理を行
[0221] (実施の形態 2)
次に本発明の第 2の実施の形態について説明する。
[0222] 第 2の実施の形態は、 BD— ROMにおいてより豊かなインタラクティブ性を実現す るため、 XML' XHTMLベースの画面構成環境と、イベントおよびスクリプトを用いた プログラミング環境を導入することに関する内容である。基本的には第 1の実施の形 態に基づく内容であり、拡張または異なる部分を中心に説明する。
[0223] (XHTMLファイルを利用したコンテンツ制御)
図 31は、本発明の再生装置の XHTMLおよびスクリプトを利用したシナリオ制御に 関わるモジュール構成、制御の流れ、イベントなどの伝わり方を示す図である。 [0224] ユーザイベント処理部は、リモコン信号などを受信し、次のモジュールにイベントを 割り振るモジュールである。再生制御に関わる、再生 Z停止 Z早送り Z巻き戻し Zス キップ Zアングル変更 Z音声切替 Z字幕切替などのイベントは AV再生制御部に送 られる。ボタンフォーカスの移動(上下左右キー)や決定などのイベントは、 XHTML 処理部に送られる。タイトル切替に関わる、タイトル選択やメニュー呼び出しのィベン トは、タイトル制御部に送られる。なお、 Index Tableとは、ディスク中のタイトルを列 挙したファイルであり、図 18の Title List部分を切り出して 1つにしたものである。
[0225] タイトル制御部は、タイトル切替を要求されると Index Tableにしたがってタイトル 切替を行うモジュールである。タイトルが XHTMLで定義される場合、 XHTML処理 部にタイトルに関連付けられた XHTMLファイルを読み込むように制御を行う。
[0226] XHTML処理部は XHTMLファイルを読み込み、スタイル定義情報などにしたが つて、画面を構成し、イベントに応じて関連するスクリプトを実行するモジュールである 。スクリプトを実行した結果、 AVの再生が必要であれば AV再生制御部に対して、再 生開始などの制御を行い、タイトル切替が必要であれば、タイトル制御部に対して制 御を行う。
[0227] AV再生制御部は、イベントや指示に従って AVストリームの再生を行い、 AV再生 制御部の状態が変化したときや AVストリームの再生位置が特定の位置に達した際に イベントを生成して XHTML処理部に通知する。
[0228] プレーヤの状態が変化したことを通知するイベントとは、ユーザ力も再生指示があり 、ユーザイベント処理部が再生開始要求のイベントを AV再生制御部に通知すると、 AV再生制御部は再生を開始する。この時に、 AV再生制御部が停止状態から再生 状態に変化したことを通知するようなイベントである。
[0229] また、再生位置を通知するイベントとは、 AVストリームの終端に達したときや、セル の境界に達したとき、あるいはマークと呼ばれる AVストリームの一時点を示すデータ が存在する場合その地点に達したことを通知するイベントである。
[0230] 図 32は、 Index Tableと XHTMLファイルの関係を説明する図である。図 32はあ るタイトルが選択されたときの動作の様子を示している。
[0231] Index Tableで定義されるあるタイトルを選択した場合、タイトルに関連付けられた XHTMLファイルが呼び出される。 XHTMLファイルには、再生制御などを行うスクリ ブトなども記述しされて 、る。 図中の例では、スクリプトファイルを間接的に参照して いるが、直接 XHTMLファイル内に記述することも可能である。また、説明のため、 X HTMLと表記しているが、 XML形式にのっとつていれば独自のタグなどを利用した 形式でもよい。
[0232] 図中の XHTMLファイル内に記述されている" onLoad"属性において、ファイルが 読み込まれたときに実行されるスクリプトを規定している。この例では、 XHTMLファ ィルが読み込まれたときに、 "playTitlel"というスクリプトが呼び出され、スクリプト自 体はスクリプトファイル内に記述されている。
[0233] また、く event >タグを用いることにより、ユーザイベント処理部や AV再生制御部 力も通知されたイベントに対応してスクリプトを実行する仕組みも提供する。この例で は、 "EndOfStream"イベントが発生した際、 "jumpTitle2"というスクリプトを呼び出 す例である。なお、 "EndOfStream"イベントとは、たとえば AV再生がファイルの終 端に達した場合に AV再生制御部が生成するイベントである。
[0234] 図 33は、ボタンが表示される XHTMLファイルの例を示す図である。図 33は先ほ どの例に、画面生成をカ卩えた例である。たとえば、先ほどと同様に Index Tableから XHTMLが呼び出され、その XHTMLはメニュー画面などを生成するための情報が 書かれて!/、た場合である。画面構成のスタイルなどは CSSなどのスタイルシートを利 用してちょい。
[0235] この例では、画面上に 2つのボタンを配置している。それぞれのボタンが押されると 対応スクリプトが実行される。あるボタンを選択すると、 "onClick"属性に定義されて V、るスクリプトが実行される。 TitleAと書かれた PNGイメージファイルと関連付けられ ている左側のボタンを選択すると、 "playA"スクリプトが実行され、タイトル 1にジヤン プする。同様に、 TitleBボタンを選択すると、ある AVストリームが再生された後に、タ ィトル 2にジャンプする。
[0236] これまで説明した仕組みを用いることにより、 XHTMLファイルを用いて、メニュー 画面を表示し、何らかのボタンを選択するとコンテンツの再生を開始するような仕組 みを提供することが可能となる。 [0237] また、スクリプト部分と、スクリプトが実行する APIを追加することにより、より複雑な機 能、たとえばインターネット接続やダウンロードサービスと 、つたアプリケーションも実 行可能である。
[0238] (リソース管理)
XHTMLファイルがメニュー画面のような画面を構成する際には、 PNGイメージフ アイルなどのデータファイルを参照する。メニューが凝ったものになればなるほど、表 示するグラフィクスは複雑なものになり、それを表示するためのイメージデータのサイ ズは大きくなる。
[0239] また、 XHTMLファイルはユーザ操作によって画面を切り替えるように作ることも可 能である。メニュー画面の中である項目を選ぶと、さらにサブメニューが出てくるような 場合である。このような場合、メニュー画面が表示された最初の瞬間には表示されて いな力つたイメージデータ力、あと力も必要になることがある。
[0240] ところが、さらにそのメニュー画面の背景では動画が表示されている、つまり AVスト リームが再生されている場合、必要になつてからイメージデータを読み込みに行こうと すると、ディスク上でファイルがある位置にシークを行って力 読み込んで元の位置 に戻ってこなければならず、 AVストリームの再生が一時的に中断してしまう可能性が ある。十分な量のバッファを積んでおり、 AVストリームを事前にバッファ一杯に先読 みすればこのようなことも回避できる力 画像が高解像度 ·高画質になり、高ビットレー トが必要になってきているので、かなり大容量のバッファを用意しなければならず、コ ストアップなどにつながり、現実的ではない。
[0241] また、ハードディスクのようにシーク時間が短ぐ読み取り速度が速いメディアでは、 少量のバッファでもその早さを利用して、 AVを中断させずに他のデータを読み込む ことも可能である力 光ディスクメディアのドライブでは、シークには時間がかかり、読 み込み速度もそれほど速くないため、実現にはさらなる技術の進歩が必要となる。
[0242] そのため、ー且 AV再生が開始されると AV以外のデータを読み込みに行かないモ デルにすることが望ましい。
[0243] 図 34は、データのライフサイクルを説明する説明図である。図 34はその様な場合 のデータのライフサイクルを示して 、る。 [0244] AVの再生が開始される前に、画面を表示するために必要なデータである、 XHT MLファイルやスクリプトファイル、それらのファイルから参照される PNGイメージファ ィルなどのデータファイルをバッファ上にプリロードしておく。
[0245] ー且 AVの再生が開始されると、それらのデータをディスクに読みに行くことはない
[0246] なお、 AVの再生が止まってもよ 、場合は、これらを考慮する必要はな 、。
[0247] また、コンテンツにより、 AVの再生が止まって欲しくない場合と、止まってもよい場 合を区別する必要があるならば、管理情報にこの 2つのパターンを区別する識別子を 用意しておけばよい。
[0248] XHTML処理部がデータを必要とするときは、バッファから XHTML処理部のヮー クメモリ上に読み込んでおき、画面の表示などに利用する。その画面が表示されなく なったときには、必要なくなったデータをワークメモリから解放し、次に必要になるデ ータをバッファ力も読み込んでくる。
[0249] なお、このワークメモリは、バッファと共有してもよい。
[0250] ノッファにあるメモリは、そこに読み込まれているデータが必要なくなるまで保存して おき、必要なくなれば解放する。
[0251] (データのライフサイクル)
上で述べたように、ノ ッファにデータを読み込んでくるタイミングと、ノ ッファ力らデ ータを解放するタイミングを明確に決めることができれば、データのライフサイクルの 管理が明確になり、管理がしゃすくなる。
[0252] データの管理がしゃすくなれば、コンテンツ作成者がどのプレーヤでも必ず動作さ せることができるコンテンツ構成を判定しやすくなり、コンテンツ作成が容易になる。
[0253] データのライフサイクルの開始タイミングと終了タイミングは、 AVの再生が停止して いるタイミング、あるいは一時的に停止する、連続して再生する場合でもシームレスに 再生する必要がな 、タイミングが望ま 、。
[0254] このようなタイミングとしては、 AVストリームの切替点、 XHTMLファイルで構成され る画面の切替点や、タイトル切替のタイミングなどがあり、その他上記の条件を満たす のであればその他の点でもよ!/、。 [0255] これまで説明した構造を用いると、タイトルの切替のタイミングは、 Index Tableで 明示的に、かつ静的データとして参照することができ、プレーヤから制御しやすい。 そのため、データのライフサイクルとは、あるタイトルが開始するときに開始し、あるタ ィトルが終了するときにライフサイクルも終了する。
[0256] つまり、あるタイトルが開始するときに、そのタイトルを再生するために必要な全ての データをバッファにプリロードしておき、そのタイトルが終了するとき、たとえば他のタ ィトルにジャンプするときに、バッファ力 解放する。
[0257] 図 35は各モジュール間の制御の流れとデータの流れ、それに合わせたデータのラ ィフサイクルを示したタイミングチャートである。
[0258] このようなライフサイクルと、ノ ッファのサイズを規定すれば、タイトルを作成するとき に、どのくらいのサイズまでイメージデータを使うことができ、どのようなアプリケーショ ンを実行できるか定量的に判断でき、タイトルが非常に作りやすくなる。
[0259] なお、バッファの解放はタイトル制御部や、より上位のモジュールから強制的に行つ てもよいし、 XHTML処理部が行ってもよい。
[0260] ユーザ操作によりアプリケーション実行中にタイトルを切り替えられた場合、タイトル 制御部は、 XHTML処理部に現在実行中のスクリプトを中止し、バッファの解放を指 示する。また、タイトルが切り替わると、次のタイトルに関連するファイルをバッファに読 み込むよう指示する。
[0261] (データ読み込みの保証)
AVストリームの再生開始より前に、 AVストリーム以外のファイルをバッファにプリ口 ードしておく必要は上で述べたとおりである。その際、 XHTMLファイルを解析して必 要なフアイノレをリストアップしていては、時間がかかってしまう。
[0262] 図 36は、データを 1つにまとめる方法を説明する図である。そこで、図 36 (a)のよう に、各タイトルで必要なファイルをリストアップしたファイルリストをタイトル毎に作成し、 タイトルが選択されたときに、そのタイトルリストに列挙されているファイルを全てバッフ ァに読み込めばよい。
[0263] また、ファイル数が多い場合、ファイル毎にシークが発生すると読み込みの時間が 力かってしまうため、リストアップされたファイルをディスク上の 1力所にまとめて配置す ることにより、無駄なシークを発生させることなく必要なファイルを全て読み込むことも 可能である。
[0264] あるいは、図 36 (b)のように、ファイルをディレクトリ構造ごと ZIPファイルなどで 1つ にまとめてしまい、ノ ッファに読み込んだあとでバッファ内でファイルを展開し、ディレ クトリ構造などを構成してもよい。ファイルを 1まとめにでき、ディレクトリ構造を保持で きるようなフォーマットであれば、 ZIPファイルでなくてもよい。また、圧縮ファイルであ る必要もない。
[0265] このような仕組みを用いることにより、タイトル毎にリソースを分力りやすく管理し、デ ータの読み込みを効率ィ匕することにより、ォーサリング時にミスが起こりにくぐプレー ャで制御しやすい仕組みを提供することが可能となる。
[0266] (メモリサイズの拡張)
これまで述べた方法では、どのメーカが作ったプレーヤでも必要なデータを全てバ ッファに読み込むために、ノ ッファのサイズを規定しておく必要がある。ところが、メモ リのサイズとコストの関係は、将来どんどんよくなつていき、現在では搭載不可能と思 われるサイズでも将来は比較的安価に搭載することができるカゝもしれない。
[0267] そのため、バッファのサイズを固定してしまうとプレーヤの性能が上がっても、バッフ ァサイズがネックとなって、より高画質 ·高解像度のコンテンツの提供を妨げる可能性 もめる。
[0268] 図 37は、メモリサイズの拡張を導入する方法の説明図である。そこで、図 37で示す ように、必ずプレーヤに搭載されていることが保証されているサイズと、実際に搭載し ているノ ッファサイズを分けて制御する方法を示す。この方法を用いると、将来、よりリ ツチなコンテンツが出た場合、対応するプレーヤではリッチに表示するが、対応して V、な 、場合でも、最低限の表示を確保することができるようになる。
[0269] コンテンツ作成者は 2種類のデータを用意する。どちらも同じタイトルで読み込まれ るデータである力 どちらか一方だけ読み込まれる。図中の datalは、どのプレーヤ でも保証されているバッファのサイズ以下に収められている。そのため、どのプレーヤ においても datalを読み込んで再生することが可能である。それに対して data2は、 保証されているバッファサイズよりも大きなサイズのデータである。もし、必要最小限 のサイズしか搭載して ヽな 、プレーヤの場合ではデータを読み込むことができな!/、。 しかし、より大きなバッファを搭載したプレーヤではこちらのデータを読み込むことが でき、 datalよりも data2の方がデータサイズが大きいことを生かして、よりリッチなコン テンッを再生することが可能となる。よりリッチなコンテンツとは、イメージデータのサイ ズゃ解像度、色数が大き力つたり、よりたくさんのスクリプトが含まれており、様々な追 加の制御ができるようになって!/、たりするものを!、う。
[0270] この datalのように、必ず保証されるバッファサイズよりも小さいサイズに抑えられた データは、必ずディスク上に記録されている必須データである。また、保証されている ノ ッファサイズよりは大きいが、よりリッチなコンテンツを提供できるデータは、ォーサ 一の意図により記録しておいてもよいし、しなくてもよい、オプションデータである。
[0271] このように必須データと、動作が保証されて!、な!/、オプションデータを組み合わせる ことにより、どのプレーヤでも最低限の動作は保証され、将来においてバッファサイズ が大きなプレーヤが広がれば、よりリッチなコンテンツを楽しむことができる仕 みを 提供することが可能となる。
[0272] (実施の形態 3)
次に本発明の第 3の実施の形態について説明する。
[0273] 第 3の実施の形態は、第 2の実施の形態で述べた、 XML' XHTMLベースの画面 構成環境と、イベントおよびスクリプトを用いたプログラミング環境において、プレーヤ の言語設定またはユーザからの設定に応じて表示または処理する言語を切り替える 仕組みを導入することに関する。基本的には第 1の実施の形態および第 2の実施の 形態に基づく内容であり、拡張または異なる部分を中心に説明する。
[0274] (ナビゲーシヨン用言語コード)
図 38は、アプリケーション用の言語設定を追加したプレーヤ変数テーブルの図で ある。 XML' XHTMLベースの画面構成環境とイベントおよびスクリプトを用いたプロ グラミング環境に対する、プレーヤ自身の言語設定またはユーザ力もの言語指定を 示すシステムパラメータとして、本実施の形態では図 38に示すように、図 24で説明し たシステムパラメータ(SPRM)にアプリケーション用の言語設定としてナビゲーシヨン 用言語コードパラメータを追加する。なお、図 38に示したシステムパラメータの導入 は例であり、プレーヤ自身の言語圏情報(リージョンまたは国名)またはユーザからの 言語指定の方法としてプレーヤ製造時に付与された固定値 (例えば英語)であっても 良い。また、例えばナビゲーシヨン用言語コードパラメータを追加せず、図 24ですで に説明したように音声ストリーム用の言語コード (Language code for AST)や字 幕ストリーム用言語コード(Language code for STST)をアプリケーション用の言 語設定と見なして以降の処理を行っても良い。
[0275] 図 39は、アプリケーション用の言語設定に応じてアプリケーションが表示または処 理する言語を切り替える例を示す図である。第 3の実施の形態の概要を、図 39を用 いて説明すると、まずはじめに、システムパラメータ中のナビゲーシヨン用言語コード を確認する。次にアプリケーションを設定されて 、る言語に基づ 、て表示内容ゃ処 理内容を切り替える。
[0276] 図 39に示したアプリケーションでは、タイトル名として「Main MenuZメインメ-ュ 一」を <p >要素で、見出し画像を <img>要素で、「PlayBackZ再生」「: Languag eZ言語選択」「PrivilegeZ映像特典」の各ボタンをく button>要素で表現し、 <b utton >要素が押された場合に対応するスクリプトのプログラム関数「Main (); /Ma in _Jpn ();」「Lang ();」「Privilege () /Privilege _ PN ();」をそれぞれ実行する よう記述している。なお、図 39はあくまでも例であり、本実施の形態は英語や日本語 以外の様々な言語に対しても同様に効果があり、またアプリケーションも複数の言語 に同時に対応しても良い。
[0277] 図 39に示すように、 XML'XHTMLおよびスクリプトによるアプリケーションは、表 示または処理する言語を切り替えると、例えば < img >要素で指定された見出し画 像(image, png)のように言語を切り替えても内容の変わらないデータや、く button >要素で指定された各ボタン画像(Main, pngと Main _ PN. png)のようにアプリ ケーシヨンが対応する言語毎に個別に用意する必要のあるデータがある。
[0278] またスクリプトに関しても、例えば言語選択用のプログラム関数のように英語用であ つても日本語用であっても同一の関数が実行される関数や、映像特典用のプロダラ ム関数のように英語用と日本語用で実行される関数が異なるものがある。
[0279] (XML 'XHTML及びスクリプトの記述による言語切替) BD— ROMに収録された XML'XHTML及びスクリプトによるアプリケーションが 表示または処理する言語を切り替える方法の 1つとしては、 XML · XHTMLおよびス タリブトの記述の中でアプリケーション用の言語設定を判別し切り替える方法がある。
[0280] 図 40は図 39で用いたアプリケーション例を XML 'XHTMLおよびスクリプトの記述 により切り替える例を示したものである。英語用、 日本語用の再生用ボタンを、不可視 属性をつけて 1つの XML · XHTMLファイルとして記述しておき、く body >要素に て本アプリケーションの実行時に実行するスクリプトのプログラム関数 onload ()を指 定している。プログラム関数 onload ()では、前述のアプリケーション用の言語設定に 対応する変数 langを確認し、アプリケーション用の言語設定が日本語であれば日本 語用の再生ボタンを可視属性にし、英語であれば英語用の再生ボタンを可視属性に している。なお、図 40はあくまでも例であり、図示しないが XML' XHTMLまたはスク リブトの記述によりアプリケーションが表示または処理する言語を切り替える記述であ ればその他の記述でも良!、。
[0281] なお、前記アプリケーションが前記アプリケーション用の言語設定に指定された言 語に対応して 、な 、場合は、標準的な言語が設定されたものとしてアプリケーション が表示または処理する言語を標準的な言語に切り替えても良い。標準的な言語とは 、例えば英語などあら力じめ仕様として決めても良いし、プレーヤの所属するリージョ ンの代表的な言語や、前述の音声ストリーム用言語コード前述の字幕ストリーム用言 語コードを標準言語としてもよい。
[0282] (リソース名による言語切替)
図 39では、 日本語用の XML'XHTMLファイルである Menu_JPN. htmlやそこ からリンクされるスクリプトファイル menu_[PN. js、画像ファイル Main_[PN. png のように、英語用の各ファイルのファイルボディに対して" _[PN"を付与して!/、る。
[0283] このようにファイル名に対応言語に関する情報を埋め込んでおき、図 32などで前述 したように IndexTableを迪つてタイトルに関連づけられた XHTMLファイルをロード する際に、前述のアプリケーション用の言語設定を確認し、 IndexTable力 得られ た XHTMLファイル名にアプリケーション用の言語設定に対応する予約語を付与し たファイル名をもつ XHTMLファイルをロードし、以後も同様にリンクされたファイル名 に予約語を付与したものをロードすることにより、アプリケーションの言語を切り替えて も良い。
[0284] 具体的には IndexTableから得られた XHTMLファイル名力 'Menu. html"であり 、アプリケーション用の言語設定が日本語である場合は、 日本語に対応する予約語 である" _[PN"をファイルボディに付与した" Menu_[PN. html"をロードする。
[0285] なお、ファイル名や予約語はあくまでも例であり、ファイルボディではなく別途拡張 子をつけてもよい。
[0286] なお、前記アプリケーションが前記アプリケーション用の言語設定に指定された言 語に対応して 、な 、場合は、標準的な言語が設定されたものとしてアプリケーション が表示または処理する言語を前述した標準的な言語に切り替えても良い。
[0287] 『XML 'XHTML及びスクリプトの記述による言語切替』および『リソース名による言 語切替』について説明したが、これらの方法はアプリケーションが表示または処理す る言語を動的に切り替えることも可能である一方、前述したファイルリストにより各タイ トルで必要なファイル (ファイル群)をバッファに一括して読み込む方法や、前述した 圧縮ファイルにより各タイトルに必要なファイル(ファイル群)をバッファ内に一括して 読み込む方法を併用した場合、アプリケーションが 1つの言語にのみ対応する場合 に比べ、前述の図 39を用いて説明したように、ボタン画像のように各言語に依存した データを対応する言語分すベてをバッファに読み込むこととなり、必要なバッファサイ ズが大きくなつてしまうという課題がある。
[0288] 以下、本課題を解決する言語切替方法について説明する。
[0289] (設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルによる言語切 替)
本実施の形態で述べている XML'XHTML及びスクリプトによるアプリケーションが 表示または処理する言語をアプリケーション用の言語設定に基づき変更可能とする 方法と、第 2の実施の形態で述べたように、変更した言語に必要なファイル群のみバ ッファに読み込む方法とを両立する方法について説明する。まず各言語用のフアイ ル群がロードされるよう記述された、前述の IndexTableまたは前述のファイルリストま たは前述の圧縮ファイルを対応する言語毎に用意してディスクに記録しておく。実際 にアプリケーションが表示または処理する言語をアプリケーション用の言語設定に指 定された言語に切り替える際は、設定された言語用の IndexTableまたはファイルリス トまたは圧縮ファイルをロードする方法がある。
[0290] 図 41は、設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルによる 言語切替方法のシーケンス図である。具体的に図 41を用いて説明すると、再生装置 のシステムパラメータの 1つである前述のナビゲーシヨン用言語コードが変更されると (ステップ S801)、前記 XHTML処理部はナビゲーシヨン用言語コードの値を確認し 、アプリケーション用の設定言語を確認する (ステップ S802)。次に当該タイトルに対 応するアプリケーションがステップ S802で確認した言語を表示または処理可能かど うか確認するために、ステップ S802で確認した言語に対応する IndexTableまたは ファイルリストまたは圧縮ファイルが存在するかどうかを検索する (ステップ S803)。図 42は、設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルをディスク に記録した例を示す図である。具体的方法について説明すると例えば図 42 (a) (b) に示すように、各言語毎の IndexTableまたはファイルリストまたは圧縮ファイルのファ ィル名に対応言語の予約語を付加する方法がある。例えば図 42 (a)の用に、標準言 語用の IndexTableのファイル名を Index, bdとすると、 日本語用の IndexTableのフ アイル名は日本語の予約語" JPN〃をファイルボディ n付与し、 Index_JPN. bdとして 区別している。なお、ファイル名や予約語はあくまでも例であり、ファイルボディではな く別途拡張子をつけてもよい。
[0291] また、そのほかの方法として図 42 (b)に示すように、 IndexTableにアプリケーション が対応する言語数と対応言語とそれに対応するファイルリストまたは圧縮ファイルへ のリンクの対を一覧として持たせても良い。
[0292] 次に、ステップ S804において、ステップ S803において検索に成功するとステップ S805を実行し、失敗するとステップ S806を実行する。
[0293] ステップ S805では、ステップ S802で確認した言語に対応する IndexTableまたは フアイルリストまたは圧縮ファイルをロードする。具体的には IndexTableの場合は前 記タイトル制御部が該当する言語の IndexTableを読み込み、タイトルを実行する (ス テツプ S807)。 [0294] 一方ステップ S806では、前述した標準言語に対応する IndexTableまたはフアイ ルリストまたは圧縮ファイルをロードする。具体的には IndexTableの場合は前記タイ トル制御部が標準言語の IndexTableを読み込み、タイトルを実行する (ステップ S80 7)。
[0295] 以上、「XML' XHTML及びスクリプトの記述による言語切替」、「リソース名による 言語切替」、「設定言語用の IndexTableまたはファイルリストまたは圧縮ファイルによ る言語切替」について説明した力 言語を切り替えるタイミングはディスクの挿入時と しても良 ヽし、前記アプリケーション用の言語設定を逐次チェックし動的に言語を切り 替えることとしても良い、また、アプリケーション用の設定言語を確認する契機をタイト ルの変更時とすることで特に「設定言語用の IndexTableまたはファイルリストまたは 圧縮ファイルによる言語切替」においてシームレスに言語切替を行うことが可能となる
[0296] また、アプリケーションは、前記アプリケーションが前記アプリケーション用の言語設 定に指定された言語に対応して 、な 、場合のための標準的な言語に必ず対応すベ きものとしてもよいし、図 39,図 40,図 42に示したように、標準的な言語に該当する ファイル名には、前述の予約語をつけないよう規定しても良い。
[0297] (実施の形態 4)
次に本発明の第 4の実施の形態について説明する。
[0298] 第 4の実施の形態は、第 2の実施の形態で述べた、 XML' XHTMLベースの画面 構成環境と、イベントおよびスクリプトを用いたプログラミング環境において、早送りや 巻き戻しなどの特殊再生時も考慮したイベント処理の仕組みを導入することに関する 。また、このような仕組みをネットワーク上のストリーム配信にも適用可能にする技術に 関する。基本的には第 1の実施の形態および第 2の実施の形態に基づく内容であり、 拡張または異なる部分を中心に説明する。本実施の形態の再生装置の構成は、プロ ック図上では実施の形態 2で図 31を用いて説明したものと同様である。ただし、本実 施の形態の再生装置は、 AV再生制御部の再生状態 (例えば、特殊再生中又は通 常再生中などの状態)に応じてイベントを実行し、デジタルコンテンツであるタイトルを 再生する点が上記実施の形態と異なる点である。このため、本実施の形態の再生装 置において、 AV再生制御部は、タイトルを取得して再生するタイトル再生手段と、前 記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻であるィ ベント時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリストに従 つて、前記タイトル再生手段によって再生されているタイトルの再生時刻が前記ボイ ントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対応するィ ベントを生成するイベント生成手段とを実現する機能を備え、前記イベント生成手段 は、前記タイトル再生手段によるタイトルの再生状態を示す再生状態情報を含むィべ ントを生成する。また、 XHTML処理部は、 AV再生制御部によって実現される前記 イベント生成手段が取得したポイントリストに記述されたイベントに対応する処理であ るイベント処理を記述したアプリケーションプログラムであるスクリプトを取得し、取得し たスクリプトに従って、前記イベント生成手段によって生成されたイベントに対応した イベント処理を実行するスクリプト実行手段を実現する機能を備え、前記スクリプト実 行手段は、前記イベント生成手段によって生成されたイベントに含まれる再生状態情 報に依存して、実行するイベント処理を切り替える。
[0299] (ポップアップイベント生成メカニズム)
第 2の実施の形態および第 3の実施の形態で述べたように、 XMLZXHTMLおよ びスクリプトによるアプリケーションではイベントとスクリプトによりインタラクティブなァ プリケーシヨンを実現する。しかし、イベントの生成およびイベントのハンドルを行うシ ステムにおいて、通常再生時はともかぐ早送りや巻き戻しなどの特殊再生時のィべ ント処理への考慮が十分ではなぐスタジオの望むアプリケーションを実現出来なか つたり、コンテンツの記述が複雑になったりしていた。
[0300] 例えば近年の DVDコンテンツでは、本編映像再生時に、あるシーンで登場した人 物やアイテムに関する文字情報をそのシーンに直接貼り付ける「コメンタリピクチャ」 が特典として記録されるコンテンツが増えてきた。このコメンタリピクチャを XMLZXH TMLおよびスクリプトによるアプリケーションで実現する場合、コンテンツの再生位置 がある時刻に到達したら特定の位置に特定の画像を特定の期間描画するスクリプト を記述すればょ ヽ(以後、コンテンツを通常再生して力 特定の位置に到達するまで の時間をコンテンツ再生時刻と呼ぶ)。ここでコンテンツ再生時刻に連動した処理を 実行するには、(通常再生時に限定すれば)コンテンツを再生開始時に規定の時間 分タイマをかけることで容易に実現できる。しかしながら、早送りのスピードは各メーカ のプレーヤによって異なるため早送り再生時にタイマをリセットする処理が難しくなり、 アプリケーションの記述が複雑になって 、た。
[0301] したがって本発明では前述の「BD管理情報」を応用し、コンテンツ再生時刻に連動 したイベントを発生させることでより表現力に富んだアプリケーションを実現可能なィ ベント生成 ·ハンドルシステムを実現する。
[0302] 図 43は、ポイントリストを追カロ'修正したプレイリストファイルの構成図である。まず、 本実施の形態では、図 16を用いて説明したプレイリスト情報にあるイベントリストを削 除し、図 43に示すようにポイントリスト(PointList)を追加する。ポイントリストは複数 のポイント情報 (Point # l〜Point # m)からなり、各ポイント情報は、ポイント情報の 種別であるポイントタイプ (PointType)と、イベントを生成するコンテンツ再生時刻を 指定するため、どの Cellで生成するイベントなのかを示す Cell— IDと、その Cell— ID で指定される Cellのどの再生時刻(再生位置)でイベントを生成するのかを示す Tim eと、イベントを生成し続ける期間である Durationの四つの情報力 なる。なお、本実 施の形態では例として PointTypeに 3つの種別を設けている。 1つ目としてタイトル中 で話の区切りとして設けるチヤプタが切り替わるポイントを示す ChapterPointがある 。 2つ目としてアプリケーションから特定のタイトルの特定の再生位置に再生をジヤン プさせるポイントを示す JumpPointがある。 3つ目として前述のコメンタリピクチャなど 主にコンテンツの再生時刻に連動して何らかのアプリケーションを提供するポイント( イベント)を示す EventPointがある。また、ポイント種別が ChapterPointや JumpPo intである場合など当該ポイントが持続する時間を指定する必要がな 、場合は、ィべ ントを生成し続ける期間である Durationに "0 "が代入される。
[0303] なお、図 43に示すプレイリスト情報はあくまでも例であり、コンテンツの再生時刻に 連動したイベントを生成するための情報をプレーヤがコンテンツ再生時に記憶出来る のであればそのほかの方法であっても良い。例えば、図 13に示した VOB管理情報 やアプリケーションを記述する XMLZXHTMLまたはスクリプトに上記ポイント情報 にあたる情報を記述しても良 、。 [0304] 図 44は、コンテンツ再生時刻に連動したイベントを生成 ·処理するシステムによりコ メンタリピクチャアプリケーションを実現した例を示す図である。本発明におけるィベン ト生成 'ノ、ンドルシステムの概要を、図 44を用いて説明する。下段は、 AVストリーム である VOBファイル、 VOB管理情報ファイル、プレイリスト情報ファイルを元に AVス トリームの再生制御処理を行う前述の AV再生制御部の振る舞 、を示して 、る。中段 は、 AV再生制御部力ゝらの各種イベントや再生時刻などの情報を受信し XMLZXH TML及びスクリプトによるアプリケーションを実行制御する前述の XHTML処理部の 振る舞 、を示して 、る。上段は本システムによって実現されるアプリケーションの例( ここではコメンタリピクチャ)を示して!/、る。
[0305] AV再生制御部は VOBファイル及び VOB管理情報ファイル、プレイリスト情報ファ ィルを元に AVストリームを再生する。 AVストリーム再生中に AV再生制御部は、コン テンッ再生時刻力 前述したプレイリスト情報に含まれるポイント情報が示す再生時 刻に到達するかどうかを監視する。
[0306] コンテンツ再生時刻が前述のポイント情報に記述された再生時刻に到達すると((1 ) Point検知)、 AV再生制御部は XHTML処理部に前述のポイント種別情報を伴つ てイベントを通知する((2) Pointイベント通知)。 XHTML処理部はイベントを通知さ れるとアプリケーションのイベント記述を確認し、当該イベント発生時に実行すべきス タリブト (イベントハンドラ)を実行する((3)イベント処理)。ここでは、当該コンテンツ再 生時刻になるとそのシーンに出てくる富士山に、標高が 3776mである吹き出し (コメ ンタリピクチャ)を描画して ヽる ( (4)コメンタリピクチャ表示)。
[0307] 図 45は、コンテンツ再生時刻に連動したイベントを生成.処理するシステムのフロー チャート図である。以下、図 44を用いて説明した本発明におけるイベント生成 'ハンド ルシステムの具体的なフローチャートを、図 45を用いて説明する。
[0308] まず AV再生制御部はプレイリストの再生を指示されると (ステップ S901)、前述の プレイリスト情報に含まれるポイント情報 (Point情報)をキャッシュしておく(ステップ S 902)。
[0309] 次に AV再生制御部は当該プレイリストの再生が終了(ステップ S903の yes)するま で以下の処理を繰り返す (ステップ S903の no)。 [0310] AV再生制御部は AVストリームの再生時刻がステップ S902にキャッシュしたポイン ト情報で指定される時刻に到達すると (ステップ S904yes)、前述のポイント情報に基 づいてイベントを生成し XHTML処理部に通知する(ステップ S905)。イベントには 少なくともポイント種別情報 (PointType)と、必要に応じてイベント期間情報 (Durati on)とを含む。
[0311] イベントの通知を受けると XHTML処理部は、アプリケーションの記述に基づき当 該イベントのイベントハンドラ (イベント処理スクリプト)を実行する(ステップ S906)。
[0312] 図 46は、コメンタリピクチャアプリケーションの記述例を示す図である。図 46に具体 的なアプリケーションの記述例を示す。図 46に示すようにアプリケーション記述はメニ ユー画面や Popup画面、ゲームなどにおけるボタンや画像、文字情報などの画面描 画アイテムに関する記述であるコンテンツ記述と、コンテンッ記述に記述された画面 描画アイテムの描画位置や見栄え等を記述するスタイル記述と、ボタンが押されたり イベントが生成されたりしたときなどのアプリケーションの具体的な動作を記述するス タリブト記述と、任意のイベントが発生した際に実行するスクリプト (イベントハンドラ)と その引数などの情報を記述するイベント記述力もなる。
[0313] 例えば、ポイントリストにお!、て一番目先頭のポイント情報 Point # 0001 (pointID
= 0001)のポイント種別が" EventPoint"であるとし、コンテンツの再生時刻が Point # 0001に記述される時刻に到達して XHTML処理部が当該ポイントのイベントを受 信したとする。
[0314] XHTML処理部はまず、く bdi:bevent>要素に区切られたイベント記述を確認し 、 "EventPoint "に関する情報が記載されたく bdi:beitem>要素を検索する。 type = "EventPointFired"であるく bdi: beitem >要素にその情報が記載されており、 イベントハンドラとして実行すべきスクリプトが onoccur属性に指定されて 、る。ここで は、スクリプト display ()を実行するよう記述されている。本アプリケーション記述では スクリプト内で扱える情報として、 object属性に" comment〃を指定しスクリプト内で操 作すべきオブジェクト名(ここでは object属性で指示された" comment")を記述して V、る。また属性としては記述されな 、がポイント情報の順序番号 (ここでは pointId= 0001)もスクリプト内で扱えるものとする。本アプリケーション記述はあくまでも例であ り、ポイント情報の番号などそのほかの情報も属性として持たせても良い。
[0315] 次に XHTML処理部はイベント記述に基づ 、て < script >要素に区切られたスク リプト記述を確認し、 display ()関数を実行する。 display ()関数では、ポイント情報 の順序番号を beitem. pointidとして捕捉し、本実施の形態のようにポイントが順序 番号の" 0001"である場合に、 comment (く object >要素の id属性)というオブジェ タトの可視属性に' isible (可視状態)"を代入している。これにより、コンテンツ記述 の中の id= "comment〃である要素が" hidden (不可視状態)"から〃 visible (可視状 態) Ίこなり、 XHTML処理部は前述のコメンタリピクチヤにあたる画像" comment, p ng〃を描画しコメンタリピクチャを実現する。
[0316] 以上、説明した本実施の形態によるシステムにより、映像に同期して詳細情報画像 をはりつけるコメンタリピクチヤなど、コンテンツに連動して何らかのサービスを提供す るアプリケーションを容易に実現できる。その理由は、本実施の形態によるシステムで は、コンテンツに連動して提供されるべきアプリケーションの開始タイミングがコンテン ッの再生時刻に対応付けてポイントリストのポイント情報に記述されているからである 。従って、早送り再生や巻き戻し再生などの特殊再生時であっても、コンテンツ側に は特別な記述は必要なぐ簡潔に Popup— Eventを記述することが出来る。
[0317] (再生状況に応じたチャプターイベント生成メカニズム)
一例として前述したように本実施の形態におけるシステムでは、タイトル中での話の 区切りとして設定するチヤプタが切り替わる際に、 PointTypeに" ChapterPoint"が 指定されたイベントを生成可能であり、 XMLZXHTMLおよびスクリプトからなるァ プリケーシヨンにおいてチヤプタの切り替わりに応じた処理を実行することが出来る。
[0318] し力しながら、前述したシステムでは特殊再生への考慮がまだ十分ではなぐ早送り や巻き戻し時に当該 ChapterPointに到達した場合と、通常再生時に ChapterPoin tに到達した場合との区別ができず、アプリケーション側で特殊再生時に特ィ匕した処 理を記述できな力つた。
[0319] このため、コンテンツの自由度が制限され、ユーザの利便性を高めるよりよいコンテ ンッを提供した ヽと 、うスタジオのニーズが満たされなかった。
[0320] 図 47は、コンテンツ再生時刻に連動し、再生状態も通知可能なイベントを生成'処 理シするステムにより、チャプタータイトルアプリケーションを実現した例を示す図であ る。具体的には図 47の上段に示すように、早送り再生時にあるチヤプタに到達した際 、ユーザの理解を手助けするために、そのチヤプタのチヤプタタイトルを表示したいと V、うニーズがある。このチヤプタタイトルは通常再生時では視聴の邪魔になるため表 示せず、早送り再生時のみに表示したい。
[0321] この課題に対応するために本発明では、チヤプタを知らせるイベント(PointType
= "ChapterPoint")に併せて、通常再生状態や早送り再生状態などのプレーヤの 状態情報を同時に通知することで、さらにアプリケーションの表現力を向上させる。前 記イベント生成手段である AV再生制御部は、前記タイトル再生手段が前記タイトル を特殊再生して!/ヽる場合に、前記タイトルが特殊再生されて!ヽる旨を示す再生状態 情報を含むイベントを生成する。
[0322] 具体的に、本発明におけるイベント生成'ノヽンドルシステムの概要を図 47を用いて 説明する。
[0323] 下段は、 AVストリームである VOBファイル、 VOB管理情報ファイル、プレイリスト情 報ファイルを元に AVストリームの再生制御処理を行う AV再生制御部の振る舞いを 示している。中段は、 AV再生制御部からの各種イベントや再生時刻などの情報を受 信し XMLZXHTML及びスクリプトによるアプリケーションを実行制御する XHTML 処理部の振る舞 、を示して 、る。上段は本システムによって実現されるアプリケーショ ンの例(早送り時のチャプタータイトル表示)を示して 、る。
[0324] AV再生制御部は VOBファイル及び VOB管理情報ファイル、プレイリスト情報ファ ィルを元に AVストリームを再生する。 AVストリーム再生中に AV再生制御部は、コン テンッ再生時刻力 前述したプレイリスト情報に含まれるポイント情報が示す再生時 刻に到達するかどうかを監視する。
[0325] コンテンツ再生時刻が前述のポイント情報に記述された再生時刻に到達すると、 A V再生制御部は前述のポイント情報力 到達したポイントがチヤプタポイントであるこ とを検知する((1) Point検知)。
[0326] 次に AV再生制御部はポイントに到達した際のプレーヤ状態情報を取得する((2) 再生状態確認)。本実施の形態では、プレーヤ状態情報をタイトルの再生状態とし、 タイトルの再生状態が早送り再生状態であることを確認する。しかし、プレーヤ状態情 報をタイトルの再生状態とするのはあくまでもこの場合の例であり、プレーヤ状態情報 は例えばコンテンツ再生時刻であったり、言語やアングルなどのプレーヤへの設定 情報であったり、タイトル再生時の現実時間情報であってもよ 、。
[0327] 次に AV再生制御部は XHTML処理部に前述のポイント種別情報とタイトルの再 生状態情報を伴ってイベントを通知する((3) Point+再生状態イベント通知)。 XHT ML処理部はイベントを通知されるとアプリケーションのイベント記述を確認し、当該ィ ベント発生時に実行すべきスクリプト (イベントハンドラ)を実行する( (4)イベント処理) 。ここでは、早送り再生時にチヤプタの区切りに到達すると、切り替わった先のチヤプ タのチヤプタタイトルを描画して 、る ( (5)チヤプタタイトル表示)。
[0328] 図 48は、コンテンツ再生時刻に連動し、再生状態も通知可能なイベントを生成'処 理するシステムのフローチャート図である。以下、図 47を用いて説明した本発明にお けるイベント生成'ノヽンドルシステムの具体的なフローチャートを図 48を用いて説明 する。
[0329] まず AV再生制御部はプレイリストの再生を指示されると (ステップ S1001)、プレイ リスト情報に含まれるポイント情報 (Point情報)をキャッシュしておく(ステップ S1002
) o
[0330] 次に AV再生制御部は当該プレイリストの再生が終了(ステップ S 1003の yes)する まで以下の処理を繰り返す (ステップ S1003の no)。
[0331] AV再生制御部は AVストリームの再生時刻がステップ S1002にキャッシュしたポィ ント情報で指定される時刻に到達すると (ステップ S1004yes)、 AV再生制御部は当 該 Pointに到達した際の再生状態情報を確認する (ステップ S 1005)。次に AV再生 制御部は前述のポイント情報に基づいてイベントを生成し XHTML処理部に通知す る(ステップ S 1006)。イベントには少なくともポイント種別情報(PointType)と、ステ ップ S1005で確認した再生状態情報とを含み、必要に応じてイベント期間情報 (Dur ation)も含む。
[0332] イベントの通知を受けると XHTML処理部は、アプリケーションの記述に基づき当 該イベントのイベント処理スクリプト (イベントハンドラ)を実行する(ステップ S 1007)。 [0333] 図 49は、チャプタータイトルアプリケーションの記述例を示す図である。図 49に具 体的なアプリケーションの記述例を示す。
[0334] 例えば、 12番目のポイント情報(Point # 0012)力 12番目のチヤプタの区切りで ありポイント種別が〃 ChapterPoint"であるとする。コンテンツの再生時刻が Point # 0012に記述される時刻に到達し、 XHTML処理部が当該ポイントのイベントを受信 したとすると、 XHTML処理部はまずく bdi: bevent >要素に区切られたイベント記 述を確認し、 "ChapterPoint〃に関する情報が記載されたく bdi:beitem>要素(本 例では 1つのみ)を検索する。 type = "ChapterPointFired "であるく bdi:beitem >要素にその情報が記載されており、イベントハンドラとして実行すべきスクリプトが o noccur属性に指定されている。ここでは、スクリプト chaptertitle Oを実行するよう記 述されている。すなわち、前記イベントは、前記タイトルを構成するひとまとまりの話の 単位であるチヤプタ毎に生成されるイベントであり、前記イベントに対応するイベント 処理は、チヤプタの切り替わりに対応する処理である。
[0335] 次に XHTML処理部はイベント記述に基づ 、て < script >要素に区切られたスク リプト記述を確認し、 chaptertitle O関数を実行する。 chaptertitle O関数では、ポ イント情報の順序番号を beitem. pointldとして捕捉し、本実施の形態のようにボイ ントの順序番号力 12"である場合に、 chapter 12 ( < object >要素の id属性)と!ヽぅ オブジェクトの可視属性に' isible (可視状態)"を代入している。これにより、コンテン ッ記述の中の id="chapterl2"である要素が" hidden (不可視状態)"から〃 visible ( 可視状態)〃になり、 XHTML処理部は前述のチヤプタタイトルにあたる画像" chapl 2. png〃を描画し早送り再生時のチヤプタタイトル描画を実現する。すなわち、 XHT ML処理部によって実現される前記スクリプト実行手段は、前記イベントに含まれる再 生状態情報が、前記タイトルが特殊再生されている旨を示す場合に、前記イベント〖こ 対応づけられた画像の可視属性を不可視状態力 可視状態に設定した後に、可視 状態に設定された画像を表示する。
[0336] なお、本実施で述べたように、イベント生成時に AV再生制御部が XHTML処理部 に対してプレーヤの状態情報を含めて通知するシステムに関しては、ポイント種別が ChapterPointであるイベントに限定されるものではない。 [0337] 例えば、図 43等を用いて説明したコメンタリピクチャなどを実現するポイント種別が EventPointであるイベント生成時にお!、ても、同様プレーヤの状態情報を含めて通 知しても良い。
[0338] この場合も同様にアプリケーションの表現力を向上させることができる。
[0339] (イベントの重要度を加味したイベント生成メカニズム)
以上、特殊再生時に特化したイベント処理が可能となる、プレーヤの状態情報を伴 つてイベントを生成'ノヽンドルするシステムについて述べた。
[0340] ここで、早送り再生などの特殊再生処理は通常再生に比べて、早送り倍率を高くす ればするほど AV再生制御部への負担が大きくなる。このため高倍率での早送り再生 中も誤差無くその時刻にすべてのイベントを生成し処理するのは、再生制御部への 負担が大きく困難であるという課題があった。一方でスタジオがコンテンツに記録した ポイント情報の全てが早送り再生中に必要というわけではなぐ必ずイベントを生成し て欲 U、ものもあれば、生成タイミングがずれるくら!、であれば無視して欲 、ィベン トもある。
[0341] そこで本発明では、 BD管理情報に記述する各イベント毎に生成条件フラグを新規 追加する。
[0342] 図 50は、ポイント情報にイベント生成条件情報を追加'修正したプレイリストファイル の構成図である。具体的に、図 50を用いて説明する。図 50では、図 43にて追加した ポイントリストの各ポイント情報のメンバとして、さらにイベント生成条件情報を追加し ている。このイベント生成条件情報には、当該ポイント情報に基づくイベントを生成す る際の条件を記述するものであり、例えば本実施の形態では早送り再生中であっても イベントを生成することが必要 (必須)力否かを記述する。そのほかの既存のメンバの 役割は前述したものと変わらないため説明を割愛する。
[0343] なお、図 50に示すプレイリスト情報はあくまでも例であり、イベント生成条件をはじめ とするポイント情報をプレーヤがコンテンツ再生時に記憶出来るのであればそのほか の方法であっても良い。例えば、図 13に示した VOB管理情報やアプリケーションを 記述する XMLZXHTMLまたはスクリプトに上記ポイント情報にあたる情報を記述し ても良い。 [0344] また、上記の生成条件はあくまでも例であり、このイベント生成条件情報の内容は 特に上記の内容に限定されるものではない。例えばどの様な再生状況であってもィ ベント生成が必須力否かという内容であってもよい。また、(巻き戻し時のみといつたよ うな)ある特殊再生時のみイベント生成するというようなプレーヤの状態に応じた条件 であっても良い。さらに、例えばプレーヤがネットワークに接続されている力否かなど のプレーヤの能力に応じた条件であっても良 、。またそれぞれの条件を組み合わせ たものであっても良い。スクリプト記述の中で、情報を取得し対応する処理を実行する か否かの条件分岐を記述しても良いが、イベント生成条件としてプレイリスト情報の中 に含めておくことで、当該イベントを生成する処理自体を省略することができ、スクリブ トの中で条件判断する場合に比べてプレーヤの負荷が軽くなるといった利点がある。
[0345] なお、例えば本実施の形態のように特殊再生時でもイベント生成が必須である場合 などは、 AV再生制御部の負荷を考慮し、当該ポイント情報や当該イベントに対応し たスクリプト (イベントハンドラ)などイベントの処理に必要な情報をメモリ上に展開しキ ャッシュしておいたり、一部の処理をあら力じめ実行しておいたりするなどの対応を取 つても良い。
[0346] 図 51は、イベント生成条件に応じてコンテンツ再生時刻に連動したイベントを生成' 処理するシステムの動作概要を示す図である。イベント生成条件情報が特殊再生時 でイベントを生成することが必須である力否かとう情報である場合の例を図 51を用い て説明する。
[0347] Event Point Aは、 Event Point Bよりも前のコンテンツ再生時刻に位置し、 E vent Point Aのイベント生成条件情報には特殊再生時のイベント生成が不要であ る旨が記述され、 Event Point Bのイベント生成条件情報には特殊再生時のィべ ント生成が必須である旨が記述されて 、るものとする。
[0348] まず通常再生時では、前述してきたようにコンテンツ再生時刻が Event Point A に到達した時点で当該 Point情報に基づくイベント Aが生成され、次に Event Poin t Bに到達した時点で同様に当該 Point情報に基づくイベント Bが生成される。すな わち、前記ポイントリストには、前記イベントを生成する条件であるイベント生成条件が 前記イベントに対応づけて記述され、 AV再生制御部によって実現される前記ィベン ト生成手段は、前記タイトル再生手段によって再生されているタイトルの再生時刻が 前記ポイントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対 応するイベント生成条件が満たされるか否かを判断し、満たされる場合にだけ、当該 イベント時刻に対応するイベントを生成する。
[0349] 一方、図 51に示すように 20倍速の早送り再生が行われた場合、コンテンツ再生時 刻が Event Point Aに到達すると((1) Point検知)、 Event Point Aのポイント 情報に含まれるイベント生成条件情報を確認する((2)生成条件確認)。 Event Poi nt Aのイベント生成条件情報には特殊再生時のイベント生成が不要である旨が記 述されているため、 AV再生制御部は Event Point Aを無視し、タイトル再生を継 続する。
[0350] 次に Event Point Bに到達すると((1) Point検知)、 Event Point Bのポイント 情報に含まれるイベント生成条件情報を確認する((2)生成条件確認)。 Event Poi nt Bのイベント生成条件情報には特殊再生時のイベント生成が必須である旨が記 述されているため、 AV再生制御部は Event Point Bに到達した際のタイトルの再 生状態情報を確認し((3)再生状態確認)、 Event Point Bのポイント情報に基づ き、かつ再生状態情報を伴ったイベントを生成し XHTML処理部に通知する( (4) P oint +再生状態イベント通知)。 XHTML処理部はイベントを受けると、アプリケーシ ヨン記述に基づき該当するイベント処理を実行する((5)イベント処理)。すなわち、 A V再生制御部によって実現される前記イベント生成条件は、特殊再生時にイベントを 生成する必要があるか否かを示す条件であり、前記イベント生成手段は、前記タイト ル再生手段が前記タイトルを特殊再生して ヽる場合に、前記イベント時刻に対応した イベント生成条件が示す条件に従って、前記イベントを生成する、又は、生成しない 。なお、前述したように特殊再生時のイベント処理に必要な負担を軽減するために、 ポイント情報や、イベント処理に必要な情報、スクリプトをあら力じめメモリにキャッシュ しておいても良い。
[0351] 図 52は、イベント生成条件に応じてコンテンツ再生時刻に連動したイベントを生成' 処理するシステムのフローチャート図である。以下、図 51を用いて説明した本発明に おける、イベント生成条件情報に基づいたイベント生成'ノヽンドルシステムの具体的 なフローチャートを図 52を用いて説明する。
[0352] まず AV再生制御部はプレイリストの再生を指示されると (ステップ S1101)、プレイ リスト情報に含まれるポイント情報 (Point情報)をキャッシュしておく(ステップ S1102
) o
[0353] 次に AV再生制御部は当該プレイリストの再生が終了(ステップ S 1103の yes)する まで以下の処理を繰り返す (ステップ S1103の no)。
[0354] AV再生制御部は AVストリームの再生時刻がステップ SI 102にキャッシュしたポィ ント情報で指定される時刻に到達すると (ステップ SI 104yes)、 AV再生制御部は当 該 Pointのポイント情報に含まれるイベント生成条件を確認し、当該 Pointに到達し た際の状態力 ベント生成条件に適合するかどうか確認する (ステップ S1105)。ィべ ント生成条件に適合する場合はイベント生成処理を継続するためステップ S 1106に 進み (ステップ S1105yes)、イベント生成条件に適合しない場合はイベントを生成せ ずにプレイリストの再生を継続する(ステップ SI 105no)。
[0355] イベント生成条件に適合する場合、 AV再生制御部は当該 Pointに到達した際の 再生状態情報を確認する (ステップ S1106)。次に AV再生制御部は前述のポイント 情報に基づ 、てイベントを生成し XHTML処理部に通知する(ステップ S 1107)。ィ ベントには少なくともポイント種別情報(PointType)と、ステップ S 1106で確認した 再生状態情報とを含み、必要に応じてイベント期間情報 (Duration)も含む。
[0356] イベントの通知を受けると XHTML処理部は、アプリケーションの記述に基づき当 該イベントのイベントハンドラを実行する(ステップ S 1108)。
以上、イベント生成条件に基づいたイベント生成'ノヽンドルシステムについて説明した 力 S、本発明により特殊再生時におけるプレーヤのイベント生成負荷を軽減することが できる。また、イベント生成条件として定義する内容次第では、さらに自由度の高いコ ンテンッ記述が可能となる。
[0357] なお、本実施の形態は、ネットワーク配信に適用することができる。ネットワーク配信 では、再生装置は、まず IndexTableをダウンロードした後、 XHTMLで記述されるス タリブトとそれに基づいて再生されるべきストリームとをダウンロードする。この場合、本 発明の再生装置は、実施の形態 2ですでに説明したように、 IndexTableと、スクリブ トと、ストリームとを、タイトルごとにハードディスク上にー且、ノ ッファし、再生直前にメ モリ上にキャッシュするとしてもよい。このようにすることにより、リアルタイムでかつシ ームレスにコンテンツのインタラクティブ再生を楽しむことができるという効果を得るこ とがでさる。
産業上の利用可能性
本発明を利用することにより、映像データと XMLおよびスクリプトによる AV再生制 御をネットワーク配信及び記録媒体を介したコンテンツ配信に導入することが可能と なる。特に、映像コンテンツの制作に携わる映画産業 ·民生機器産業において利用さ れる可能性をもつ。

Claims

請求の範囲
[1] デジタルコンテンツであるタイトルを再生する再生装置であって、
前記タイトルを取得して再生するタイトル再生手段と、
前記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻で あるイベント時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリス トに従って、前記タイトル再生手段によって再生されているタイトルの再生時刻が前 記ポイントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対応 するイベントを生成するイベント生成手段と、
前記イベント生成手段が取得したポイントリストに記述されたイベントに対応する処 理であるイベント処理を記述したアプリケーションプログラムであるスクリプトを取得し、 取得したスクリプトに従って、前記イベント生成手段によって生成されたイベントに対 応したイベント処理を実行するスクリプト実行手段とを備え、
前記イベント生成手段は、前記タイトル再生手段によるタイトルの再生状態を示す 再生状態情報を含むイベントを生成し、
前記スクリプト実行手段は、前記イベント生成手段によって生成されたイベントに含 まれる再生状態情報に依存して、実行するイベント処理を切り替える
ことを特徴とする再生装置。
[2] 前記イベント生成手段は、前記タイトル再生手段が前記タイトルを特殊再生して 、 る場合に、前記タイトルが特殊再生されて ヽる旨を示す再生状態情報を含むイベント を生成する
ことを特徴とする請求項 1記載の再生装置。
[3] 前記スクリプト実行手段は、前記イベントに含まれる再生状態情報が、前記タイトル が特殊再生されて ヽる旨を示す場合に、前記イベントに対応づけられた画像の可視 属性を不可視状態力 可視状態に設定した後に、可視状態に設定された画像を表 示する
ことを特徴とする請求項 2記載の再生装置。
[4] 前記ポイントリストには、前記イベントを生成する条件であるイベント生成条件が前 記イベントに対応づけて記述され、 前記イベント生成手段は、前記タイトル再生手段によって再生されて 、るタイトルの 再生時刻が前記ポイントリストに記述されたイベント時刻に到達した際に、当該ィベン ト時刻に対応するイベント生成条件が満たされるカゝ否かを判断し、満たされる場合に だけ、当該イベント時刻に対応するイベントを生成する
ことを特徴とする請求項 2記載の再生装置。
[5] 前記イベント生成条件は、特殊再生時にイベントを生成する必要があるか否かを示 す条件であり、
前記イベント生成手段は、前記タイトル再生手段が前記タイトルを特殊再生して 、 る場合に、前記イベント時刻に対応したイベント生成条件が示す条件に従って、前記 イベントを生成する、又は、生成しない
ことを特徴とする請求項 4記載の再生装置。
[6] 前記イベントは、前記タイトルを構成するひとまとまりの話の単位であるチヤプタ毎に 生成されるイベントであり、
前記イベントに対応するイベント処理は、チヤプタの切り替わりに対応する処理であ る
ことを特徴とする請求項 1記載の再生装置。
[7] デジタルコンテンツであるタイトルを再生する再生方法であって、
前記タイトルを取得して再生するタイトル再生ステップと、
前記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻で あるイベント時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリス トに従って、前記タイトル再生ステップによって再生されているタイトルの再生時刻が 前記ポイントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対 応するイベントを生成するイベント生成ステップと、
前記イベント生成ステップで取得したポイントリストに記述されたイベントに対応する 処理であるイベント処理を記述したアプリケーションプログラムであるスクリプトを取得 し、取得したスクリプトに従って、前記イベント生成ステップで生成されたイベントに対 応したイベント処理を実行するスクリプト実行ステップとを含み、
前記イベント生成ステップでは、前記タイトルの再生状態を示す再生状態情報を含 むイベントを生成し、
前記スクリプト実行ステップでは、前記イベント生成ステップで生成されたイベントに 含まれる再生状態情報に依存して、実行するイベント処理を切り替える
ことを特徴とする再生方法。
[8] デジタルコンテンツであるタイトルを再生する再生装置のためのプログラムであって 請求項 7記載のステップをコンピュータに実行させる
ことを特徴とするプログラム。
[9] デジタルコンテンツであるタイトルを再生する再生装置のためのプログラムが記録さ れたコンピュータ読み取り可能な記録媒体であって、
請求項 8記載のプログラムが記録されて 、る
ことを特徴とする記録媒体。
[10] デジタルコンテンツであるタイトルを再生するための集積回路であって、
前記タイトルを取得して再生するタイトル再生手段と、
前記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻で あるイベント時刻とを対応づけて記述したポイントリストを取得し、取得したポイントリス トに従って、前記タイトル再生手段によって再生されているタイトルの再生時刻が前 記ポイントリストに記述されたイベント時刻に到達した際に、当該イベント時刻に対応 するイベントを生成するイベント生成手段と、
前記イベント生成手段が取得したポイントリストに記述されたイベントに対応する処 理であるイベント処理を記述したアプリケーションプログラムであるスクリプトを取得し、 取得したスクリプトに従って、前記イベント生成手段によって生成されたイベントに対 応したイベント処理を実行するスクリプト実行手段とを備え、
前記イベント生成手段は、前記タイトル再生手段によるタイトルの再生状態を示す 再生状態情報を含むイベントを生成し、
前記スクリプト実行手段は、前記イベント生成手段によって生成されたイベントに含 まれる再生状態情報に依存して、実行するイベント処理を切り替える
ことを特徴とする集積回路。 コンピュータ読み取り可能な記録媒体であって、
デジタルコンテンツであるタイトルと、
前記タイトルの再生において生成すべきイベントと当該イベントを生成する時刻で あるイベント時刻とを対応づけて記述したポイントリストと、
前記ポイントリストに記述されたイベントに対応する処理であるイベント処理を記述し たアプリケーションプログラムであるスクリプトと
が記録されて!ヽることを特徴とする記録媒体。
PCT/JP2006/303148 2005-03-02 2006-02-22 記録媒体、再生装置および再生方法 Ceased WO2006092996A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005057955 2005-03-02
JP2005-057955 2005-03-02

Publications (1)

Publication Number Publication Date
WO2006092996A1 true WO2006092996A1 (ja) 2006-09-08

Family

ID=36941030

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/303148 Ceased WO2006092996A1 (ja) 2005-03-02 2006-02-22 記録媒体、再生装置および再生方法

Country Status (1)

Country Link
WO (1) WO2006092996A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008114389A1 (ja) * 2007-03-19 2008-09-25 Pioneer Corporation コンテンツ再生システム及びその制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112922A (ja) * 1997-09-30 1999-04-23 Hitachi Ltd ストリームイベント点検出表示方法および装置
JP2002033993A (ja) * 2000-07-17 2002-01-31 Sanyo Electric Co Ltd 映像記録再生装置
JP2002354395A (ja) * 2001-05-30 2002-12-06 Sanyo Electric Co Ltd 光ディスク再生装置
WO2003051058A1 (en) * 2001-12-12 2003-06-19 Koninklijke Philips Electronics N.V. Playback of interactive television applications
WO2004025651A1 (ja) * 2002-09-12 2004-03-25 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、プログラム、再生方法、記録方法
JP2004221765A (ja) * 2003-01-10 2004-08-05 Toshiba Corp 情報再生装置及び情報再生方法
JP2005346873A (ja) * 2004-06-04 2005-12-15 Canon Inc 情報再生装置及び情報再生方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112922A (ja) * 1997-09-30 1999-04-23 Hitachi Ltd ストリームイベント点検出表示方法および装置
JP2002033993A (ja) * 2000-07-17 2002-01-31 Sanyo Electric Co Ltd 映像記録再生装置
JP2002354395A (ja) * 2001-05-30 2002-12-06 Sanyo Electric Co Ltd 光ディスク再生装置
WO2003051058A1 (en) * 2001-12-12 2003-06-19 Koninklijke Philips Electronics N.V. Playback of interactive television applications
WO2004025651A1 (ja) * 2002-09-12 2004-03-25 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、プログラム、再生方法、記録方法
JP2004221765A (ja) * 2003-01-10 2004-08-05 Toshiba Corp 情報再生装置及び情報再生方法
JP2005346873A (ja) * 2004-06-04 2005-12-15 Canon Inc 情報再生装置及び情報再生方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008114389A1 (ja) * 2007-03-19 2008-09-25 Pioneer Corporation コンテンツ再生システム及びその制御方法

Similar Documents

Publication Publication Date Title
JP6541853B2 (ja) 再生装置及び再生方法
JP2005332521A (ja) 情報記録媒体及び情報再生装置
JP2017204320A (ja) 再生方法、および再生装置
JP2007036663A (ja) 互換性を考慮した情報記録媒体およびその記録装置、記録方法、記録プログラム
JP5295572B2 (ja) 情報記録媒体および情報記録媒体再生システム
WO2006092996A1 (ja) 記録媒体、再生装置および再生方法
JP6445933B2 (ja) 記録媒体、再生装置およびその方法
JP2007018623A (ja) 情報記録媒体、およびその再生装置、再生方法。
JP2007011899A (ja) 宣言型言語で記述された再生制御環境の起動条件を考慮した情報記録媒体およびその再生装置、再生方法。
JP2007133938A (ja) オーディオミキシング出力の可否を示すフラグを持った情報記録媒体、および、その再生装置、再生方法
JP2006244654A (ja) ディスクプレーヤからの印刷方法
JP2007048383A (ja) 情報記録媒体およびその記録装置、記録方法、記録プログラム
JP6591202B2 (ja) 記録媒体、再生装置およびその方法
JP2007235185A (ja) ランダムアクセスに適した情報記録媒体、およびその記録/再生装置、記録/再生方法
JP2006236453A (ja) 情報記録媒体およびその再生装置、再生方法。
JP2006244655A (ja) 再生装置および再生方法
JP2006228339A (ja) 宣言型言語で記述された再生制御環境のリソース管理を考慮した情報記録媒体およびその再生装置、再生方法
WO2006090664A1 (ja) 情報記録媒体、再生装置および再生方法
JP2007012217A (ja) 情報記録媒体およびその再生装置、再生方法
JP2006013726A (ja) 情報記録媒体、およびその記録/再生装置、記録/再生方法
JP2006073127A (ja) ランダムアクセスに適した情報記録媒体、およびその記録/再生装置、記録/再生方法
WO2016009606A1 (ja) 記録媒体、再生装置およびその方法
WO2016021118A1 (ja) 記録媒体、再生装置および再生方法
JP2007049461A (ja) 情報記録媒体、情報記録装置およびその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 06714288

Country of ref document: EP

Kind code of ref document: A1