[go: up one dir, main page]

WO2017061297A1 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
WO2017061297A1
WO2017061297A1 PCT/JP2016/078350 JP2016078350W WO2017061297A1 WO 2017061297 A1 WO2017061297 A1 WO 2017061297A1 JP 2016078350 W JP2016078350 W JP 2016078350W WO 2017061297 A1 WO2017061297 A1 WO 2017061297A1
Authority
WO
WIPO (PCT)
Prior art keywords
hdr
display
unit
content
information processing
Prior art date
Application number
PCT/JP2016/078350
Other languages
French (fr)
Japanese (ja)
Inventor
幸一 内村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2017061297A1 publication Critical patent/WO2017061297A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Definitions

  • the present disclosure relates to an information processing device and an information processing method, and more particularly, to an information processing device and an information processing method capable of appropriately displaying HDR content.
  • MPEG-DASH Moving / Picture / Experts / Group / phase / Dynamic / Adaptive / Streaming / over / HTTP
  • OTT-V Over The Top Video
  • MPEG-DASH Moving / Picture / Experts / Group / phase / Dynamic / Adaptive / Streaming / over / HTTP
  • the distribution server prepares an encoded stream with a different bit rate for a single video content, and the playback terminal requests an encoded stream with an optimal bit rate, thereby realizing adaptive streaming distribution. Is done.
  • the video and audio information to be distributed is described in an MPD (Media Presentation Description) file, and the terminal acquires the MPD file from the server and plays it by looking at the described information. It is possible to determine which is the most suitable encoded stream and obtain it.
  • HDR High Dynamic Range
  • SDR Standard Dynamic Range
  • MPEG-DASH Dynamic-Adaptive-Streaming-over-HTTP
  • URL http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam -1)
  • This disclosure has been made in view of such a situation, and can appropriately display HDR content.
  • An information processing apparatus describes an HDR parameter including at least information related to luminance of HDR (High Dynamic Range) content, and generates a management file that is a file for managing the encoded stream of the HDR content
  • HDR High Dynamic Range
  • the file generation unit can describe the HDR parameter in Representation or AdaptationSet of the management file.
  • the information relating to the brightness of the HDR content includes at least one of a table for converting light and electric signals, the maximum brightness included in the HDR content, and the average brightness of the HDR content.
  • the information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.
  • the HDR parameter includes display characteristic information used when creating the HDR content.
  • the display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.
  • An information processing method is a file in which an information processing device describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content Generate a management file.
  • an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content Generate a management file.
  • An information processing apparatus describes an HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content, and obtains a management file that is a file for managing the encoded stream of the HDR content And a selection unit that selects the HDR content corresponding to the display unit using the HDR parameter of the management file acquired by the acquisition unit.
  • HDR High Dynamic Range
  • the HDR parameter is described in Representation or AdaptationSet of the management file.
  • the information relating to the brightness of the HDR content includes at least one of a table for converting light and electric signals, the maximum brightness included in the HDR content, and the average brightness of the HDR content.
  • the information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.
  • the HDR parameter includes display characteristic information used when creating the HDR content.
  • the display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.
  • a luminance compression unit that compresses the luminance of the HDR content when the luminance of the HDR content exceeds the display range of the display unit can be further provided.
  • the display unit can be further provided.
  • the display unit is externally connected via a connection unit, and transmits a performance information acquisition unit that acquires performance information of the display unit and an HDR parameter corresponding to the HDR content selected by the selection unit And the selecting unit can select the HDR content corresponding to the display unit using the performance information acquired by the performance information acquiring unit.
  • An information processing method is a file in which an information processing apparatus describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content.
  • An information processing apparatus describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content.
  • a certain management file is acquired, and the HDR content corresponding to the display unit is selected using the HDR parameter of the acquired management file.
  • an HDR parameter including at least information regarding luminance of HDR (High Dynamic Range) content is described, and a management file that is a file for managing the encoded stream of the HDR content is generated.
  • a management file which is a file for managing an encoded stream of the HDR content, is described by describing an HDR parameter including at least information on brightness of HDR (High Dynamic Range) content. Then, the HDR content corresponding to the display unit is selected using the HDR parameter of the acquired management file.
  • HDR High Dynamic Range
  • HDR content can be displayed appropriately.
  • FIG. 20 is a flowchart for describing playback processing of the video playback terminal of FIG. 19.
  • FIG. 20 is a flowchart explaining the selection process of step S82 of FIG.
  • step S82 of FIG. It is a block diagram which shows the 2nd structural example of a moving image reproduction terminal. It is a flowchart explaining the reproduction
  • FIG. 16 is a block diagram illustrating a configuration example of a personal computer.
  • First embodiment Information processing system (FIGS. 1 to 28) 2.
  • Second Embodiment Computer (FIG. 29)
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an information processing system to which the present disclosure is applied.
  • the information processing system 10 in FIG. 1 is configured by connecting a Web server 12 connected to a file generation device 11 and a moving image playback terminal 14 via the Internet 13.
  • the Web server 12 distributes an encoded stream of HDR (High Dynamic Range) image moving image content (hereinafter also referred to as HDR content) to the moving image playback terminal 14 in a method in accordance with MPEG-DASH. .
  • HDR High Dynamic Range
  • the file generation device 11 of the information processing system 10 encodes an image at a plurality of encoding speeds (bit rates) to generate an encoded stream.
  • the file generation device 11 generates an image file (for example, an MP4 file) by converting an encoded stream of each encoding speed into a file for each time unit of about several seconds to about 10 seconds called a segment.
  • the file generation device 11 encodes and encodes a plurality of different types of HDR images such as EOTF (Electro-Ortical Transfer Function), which is a table for converting light and electrical signals (that is, including luminance) and display luminance. Create a stream.
  • the file generation device 11 converts each type of encoded stream into a file for each time unit of about several seconds to about 10 seconds called a segment, generates an image file, and records it on a recording medium.
  • the file generation device 11 supplies the generated image file to the Web server 12 through a recorded recording medium or by uploading.
  • the file generation device 11 (setting unit) generates an MPD file (management file) for managing image files and the like and records them on a recording medium.
  • the file generation device 11 supplies the MPD file to the Web server 12 through a recorded recording medium or by uploading.
  • the Web server 12 stores the image file and the MPD file supplied from the file generation device 11.
  • the web server 12 transmits the stored image file, MPD file, and the like to the video playback terminal 14 in response to a request from the video playback terminal 14.
  • the video playback terminal 14 includes streaming data control software (hereinafter referred to as control software) 21, video playback software 22, and client software (hereinafter referred to as access software) for HTTP (HyperText Transfer Protocol) access. 23) is executed.
  • control software hereinafter referred to as control software
  • video playback software video playback software 22
  • client software hereinafter referred to as access software 23
  • the control software 21 is software that controls data streamed from the Web server 12. Specifically, the control software 21 causes the video playback terminal 14 to acquire an MPD file from the Web server 12.
  • control software 21 instructs the access software 23 to transmit a coded stream to be played, which is designated by the moving picture playing software 22, based on the MPD file.
  • the moving image reproduction software 22 is software for reproducing the encoded stream acquired from the Web server 12. Specifically, the moving image playback software 22 designates the encoded stream to be played back to the control software 21. Also, the moving image playback software 22 decodes the encoded stream received by the moving image playback terminal 14 when receiving a notification of reception start from the access software 23. The moving image reproduction software 22 synthesizes the image data obtained as a result of the decoding as necessary and outputs it.
  • the access software 23 is software that controls communication with the Web server 12 via the Internet 13 using HTTP. Specifically, the access software 23 causes the moving image playback terminal 14 to transmit a transmission request for the encoded stream to be played back included in the image file in response to a command from the control software 21. In response to the transmission request, the access software 23 causes the video playback terminal 14 to start receiving the encoded stream transmitted from the Web server 12 and supplies the video playback software 22 with a reception start notification. To do.
  • HDR is an image display technology that has attracted attention in recent years, and color gradation can be expressed richer than conventional SDR (Standard Dynamic Range).
  • the optical signal / electrical signal conversion table is called OETF (Ortical-Electron Transfer Function) or EOTF.
  • OETF Ortical-Electron Transfer Function
  • SDR EOTF / OETF defined in ITU BT1886 was used.
  • HDR for example, EOTF defined in SMPTE2084 is used.
  • FIG. 2 is a diagram showing examples of code values and display brightness in HDR and SDR.
  • SDR has a display brightness of 0 to 120 cd / m 2
  • HDR has a display brightness of 0 to 10000 cd / m 2
  • the display brightness range is completely different.
  • the server 12 when distributing HDR contents by MPEG-DASH, stores a plurality of types of HDR contents having different display luminances so that various clients can cope.
  • the web server 12 in FIG. 3 includes SMPTE2084 with a maximum brightness of 400 nits, an average of 80 nits HDR content, BT1886 with a maximum brightness of 100 nits, an average of 30 nits HDR content, and SMPTE2084 with a maximum brightness of 1000 nits and an average of 400 nits HDR content is stored.
  • the display unit of the video playback terminal 14-1 can display up to 500 nits with SMPTE2084.
  • the display unit of the video playback terminal 14-2 can display a maximum of 300 nits using BT1886.
  • the display unit of the video playback terminal 14-3 can display a maximum of 1000 nits using SMPTE2084.
  • none of the moving image playback terminals 14-1 to 14-3 can determine which HDR content stored in the server 12 is optimal for itself or can be played back by itself.
  • the HDR parameter shown in FIG. 4 is added to the MPD file and used for determination.
  • the HDR parameters are configured to include parameters for content attributes and parameters indicating what display was used to create the content.
  • Content attributes are: ⁇ EOTF: EOTF of the content ⁇ MAX CLL ⁇ ⁇ ⁇ Maximum brightness included in content ⁇ MAX FALL ⁇ ⁇ ⁇ Average brightness of content ⁇ HDR Profile ⁇ ⁇ ⁇ It consists of identifiers for the same EOTF but different applications.
  • EOTF EOTF
  • MAX CLL MAX FALL are metadata specified in SMPTE2086.
  • Display primaries indicates the color space that can be displayed by a certain display, and by describing this in the MPD file, it is possible to determine what kind of display the content is created by viewing. As shown in FIG. 5, it can be determined that the display can be expressed as long as the color is inside the triangle in the color space defined by the CIE.
  • White point indicates where a certain display is designed to be expressed as white (color reference value). As shown in FIG. 6, it can be determined that the display is designed considering white (reference value) in the color space defined by the CIE.
  • the display By providing the above HDR parameters, if the maximum and minimum values are known, if the display (display unit) itself can produce a higher luminance than the content, the luminance will not be compressed, or if the content is high, the highest luminance will be compressed. In addition, it is possible to improve by mapping and compressing the highest luminance of the content.
  • color reproduction can be used to match the reference white at the time of content creation (production), or to determine whether the color gamut can be reproduced by yourself.
  • FIG. 7 is a diagram illustrating an example in which HDR parameters are directly described in the AdaptationSet in XML, similar to the frame rate and resolution of Video.
  • the following HDR parameters are described in ⁇ AdaptationSet>.
  • ⁇ AdaptationSet EOTF ”BT1886”
  • HDRProfile ”HDR10”
  • displayPrimariesX1 ”0.123”
  • displayPrimariesY1 ”0.553” ...
  • the format is not particularly limited even if described as an XML attribute.
  • FIG. 9 is a diagram illustrating an indirect description example in which a URL is referred to in Property Description.
  • an element may be created in SupplementalProperity.
  • FIGS. 11 to 14 are diagrams showing an example of a method for describing the HDR parameters described in XML described above with reference to FIGS. 7 to 10 in the MPD file.
  • the HDR parameter may be described for each AdaptationSet in the XML description of FIG.
  • the HDR parameter may be described in the representation in the XML description of FIG. Further, any position may be used as long as the representation can be finally identified.
  • the HDR parameter may be described in the XML description of FIG. 9 that is indirectly described by referring to the URL by Property Description in ⁇ AdaptationSet>.
  • the HDR parameter may be described in the XML description of FIG. 9 that is indirectly described by referring to the URL in Property Description in ⁇ Representation>.
  • the HDR parameter may be described in the XML description of FIGS. 8 and 10 for each AdaptationSet, or may be described in the Representation in the XML description of FIGS. 7 and 10. May be. That is, the HDR parameter may be described in the AdaptationSet or Representation in any of the XML descriptions in FIGS.
  • FIG. 15 is a block diagram illustrating a configuration example of the file generation device in FIG.
  • the file generation device 11 includes an input unit 51, a control unit 52, a drive 53, a memory 54, a multiplexing unit 55, recording units 56-1 and 56-2, and recording units 57-1 and 57. -2 is included.
  • the input unit 51 receives information corresponding to a user operation and supplies it to the control unit 52.
  • the control unit 52 is a program that performs an operation according to information from the input unit 51, and functions as a file generation unit when controlling each unit of the file generation device 11 and generating a file.
  • the drive 53 is, for example, a port for connecting a hard disk or the like, and connects the recording units 56-1 and 56-2, the recording units 57-1 and 57-2, and the control unit 52.
  • the memory 54 temporarily stores data.
  • the multiplexing unit 55 includes a subtitle reading unit 71, a video reading unit 72, an audio reading unit 73, and a MUX 74.
  • the multiplexing unit 55 reads video, audio, and subtitles from the recording unit 56-1 or 56-2 and multiplexes them. Do.
  • the multiplexed data is recorded in the recording unit 57-1 or 57-2 via the control unit 52.
  • the subtitle reading unit 71 reads subtitle data from the recording unit 56-1 or 56-2 and supplies it to the MUX 74.
  • the video reading unit 72 reads the video data from the recording unit 56-1 or 56-2 and supplies the video data to the MUX 74.
  • the audio reading unit 73 reads audio data from the recording unit 56-1 or 56-2 and supplies the audio data to the MUX 74.
  • the MUX 74 multiplexes subtitle data, video data, and audio data into, for example, an MP4 file.
  • the recording units 56-1 and 56-2 are, for example, recording media such as a hard disk, and record video, audio, and subtitle data before multiplexing. Note that the recording unit 56-1 is built in the file generation device 11, and the recording unit 56-2 is externally attached to the file generation device 11. The recording units 56-1 and 56-2 do not need to be two, and it is sufficient that at least one of them is present.
  • Recording units 57-1 and 57-2 are recording media such as hard disks, and record multiplexed data in which video data, audio data, and caption data are multiplexed. Note that the recording unit 57-1 is built in the file generation device 11, and the recording unit 57-2 is externally attached to the file generation device 11. The recording units 57-1 and 57-2 do not need to be two, and at least one of them is sufficient, and when there is no need to distinguish between them, they are referred to as the recording unit 57.
  • step S11 the control unit 52 records pre-multiplexed data (video, audio, subtitles) in the recording unit 56 for content creation. If data is recorded in advance, step S11 is skipped.
  • step S12 the control unit 52 controls the multiplexing unit 55, reads data (video, audio, subtitle) from the recording unit 56, performs multiplexing, and generates a multiplexed file (for example, an MP4 file).
  • a multiplexed file for example, an MP4 file.
  • step S13 the control unit 52 determines whether or not Mastering Display Color Color Volume SEI is present in the video stream. If it is determined in step S13 that Mastering Display Color Volume SEI exists, the process proceeds to step S14. This is because the same information as the HDR parameter described in the MPD is included in the Mastering Display Color Volume SEI.
  • step S14 the control unit 52 stores, in the memory 54, information (EOTF, MAXFALL, MAXCLL and display information used at the time of content creation) necessary for HDR parameters in Mastering / Display / Color / Volume / SEI as HDR parameters. .
  • step S15 the control unit 52 reads the video data, determines EOTF, MAXFALL, MAXCLL, and stores them in the memory 54 as HDR parameters.
  • EOTF is obtained from, for example, TransferCharacteristics of hevc video, MAXFALL and MAXCLL look at all pixel values, and store the average value and maximum brightness in memory 54.
  • step S16 the control unit 52 determines whether there is an input from the input unit 51 based on a user operation. If there is insufficient information or there is an addition such as HDR Profile, it is determined in step S16 that there is an input, and the process proceeds to step S17.
  • step S17 the control unit 52 records information corresponding to the input in the memory 54. Note that the HDR parameter of the memory 54 is overwritten and appended as necessary.
  • step S17 If it is determined in step S16 that there is no input, step S17 is skipped, and the process proceeds to step S18.
  • step S18 the control unit 52 describes the HDR parameter recorded in the memory 54 in the MPD (file) and records it in the recording unit 56.
  • step S51 the control unit 52 reads the multiplexed MP4 file from the recording unit 57.
  • step S52 the control unit 52 determines whether an HDR parameter is present in the MP4 header. If it is determined in step S52 that the HDR parameter does not exist, the process proceeds to step S53.
  • step S53 the control unit 52 determines whether or not Mastering Display Color Color Volume SEI is present in the video stream. If it is determined in step S53 that Mastering Display Color Volume SEI exists, the process proceeds to step S54.
  • step S54 the control unit 52 stores, in the memory 54, information (EOTF, MAXFALL, MAXCLL and display information used at the time of content creation) necessary for HDR parameters in Mastering / Display / Color / Volume / SEI as HDR parameters.
  • information EOTF, MAXFALL, MAXCLL and display information used at the time of content creation
  • step S53 If it is determined in step S53 that Mastering Display Color Volume SEI does not exist, the process proceeds to step S55.
  • the control unit 52 reads the video data, determines EOTF, MAXFALL, MAXCLL, and stores them in the memory 54 as HDR parameters.
  • EOTF is acquired from, for example, TransferCharacteristics of HEVC video, and MAXFALL and MAXCLL look at the pixel values and store the average value and the maximum brightness in the memory 54.
  • step S52 determines whether the HDR parameter exists. If it is determined in step S52 that the HDR parameter exists, the process proceeds to step S56.
  • step S56 the control unit 52 records the HDR parameter of the header in the memory 54.
  • step S ⁇ b> 57 the control unit 52 determines whether there is an input from the input unit 51 based on a user operation. If there is insufficient information or there is an addition such as HDR profile, it is determined in step S57 that there is an input, and the process proceeds to step S58.
  • step S58 the control unit 52 stores information corresponding to the input in the memory 54. Note that the HDR parameter of the memory 54 is overwritten and appended as necessary.
  • step S58 If it is determined in step S57 that there is no input, step S58 is skipped, and the process proceeds to step S59.
  • step S59 the control unit 52 writes the HDR parameter stored in the memory 54 in the MPD (file) and records it in the recording unit 56.
  • FIG. 18 is a block diagram illustrating a configuration example of the Web server 12 in the case where the function of the file generation device 11 of FIG. 15 is included.
  • 18 includes an input unit 51, a control unit 52, a drive 53, a memory 54, a multiplexing unit 55, recording units 56-1 and 56-2, and recording units 57-1 and 57-2.
  • the points including are common to the file generation device 11 of FIG.
  • the network connection unit 91 is, for example, a network port, is connected to the Internet 13 via the control unit 52, and transmits / receives data (MPD file or HDR content) to / from the video playback terminal 14 via the Internet 13. Do.
  • the configuration is basically the same as that of the file generation device 11 of FIG. 15, and the content generation processing is basically the same as the processing described above with reference to FIGS. The description is omitted.
  • FIG. 19 is a block diagram illustrating a first configuration example of the video playback terminal 14 of FIG.
  • the moving image playback terminal 14 is configured to include an input unit 101, a control unit 102, a memory 103, a playback unit 104, a display unit 105, and a speaker 106.
  • the control unit 102 and the playback unit 104 are realized when the video playback terminal 14 in FIG. 1 executes the control software 21, the video playback software 22, and the access software 23.
  • the input unit 101 receives information corresponding to a user operation and supplies the information to the control unit 102.
  • the control unit 102 is a program that performs an operation and control determination according to information from the input unit 101, and controls each unit of the video playback terminal 14.
  • the memory 103 temporarily stores data.
  • the playback unit 104 is configured to include a data acquisition unit 121, a read buffer 122, a DeMUX 123, a caption generation unit 124, a video generation unit 125, an audio generation unit 126, and a display data generation unit 127.
  • the data acquisition unit 121 acquires data (MPD file or HDR content) from the Web server 12 via the Internet 13 and temporarily stores the acquired data in the read buffer 122.
  • the read buffer 122 temporarily stores the data acquired by the data acquisition unit 121.
  • the DeMUX 123 decomposes and takes out video data, audio data, and caption data from a multiplexed file such as MP4.
  • the DeMUX 123 outputs the extracted subtitle data to the subtitle generation unit 124, outputs the extracted video data to the video generation unit 125, and outputs the extracted audio data to the audio generation unit 126.
  • the subtitle generation unit 124 is a subtitle decoder, decodes subtitle data, and outputs the decoded subtitle data to the display data generation unit 127.
  • the video generation unit 125 is a video decoder, decodes the video data, and outputs the decoded video data to the display data generation unit 127.
  • the audio generation unit 126 is an audio decoder, and outputs the decoded audio data to the speaker 106.
  • the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the display unit 105.
  • the display unit 105 outputs an image corresponding to the display data from the display data generation unit 127.
  • the speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.
  • step S81 in response to an input from the input unit 101, the control unit 102 causes the data acquisition unit 121 to acquire the MPD file from the Web server 12 via the Internet 13.
  • the data acquisition unit 121 acquires an MPD file and stores the acquired MPD file in the memory 103 via the control unit 102.
  • step S82 the control unit 102 performs representation selection processing described in the MPD. This selection process will be described later with reference to FIG.
  • the HDR content corresponding to Representation is selected by the selection process in step S82.
  • step S83 the data acquisition unit 121 acquires the HDR content selected in step S82, and temporarily stores the acquired data in the read buffer 122.
  • the read buffer 122 temporarily stores the data acquired by the data acquisition unit 121.
  • step S84 the DeMUX 123 decomposes and extracts video data, audio data, and caption data from the multiplexed file such as MP4 stored in the buffer 122.
  • step S85 the video generation unit 125, the audio generation unit 126, and the display data generation unit 127 decode (decode) each data.
  • the caption generation unit 124 decodes the caption data and outputs the decoded caption data to the display data generation unit 127.
  • the video generation unit 125 decodes the video data and outputs the decoded video data to the display data generation unit 127.
  • the audio generation unit 126 is an audio decoder, and outputs the decoded audio data to the speaker 106.
  • step S86 the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the display unit 105.
  • step S87 the display unit 105 outputs an image corresponding to the display data from the display data generation unit 127.
  • the speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.
  • step S82 in FIG. 20 will be described with reference to the flowcharts in FIGS.
  • step S101 the control unit 102 parses the MPD in the memory 103 and reads the HDR parameter.
  • step S102 the control unit 102 determines whether or not all AdaptationSets have been checked. If it is determined that they have been checked, the control unit 102 proceeds to step S103. In step S103, the control unit 102 selects Representation of the recorded id, and the selection process ends.
  • step S104 the control unit 102 checks the contents of the unchecked AdaptationSet.
  • step S105 the control unit 102 determines whether or not all representations have been checked. If it is determined in step S105 that all representations have been checked, the process returns to step S102, and the subsequent processes are repeated.
  • step S105 If it is determined in step S105 that not all representations have been checked, the process proceeds to step S106.
  • step S106 the control unit 102 determines whether or not the EOTF can be displayed.
  • step S106 If it is determined in step S106 that EOTF can be displayed, the process proceeds to step S107.
  • step S107 the control unit 102 determines whether the HDRProfile can be displayed. If it is determined in step S107 that the HDRProfile can be displayed, the process proceeds to step S108.
  • step S106 If it is determined in step S106 that the EOTF is not displayable, or if it is determined in step S107 that the HDRProfile is not displayable, the process returns to step S105, and the subsequent processes are repeated.
  • step S108 the control unit 102 determines whether or not the Representation id is already recorded in the memory 103. If it is determined in step S108 that Representation id is not recorded in the memory 103, the process proceeds to step S109. In step S ⁇ b> 109, the control unit 102 records Representation id in the memory 103. If it is determined in step S108 that Representation id is recorded in the memory 103, step S109 is skipped.
  • step S109 the process proceeds to step S110 in FIG.
  • step S ⁇ b> 110 the control unit 102 determines whether Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105. If it is determined in step S110 that Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105, the process proceeds to step S111.
  • step S111 the control unit 102 determines whether or not MAX FALL (average) is within the display range of the display unit 105, and determines that MAX ⁇ FALL (average) is within the display range of the display unit 105.
  • the process proceeds to step S112.
  • step S ⁇ b> 112 the control unit 102 determines whether or not MAXLLCLL (maximum) is within the display range of the display unit 105, and determines that MAXLLCLL (maximum) is within the display range of the display unit 105.
  • step S113 proceeds to step S113.
  • step S113 the control unit 102 determines whether or not Display ⁇ primaries is within the display range of the display unit 105. If the control unit 102 determines that Display primaries is within the display range of the display unit 105, the process is as follows. Proceed to step S114.
  • step S114 the control unit 102 determines whether White space is closer to the device itself than the currently recorded Representation, and determines that White space is closer to the device itself than the currently recorded Representation. Advances to step S115.
  • step S115 the control unit 102 records the Representation ID determined to be close to the device itself in the memory 103, the process returns to step S105, and the subsequent processes are repeated.
  • step S110 if it is determined in step S110 that Max display mastaering luminance and Min display mastaering luminance are not within the display range of the display unit 105, the subsequent processing is skipped, and the processing returns to step S105 and thereafter. The process is repeated.
  • step S111 When it is determined in step S111 that MAX FALL (average) is not within the display range of display unit 105, or in step S112, it is determined that MAX CLL (maximum) is not within the display range of display unit 105. In this case, the subsequent processing is skipped, the processing returns to step S105, and the subsequent processing is repeated.
  • step S113 If it is determined in step S113 that Display primaries are not within the display range of display unit 105, or if it is determined in step S114 that White space is not closer to the device itself than the currently recorded representation.
  • the subsequent processing is skipped, the processing returns to step S105, and the subsequent processing is repeated.
  • the optimum HDR content for the display range of the display unit 105 is selected.
  • Step S103 Even if all the AdaptationSet checks are completed, if Representation id is not recorded in Step S103 (that is, there is no selectable content), the display unit 105 displays that there is no selectable content. You may be made to do.
  • FIG. 23 is a block diagram illustrating a second configuration example of the video playback terminal 14 of FIG. 23 is common to the video playback terminal 14 in FIG. 19 in that the video playback terminal 14 in FIG. 23 includes an input unit 101, a control unit 102, a memory 103, a playback unit 104, a display unit 105, and a speaker 106. .
  • the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the luminance compression unit 151.
  • the luminance compression unit 151 does not display Max display mastaering luminance and Min display mastaering luminance within the display range of the display unit 105, but MAX FALL (average) is the display range of the display unit 105. If MAX CLL (maximum) is not within the display range of the display unit 105, the possibility of exceeding the display capability of the display unit 105 appears. Therefore, the luminance is compressed.
  • a compression method for example, there is a method in which brightness that can be displayed on the display unit 105 is assigned to MAXCLL to compress luminance. Specifically, when a display with a maximum brightness of 500 nits displays content with MAXCLLnit1000 nits, the brightness of all pixels is compressed to half the brightness and the content is displayed.
  • the color space even if the content is created in a wider color gamut than the terminal (client) can display, the color in any space is acceptable if Display ⁇ ⁇ ⁇ ⁇ praimaries can be displayed by the client. No adjustment is made.
  • steps S141 to S146 in FIG. 24 perform basically the same processing as steps S81 to S86 in FIG. 20, and thus description thereof is omitted.
  • step S146 the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the luminance compression unit 151.
  • step S147 the luminance compression unit 151 performs luminance compression processing on the representation selected by the selection processing in step S142.
  • the details of the luminance compression processing in step S147 will be described later with reference to FIG. 25, but with this luminance compression processing, the luminance compression unit 151 outputs the display data subjected to the luminance compression processing to the display unit 105.
  • step S148 the display unit 105 outputs an image corresponding to the display data from the display data generation unit 127.
  • the speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.
  • step S151 the control unit 102 parses the MPD.
  • step S152 the control unit 102 selects one representation, that is, the representation selected in step S142 in FIG.
  • step S 153 the control unit 102 determines whether Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105. If it is determined in step S153 that Max display mastaering luminance and Min display mastaering luminance are not within the display range of the display unit 105, the process proceeds to step S154.
  • step S154 the control unit 102 determines whether or not MAX FALL (average) is within the display range of the display unit 105, and determines that MAXALLFALL (average) is not within the display range of the display unit 105.
  • step S155 the control unit 102 determines whether or not MAX ⁇ CLL (maximum) is within the display range of the display unit 105, and determines that MAX CLL (maximum) is not within the display range of the display unit 105.
  • step S156 the control unit 102 determines whether or not MAX FALL (average) is within the display range of the display unit 105, and determines that MAXALLFALL (average) is not within the display range of the display unit 105.
  • step S156 the luminance compression unit 151 compresses the luminance of the display data generated by the display data generation unit 127 under the control of the control unit 102.
  • the luminance compression unit 151 outputs the display data subjected to the luminance compression processing to the display unit 105.
  • step S153 when it is determined in step S153 that Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105, MAX FALL (average) is within the display range of the display unit 105 in step S154. If it is determined that there is, or if it is determined in step S155 that MAX CLL (maximum) is within the display range of the display unit 105, the subsequent processing is skipped, and the luminance compression processing in FIG.
  • the video playback terminal 14 includes a display device.
  • the present technology does not include a display device, that is, the video playback terminal 14 that includes an external display device. It can also be applied to.
  • FIG. 26 is a block diagram showing a third configuration example of the video playback terminal 14 of FIG. 26 is the same as the video playback terminal 14 in FIG. 19 in that the video playback terminal 14 in FIG. 26 includes an input unit 101, a memory 103, and a playback unit 104.
  • control unit 102 is replaced with the control unit 201
  • display unit 105 is replaced with the external display unit 202
  • speaker 106 is replaced with the external speaker 203. This is different from the video playback terminal 14 in FIG.
  • the video playback terminal 14 does not include a display unit and a speaker, and the display unit 202 and the speaker 203 are connected and externally connected according to the HDMI (registered trademark) 2.0a standard, for example, as indicated by a solid line. ing.
  • the control unit 201 acquires, for example, a data block called EDID defined in the CEA 861, and acquires the performance of the display unit 202, that is, information on what HDR parameters the display unit 202 can handle.
  • the control unit 201 parses the MPD, compares the HDR parameter described in the MPD with the performance of the display unit 202, and selects an optimum representation for the display unit 202.
  • the control unit 201 extracts the HDR parameter of the representation selected by the MPD, and describes the HDR parameter in a packet specified in the CEA 861, for example, and transmits it to the display unit 202.
  • step S201 the control unit 201 acquires, for example, a data block called EDID defined in the CEA 861, and acquires the performance of the display unit 202, that is, information on what HDR parameter the display unit 202 can handle.
  • EDID a data block defined in the CEA 861
  • step S202 the control unit 201 parses the MPD in the memory 103 and reads the HDR parameter.
  • step S203 the control unit 201 determines whether or not all AdaptationSets have been checked. If it is determined that they have been checked, the control unit 201 proceeds to step S204. In step S204, the control unit 102 selects Representation of the recorded id.
  • step S205 the control unit 201 sends the representation HDR parameter selected in step S204 to the display unit 202, and the selection process ends.
  • step S203 determines whether all AdaptationSets have been checked yet. If it is determined in step S203 that all AdaptationSets have not been checked yet, the process proceeds to step S206.
  • the subsequent steps S206 to S217 in FIG. 27 and FIG. 28 perform basically the same processing as steps S104 to S115 in FIG. 21 and FIG.
  • the client when HDR content is distributed by MPEG-DASH, the client can select content having the optimum brightness for himself and can display the HDR content appropriately.
  • the HDR content can be distributed by MPEG-DASH.
  • ⁇ Personal computer> The series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes a computer incorporated in dedicated hardware, a general-purpose personal computer capable of executing various functions by installing various programs, and the like.
  • FIG. 29 is a block diagram showing a hardware configuration example of a personal computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An input unit 906, an output unit 907, a storage unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
  • the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 907 includes a display, a speaker, and the like.
  • the storage unit 908 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 909 includes a network interface or the like.
  • the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads, for example, a program stored in the storage unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. Thereby, the series of processes described above are performed.
  • the program executed by the computer (CPU 901) can be provided by being recorded on the removable medium 911.
  • the removable media 911 is a package made of, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Disc Only), DVD (Digital Versatile Disc), etc.), a magneto-optical disc, or a semiconductor memory.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 908 via the input / output interface 905 by attaching the removable medium 911 to the drive 910.
  • the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the storage unit 908.
  • the program can be installed in the ROM 902 or the storage unit 908 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in a necessary stage such as in parallel or when a call is made. It may be a program for processing.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
  • system represents the entire apparatus composed of a plurality of devices (apparatuses).
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
  • a configuration other than that described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
  • An information processing apparatus comprising: a file generation unit that describes an HDR parameter that includes at least information about luminance of HDR (High Dynamic Range) content and generates a management file that is a file for managing an encoded stream of the HDR content .
  • a file generation unit that describes an HDR parameter that includes at least information about luminance of HDR (High Dynamic Range) content and generates a management file that is a file for managing an encoded stream of the HDR content .
  • the information regarding the luminance of the HDR content includes at least one of a table for converting light and an electrical signal, the maximum luminance included in the HDR content, and the average luminance of the HDR content. (1) or (2 ).
  • the information regarding the brightness of the HDR content includes an identifier when the table is the same but is a different application.
  • the display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.
  • Information processing device An information processing method for generating a management file, which is a file for managing an encoded stream of an HDR content, by describing an HDR parameter including at least information on brightness of HDR (High Dynamic Range) content.
  • An acquisition unit that describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content, and acquires a management file that is a file for managing the encoded stream of the HDR content;
  • An information processing apparatus comprising: a selection unit that selects HDR content corresponding to the display unit using the HDR parameter of the management file acquired by the acquisition unit.
  • the information regarding the brightness of the HDR content includes at least one of a table for converting light and an electrical signal, a maximum brightness included in the HDR content, and an average brightness of the HDR content. (8) or (9 ).
  • the information regarding the brightness of the HDR content includes an identifier when the table is the same but is a different application.
  • the information processing apparatus according to any one of (8) to (10) .
  • (12) The information processing apparatus according to any one of (8) to (11), wherein the HDR parameter includes display characteristic information used when the HDR content is created.
  • the display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.
  • the information processing apparatus according to (12).
  • the display unit is externally attached via a connection unit, A performance information acquisition unit for acquiring performance information of the display unit; A transmission unit that transmits an HDR parameter corresponding to the HDR content selected by the selection unit, and
  • the selection unit includes: The information processing apparatus according to any one of (8) to (13), wherein the HDR content corresponding to the display unit is selected using the performance information acquired by the performance information acquisition unit.
  • the information processing apparatus is An HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content is described, and a management file that is a file for managing the encoded stream of the HDR content is acquired, An information processing method for selecting an HDR content corresponding to a display unit using an HDR parameter of an acquired management file.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present disclosure relates to an information processing device and an information processing method that make it possible to appropriately display HDR content. HDR parameters comprising HDR content attributes and characteristic information of a display used at the time of content creation are described for each Adaptation Set, for example, of an MPD file. The HDR content attributes include, at least, the content EOTF, the maximum brightness included in the content, the average brightness of the content, and an identifier if the same EOTF but different application. The present disclosure can be applied to an information processing system that distributes video content, for example.

Description

情報処理装置および情報処理方法Information processing apparatus and information processing method

 本開示は、情報処理装置および情報処理方法に関し、特に、HDRコンテンツを適切に表示することができるようにした情報処理装置および情報処理方法に関する。 The present disclosure relates to an information processing device and an information processing method, and more particularly, to an information processing device and an information processing method capable of appropriately displaying HDR content.

 近年、インターネット上のストリーミングサービスの主流がOTT-V(Over The Top Video)となっている。この基盤技術として普及し始めているのがMPEG-DASH(Moving Picture Experts Group phase - Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。 In recent years, the mainstream streaming service on the Internet has become OTT-V (Over The Top Video). MPEG-DASH (Moving / Picture / Experts / Group / phase / Dynamic / Adaptive / Streaming / over / HTTP) is beginning to spread as the basic technology (for example, see Non-Patent Document 1).

 MPEG-DASHでは、配信サーバが1本の動画コンテンツ用にビットレートが異なる符号化ストリームを用意し、再生端末が最適なビットレートの符号化ストリームを要求することにより、適応型のストリーミング配信が実現される。MPEG-DASHにおいて、配信されるビデオ、オーディオの情報は、MPD(Media Presentation Description)ファイルに記載されており、端末は、サーバよりMPDファイルを取得し、記載されている情報をみることで、再生に最適な符号化ストリームがどれであるかを判定し、それを取得することができる。 In MPEG-DASH, the distribution server prepares an encoded stream with a different bit rate for a single video content, and the playback terminal requests an encoded stream with an optimal bit rate, thereby realizing adaptive streaming distribution. Is done. In MPEG-DASH, the video and audio information to be distributed is described in an MPD (Media Presentation Description) file, and the terminal acquires the MPD file from the server and plays it by looking at the described information. It is possible to determine which is the most suitable encoded stream and obtain it.

 一方、近年着目される画像表示技術に、HDR(High Dynamic Range)がある。色階調が従来のSDR(Standard Dynamic Range)より豊かに表現することができる。再生端末が有する表示部が表示可能な色階調は、表示部によって異なるため、MPEG-DASHにおいて、HDRコンテンツを配信しようとした場合、配信サーバには、複数の輝度のHDRコンテンツが用意される。 On the other hand, HDR (High Dynamic Range) is an image display technology that has been attracting attention in recent years. Color gradation can be expressed more richly than conventional SDR (Standard Dynamic Range). Since the color gradation that can be displayed on the display unit of the playback terminal varies depending on the display unit, when trying to distribute the HDR content in MPEG-DASH, the distribution server prepares HDR content with a plurality of luminance levels. .

MPEG-DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam-1)MPEG-DASH (Dynamic-Adaptive-Streaming-over-HTTP) (URL: http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam -1)

 しかしながら、現在のMPDファイルには、HDRコンテンツに関する記述がなく、クライアントが自分に最適な輝度のHDRコンテンツがどれであるかを見わけることが困難であった。 However, there is no description about HDR contents in the current MPD file, and it is difficult for the client to determine which HDR content has the optimal brightness.

 本開示は、このような状況に鑑みてなされたものであり、HDRコンテンツを適切に表示することができるものである。 This disclosure has been made in view of such a situation, and can appropriately display HDR content.

 本技術の一側面の情報処理装置は、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成するファイル生成部を備える。 An information processing apparatus according to an aspect of the present technology describes an HDR parameter including at least information related to luminance of HDR (High Dynamic Range) content, and generates a management file that is a file for managing the encoded stream of the HDR content A file generation unit is provided.

 前記ファイル生成部は、前記管理ファイルのRepresentationまたはAdaptationSetに、前記HDRパラメータを記載することができる。 The file generation unit can describe the HDR parameter in Representation or AdaptationSet of the management file.

 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる。 The information relating to the brightness of the HDR content includes at least one of a table for converting light and electric signals, the maximum brightness included in the HDR content, and the average brightness of the HDR content.

 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている。 The information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.

 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている。 The HDR parameter includes display characteristic information used when creating the HDR content.

 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる。 The display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.

 本技術の一側面の情報処理方法は、情報処理装置が、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成する。 An information processing method according to an aspect of the present technology is a file in which an information processing device describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content Generate a management file.

 本技術の他の側面の情報処理装置は、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得する取得部と、前記取得部により取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する選択部とを備える。 An information processing apparatus according to another aspect of the present technology describes an HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content, and obtains a management file that is a file for managing the encoded stream of the HDR content And a selection unit that selects the HDR content corresponding to the display unit using the HDR parameter of the management file acquired by the acquisition unit.

 前記HDRパラメータは、前記管理ファイルのRepresentationまたはAdaptationSetに記載されている。 The HDR parameter is described in Representation or AdaptationSet of the management file.

 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる。 The information relating to the brightness of the HDR content includes at least one of a table for converting light and electric signals, the maximum brightness included in the HDR content, and the average brightness of the HDR content.

 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている。 The information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.

 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている。 The HDR parameter includes display characteristic information used when creating the HDR content.

 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる。 The display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display.

 前記HDRコンテンツの輝度が、前記表示部の表示範囲を超える場合、前記HDRコンテンツの輝度を圧縮する輝度圧縮部をさらに備えることができる。 A luminance compression unit that compresses the luminance of the HDR content when the luminance of the HDR content exceeds the display range of the display unit can be further provided.

 前記表示部をさらに備えることができる。 The display unit can be further provided.

 前記表示部は、接続部を介して、外付けられており、前記表示部の性能情報を取得する性能情報取得部と、前記選択部により選択されたHDRコンテンツに対応するHDRパラメータを送信する送信部とをさらに備え、前記選択部は、前記性能情報取得部により取得された性能情報を用いて、前記表示部に対応するHDRコンテンツを選択することができる。 The display unit is externally connected via a connection unit, and transmits a performance information acquisition unit that acquires performance information of the display unit and an HDR parameter corresponding to the HDR content selected by the selection unit And the selecting unit can select the HDR content corresponding to the display unit using the performance information acquired by the performance information acquiring unit.

 本技術の他の側面の情報処理方法は、情報処理装置が、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得し、取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する。 An information processing method according to another aspect of the present technology is a file in which an information processing apparatus describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content and manages an encoded stream of the HDR content. A certain management file is acquired, and the HDR content corresponding to the display unit is selected using the HDR parameter of the acquired management file.

 本技術の一側面においては、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータが記載されて、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルが生成される。 In one aspect of the present technology, an HDR parameter including at least information regarding luminance of HDR (High Dynamic Range) content is described, and a management file that is a file for managing the encoded stream of the HDR content is generated.

 本技術の他の側面においては、HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルが取得される。そして、取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツが選択される。 In another aspect of the present technology, a management file, which is a file for managing an encoded stream of the HDR content, is described by describing an HDR parameter including at least information on brightness of HDR (High Dynamic Range) content. Then, the HDR content corresponding to the display unit is selected using the HDR parameter of the acquired management file.

 本技術によれば、HDRコンテンツを適切に表示することができる。 According to this technology, HDR content can be displayed appropriately.

  なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。 Note that the effects described in the present specification are merely examples, and the effects of the present technology are not limited to the effects described in the present specification, and may have additional effects.

本開示を適用した情報処理システムの一実施の形態の構成例を示すブロック図である。It is a block diagram showing an example of composition of an embodiment of an information processing system to which this indication is applied. HDRとSDRにおけるコード値と表示輝度の例を示す図である。It is a figure which shows the example of the code value and display brightness | luminance in HDR and SDR. MPEG-DASHでHDRコンテンツを配信する場合の例を示す図である。It is a figure which shows the example in the case of delivering HDR content by MPEG-DASH. HDRパラメータの構成例を示す図である。It is a figure which shows the structural example of a HDR parameter. CIEの定める色空間における表示可能な色空間を示す図である。It is a figure which shows the color space which can be displayed in the color space which CIE defines. CIEの定める色空間における白(基準値)の例を示す図である。It is a figure which shows the example of white (reference value) in the color space which CIE defines. MPDにおけるHDRパラメータのXML記載の例を示す図である。It is a figure which shows the example of XML description of the HDR parameter in MPD. MPDにおけるHDRパラメータのXML記載の例を示す図である。It is a figure which shows the example of XML description of the HDR parameter in MPD. MPDにおけるHDRパラメータのXML記載の例を示す図である。It is a figure which shows the example of XML description of the HDR parameter in MPD. MPDにおけるHDRパラメータのXML記載の例を示す図である。It is a figure which shows the example of XML description of the HDR parameter in MPD. MPDへのHDRパラメータの記載例を示す図である。It is a figure which shows the example of description of the HDR parameter to MPD. MPDへのHDRパラメータの記載例を示す図である。It is a figure which shows the example of description of the HDR parameter to MPD. MPDへのHDRパラメータの記載例を示す図である。It is a figure which shows the example of description of the HDR parameter to MPD. MPDへのHDRパラメータの記載例を示す図である。It is a figure which shows the example of description of the HDR parameter to MPD. 図1のファイル生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the file generation apparatus of FIG. ファイル生成装置のコンテンツ生成処理を説明するフローチャートである。It is a flowchart explaining the content production | generation process of a file production | generation apparatus. ファイル生成装置のコンテンツ生成処理の他の例を説明するフローチャートである。It is a flowchart explaining the other example of the content production | generation process of a file production | generation apparatus. ファイル生成装置の機能を含む場合のWebサーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a Web server in case the function of a file generation apparatus is included. 動画再生端末の第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of a moving image reproduction terminal. 図19の動画再生端末の再生処理を説明するフローチャートである。FIG. 20 is a flowchart for describing playback processing of the video playback terminal of FIG. 19. FIG. 図20のステップS82の選択処理を説明するフローチャートである。It is a flowchart explaining the selection process of step S82 of FIG. 図20のステップS82の選択処理を説明するフローチャートである。It is a flowchart explaining the selection process of step S82 of FIG. 動画再生端末の第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of a moving image reproduction terminal. 図23の動画再生端末の再生処理を説明するフローチャートである。It is a flowchart explaining the reproduction | regeneration processing of the moving image reproduction terminal of FIG. 図24のステップS147の輝度圧縮処理を説明するフローチャートである。It is a flowchart explaining the brightness | luminance compression process of step S147 of FIG. 動画再生端末の第3の構成例を示すブロック図である。It is a block diagram which shows the 3rd structural example of a moving image reproduction terminal. 図26の動画再生端末による図20のステップS82の選択処理の他の例を説明するフローチャートである。27 is a flowchart for explaining another example of the selection process in step S82 in FIG. 20 by the moving image reproduction terminal in FIG. 図26の動画再生端末による図20のステップS82の選択処理の他の例を説明するフローチャートである。27 is a flowchart for explaining another example of the selection process in step S82 in FIG. 20 by the moving image reproduction terminal in FIG. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1実施の形態:情報処理システム(図1乃至図28)
 2.第2実施の形態:コンピュータ(図29)
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment: Information processing system (FIGS. 1 to 28)
2. Second Embodiment: Computer (FIG. 29)

 <第1実施の形態>
 (情報処理システムの一実施の形態の構成例)
 図1は、本開示を適用した情報処理システムの一実施の形態の構成例を示すブロック図である。
<First embodiment>
(Configuration example of one embodiment of information processing system)
FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an information processing system to which the present disclosure is applied.

 図1の情報処理システム10は、ファイル生成装置11と接続されるWebサーバ12と動画再生端末14が、インターネット13を介して接続されることにより構成される。 The information processing system 10 in FIG. 1 is configured by connecting a Web server 12 connected to a file generation device 11 and a moving image playback terminal 14 via the Internet 13.

 情報処理システム10では、MPEG-DASHに準ずる方式で、Webサーバ12が、HDR(High Dynamic Range)画像の動画コンテンツ(以下、HDRコンテンツとも称する)の符号化ストリームを、動画再生端末14に配信する。 In the information processing system 10, the Web server 12 distributes an encoded stream of HDR (High Dynamic Range) image moving image content (hereinafter also referred to as HDR content) to the moving image playback terminal 14 in a method in accordance with MPEG-DASH. .

 情報処理システム10のファイル生成装置11は、複数の符号化速度(ビットレート)で画像を符号化し、符号化ストリームを生成する。ファイル生成装置11は、セグメントと呼ばれる数秒から10秒程度の時間単位ごとに、各符号化速度の符号化ストリームをファイル化し、画像ファイル(例えばMP4ファイル)を生成する。 The file generation device 11 of the information processing system 10 encodes an image at a plurality of encoding speeds (bit rates) to generate an encoded stream. The file generation device 11 generates an image file (for example, an MP4 file) by converting an encoded stream of each encoding speed into a file for each time unit of about several seconds to about 10 seconds called a segment.

 また、ファイル生成装置11は、光と電気信号(すなわち、輝度を含む)を変換するテーブルであるEOTF(Electro-Ortical Transfer Function)および表示輝度などの異なる複数種類のHDR画像を符号化し、符号化ストリームを生成する。ファイル生成装置11は、セグメントと呼ばれる数秒から10秒程度の時間単位ごとに、各種類の符号化ストリームをファイル化し、画像ファイルを生成し、記録媒体に記録する。ファイル生成装置11は、記録された記録媒体を介して、あるいは、アップロードすることにより、生成された画像ファイルをWebサーバ12に供給する。 The file generation device 11 encodes and encodes a plurality of different types of HDR images such as EOTF (Electro-Ortical Transfer Function), which is a table for converting light and electrical signals (that is, including luminance) and display luminance. Create a stream. The file generation device 11 converts each type of encoded stream into a file for each time unit of about several seconds to about 10 seconds called a segment, generates an image file, and records it on a recording medium. The file generation device 11 supplies the generated image file to the Web server 12 through a recorded recording medium or by uploading.

 また、ファイル生成装置11(設定部)は、画像ファイル等を管理するMPDファイル(管理ファイル)を生成し、記録媒体に記録する。ファイル生成装置11は、記録された記録媒体を介して、あるいは、アップロードすることにより、MPDファイルをWebサーバ12に供給する。 Further, the file generation device 11 (setting unit) generates an MPD file (management file) for managing image files and the like and records them on a recording medium. The file generation device 11 supplies the MPD file to the Web server 12 through a recorded recording medium or by uploading.

 Webサーバ12は、ファイル生成装置11から供給された画像ファイルとMPDファイルを格納する。Webサーバ12は、動画再生端末14からの要求に応じて、格納している画像ファイル、MPDファイル等を動画再生端末14に送信する。 The Web server 12 stores the image file and the MPD file supplied from the file generation device 11. The web server 12 transmits the stored image file, MPD file, and the like to the video playback terminal 14 in response to a request from the video playback terminal 14.

 動画再生端末14は、ストリーミングデータの制御用ソフトウエア(以下、制御用ソフトウエアという)21、動画再生ソフトウエア22、HTTP(HyperText Transfer Protocol)アクセス用のクライアント・ソフトウエア(以下、アクセス用ソフトウエアという)23などを実行する。 The video playback terminal 14 includes streaming data control software (hereinafter referred to as control software) 21, video playback software 22, and client software (hereinafter referred to as access software) for HTTP (HyperText Transfer Protocol) access. 23) is executed.

 制御用ソフトウエア21は、Webサーバ12からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア21は、動画再生端末14にWebサーバ12からMPDファイルを取得させる。 The control software 21 is software that controls data streamed from the Web server 12. Specifically, the control software 21 causes the video playback terminal 14 to acquire an MPD file from the Web server 12.

 また、制御用ソフトウエア21は、MPDファイルに基づいて、動画再生ソフトウエア22により指定される再生対象の符号化ストリームの送信要求を、アクセス用ソフトウエア23に指令する。 Further, the control software 21 instructs the access software 23 to transmit a coded stream to be played, which is designated by the moving picture playing software 22, based on the MPD file.

 動画再生ソフトウエア22は、Webサーバ12から取得された符号化ストリームを再生するソフトウエアである。具体的には、動画再生ソフトウエア22は、再生対象の符号化ストリームを制御用ソフトウエア21に指定する。また、動画再生ソフトウエア22は、アクセス用ソフトウエア23から受信開始の通知を受信したとき、動画再生端末14により受信された符号化ストリームを復号する。動画再生ソフトウエア22は、復号の結果得られる画像データを必要に応じて合成し、出力する。 The moving image reproduction software 22 is software for reproducing the encoded stream acquired from the Web server 12. Specifically, the moving image playback software 22 designates the encoded stream to be played back to the control software 21. Also, the moving image playback software 22 decodes the encoded stream received by the moving image playback terminal 14 when receiving a notification of reception start from the access software 23. The moving image reproduction software 22 synthesizes the image data obtained as a result of the decoding as necessary and outputs it.

 アクセス用ソフトウエア23は、HTTPを用いたインターネット13を介したWebサーバ12との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア23は、制御用ソフトウエア21の指令に応じて、画像ファイルに含まれる再生対象の符号化ストリームの送信要求を、動画再生端末14に送信させる。また、アクセス用ソフトウエア23は、その送信要求に応じて、Webサーバ12から送信されてくる符号化ストリームの受信を動画再生端末14に開始させ、受信開始の通知を動画再生ソフトウエア22に供給する。 The access software 23 is software that controls communication with the Web server 12 via the Internet 13 using HTTP. Specifically, the access software 23 causes the moving image playback terminal 14 to transmit a transmission request for the encoded stream to be played back included in the image file in response to a command from the control software 21. In response to the transmission request, the access software 23 causes the video playback terminal 14 to start receiving the encoded stream transmitted from the Web server 12 and supplies the video playback software 22 with a reception start notification. To do.

 (HDRコンテンツの説明)
 HDRは、近年注目される画像表示技術であり、色階調が従来のSDR(Standard Dynamic Range)より豊かに表現することができる。
(Description of HDR content)
HDR is an image display technology that has attracted attention in recent years, and color gradation can be expressed richer than conventional SDR (Standard Dynamic Range).

 光信号と電気信号の変換テーブルを、OETF(Ortical-Electro Transfer Function)またはEOTFとよぶ。SDRにおいては、ITU BT1886に定義のEOTF/OETFが使用されていた。HDRにおいては、例えば、SMPTE2084で定められているEOTFが用いられている。 The optical signal / electrical signal conversion table is called OETF (Ortical-Electron Transfer Function) or EOTF. In SDR, EOTF / OETF defined in ITU BT1886 was used. In HDR, for example, EOTF defined in SMPTE2084 is used.

 図2は、HDRとSDRにおけるコード値と表示輝度の例を示す図である。 FIG. 2 is a diagram showing examples of code values and display brightness in HDR and SDR.

 ここで、HDRだろうとSDRだろうとどちらにしても値は、RGB*bitで表わされる。例えば、10bitならば、それぞれのピクセルはR=0乃至1023,G=0乃至1023,B=0乃至1023となるが、それぞれの意味する輝度が、図2に示されるように、HDRとSDRでは異なってくる。 Here, the value is expressed in RGB * bit regardless of whether it is HDR or SDR. For example, in the case of 10 bits, each pixel is R = 0 to 1023, G = 0 to 1023, B = 0 to 1023, and the meaning of each luminance is HDR and SDR as shown in FIG. Come different.

 例えば、SDRは、0乃至120cd/m2の表示輝度があり、HDRは、0乃至10000cd/m2の表示輝度があり、表示輝度の範囲が全く異なっている。 For example, SDR has a display brightness of 0 to 120 cd / m 2 , HDR has a display brightness of 0 to 10000 cd / m 2 , and the display brightness range is completely different.

 次に、図3を参照して、MPEG-DASHでHDRコンテンツを配信する際、サーバ12にはさまざまなクライアントが対応できるように表示輝度の異なる複数種類のHDRコンテンツが格納されている。 Next, referring to FIG. 3, when distributing HDR contents by MPEG-DASH, the server 12 stores a plurality of types of HDR contents having different display luminances so that various clients can cope.

 例えば、図3のWebサーバ12には、SMPTE2084で最大輝度が400nitで、平均80nitsのHDRコンテンツと、BT1886で最大輝度が100nitで、平均30nitsのHDRコンテンツと、SMPTE2084で最大輝度が1000nitで平均400nitsのHDRコンテンツが格納されている。 For example, the web server 12 in FIG. 3 includes SMPTE2084 with a maximum brightness of 400 nits, an average of 80 nits HDR content, BT1886 with a maximum brightness of 100 nits, an average of 30 nits HDR content, and SMPTE2084 with a maximum brightness of 1000 nits and an average of 400 nits HDR content is stored.

 しかしながら、現在のMPDファイルには、HDRコンテンツに関する記述がなく、クライアント(動画再生端末14)が自分に最適な輝度のHDRコンテンツがどれであるかを見わけることが困難であった。 However, in the current MPD file, there is no description about the HDR content, and it is difficult for the client (video playback terminal 14) to determine which HDR content has the optimum brightness.

 例えば、動画再生端末14-1の表示部は、SMPTE2084で最大500nitの表示が可能である。動画再生端末14-2の表示部は、BT1886で最大300nitの表示が可能である。動画再生端末14-3の表示部は、SMPTE2084で最大1000nitの表示が可能である。しかしながら、どの動画再生端末14-1乃至14-3も、サーバ12に格納されているどのHDRコンテンツが自分に最適か、あるいは、自分で再生可能であるか見分けられなかった。 For example, the display unit of the video playback terminal 14-1 can display up to 500 nits with SMPTE2084. The display unit of the video playback terminal 14-2 can display a maximum of 300 nits using BT1886. The display unit of the video playback terminal 14-3 can display a maximum of 1000 nits using SMPTE2084. However, none of the moving image playback terminals 14-1 to 14-3 can determine which HDR content stored in the server 12 is optimal for itself or can be played back by itself.

 そこで、本技術においては、図4に示されるHDRパラメータをMPDファイルに追加し、判定に使用するようにする。HDRパラメータは、コンテンツの属性のパラメータとどんなディスプレイを使用してコンテンツを作ったかを示すパラメータを含むように構成される。 Therefore, in this technology, the HDR parameter shown in FIG. 4 is added to the MPD file and used for determination. The HDR parameters are configured to include parameters for content attributes and parameters indicating what display was used to create the content.

 コンテンツの属性は、
・EOTF  ・・・該コンテンツのEOTF
・MAX CLL・・・コンテンツに含まれる最大の輝度
・MAX FALL・・・コンテンツの平均輝度
・HDR Profile・・・同じEOTFであるが、異なるアプリケーションだった場合の識別子
 からなる。
Content attributes are:
・ EOTF: EOTF of the content
・ MAX CLL ・ ・ ・ Maximum brightness included in content ・ MAX FALL ・ ・ ・ Average brightness of content ・ HDR Profile ・ ・ ・ It consists of identifiers for the same EOTF but different applications.

 なお、コンテンツの属性のうち、EOTF,MAX CLL,MAX FALLは、SMPTE2086に規定のメタデータである。 Of the content attributes, EOTF, MAX CLL, MAX FALL are metadata specified in SMPTE2086.

 コンテンツ作成時に使用したディスプレイの特性情報は、
・for(i=0;i<3;i++){
 Display primaries[x]  ・・・コンテンツ作成時のディスプレイが表示できるCIE色空間のx値(座標)
 Display primaries[y]  ・・・コンテンツ作成時のディスプレイが表示できるCIE色空間のy値(座標)

・White Point[x] ・・・コンテンツ作成時のディスプレイのCIE色空間上のWhite Pointのx値(座標)
・White Point[y]  ・・・コンテンツ作成時のディスプレイのCIE色空間上のWhite Pointのy値(座標)
・Max display mastering luminance コンテンツ作成時のディスプレイの最大輝度
・Min display mastering luminance  コンテンツ作成時のディスプレイの最小輝度
からなる。
The display characteristic information used when creating the content is
・ For (i = 0; i <3; i ++) {
Display primaries [x] ... x value (coordinates) of CIE color space that can be displayed on the display when content is created
Display primaries [y] ... y value (coordinates) of the CIE color space that can be displayed on the display when content is created
}
・ White Point [x] ... White Point x value (coordinates) on the CIE color space of the display when creating the content
・ White Point [y] ... White Point y value (coordinates) on the CIE color space of the display at the time of content creation
・ Max display mastering luminance The maximum brightness of the display when creating content ・ Min display mastering luminance The minimum display brightness when creating content.

 Display primariesは、あるディスプレイが表示可能な色空間を示すものであり、これをMPDファイルに記載することで、どんなディスプレイを見て作ったコンテンツであるのかを判断することができる。図5に示されるように、CIEの定める色空間の中の三角形の内側の色であれば表現できるディスプレイであると判断することができる。 “Display primaries” indicates the color space that can be displayed by a certain display, and by describing this in the MPD file, it is possible to determine what kind of display the content is created by viewing. As shown in FIG. 5, it can be determined that the display can be expressed as long as the color is inside the triangle in the color space defined by the CIE.

 White pointは、あるディスプレイは、どこが白(色基準値)と表現されるように設計されたかを表す。図6に示されるように、CIEの定める色空間のどこを白(基準値)と考えて設計されたディスプレイであると判断することができる。 White point indicates where a certain display is designed to be expressed as white (color reference value). As shown in FIG. 6, it can be determined that the display is designed considering white (reference value) in the color space defined by the CIE.

 以上のHDRパラメータを設けることにより、最大最小がわかれば、もしディスプレイ(表示部)自身がコンテンツより高い輝度を出せるなら輝度圧縮しない、または、コンテンツの輝度が高ければ圧縮するなど、自身の最高輝度に、コンテンツの最高輝度をマッピングして圧縮するなどの改善を図ることができる。 By providing the above HDR parameters, if the maximum and minimum values are known, if the display (display unit) itself can produce a higher luminance than the content, the luminance will not be compressed, or if the content is high, the highest luminance will be compressed. In addition, it is possible to improve by mapping and compressing the highest luminance of the content.

 また、色の再現についてもコンテンツ作成(制作)時の基準白に合わせることができたり、自分が再現できる色域かどうかを判定することができるなどに用いることができる。 Also, color reproduction can be used to match the reference white at the time of content creation (production), or to determine whether the color gamut can be reproduced by yourself.

 次に、図7乃至図10を参照して、HDRパラメータのMPDファイルに記載するためのXML記載方法について説明する。なお、図7乃至図10の例においては、AdaptationSetに記載する例を説明するが、Representationに記載するようにしてもよい。 Next, with reference to FIG. 7 to FIG. 10, an XML description method for description in the MPD file of the HDR parameter will be described. In the example of FIGS. 7 to 10, an example described in AdaptationSet will be described, but it may be described in Representation.

 図7は、Videoのframerateやresolution同様に、HDRパラメータを、XMLでAdaptationSetに直接記載した例を示す図である。図7の例においては、<AdaptationSet>の中に、例えば、以下のHDRパラメータが記載される。

<AdaptationSet
 EOTF=”BT1886”
  HDRProfile=”HDR10”
 displayPrimariesX1=”0.123”
 displayPrimariesY1=”0.553”
  …
 displayPrimariesX3=”0.844”
 displayPrimariesY3=”0.992”
 whitePointX=”0.45”
 whitePointY=”0.41”
 maxDisplayMasteringLuminance=”4000”
 maxDisplayMasteringLuminance=”50”
 MAXCLL=”1000”
 MAXFLL=”139”
>

</AdaptationSet>
FIG. 7 is a diagram illustrating an example in which HDR parameters are directly described in the AdaptationSet in XML, similar to the frame rate and resolution of Video. In the example of FIG. 7, for example, the following HDR parameters are described in <AdaptationSet>.

<AdaptationSet
EOTF = ”BT1886”
HDRProfile = ”HDR10”
displayPrimariesX1 = ”0.123”
displayPrimariesY1 = ”0.553”
...
displayPrimariesX3 = ”0.844”
displayPrimariesY3 = ”0.992”
whitePointX = ”0.45”
whitePointY = ”0.41”
maxDisplayMasteringLuminance = ”4000”
maxDisplayMasteringLuminance = ”50”
MAXCLL = ”1000”
MAXFLL = ”139”
>
...
</ AdaptationSet>

 なお、図7の例においては、XMLのElementとして記載されているが、図8に示されるように、XMLのAttributeとして記載しても、形式は特に限定されない。 In the example of FIG. 7, although described as an XML element, as shown in FIG. 8, the format is not particularly limited even if described as an XML attribute.

 <AdaptationSet>
  <MasterimgDisplayColorVolume EOTE=”BT1886” HDRProfile=”HDR10”>
   <DisplayPrimaries1 x=”0.123”y=”0.533”/>
   <DisplayPrimaries2 x=”0.223”y=”0.466”/>
   <DisplayPrimaries3 x=”0.844”y=”0.992”/>
   <WhitePoint x=”0.45”y=”0.41”/>
   <DisplayMasteringLumminance max=”4000”,min=”50”/>
   <ContentHDRProperty MAXCLL=”1000”,MAXFLL=”139”/>
  </MasterimgDisplayColorVolume>
 </AdaptationSet>
<AdaptationSet>
<MasterimgDisplayColorVolume EOTE = ”BT1886” HDRProfile = ”HDR10”>
<DisplayPrimaries1 x = ”0.123” y = ”0.533” />
<DisplayPrimaries2 x = ”0.223” y = ”0.466” />
<DisplayPrimaries3 x = ”0.844” y = ”0.992” />
<WhitePoint x = ”0.45” y = ”0.41” />
<DisplayMasteringLumminance max = ”4000”, min = ”50” />
<ContentHDRProperty MAXCLL = ”1000”, MAXFLL = ”139” />
</ MasterimgDisplayColorVolume>
</ AdaptationSet>

 図9は、Property Descriptionで、URLを参照するという間接記載した例を示す図である。
 <AdaptationSet>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp*TransferCharacteristics”value=”16”/>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp*HDRProfile”value=”HDR10”/>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp*displayPrimaries”value=”0.123”/>
  …
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp*whitPointX”value=”0.45”/>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp*whitPointY”value=”0.41”/>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp* DisplayMasteringLumminance”value=”4000”/>
  …
   </AdaptationSet>
FIG. 9 is a diagram illustrating an indirect description example in which a URL is referred to in Property Description.
<AdaptationSet>
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * TransferCharacteristics” value = ”16” />
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * HDRProfile” value = ”HDR10” />
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * displayPrimaries” value = ”0.123” />
...
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * whitPointX” value = ”0.45” />
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * whitPointY” value = ”0.41” />
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp * DisplayMasteringLumminance” value = ”4000” />
...
</ AdaptationSet>

 図10に示されるように、SupplementalProperityの中にelementを作るようにしてもよい。
 <AdaptationSet>
  <SupplementalProperty chemeIdUri=”urn:mpeg:mpegB:cicp:HDRProperties”value=”0”/>
  <MasteringDisplayColorVolume EOTF = “BT1886”HDRProfile=” HDR10”>
   <DisplayPrimaries1 x=”0.123”y=”0.533”/>
   <DisplayPrimaries2 x=”0.223”y=”0.466”/>
   <DisplayPrimaries3 x=”0.844”y=”0.992”/>
   <WhitePoint x=”0.45”y=”0.41”/>
   <DisplayMasteringLumminance max=”4000”,min=”50”/>
   <ContentHDRProperty MAXCLL=”1000”,MAXFLL=”139”/>
  </MasterimgDisplayColorVolume>
  </SupplementalProperty>
   </AdaptationSet>
As shown in FIG. 10, an element may be created in SupplementalProperity.
<AdaptationSet>
<SupplementalProperty chemeIdUri = ”urn: mpeg: mpegB: cicp: HDRProperties” value = ”0” />
<MasteringDisplayColorVolume EOTF = “BT1886” HDRProfile = ”HDR10”>
<DisplayPrimaries1 x = ”0.123” y = ”0.533” />
<DisplayPrimaries2 x = ”0.223” y = ”0.466” />
<DisplayPrimaries3 x = ”0.844” y = ”0.992” />
<WhitePoint x = ”0.45” y = ”0.41” />
<DisplayMasteringLumminance max = ”4000”, min = ”50” />
<ContentHDRProperty MAXCLL = ”1000”, MAXFLL = ”139” />
</ MasterimgDisplayColorVolume>
</ SupplementalProperty>
</ AdaptationSet>

 図11乃至図14は、図7乃至図10を参照して上述したXML記載のHDRパラメータのMPDファイルへの記載方法の例を示す図である。HDRパラメータは、図11に示されるように、図7のXML記載で、AdaptionSet毎に記載されるようにしてもよい。また、HDRパラメータは、図12に示されるように、Representationに、図8のXML記載で記載されるようにしてもよい。また、最終的にRepresentationが特定できれば、どの位置でもよい。 FIGS. 11 to 14 are diagrams showing an example of a method for describing the HDR parameters described in XML described above with reference to FIGS. 7 to 10 in the MPD file. As shown in FIG. 11, the HDR parameter may be described for each AdaptationSet in the XML description of FIG. Further, as shown in FIG. 12, the HDR parameter may be described in the representation in the XML description of FIG. Further, any position may be used as long as the representation can be finally identified.

 また、図13に示されるように、HDRパラメータは、<AdaptationSet>において、Property DescriptionでURLを参照するという間接的に記載した図9のXML記載で記載されるようにしてもよい。さらに、図14に示されるように、HDRパラメータは、<Representation>において、Property DescriptionでURLを参照するという間接的に記載した図9のXML記載で記載されるようにしてもよい。 Further, as shown in FIG. 13, the HDR parameter may be described in the XML description of FIG. 9 that is indirectly described by referring to the URL by Property Description in <AdaptationSet>. Furthermore, as shown in FIG. 14, the HDR parameter may be described in the XML description of FIG. 9 that is indirectly described by referring to the URL in Property Description in <Representation>.

 さらに、図示しないが、HDRパラメータは、図8、図10のXML記載を、AdaptionSet毎に記載されるようにしてもよいし、図7、図10のXML記載で、Representationに記載されるようにしてもよい。すなわち、HDRパラメータは、図7乃至図10のXML記載のいずれかで、AdaptionSetまたはRepresentationに記載されればよい。 Further, although not shown, the HDR parameter may be described in the XML description of FIGS. 8 and 10 for each AdaptationSet, or may be described in the Representation in the XML description of FIGS. 7 and 10. May be. That is, the HDR parameter may be described in the AdaptationSet or Representation in any of the XML descriptions in FIGS.

 (ファイル生成装置の構成例)
 図15は、図1のファイル生成装置の構成例を示すブロック図である。
(Configuration example of file generator)
FIG. 15 is a block diagram illustrating a configuration example of the file generation device in FIG.

 図15の例において、ファイル生成装置11は、入力部51、制御部52、ドライブ53、メモリ54、多重化部55、記録部56-1および56-2、並びに、記録部57-1および57-2を含むように構成されている。 In the example of FIG. 15, the file generation device 11 includes an input unit 51, a control unit 52, a drive 53, a memory 54, a multiplexing unit 55, recording units 56-1 and 56-2, and recording units 57-1 and 57. -2 is included.

 入力部51は、ユーザの操作に対応する情報を受け付け、制御部52に供給する。制御部52は、入力部51からの情報に応じた動作を行うプログラムであり、ファイル生成装置11の各部を制御し、ファイルを生成するとき、ファイル生成部として機能する。ドライブ53は、例えば、ハードディスクなどを接続するポートであり、記録部56-1および56-2、並びに記録部57-1および57-2と、制御部52とを接続する。メモリ54は、一時的にデータを保存する。 The input unit 51 receives information corresponding to a user operation and supplies it to the control unit 52. The control unit 52 is a program that performs an operation according to information from the input unit 51, and functions as a file generation unit when controlling each unit of the file generation device 11 and generating a file. The drive 53 is, for example, a port for connecting a hard disk or the like, and connects the recording units 56-1 and 56-2, the recording units 57-1 and 57-2, and the control unit 52. The memory 54 temporarily stores data.

 多重化部55は、字幕読み出し部71、ビデオ読み出し部72、オーディオ読み出し部73、およびMUX74から構成され、記録部56-1または56-2から、ビデオ、オーディオ、字幕を読み出して、多重化を行う。多重化されたデータは、制御部52を介して、記録部57-1または57-2に記録される。 The multiplexing unit 55 includes a subtitle reading unit 71, a video reading unit 72, an audio reading unit 73, and a MUX 74. The multiplexing unit 55 reads video, audio, and subtitles from the recording unit 56-1 or 56-2 and multiplexes them. Do. The multiplexed data is recorded in the recording unit 57-1 or 57-2 via the control unit 52.

 字幕読み出し部71は、記録部56-1または56-2から、字幕データを読み出し、MUX74に供給する。ビデオ読み出し部72は、記録部56-1または56-2から、ビデオデータを読み出し、MUX74に供給する。オーディオ読み出し部73は、記録部56-1または56-2から、オーディオデータを読み出し、MUX74に供給する。 The subtitle reading unit 71 reads subtitle data from the recording unit 56-1 or 56-2 and supplies it to the MUX 74. The video reading unit 72 reads the video data from the recording unit 56-1 or 56-2 and supplies the video data to the MUX 74. The audio reading unit 73 reads audio data from the recording unit 56-1 or 56-2 and supplies the audio data to the MUX 74.

 MUX74は、字幕データ、ビデオデータ、およびオーディオデータを、例えば、MP4ファイルに多重化する。 The MUX 74 multiplexes subtitle data, video data, and audio data into, for example, an MP4 file.

 記録部56-1および56-2は、例えば、ハードディスクなどの記録媒体であり、ビデオ、オーディオ、字幕、それぞれ多重化前のデータを記録する。なお、記録部56-1は、ファイル生成装置11に内蔵されており、記録部56-2は、ファイル生成装置11に外付けされている。記録部56-1および56-2は、2つある必要はなく、少なくともどちらか一方があればよく、特に区別する必要がない場合、記録部56と称する。 The recording units 56-1 and 56-2 are, for example, recording media such as a hard disk, and record video, audio, and subtitle data before multiplexing. Note that the recording unit 56-1 is built in the file generation device 11, and the recording unit 56-2 is externally attached to the file generation device 11. The recording units 56-1 and 56-2 do not need to be two, and it is sufficient that at least one of them is present.

 記録部57-1および57-2は、ハードディスクなどの記録媒体であり、ビデオデータ、オーディオデータ、字幕データが多重化されている多重化後のデータを記録する。なお、記録部57-1は、ファイル生成装置11に内蔵されており、記録部57-2は、ファイル生成装置11に外付けされている。記録部57-1および57-2は、2つある必要はなく、少なくともどちらか一方があればよく、特に区別する必要がない場合、記録部57と称する。 Recording units 57-1 and 57-2 are recording media such as hard disks, and record multiplexed data in which video data, audio data, and caption data are multiplexed. Note that the recording unit 57-1 is built in the file generation device 11, and the recording unit 57-2 is externally attached to the file generation device 11. The recording units 57-1 and 57-2 do not need to be two, and at least one of them is sufficient, and when there is no need to distinguish between them, they are referred to as the recording unit 57.

 (ファイル生成装置の処理例)
 次に、図16のフローチャートを参照して、ファイル生成装置11のコンテンツ生成処理を説明する。
(Processing example of file generator)
Next, content generation processing of the file generation device 11 will be described with reference to the flowchart of FIG.

 ステップS11において、制御部52は、コンテンツ作成のため、記録部56に多重化前のデータ(ビデオ、オーディオ、字幕)を記録する。なお、データが予め記録されている場合は、ステップS11はスキップされる。 In step S11, the control unit 52 records pre-multiplexed data (video, audio, subtitles) in the recording unit 56 for content creation. If data is recorded in advance, step S11 is skipped.

 ステップS12において、制御部52は、多重化部55を制御し、記録部56から、データ(ビデオ、オーディオ、字幕)を読み出し、多重化を行い、多重化ファイル(例えば、MP4ファイル)を生成する。 In step S12, the control unit 52 controls the multiplexing unit 55, reads data (video, audio, subtitle) from the recording unit 56, performs multiplexing, and generates a multiplexed file (for example, an MP4 file). .

 ステップS13において、制御部52は、ビデオストリームの中に、Mastering Display Color Volume SEIが存在するか否かを判定する。ステップS13において、Mastering Display Color Volume SEIが存在すると判定された場合、処理は、ステップS14に進む。このMastering Display Color Volume SEIの中に、MPDに記載するHDRパラメータと同じ情報が含まれているためである。 In step S13, the control unit 52 determines whether or not Mastering Display Color Color Volume SEI is present in the video stream. If it is determined in step S13 that Mastering Display Color Volume SEI exists, the process proceeds to step S14. This is because the same information as the HDR parameter described in the MPD is included in the Mastering Display Color Volume SEI.

 ステップS14において、制御部52は、メモリ54に、Mastering Display Color Volume SEI内のHDRパラメータに必要な情報(EOTF,MAXFALL,MAXCLLや、コンテンツ作成時に使用したディスプレイの情報)を、HDRパラメータとして記憶する。 In step S14, the control unit 52 stores, in the memory 54, information (EOTF, MAXFALL, MAXCLL and display information used at the time of content creation) necessary for HDR parameters in Mastering / Display / Color / Volume / SEI as HDR parameters. .

 ステップS13において、Mastering Display Color Volume SEIが存在しないと判定された場合、処理は、ステップS15に進む。ステップS15において、制御部52は、ビデオデータを読み出し、EOTF,MAXFALL,MAXCLLを判定し、HDRパラメータとして、メモリ54に記憶する。EOTFは、例えば、hevc ビデオのTransferCharacteristicsから取得、MAXFALLとMAXCLLはピクセル値をすべて見て、平均値と最大の明るさをメモリ54に記憶する。 If it is determined in step S13 that Mastering Display Color Volume SEI does not exist, the process proceeds to step S15. In step S15, the control unit 52 reads the video data, determines EOTF, MAXFALL, MAXCLL, and stores them in the memory 54 as HDR parameters. EOTF is obtained from, for example, TransferCharacteristics of hevc video, MAXFALL and MAXCLL look at all pixel values, and store the average value and maximum brightness in memory 54.

 ステップS14またはS15の後、処理は、ステップS16に進む。ステップS16において、制御部52は、入力部51から、ユーザの操作に基づく入力があるか否かを判定する。不足する情報があったり、HDR Profileなど付けくわえたりなどがある場合、ステップS16において、入力があると判定され、処理は、ステップS17に進む。 After step S14 or S15, the process proceeds to step S16. In step S <b> 16, the control unit 52 determines whether there is an input from the input unit 51 based on a user operation. If there is insufficient information or there is an addition such as HDR Profile, it is determined in step S16 that there is an input, and the process proceeds to step S17.

 ステップS17において、制御部52は、入力に対応する情報をメモリ54に記録する。なお、メモリ54のHDRパラメータが、必要に応じて、上書き、追記される。 In step S17, the control unit 52 records information corresponding to the input in the memory 54. Note that the HDR parameter of the memory 54 is overwritten and appended as necessary.

 ステップS16において入力がないと判定された場合、ステップS17はスキップされ、処理は、ステップS18に進む。ステップS18において、制御部52は、メモリ54に記録されたHDRパラメータを、MPD(ファイル)に記載し、記録部56に記録する。 If it is determined in step S16 that there is no input, step S17 is skipped, and the process proceeds to step S18. In step S18, the control unit 52 describes the HDR parameter recorded in the memory 54 in the MPD (file) and records it in the recording unit 56.

 なお、このコンテンツ生成処理においては、多重化前のビデオ、オーディオ、字幕が用意され、ファイル生成装置11上で多重化し、MPDを生成する例を説明したが、予め多重化されたファイル(例えば、MP4ファイル)を用意し、MPDを生成する例を、以下に説明する。 In this content generation process, an example in which pre-multiplexed video, audio, and subtitles are prepared and multiplexed on the file generation device 11 to generate an MPD has been described, but a previously multiplexed file (for example, An example of preparing an MPD file and generating an MPD is described below.

 次に、図17のフローチャートを参照して、ファイル生成装置11のコンテンツ生成処理の他の例を説明する。 Next, another example of content generation processing of the file generation device 11 will be described with reference to the flowchart of FIG.

 ステップS51において、制御部52は、記録部57から多重化されたMP4ファイルを読み出す。ステップS52において、制御部52は、MP4ヘッダにHDRパラメータが存在するか否かを判定する。ステップS52において、HDRパラメータが存在しないと判定された場合、処理は、ステップS53に進む。 In step S51, the control unit 52 reads the multiplexed MP4 file from the recording unit 57. In step S52, the control unit 52 determines whether an HDR parameter is present in the MP4 header. If it is determined in step S52 that the HDR parameter does not exist, the process proceeds to step S53.

 ステップS53において、制御部52は、ビデオストリームの中に、Mastering Display Color Volume SEIが存在するか否かを判定する。ステップS53において、Mastering Display Color Volume SEIが存在すると判定された場合、処理は、ステップS54に進む。 In step S53, the control unit 52 determines whether or not Mastering Display Color Color Volume SEI is present in the video stream. If it is determined in step S53 that Mastering Display Color Volume SEI exists, the process proceeds to step S54.

 ステップS54において、制御部52は、メモリ54に、Mastering Display Color Volume SEI内のHDRパラメータに必要な情報(EOTF,MAXFALL,MAXCLLや、コンテンツ作成時に使用したディスプレイの情報)を、HDRパラメータとして記憶し、処理は、ステップS56に進む。 In step S54, the control unit 52 stores, in the memory 54, information (EOTF, MAXFALL, MAXCLL and display information used at the time of content creation) necessary for HDR parameters in Mastering / Display / Color / Volume / SEI as HDR parameters. The process proceeds to step S56.

 ステップS53において、Mastering Display Color Volume SEIが存在しないと判定された場合、処理は、ステップS55に進む。ステップS55において、制御部52は、ビデオデータを読み出し、EOTF,MAXFALL,MAXCLLを判定し、HDRパラメータとして、メモリ54に記憶する。EOTFは、例えば、HEVC ビデオのTransferCharacteristicsから取得、MAXFALLとMAXCLLはピクセル値をすげて見て、平均値と最大の明るさをメモリ54に記憶する。 If it is determined in step S53 that Mastering Display Color Volume SEI does not exist, the process proceeds to step S55. In step S55, the control unit 52 reads the video data, determines EOTF, MAXFALL, MAXCLL, and stores them in the memory 54 as HDR parameters. EOTF is acquired from, for example, TransferCharacteristics of HEVC video, and MAXFALL and MAXCLL look at the pixel values and store the average value and the maximum brightness in the memory 54.

 一方、ステップS52において、HDRパラメータが存在すると判定された場合、処理は、ステップS56に進む。ステップS56において、制御部52は、ヘッダのHDRパラメータを、メモリ54に記録する。 On the other hand, if it is determined in step S52 that the HDR parameter exists, the process proceeds to step S56. In step S56, the control unit 52 records the HDR parameter of the header in the memory 54.

 ステップS54乃至S56の後、処理は、ステップS57に進む。ステップS57において、制御部52は、入力部51から、ユーザの操作に基づく入力があるか否かを判定する。不足する情報があったり、HDR Profileなど付けくわえたりなどがある場合、ステップS57において、入力があると判定され、処理は、ステップS58に進む。 After steps S54 to S56, the process proceeds to step S57. In step S <b> 57, the control unit 52 determines whether there is an input from the input unit 51 based on a user operation. If there is insufficient information or there is an addition such as HDR profile, it is determined in step S57 that there is an input, and the process proceeds to step S58.

 ステップS58において、制御部52は、入力に対応する情報をメモリ54に記憶する。なお、メモリ54のHDRパラメータが、必要に応じて、上書き、追記される。 In step S58, the control unit 52 stores information corresponding to the input in the memory 54. Note that the HDR parameter of the memory 54 is overwritten and appended as necessary.

 ステップS57において入力がないと判定された場合、ステップS58はスキップされ、処理は、ステップS59に進む。ステップS59において、制御部52は、メモリ54に記憶されたHDRパラメータを、MPD(ファイル)に記載し、記録部56に記録する。 If it is determined in step S57 that there is no input, step S58 is skipped, and the process proceeds to step S59. In step S59, the control unit 52 writes the HDR parameter stored in the memory 54 in the MPD (file) and records it in the recording unit 56.

 (サーバの構成例)
 図18は、図15のファイル生成装置11の機能を含む場合のWebサーバ12の構成例を示すブロック図である。なお、図18のWebサーバ12は、入力部51、制御部52、ドライブ53、メモリ54、多重化部55、記録部56-1および56-2、並びに、記録部57-1および57-2を含む点は、図15のファイル生成装置11と共通している。
(Server configuration example)
FIG. 18 is a block diagram illustrating a configuration example of the Web server 12 in the case where the function of the file generation device 11 of FIG. 15 is included. 18 includes an input unit 51, a control unit 52, a drive 53, a memory 54, a multiplexing unit 55, recording units 56-1 and 56-2, and recording units 57-1 and 57-2. The points including are common to the file generation device 11 of FIG.

 図18のWebサーバ12は、ネットワーク接続部91が追加された点が、図15のファイル生成装置11と異なっている。ネットワーク接続部91は、例えば、ネットワークポートであり、制御部52を介して、インターネット13と接続し、インターネット13を介して、動画再生端末14と、データ(MPDファイルやHDRコンテンツ)などの送受信を行う。 18 is different from the file generation device 11 in FIG. 15 in that a network connection unit 91 is added. The network connection unit 91 is, for example, a network port, is connected to the Internet 13 via the control unit 52, and transmits / receives data (MPD file or HDR content) to / from the video playback terminal 14 via the Internet 13. Do.

 すなわち、ネットワーク接続部91以外は、図15のファイル生成装置11と基本的に同じ構成であり、コンテンツ生成処理も、図16および図17を参照して上述した処理と基本的に同様であるので、その説明は省略される。 That is, except for the network connection unit 91, the configuration is basically the same as that of the file generation device 11 of FIG. 15, and the content generation processing is basically the same as the processing described above with reference to FIGS. The description is omitted.

 (動画再生端末の構成例)
 図19は、図1の動画再生端末14の第1の構成例を示すブロック図である。
(Configuration example of video playback terminal)
FIG. 19 is a block diagram illustrating a first configuration example of the video playback terminal 14 of FIG.

 図19の例において、動画再生端末14は、入力部101、制御部102、メモリ103、再生部104、表示部105、およびスピーカ106を含むように構成されている。なお、制御部102および再生部104は、図1の動画再生端末14が制御用ソフトウエア21、動画再生ソフトウエア22、アクセス用ソフトウエア23を実行することにより実現される。 In the example of FIG. 19, the moving image playback terminal 14 is configured to include an input unit 101, a control unit 102, a memory 103, a playback unit 104, a display unit 105, and a speaker 106. Note that the control unit 102 and the playback unit 104 are realized when the video playback terminal 14 in FIG. 1 executes the control software 21, the video playback software 22, and the access software 23.

 入力部101は、ユーザの操作に対応する情報を受け付け、制御部102に供給する。制御部102は、入力部101からの情報に応じた動作や制御判断を行うプログラムであり、動画再生端末14の各部を制御する。メモリ103は、一時的に、データを保存する。 The input unit 101 receives information corresponding to a user operation and supplies the information to the control unit 102. The control unit 102 is a program that performs an operation and control determination according to information from the input unit 101, and controls each unit of the video playback terminal 14. The memory 103 temporarily stores data.

 再生部104は、データ取得部121、読み出しバッファ122、DeMUX123、字幕生成部124、ビデオ生成部125、オーディオ生成部126、および表示データ生成部127を含むように構成される。 The playback unit 104 is configured to include a data acquisition unit 121, a read buffer 122, a DeMUX 123, a caption generation unit 124, a video generation unit 125, an audio generation unit 126, and a display data generation unit 127.

 データ取得部121は、インターネット13を介して、Webサーバ12などからデータ(MPDファイルやHDRコンテンツ)などを取得し、取得したデータを読み出しバッファ122に一旦蓄積する。読み出しバッファ122は、データ取得部121により取得されたデータを一時保存する。 The data acquisition unit 121 acquires data (MPD file or HDR content) from the Web server 12 via the Internet 13 and temporarily stores the acquired data in the read buffer 122. The read buffer 122 temporarily stores the data acquired by the data acquisition unit 121.

 DeMUX123は、例えば、MP4など多重化されたファイルから、ビデオデータ、オーディオデータ、字幕データを分解し、取り出す。DeMUX123は、取り出された字幕データを、字幕生成部124に出力し、取り出されたビデオデータを、ビデオ生成部125に出力し、取り出されたオーディオデータを、オーディオ生成部126に出力する。 The DeMUX 123 decomposes and takes out video data, audio data, and caption data from a multiplexed file such as MP4. The DeMUX 123 outputs the extracted subtitle data to the subtitle generation unit 124, outputs the extracted video data to the video generation unit 125, and outputs the extracted audio data to the audio generation unit 126.

 字幕生成部124は、字幕デコーダであり、字幕データを復号し、復号した字幕データを、表示データ生成部127に出力する。ビデオ生成部125は、ビデオデコーダであり、ビデオデータを復号し、復号したビデオデータを、表示データ生成部127に出力する。オーディオ生成部126は、オーディオデコーダであり、復号したオーディオデータを、スピーカ106に出力する。 The subtitle generation unit 124 is a subtitle decoder, decodes subtitle data, and outputs the decoded subtitle data to the display data generation unit 127. The video generation unit 125 is a video decoder, decodes the video data, and outputs the decoded video data to the display data generation unit 127. The audio generation unit 126 is an audio decoder, and outputs the decoded audio data to the speaker 106.

 表示データ生成部127は、字幕データが対応する字幕とビデオデータが対応する画像とを重畳して、表示データを生成し、生成した表示データを、表示部105に出力する。 The display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the display unit 105.

 表示部105は、表示データ生成部127からの表示データに対応する画像を出力する。スピーカ106は、オーディオ生成部126からのオーディオデータに対応する音声を出力する。 The display unit 105 outputs an image corresponding to the display data from the display data generation unit 127. The speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.

 (動画再生端末の処理例)
 次に、図20のフローチャートを参照して、動画再生端末14の再生処理について説明する。
(Example of video playback terminal processing)
Next, the playback process of the video playback terminal 14 will be described with reference to the flowchart of FIG.

 ステップS81において、入力部101からの入力に対応し、制御部102は、データ取得部121に、MPDファイルを、インターネット13を介して、Webサーバ12から取得させる。データ取得部121は、MPDファイルを取得し、取得したMPDファイルを、制御部102を介して、メモリ103に保存する。 In step S81, in response to an input from the input unit 101, the control unit 102 causes the data acquisition unit 121 to acquire the MPD file from the Web server 12 via the Internet 13. The data acquisition unit 121 acquires an MPD file and stores the acquired MPD file in the memory 103 via the control unit 102.

 ステップS82において、制御部102は、MPDに記載のRepresentationの選択処理を行う。この選択処理については、図21を参照して後述される。ステップS82の選択処理によりRepresentationに対応するHDRコンテンツが選択される。 In step S82, the control unit 102 performs representation selection processing described in the MPD. This selection process will be described later with reference to FIG. The HDR content corresponding to Representation is selected by the selection process in step S82.

 ステップS83において、データ取得部121は、ステップS82により選択されたHDRコンテンツを取得し、取得したデータを読み出しバッファ122に一旦蓄積する。読み出しバッファ122は、データ取得部121により取得されたデータを一時保存する。 In step S83, the data acquisition unit 121 acquires the HDR content selected in step S82, and temporarily stores the acquired data in the read buffer 122. The read buffer 122 temporarily stores the data acquired by the data acquisition unit 121.

 ステップS84において、DeMUX123は、バッファ122に蓄積されているMP4など多重化されたファイルから、ビデオデータ、オーディオデータ、字幕データを分解し、取り出す。ステップS85において、ビデオ生成部125、オーディオ生成部126、および表示データ生成部127は、各データのデコード(復号)を行う。 In step S84, the DeMUX 123 decomposes and extracts video data, audio data, and caption data from the multiplexed file such as MP4 stored in the buffer 122. In step S85, the video generation unit 125, the audio generation unit 126, and the display data generation unit 127 decode (decode) each data.

 すなわち、字幕生成部124は、字幕データを復号し、復号した字幕データを、表示データ生成部127に出力する。ビデオ生成部125は、ビデオデータを復号し、復号したビデオデータを、表示データ生成部127に出力する。オーディオ生成部126は、オーディオデコーダであり、復号したオーディオデータを、スピーカ106に出力する。 That is, the caption generation unit 124 decodes the caption data and outputs the decoded caption data to the display data generation unit 127. The video generation unit 125 decodes the video data and outputs the decoded video data to the display data generation unit 127. The audio generation unit 126 is an audio decoder, and outputs the decoded audio data to the speaker 106.

 ステップS86において、表示データ生成部127は、字幕データが対応する字幕とビデオデータが対応する画像とを重畳して、表示データを生成し、生成した表示データを、表示部105に出力する。 In step S86, the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the display unit 105.

 ステップS87において、表示部105は、表示データ生成部127からの表示データに対応する画像を出力する。スピーカ106は、オーディオ生成部126からのオーディオデータに対応する音声を出力する。 In step S87, the display unit 105 outputs an image corresponding to the display data from the display data generation unit 127. The speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.

 次に、図21および図22のフローチャートを参照して、図20のステップS82の選択処理について説明する。 Next, the selection process in step S82 in FIG. 20 will be described with reference to the flowcharts in FIGS.

 ステップS101において、制御部102は、メモリ103のMPDをパースし、HDRパラメータを読み出す。 In step S101, the control unit 102 parses the MPD in the memory 103 and reads the HDR parameter.

 ステップS102において、制御部102は、すべてのAdaptationSetをチェックしたか否かを判定し、チェックしたと判定した場合、ステップS103に進む。ステップS103において、制御部102は、記録されているidのRepresentationを選択し、選択処理は終了される。 In step S102, the control unit 102 determines whether or not all AdaptationSets have been checked. If it is determined that they have been checked, the control unit 102 proceeds to step S103. In step S103, the control unit 102 selects Representation of the recorded id, and the selection process ends.

 一方、ステップS102において、すべてのAdaptationSetはまだチェックされていないと判定された場合、処理はステップS104に進む。ステップS104において、制御部102は、未チェックのAdaptationSetの中身をチェックする。 On the other hand, if it is determined in step S102 that all AdaptationSets have not been checked yet, the process proceeds to step S104. In step S104, the control unit 102 checks the contents of the unchecked AdaptationSet.

 ステップS105において、制御部102は、すべてのRepresentationをチェックしたか否かを判定する。ステップS105において、すべてのRepresentationをチェックしたと判定された場合、処理は、ステップS102に戻り、それ以降の処理が繰り返される。 In step S105, the control unit 102 determines whether or not all representations have been checked. If it is determined in step S105 that all representations have been checked, the process returns to step S102, and the subsequent processes are repeated.

 ステップS105において、すべてのRepresentationをチェックしていないと判定された場合、処理は、ステップS106に進む。ステップS106において、制御部102は、EOTFが表示可能であるか否かを判定する。 If it is determined in step S105 that not all representations have been checked, the process proceeds to step S106. In step S106, the control unit 102 determines whether or not the EOTF can be displayed.

 ステップS106において、EOTFが表示可能であると判定された場合、処理は、ステップS107に進む。ステップS107において、制御部102は、HDRProfileが表示可能であるか否かを判定する。ステップS107において、HDRProfileが表示可能であると判定された場合、処理は、ステップS108に進む。 If it is determined in step S106 that EOTF can be displayed, the process proceeds to step S107. In step S107, the control unit 102 determines whether the HDRProfile can be displayed. If it is determined in step S107 that the HDRProfile can be displayed, the process proceeds to step S108.

 ステップS106において、EOTFが表示可能ではないと判定された場合、または、ステップS107において、HDRProfileが表示可能ではないと判定された場合、処理は、ステップS105に戻り、それ以降の処理が繰り返される。 If it is determined in step S106 that the EOTF is not displayable, or if it is determined in step S107 that the HDRProfile is not displayable, the process returns to step S105, and the subsequent processes are repeated.

 ステップS108において、制御部102は、すでにメモリ103にRepresentation idが記録されているか否かを判定する。ステップS108において、メモリ103にRepresentation idが記録されていないと判定された場合、処理は、ステップS109に進む。ステップS109において、制御部102は、メモリ103に、Representation idを記録する。ステップS108において、メモリ103にRepresentation idが記録されていると判定された場合、ステップS109はスキップされる。 In step S108, the control unit 102 determines whether or not the Representation id is already recorded in the memory 103. If it is determined in step S108 that Representation id is not recorded in the memory 103, the process proceeds to step S109. In step S <b> 109, the control unit 102 records Representation id in the memory 103. If it is determined in step S108 that Representation id is recorded in the memory 103, step S109 is skipped.

 ステップS109の後、処理は、図22のステップS110に進む。ステップS110において、制御部102は、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内であるか否かを判定する。ステップS110において、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内であると判定された場合、処理は、ステップS111に進む。 After step S109, the process proceeds to step S110 in FIG. In step S <b> 110, the control unit 102 determines whether Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105. If it is determined in step S110 that Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105, the process proceeds to step S111.

 ステップS111において、制御部102は、MAX FALL(平均)が表示部105の表示範囲内であるか否かを判定し、MAX FALL(平均)が表示部105の表示範囲内であると判定した場合、処理は、ステップS112に進む。ステップS112において、制御部102は、MAX CLL(最大)が表示部105の表示範囲内であるか否かを判定し、MAX CLL(最大)が表示部105の表示範囲内であると判定した場合、処理は、ステップS113に進む。 In step S111, the control unit 102 determines whether or not MAX FALL (average) is within the display range of the display unit 105, and determines that MAX 場合 FALL (average) is within the display range of the display unit 105. The process proceeds to step S112. In step S <b> 112, the control unit 102 determines whether or not MAXLLCLL (maximum) is within the display range of the display unit 105, and determines that MAXLLCLL (maximum) is within the display range of the display unit 105. The process proceeds to step S113.

 ステップS113において、制御部102は、Display primariesが、表示部105の表示範囲内であるか否かを判定し、Display primariesが、表示部105の表示範囲内であると判定した場合、処理は、ステップS114に進む。 In step S113, the control unit 102 determines whether or not Display 否 primaries is within the display range of the display unit 105. If the control unit 102 determines that Display primaries is within the display range of the display unit 105, the process is as follows. Proceed to step S114.

 ステップS114において、制御部102は、White spaceが現在記録されているRepresentationより装置自身に近いか否かを判定し、White spaceが現在記録されているRepresentationより装置自身に近いと判定した場合、処理は、ステップS115に進む。 In step S114, the control unit 102 determines whether White space is closer to the device itself than the currently recorded Representation, and determines that White space is closer to the device itself than the currently recorded Representation. Advances to step S115.

 ステップS115において、制御部102は、装置自身に近いと判定されたRepresentation idをメモリ103に記録し、処理は、ステップS105に戻り、それ以降の処理が繰り返される。 In step S115, the control unit 102 records the Representation ID determined to be close to the device itself in the memory 103, the process returns to step S105, and the subsequent processes are repeated.

 一方、ステップS110において、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内ではないと判定された場合、それ以降の処理はスキップされ、処理は、ステップS105に戻り、それ以降の処理が繰り返される。 On the other hand, if it is determined in step S110 that Max display mastaering luminance and Min display mastaering luminance are not within the display range of the display unit 105, the subsequent processing is skipped, and the processing returns to step S105 and thereafter. The process is repeated.

 ステップS111において、MAX FALL(平均)が表示部105の表示範囲内ではないと判定された場合、または、ステップS112において、MAX CLL(最大)が表示部105の表示範囲内ではないと判定された場合、それ以降の処理はスキップされ、処理は、ステップS105に戻り、それ以降の処理が繰り返される。 When it is determined in step S111 that MAX FALL (average) is not within the display range of display unit 105, or in step S112, it is determined that MAX CLL (maximum) is not within the display range of display unit 105. In this case, the subsequent processing is skipped, the processing returns to step S105, and the subsequent processing is repeated.

 ステップS113において、Display primariesが、表示部105の表示範囲内ではないと判定された場合、または、ステップS114において、White spaceが現在記録されているRepresentationより装置自身に近くはないと判定された場合、それ以降の処理はスキップされ、処理は、ステップS105に戻り、それ以降の処理が繰り返される。 If it is determined in step S113 that Display primaries are not within the display range of display unit 105, or if it is determined in step S114 that White space is not closer to the device itself than the currently recorded representation. The subsequent processing is skipped, the processing returns to step S105, and the subsequent processing is repeated.

 以上のようにして、表示部105の表示範囲に最適なHDRコンテンツが選択される。 As described above, the optimum HDR content for the display range of the display unit 105 is selected.

 なお、すべてのAdaptationSetのチェックを完了しても、ステップS103において、Representation idが記録されていない(すなわち、選択可能なコンテンツがない)場合、選択可能なコンテンツがない旨が、表示部105に表示されるようにしてもよい。 Even if all the AdaptationSet checks are completed, if Representation id is not recorded in Step S103 (that is, there is no selectable content), the display unit 105 displays that there is no selectable content. You may be made to do.

 (動画再生端末の構成例)
 図23は、図1の動画再生端末14の第2の構成例を示すブロック図である。なお、図23の動画再生端末14は、入力部101、制御部102、メモリ103、再生部104、表示部105、およびスピーカ106を含む点は、図19の動画再生端末14と共通している。
(Configuration example of video playback terminal)
FIG. 23 is a block diagram illustrating a second configuration example of the video playback terminal 14 of FIG. 23 is common to the video playback terminal 14 in FIG. 19 in that the video playback terminal 14 in FIG. 23 includes an input unit 101, a control unit 102, a memory 103, a playback unit 104, a display unit 105, and a speaker 106. .

 図23の動画再生端末14は、輝度圧縮部151が追加された点が、図19の動画再生端末14と異なっている。 23 is different from the moving image reproduction terminal 14 of FIG. 19 in that a luminance compression unit 151 is added.

 すなわち、表示データ生成部127は、字幕データが対応する字幕とビデオデータが対応する画像とを重畳して、表示データを生成し、生成した表示データを、輝度圧縮部151に出力する。 That is, the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the luminance compression unit 151.

 輝度圧縮部151は、選択処理により選択されたRepresentationに対して、Max display mastaering luminance, Min display mastaering luminanceは、表示部105の表示範囲内ではなく、MAX FALL(平均)が表示部105の表示範囲内ではなく、MAX CLL(最大)が表示部105の表示範囲内ではない場合、表示部105の表示能力を上回る可能性が出てくるので、輝度の圧縮を行う。 For the Representation selected by the selection process, the luminance compression unit 151 does not display Max display mastaering luminance and Min display mastaering luminance within the display range of the display unit 105, but MAX FALL (average) is the display range of the display unit 105. If MAX CLL (maximum) is not within the display range of the display unit 105, the possibility of exceeding the display capability of the display unit 105 appears. Therefore, the luminance is compressed.

 圧縮方法としては、例えば、表示部105の最大表示できる明るさをMAXCLLに割り当てて輝度を圧縮する方法がある。具体的には、500nitsの明るさが最大のディスプレイがMAXCLL 1000nitsのコンテンツを表示する場合は、すべてのピクセルの輝度を半分の明るさに圧縮して、コンテンツを表示する。 As a compression method, for example, there is a method in which brightness that can be displayed on the display unit 105 is assigned to MAXCLL to compress luminance. Specifically, when a display with a maximum brightness of 500 nits displays content with MAXCLLnit1000 nits, the brightness of all pixels is compressed to half the brightness and the content is displayed.

 例えば、表示部105の最大表示できる明るさをMAXFALLに割り当てて輝度を圧縮する方法がある。具体的には、例えば、200nitsの明るさが最大のディスプレイがMAXCLL 1000nitsでかつMAXFALL 400nitsのコンテンツを表示する場合ならば、すべてのピクセルの輝度を半分の明るさに圧縮してコンテンツを表示する。例えば、表示部105よりも高輝度ピクセルは自身の最高値200nitsで表示される。 For example, there is a method of compressing the brightness by assigning the maximum displayable brightness of the display unit 105 to MAXFALL. Specifically, for example, if the display having the maximum brightness of 200 nits displays content of MAXCLLnit1000 nits and MAXFALL 400 nits, the content is displayed with the brightness of all pixels compressed to half the brightness. For example, pixels that are brighter than the display unit 105 are displayed at their maximum value of 200 nits.

 その他、色空間については、端末(クライアント)自身の表示できる色域より広い色域で作られたコンテンツであったとしても、Display praimariesがクライアントが表示できる色域であればいろ空間上での色調整はなされない。 In addition, regarding the color space, even if the content is created in a wider color gamut than the terminal (client) can display, the color in any space is acceptable if Display で あ れ ば praimaries can be displayed by the client. No adjustment is made.

 (動画再生端末の処理例)
 次に、図24のフローチャートを参照して、動画再生端末14の再生処理について説明する。なお、図24のステップS141乃至S146は、図20のステップS81乃至S86と基本的に同様の処理を行うため、その説明は省略される。
(Example of video playback terminal processing)
Next, with reference to the flowchart of FIG. 24, the playback process of the video playback terminal 14 will be described. Note that steps S141 to S146 in FIG. 24 perform basically the same processing as steps S81 to S86 in FIG. 20, and thus description thereof is omitted.

 ステップS146において、表示データ生成部127は、字幕データが対応する字幕とビデオデータが対応する画像とを重畳して、表示データを生成し、生成した表示データを、輝度圧縮部151に出力する。 In step S146, the display data generation unit 127 generates display data by superimposing the subtitle corresponding to the subtitle data and the image corresponding to the video data, and outputs the generated display data to the luminance compression unit 151.

 ステップS147において、輝度圧縮部151は、ステップS142における選択処理により選択されたRepresentationに対して、輝度圧縮処理を行う。ステップS147の輝度圧縮処理の詳細は、図25を参照して後述されるが、この輝度圧縮処理により、輝度圧縮部151は、輝度圧縮処理がなされた表示データを表示部105に出力する。 In step S147, the luminance compression unit 151 performs luminance compression processing on the representation selected by the selection processing in step S142. The details of the luminance compression processing in step S147 will be described later with reference to FIG. 25, but with this luminance compression processing, the luminance compression unit 151 outputs the display data subjected to the luminance compression processing to the display unit 105.

 ステップS148において、表示部105は、表示データ生成部127からの表示データに対応する画像を出力する。スピーカ106は、オーディオ生成部126からのオーディオデータに対応する音声を出力する。 In step S148, the display unit 105 outputs an image corresponding to the display data from the display data generation unit 127. The speaker 106 outputs sound corresponding to the audio data from the audio generation unit 126.

 次に、図25のフローチャートを参照して、図24のステップS147の輝度圧縮処理について説明する。 Next, the luminance compression processing in step S147 in FIG. 24 will be described with reference to the flowchart in FIG.

 ステップS151において、制御部102は、MPDをパースする。ステップS152において、制御部102は、1つのRepresentation、すなわち、図24のステップS142により選択されたRepresentationを選択する。 In step S151, the control unit 102 parses the MPD. In step S152, the control unit 102 selects one representation, that is, the representation selected in step S142 in FIG.

 ステップS153において、制御部102は、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内であるか否かを判定する。ステップS153において、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内ではないと判定された場合、処理は、ステップS154に進む。 In step S 153, the control unit 102 determines whether Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105. If it is determined in step S153 that Max display mastaering luminance and Min display mastaering luminance are not within the display range of the display unit 105, the process proceeds to step S154.

 ステップS154において、制御部102は、MAX FALL(平均)が表示部105の表示範囲内であるか否かを判定し、MAX FALL(平均)が表示部105の表示範囲内ではないと判定した場合、処理は、ステップS155に進む。ステップS155において、制御部102は、MAX CLL(最大)が表示部105の表示範囲内であるか否かを判定し、MAX CLL(最大)が表示部105の表示範囲内ではないと判定した場合、処理は、ステップS156に進む。 In step S154, the control unit 102 determines whether or not MAX FALL (average) is within the display range of the display unit 105, and determines that MAXALLFALL (average) is not within the display range of the display unit 105. The process proceeds to step S155. In step S155, the control unit 102 determines whether or not MAX 否 CLL (maximum) is within the display range of the display unit 105, and determines that MAX CLL (maximum) is not within the display range of the display unit 105. The process proceeds to step S156.

 ステップS156において、輝度圧縮部151は、制御部102の制御のもと、表示データ生成部127により生成された表示データの輝度を圧縮する。輝度圧縮部151は、輝度圧縮処理がなされた表示データを表示部105に出力する。 In step S156, the luminance compression unit 151 compresses the luminance of the display data generated by the display data generation unit 127 under the control of the control unit 102. The luminance compression unit 151 outputs the display data subjected to the luminance compression processing to the display unit 105.

 一方、ステップS153において、Max display mastaering luminance, Min display mastaering luminanceが、表示部105の表示範囲内であると判定された場合、ステップS154において、MAX FALL(平均)が表示部105の表示範囲内であると判定された場合、または、ステップS155においてMAX CLL(最大)が表示部105の表示範囲内であると判定された場合、それ以降の処理はスキップされ、図25の輝度圧縮処理は終了される。 On the other hand, when it is determined in step S153 that Max display mastaering luminance and Min display mastaering luminance are within the display range of the display unit 105, MAX FALL (average) is within the display range of the display unit 105 in step S154. If it is determined that there is, or if it is determined in step S155 that MAX CLL (maximum) is within the display range of the display unit 105, the subsequent processing is skipped, and the luminance compression processing in FIG. The

 なお、上記説明においては、動画再生端末14が表示デバイスを備えている例を説明してきたが、本技術は、表示デバイスを備えていない、すなわち、外部に表示デバイスを設けている動画再生端末14にも適用することができる。 In the above description, the example in which the video playback terminal 14 includes a display device has been described. However, the present technology does not include a display device, that is, the video playback terminal 14 that includes an external display device. It can also be applied to.

 (動画再生端末の構成例)
 図26は、図1の動画再生端末14の第3の構成例を示すブロック図である。なお、図26の動画再生端末14は、入力部101、メモリ103、再生部104を含む点は、図19の動画再生端末14と共通している。
(Configuration example of video playback terminal)
FIG. 26 is a block diagram showing a third configuration example of the video playback terminal 14 of FIG. 26 is the same as the video playback terminal 14 in FIG. 19 in that the video playback terminal 14 in FIG. 26 includes an input unit 101, a memory 103, and a playback unit 104.

 図26の動画再生端末14は、制御部102が、制御部201に入れ替わった点、表示部105が、外付けの表示部202に入れ替わった点、スピーカ106が、外付けのスピーカ203に入れ替わった点が、図19の動画再生端末14と異なっている。 26, the control unit 102 is replaced with the control unit 201, the display unit 105 is replaced with the external display unit 202, and the speaker 106 is replaced with the external speaker 203. This is different from the video playback terminal 14 in FIG.

 すなわち、動画再生端末14は、表示部とスピーカを内蔵せず、表示部202およびスピーカ203が、例えば、実線で示されるように、HDMI(登録商標)2.0aの規格によって接続され、外付けられている。 That is, the video playback terminal 14 does not include a display unit and a speaker, and the display unit 202 and the speaker 203 are connected and externally connected according to the HDMI (registered trademark) 2.0a standard, for example, as indicated by a solid line. ing.

 制御部201は、例えば、CEA861に規定のEDIDと呼ばれるデータブロックを取得して、表示部202の性能、すなわち、表示部202がどんなHDRパラメータに対応できるかの情報を取得する。制御部201は、MPDをパースし、MPDに記載のHDRパラメータと、表示部202の性能を比較し、表示部202に最適なRepresentationを選択する。 The control unit 201 acquires, for example, a data block called EDID defined in the CEA 861, and acquires the performance of the display unit 202, that is, information on what HDR parameters the display unit 202 can handle. The control unit 201 parses the MPD, compares the HDR parameter described in the MPD with the performance of the display unit 202, and selects an optimum representation for the display unit 202.

 制御部201は、MPDにより選択されたRepresentationのHDRパラメータを抜き出して、例えば、CEA861に規定のパケットにHDRパラメータを記載して、表示部202に送信する。 The control unit 201 extracts the HDR parameter of the representation selected by the MPD, and describes the HDR parameter in a packet specified in the CEA 861, for example, and transmits it to the display unit 202.

 (動画再生端末の処理例)
 なお、図26の動画再生端末14の再生処理は、図20のステップS82の選択処理のみが異なるだけであり、その他は基本的に同じ処理を行う。したがって、次に、図27および図28のフローチャートを参照して、異なる部分である選択処理についてのみ説明する。
(Example of video playback terminal processing)
Note that the playback processing of the moving image playback terminal 14 in FIG. 26 differs only in the selection processing in step S82 in FIG. 20, and otherwise performs the same processing basically. Therefore, only the selection process which is a different part will be described next with reference to the flowcharts of FIGS. 27 and 28.

 ステップS201において、制御部201は、例えば、CEA861に規定のEDIDと呼ばれるデータブロックを取得して、表示部202の性能、すなわち、表示部202がどんなHDRパラメータに対応できるかの情報を取得する。 In step S201, the control unit 201 acquires, for example, a data block called EDID defined in the CEA 861, and acquires the performance of the display unit 202, that is, information on what HDR parameter the display unit 202 can handle.

 ステップS202において、制御部201は、メモリ103のMPDをパースし、HDRパラメータを読み出す。 In step S202, the control unit 201 parses the MPD in the memory 103 and reads the HDR parameter.

 ステップS203において、制御部201は、すべてのAdaptationSetをチェックしたか否かを判定し、チェックしたと判定した場合、ステップS204に進む。ステップS204において、制御部102は、記録されているidのRepresentationを選択する。 In step S203, the control unit 201 determines whether or not all AdaptationSets have been checked. If it is determined that they have been checked, the control unit 201 proceeds to step S204. In step S204, the control unit 102 selects Representation of the recorded id.

 ステップS205において、制御部201は、ステップS204により選択されたRepresentationのHDRパラメータを、表示部202に送り、選択処理は終了される。 In step S205, the control unit 201 sends the representation HDR parameter selected in step S204 to the display unit 202, and the selection process ends.

 一方、ステップS203において、すべてのAdaptationSetはまだチェックされていないと判定された場合、処理はステップS206に進む。なお、以降の図27および図28のステップS206乃至S217は、図21および図22のステップS104乃至S115と基本的に同様な処理を行うため、それらの説明は省略される。 On the other hand, if it is determined in step S203 that all AdaptationSets have not been checked yet, the process proceeds to step S206. The subsequent steps S206 to S217 in FIG. 27 and FIG. 28 perform basically the same processing as steps S104 to S115 in FIG. 21 and FIG.

 以上により、本技術によれば、MPEG-DASHでHDRコンテンツを配信する際に、クライアントが自分に最適な輝度のコンテンツを選ぶことができるようになり、HDRコンテンツを適切に表示することができる。 As described above, according to the present technology, when HDR content is distributed by MPEG-DASH, the client can select content having the optimum brightness for himself and can display the HDR content appropriately.

 すなわち、本技術によれば、MPEG-DASHで、HDRコンテンツを配信することができる。 That is, according to the present technology, the HDR content can be distributed by MPEG-DASH.

<パーソナルコンピュータ>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
<Personal computer>
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes a computer incorporated in dedicated hardware, a general-purpose personal computer capable of executing various functions by installing various programs, and the like.

 図29は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 29 is a block diagram showing a hardware configuration example of a personal computer that executes the above-described series of processing by a program.

 パーソナルコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904により相互に接続されている。 In the personal computer 900, a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903 are connected to each other by a bus 904.

 バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。 An input / output interface 905 is further connected to the bus 904. An input unit 906, an output unit 907, a storage unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.

 入力部906は、キーボード、マウス、マイクロホンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。 The input unit 906 includes a keyboard, a mouse, a microphone, and the like. The output unit 907 includes a display, a speaker, and the like. The storage unit 908 includes a hard disk, a nonvolatile memory, and the like. The communication unit 909 includes a network interface or the like. The drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

 以上のように構成されるパーソナルコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行する。これにより、上述した一連の処理が行われる。 In the personal computer 900 configured as described above, the CPU 901 loads, for example, a program stored in the storage unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. Thereby, the series of processes described above are performed.

 コンピュータ(CPU901)が実行するプログラムは、リムーバブルメディア911に記録して提供することができる。リムーバブルメディア911は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer (CPU 901) can be provided by being recorded on the removable medium 911. The removable media 911 is a package made of, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Disc Only), DVD (Digital Versatile Disc), etc.), a magneto-optical disc, or a semiconductor memory. Media. Alternatively, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

 コンピュータにおいて、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。 In the computer, the program can be installed in the storage unit 908 via the input / output interface 905 by attaching the removable medium 911 to the drive 910. The program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the storage unit 908. In addition, the program can be installed in the ROM 902 or the storage unit 908 in advance.

 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。 Note that the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in a necessary stage such as in parallel or when a call is made. It may be a program for processing.

 また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.

 また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。 In addition, in this specification, the system represents the entire apparatus composed of a plurality of devices (apparatuses).

 なお、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 Note that the embodiments in the present disclosure are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present disclosure.

 例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.

 また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Also, in the above, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). Conversely, the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit). Of course, a configuration other than that described above may be added to the configuration of each device (or each processing unit). Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.

 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するのであれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the disclosure is not limited to such examples. It is obvious that various changes and modifications can be conceived within the scope of the technical idea described in the claims if the person has ordinary knowledge in the technical field to which the present disclosure belongs. Of course, it is understood that it belongs to the technical scope of the present disclosure.

 なお、本技術は以下のような構成も取ることができる。
 (1) HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成するファイル生成部
 を備える情報処理装置。
 (2) 前記ファイル生成部は、前記管理ファイルのRepresentationまたはAdaptationSetに、前記HDRパラメータを記載する
 前記(1)に記載の情報処理装置。
 (3) 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる
 前記(1)または(2)に記載の情報処理装置。
 (4) 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
 (5) 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている
 前記(1)乃至(4)のいずれかに記載の情報処理装置。
 (6) 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる
 前記(5)に記載の情報処理装置。
 (7) 情報処理装置が、
 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成する
 情報処理方法。
 (8) HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得する取得部と、
 前記取得部により取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する選択部と
 を備える情報処理装置。
 (9) 前記HDRパラメータは、前記管理ファイルのRepresentationまたはAdaptationSetに記載されている
 前記(8)に記載の情報処理装置。
 (10) 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる
 前記(8)または(9)に記載の情報処理装置。
 (11) 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている
 前記(8)乃至(10)のいずれかに記載の情報処理装置。
 (12) 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている
 前記(8)乃至(11)のいずれかに記載の情報処理装置。
 (13) 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる
 前記(12)に記載の情報処理装置。
 (14) 前記HDRコンテンツの輝度が、前記表示部の表示範囲を超える場合、前記HDRコンテンツの輝度を圧縮する輝度圧縮部を
 さらに備える前記(8)乃至(13)のいずれかに記載の情報処理装置。
 (15) 前記表示部を
 さらに備える前記(8)乃至(13)のいずれかに記載の情報処理装置。
 (16) 前記表示部は、接続部を介して、外付けられており、
 前記表示部の性能情報を取得する性能情報取得部と、
 前記選択部により選択されたHDRコンテンツに対応するHDRパラメータを送信する送信部と
 をさらに備え、
 前記選択部は、
 前記性能情報取得部により取得された性能情報を用いて、前記表示部に対応するHDRコンテンツを選択する
 前記(8)乃至(13)のいずれかに記載の情報処理装置。
 (17)情報処理装置が、
 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得し、
 取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する
 情報処理方法。
In addition, this technique can also take the following structures.
(1) An information processing apparatus comprising: a file generation unit that describes an HDR parameter that includes at least information about luminance of HDR (High Dynamic Range) content and generates a management file that is a file for managing an encoded stream of the HDR content .
(2) The information processing apparatus according to (1), wherein the file generation unit describes the HDR parameter in Representation or AdaptationSet of the management file.
(3) The information regarding the luminance of the HDR content includes at least one of a table for converting light and an electrical signal, the maximum luminance included in the HDR content, and the average luminance of the HDR content. (1) or (2 ).
(4) The information regarding the brightness of the HDR content includes an identifier when the table is the same but is a different application. The information processing apparatus according to any one of (1) to (3) .
(5) The information processing apparatus according to any one of (1) to (4), wherein the HDR parameter includes display characteristic information used when creating the HDR content.
(6) The display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display. The information processing apparatus according to (5).
(7) Information processing device
An information processing method for generating a management file, which is a file for managing an encoded stream of an HDR content, by describing an HDR parameter including at least information on brightness of HDR (High Dynamic Range) content.
(8) An acquisition unit that describes an HDR parameter including at least information on luminance of HDR (High Dynamic Range) content, and acquires a management file that is a file for managing the encoded stream of the HDR content;
An information processing apparatus comprising: a selection unit that selects HDR content corresponding to the display unit using the HDR parameter of the management file acquired by the acquisition unit.
(9) The information processing apparatus according to (8), wherein the HDR parameter is described in Representation or AdaptationSet of the management file.
(10) The information regarding the brightness of the HDR content includes at least one of a table for converting light and an electrical signal, a maximum brightness included in the HDR content, and an average brightness of the HDR content. (8) or (9 ).
(11) The information regarding the brightness of the HDR content includes an identifier when the table is the same but is a different application. The information processing apparatus according to any one of (8) to (10) .
(12) The information processing apparatus according to any one of (8) to (11), wherein the HDR parameter includes display characteristic information used when the HDR content is created.
(13) The display characteristic information includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display. The information processing apparatus according to (12).
(14) The information processing according to any one of (8) to (13), further including a luminance compression unit that compresses the luminance of the HDR content when the luminance of the HDR content exceeds a display range of the display unit. apparatus.
(15) The information processing apparatus according to any one of (8) to (13), further including the display unit.
(16) The display unit is externally attached via a connection unit,
A performance information acquisition unit for acquiring performance information of the display unit;
A transmission unit that transmits an HDR parameter corresponding to the HDR content selected by the selection unit, and
The selection unit includes:
The information processing apparatus according to any one of (8) to (13), wherein the HDR content corresponding to the display unit is selected using the performance information acquired by the performance information acquisition unit.
(17) The information processing apparatus is
An HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content is described, and a management file that is a file for managing the encoded stream of the HDR content is acquired,
An information processing method for selecting an HDR content corresponding to a display unit using an HDR parameter of an acquired management file.

 10 情報処理システム, 11 ファイル生成装置, 12 Webサーバ, 13 インターネット, 14,14-1乃至14-3 動画再生端末, 21 制御用ソフトウエア, 22 動画再生ソフトウエア, 23 アクセス用ソフトウエア, 51 入力部, 52 制御部, 53 ドライブ, 54 メモリ, 55 多重化部, 56-1,56-2 記録部, 57-1,57-2 記録部, 71 字幕読み出し部, 72 ビデオ読み出し部, 73 オーディオ読み出し部, 74 MUX, 91 ネットワーク接続部, 101 入力部, 102 制御部, 103 メモリ, 104 再生部, 105 表示部, 106 スピーカ, 121 データ取得部, 122 読み出しバッファ, 123 DeMUX, 124 字幕生成部, 125 ビデオ生成部, 126 オーディオ生成部, 127 表示データ生成部, 151 輝度圧縮部, 201 制御部, 202 表示部, 203 スピーカ 10 Information processing system, 11 File generation device, 12 Web server, 13 Internet, 14, 14-1 to 14-3 Video playback terminal, 21 Control software, 22 Video playback software, 23 Access software, 51 Input Unit, 52 control unit, 53 drive, 54 memory, 55 multiplexing unit, 56-1, 56-2 recording unit, 57-1, 57-2 recording unit, 71 subtitle reading unit, 72 video reading unit, 73 audio reading Part, 74 MUX, 91 network connection part, 101 input part, 102 control part, 103 memory, 104 playback part, 105 display part, 106 speaker, 121 data acquisition part, 122 read buffer, 123 DeMU X, 124 caption generation unit, 125 video generation unit, 126 audio generation unit, 127 display data generation unit, 151 luminance compression unit, 201 control unit, 202 display unit, 203 speaker

Claims (17)

 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成するファイル生成部
 を備える情報処理装置。
An information processing apparatus comprising: a file generation unit that generates a management file that is a file for managing an encoded stream of an HDR content by describing an HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content.
 前記ファイル生成部は、前記管理ファイルのRepresentationまたはAdaptationSetに、前記HDRパラメータを記載する
 請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the file generation unit describes the HDR parameter in Representation or AdaptationSet of the management file.
 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる
 請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the information related to the luminance of the HDR content includes at least one of a table for converting light and an electrical signal, a maximum luminance included in the HDR content, and an average luminance of the HDR content.
 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている
 請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.
 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている
 請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the HDR parameter includes display characteristic information used when creating the HDR content.
 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる
 請求項5に記載の情報処理装置。
The characteristic information of the display includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display. The information processing apparatus described.
 情報処理装置が、
 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを生成する
 情報処理方法。
Information processing device
An information processing method for generating a management file, which is a file for managing an encoded stream of an HDR content, by describing an HDR parameter including at least information on brightness of HDR (High Dynamic Range) content.
 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得する取得部と、
 前記取得部により取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する選択部と
 を備える情報処理装置。
An acquisition unit that acquires an HDR parameter that includes at least information about brightness of HDR (High Dynamic Range) content, and acquires a management file that is a file for managing the encoded stream of the HDR content;
An information processing apparatus comprising: a selection unit that selects HDR content corresponding to the display unit using the HDR parameter of the management file acquired by the acquisition unit.
 前記HDRパラメータは、前記管理ファイルのRepresentationまたはAdaptationSetに記載されている
 請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the HDR parameter is described in Representation or AdaptationSet of the management file.
 前記HDRコンテンツの輝度に関する情報は、光と電気信号を変換するテーブル、前記HDRコンテンツに含まれる最大輝度、および前記HDRコンテンツの平均輝度の少なくとも1つからなる
 請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the information regarding the brightness of the HDR content includes at least one of a table for converting light and an electrical signal, a maximum brightness included in the HDR content, and an average brightness of the HDR content.
 前記HDRコンテンツの輝度に関する情報には、前記テーブルは同じであるが、異なるアプリケーションである場合の識別子が含まれている
 請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the information regarding the brightness of the HDR content includes an identifier when the table is the same but the application is different.
 前記HDRパラメータには、前記HDRコンテンツの作成時に使用したディスプレイの特性情報が含まれている
 請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the HDR parameter includes display characteristic information used when creating the HDR content.
 前記ディスプレイの特性情報は、前記ディスプレイが表示できる色空間の座標、前記ディスプレイの色空間上のホワイトポイントの座標、前記ディスプレイの最大輝度、前記ディスプレイの最小輝度の少なくとも1つからなる
 請求項12に記載の情報処理装置。
The characteristic information of the display includes at least one of coordinates of a color space that can be displayed by the display, coordinates of a white point on the color space of the display, maximum luminance of the display, and minimum luminance of the display. The information processing apparatus described.
 前記HDRコンテンツの輝度が、前記表示部の表示範囲を超える場合、前記HDRコンテンツの輝度を圧縮する輝度圧縮部を
 さらに備える請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, further comprising a luminance compression unit that compresses the luminance of the HDR content when the luminance of the HDR content exceeds a display range of the display unit.
 前記表示部を
 さらに備える請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, further comprising the display unit.
 前記表示部は、接続部を介して、外付けられており、
 前記表示部の性能情報を取得する性能情報取得部と、
 前記選択部により選択されたHDRコンテンツに対応するHDRパラメータを送信する送信部と
 をさらに備え、
 前記選択部は、
 前記性能情報取得部により取得された性能情報を用いて、前記表示部に対応するHDRコンテンツを選択する
 請求項8に記載の情報処理装置。
The display unit is externally connected via a connection unit,
A performance information acquisition unit for acquiring performance information of the display unit;
A transmission unit that transmits an HDR parameter corresponding to the HDR content selected by the selection unit, and
The selection unit includes:
The information processing apparatus according to claim 8, wherein the HDR content corresponding to the display unit is selected using the performance information acquired by the performance information acquisition unit.
 情報処理装置が、
 HDR(High Dynamic Range)コンテンツの輝度に関する情報を少なくとも含むHDRパラメータを記載して、前記HDRコンテンツの符号化ストリームを管理するファイルである管理ファイルを取得し、
 取得された管理ファイルのHDRパラメータを用いて、表示部に対応するHDRコンテンツを選択する
 情報処理方法。
Information processing device
An HDR parameter including at least information related to brightness of HDR (High Dynamic Range) content is described, and a management file that is a file for managing the encoded stream of the HDR content is acquired,
An information processing method for selecting an HDR content corresponding to a display unit using an HDR parameter of an acquired management file.
PCT/JP2016/078350 2015-10-09 2016-09-27 Information processing device and information processing method WO2017061297A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-201188 2015-10-09
JP2015201188 2015-10-09

Publications (1)

Publication Number Publication Date
WO2017061297A1 true WO2017061297A1 (en) 2017-04-13

Family

ID=58487618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/078350 WO2017061297A1 (en) 2015-10-09 2016-09-27 Information processing device and information processing method

Country Status (1)

Country Link
WO (1) WO2017061297A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017196670A1 (en) * 2016-05-13 2017-11-16 Vid Scale, Inc. Bit depth remapping based on viewing parameters
US11272237B2 (en) 2017-03-07 2022-03-08 Interdigital Madison Patent Holdings, Sas Tailored video streaming for multi-device presentations
US11503314B2 (en) 2016-07-08 2022-11-15 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
US11765150B2 (en) 2013-07-25 2023-09-19 Convida Wireless, Llc End-to-end M2M service layer sessions
US11765406B2 (en) 2017-02-17 2023-09-19 Interdigital Madison Patent Holdings, Sas Systems and methods for selective object-of-interest zooming in streaming video
US11871451B2 (en) 2018-09-27 2024-01-09 Interdigital Patent Holdings, Inc. Sub-band operations in unlicensed spectrums of new radio
US11877308B2 (en) 2016-11-03 2024-01-16 Interdigital Patent Holdings, Inc. Frame structure in NR
US12150146B2 (en) 2016-05-11 2024-11-19 Interdigital Patent Holdings, Inc. Radio PDCCH to facilitate numerology operations
US12231198B2 (en) 2016-08-11 2025-02-18 Interdigital Patent Holdings, Inc. Beamforming sweeping and training in a flexible frame structure for new radio

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014178286A1 (en) * 2013-04-30 2014-11-06 ソニー株式会社 Transmission device, transmission method, receiving device, and receiving method
WO2015118909A1 (en) * 2014-02-07 2015-08-13 ソニー株式会社 Transmission device, transmission method, reception device, reception method, display device, and display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014178286A1 (en) * 2013-04-30 2014-11-06 ソニー株式会社 Transmission device, transmission method, receiving device, and receiving method
WO2015118909A1 (en) * 2014-02-07 2015-08-13 ソニー株式会社 Transmission device, transmission method, reception device, reception method, display device, and display method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11765150B2 (en) 2013-07-25 2023-09-19 Convida Wireless, Llc End-to-end M2M service layer sessions
US12150146B2 (en) 2016-05-11 2024-11-19 Interdigital Patent Holdings, Inc. Radio PDCCH to facilitate numerology operations
WO2017196670A1 (en) * 2016-05-13 2017-11-16 Vid Scale, Inc. Bit depth remapping based on viewing parameters
US10956766B2 (en) 2016-05-13 2021-03-23 Vid Scale, Inc. Bit depth remapping based on viewing parameters
US11503314B2 (en) 2016-07-08 2022-11-15 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
US11949891B2 (en) 2016-07-08 2024-04-02 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
US12231198B2 (en) 2016-08-11 2025-02-18 Interdigital Patent Holdings, Inc. Beamforming sweeping and training in a flexible frame structure for new radio
US11877308B2 (en) 2016-11-03 2024-01-16 Interdigital Patent Holdings, Inc. Frame structure in NR
US11765406B2 (en) 2017-02-17 2023-09-19 Interdigital Madison Patent Holdings, Sas Systems and methods for selective object-of-interest zooming in streaming video
US11272237B2 (en) 2017-03-07 2022-03-08 Interdigital Madison Patent Holdings, Sas Tailored video streaming for multi-device presentations
US11871451B2 (en) 2018-09-27 2024-01-09 Interdigital Patent Holdings, Inc. Sub-band operations in unlicensed spectrums of new radio
US12356456B2 (en) 2018-09-27 2025-07-08 Interdigital Patent Holdings, Inc. Sub-band operations in unlicensed spectrums of new radio

Similar Documents

Publication Publication Date Title
US11856200B2 (en) Data output apparatus, data output method, and data generation method
US11140354B2 (en) Method for generating control information based on characteristic data included in metadata
US11974070B2 (en) Conversion method and conversion apparatus
WO2017061297A1 (en) Information processing device and information processing method
US10136181B2 (en) Playback method and playback device
US20190007676A1 (en) File generation apparatus and file generation method as well as reproduction apparatus and reproduction method
JP2020092444A (en) Display device, display method, and computer program
JPWO2018142947A1 (en) Information processing apparatus and method
JP6643669B2 (en) Display device and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853451

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16853451

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP