[go: up one dir, main page]

WO2011158474A1 - デジタルデータ記録再生装置 - Google Patents

デジタルデータ記録再生装置 Download PDF

Info

Publication number
WO2011158474A1
WO2011158474A1 PCT/JP2011/003282 JP2011003282W WO2011158474A1 WO 2011158474 A1 WO2011158474 A1 WO 2011158474A1 JP 2011003282 W JP2011003282 W JP 2011003282W WO 2011158474 A1 WO2011158474 A1 WO 2011158474A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
video
unit
data
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2011/003282
Other languages
English (en)
French (fr)
Inventor
隆之 川西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to CN201180028583.3A priority Critical patent/CN102934168B/zh
Priority to JP2012520281A priority patent/JP5700853B2/ja
Publication of WO2011158474A1 publication Critical patent/WO2011158474A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2516Hard disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums

Definitions

  • the present invention relates to a digital data recording / reproducing apparatus for re-encoding an encoded AV (Audio Visual) stream.
  • the storage medium is an HDD (Hard Disk Drive), a BD (Blu-ray Disc), a DVD (Digital Versatile Disc), or the like.
  • the digital data recording / reproducing apparatus is also simply referred to as a recording / reproducing apparatus.
  • the recording method A has an advantage that recording can always be performed with broadcast quality, but has a disadvantage that the data size cannot be arbitrarily adjusted during recording.
  • the other is a method of decoding received data once and then re-encoding it, and recording the re-encoded stream (hereinafter referred to as recording method B).
  • the recording method B has an advantage that the data size at the time of recording can be adjusted, but has a disadvantage that the quality of video and audio is deteriorated as compared with the time of broadcasting.
  • some recording / reproducing apparatuses have a function of re-encoding and recording data recorded on a storage medium instead of re-encoding received broadcast data.
  • AV data may be recorded on a DVD medium in a DVD-Video standard format for playback on a DVD player or the like.
  • the stream format used in digital television broadcasting is MPEG-2 TS (Transport Stream), but the stream format used in DVD-Video is MPEG-2 PS (Program Stream), and conversion of the stream format is possible. I need it.
  • Patent Document 1 discloses a technique for converting MPEG-TS format data into MPEG-PS format data (hereinafter referred to as Conventional Technology A).
  • the AV synchronization at the time of decoding is aligned.
  • AV synchronization is synchronization of video data and audio data.
  • aligning AV synchronization or synchronizing AV synchronization means processing video data and audio data in synchronization.
  • the decoded video data and the decoded audio data are supplied to the video encoding unit and the audio encoding, respectively.
  • An abnormal decoding situation occurs, for example, when a part of data is lost due to some kind of failure such as poor reception of radio waves.
  • AV data decoded in a decoding abnormality situation is re-encoded and multiplexed without considering synchronization in the recording / reproducing apparatus, an AV stream that is out of synchronization is generated. If AV synchronization information is included in each of the video data and audio data of the stream before decoding, even if the data is missing at the time of decoding, the video data and audio data are synchronized, Playback and re-encoding can be performed.
  • video data and audio data may be misaligned. This is because the unit time constituting the video data is different from the unit time constituting the audio data. However, even in such a case, it is possible to prevent synchronization loss using AV synchronization information.
  • PTS Presentation Time Stamp
  • PES Packetized Elementary Stream
  • PTS indicates the display time (display timing) of each of video data and audio data.
  • the system reference time for taking the output timing is called STC (System Time Clock).
  • STC System Time Clock
  • the STC is a counter whose value is counted up every time a predetermined time elapses.
  • video PTS is also referred to as VPTS.
  • audio PTS is also referred to as APTS.
  • the decoding unit By controlling the decoding unit so that the video data and the audio data are output at the timing when each of the VPTS and the APTS matches the STC value, the AV synchronization is achieved between the video data and the audio data. It becomes a state.
  • Each of the decoded video data and audio data is temporarily stored in the corresponding output buffer, and then transmitted from each buffer by the video output unit and the audio output unit.
  • the video output unit and the audio output unit output data in synchronization with the clock supplied from the common clock generation unit. Therefore, at the time of reproduction, the video data and the audio data are synchronized.
  • each of the video data and the audio data sent out by the video output unit and the audio output unit is stored in the corresponding encoding unit buffer.
  • Each of the video encoding unit and the audio encoding unit sequentially encodes the data supplied to the corresponding encoding unit buffer, and stores the re-encoded stream in the corresponding encoding output buffer.
  • the AV multiplexing unit multiplexes the video stream stored in one encoded output buffer and the audio stream stored in the other encoded output buffer to generate an MPEG-2 PS or TS stream. .
  • AV synchronization at the time of input to encoding is achieved, a stream generated after re-encoding is also synchronized with AV.
  • the re-encoding speed is fixed, for example, when re-encoding needs to be performed at high speed, or when re-encoding needs to be performed at low speed in order to reduce the power consumption of the device, it is flexible. There is a problem that it can not cope with.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to make it possible to change the re-encoding speed of a stream while processing video data and audio data synchronously.
  • a digital data recording / reproducing apparatus having
  • a digital data recording / reproducing apparatus configured such that a first video bit stream and audio data generated by encoding video data are encoded.
  • the first AV (Audio Visual) bit stream in which the generated first audio bit stream is multiplexed is processed.
  • the digital data recording / reproducing apparatus has at least two types of operation modes, the first video bitstream includes video synchronization information, the first audio bitstream includes audio synchronization information, and the video
  • Each of the synchronization information and the audio synchronization information is information for processing the video data and the audio data in synchronization.
  • the digital data recording / reproducing apparatus includes an AV separation unit that extracts the first video bit stream and the first audio bit stream from the first AV bit stream, and the digital video recording / playback device from the first video bit stream.
  • a video synchronization information extraction unit that extracts video synchronization information, an audio synchronization information extraction unit that extracts the audio synchronization information from the first audio bitstream, and the video data by decoding the first video bitstream
  • a video decoding unit for outputting the video data
  • an audio decoding unit for acquiring the audio data by decoding the first audio bitstream, and outputting the audio data
  • Synchronize video data and audio data A clock generator for generating an AV synchronization clock for processing, and an AV synchronization controller for controlling the video data and the audio data to be processed in synchronization with each other, the AV synchronization controller Uses the video synchronization information, the audio synchronization information, and the AV synchronization clock to synchronize the output timing of the video data by the video decoding unit and
  • the digital data recording / reproducing apparatus further includes a video output unit that outputs the video data in synchronization with a video output clock synchronized with the AV synchronization clock, and an audio output clock synchronized with the AV synchronization clock.
  • An audio output unit that outputs the audio data, a video encoding unit that generates a second video bitstream by encoding the video data output from the video output unit, and an output from the audio output unit
  • An audio encoding unit that generates a second audio bitstream by encoding the audio data, and a second by multiplexing the second video bitstream and the second audio bitstream.
  • the clock generation unit further, depending on the type of the operation mode of the digital data recording and reproducing apparatus, changes the speed of the AV synchronization clock.
  • the AV synchronization control unit controls the video decoding unit and the audio decoding unit so that the output timing of the video data by the video decoding unit is synchronized with the output timing of the audio data by the audio decoding unit. Control.
  • the video decoding unit acquires video data by decoding the first video bit stream multiplexed into the first AV bit stream, and the audio decoding unit is multiplexed into the first AV bit stream. Audio data is obtained by decoding the first audio bitstream.
  • the video data and the audio data are encoded by the video encoding unit and the audio encoding unit, respectively. As a result, a second video bit stream and a second audio bit stream are generated.
  • the video decoding unit, the audio decoding unit, the video encoding unit, and the audio encoding unit decode the stream and encode the data obtained by the decoding. That is, re-encoding is performed on the stream.
  • the clock generation unit changes the speed of the AV synchronization clock according to the operation mode.
  • the video output unit outputs the video data in synchronization with the video output clock synchronized with the AV synchronization clock.
  • the audio output unit outputs the audio data in synchronization with the audio output clock synchronized with the AV synchronization clock.
  • the output timing of video data and audio data changes with the change of the speed of the AV synchronization clock. That is, the timing at which the video encoding unit and the audio encoding unit encode the video data and the audio data, respectively, changes. That is, the re-encoding speed of the stream is changed with the change of the speed of the AV synchronization clock.
  • the digital data recording / reproducing apparatus decodes the first AV bitstream as the operation mode and the first AV bitstream, and obtains the first AV bitstream by decoding.
  • a second mode for encoding the received data, and the clock generation unit determines a speed of the AV synchronization clock generated when the operation mode of the digital data recording / reproducing apparatus is the second mode.
  • the speed of the AV synchronization clock generated when the operation mode of the digital data recording / reproducing apparatus is the first mode is made faster.
  • each of the video synchronization information, the audio synchronization information, and the AV synchronization clock indicates a value used for control by the AV synchronization control unit, and the value indicated by the AV synchronization clock indicates that time has elapsed.
  • the AV synchronization control unit (a) causes the video decoding unit to output the video data at a timing when the value indicated by the video synchronization information matches the value indicated by the AV synchronization clock. And (b) the audio decoder so that the audio decoder outputs the audio data at a timing when the value indicated by the audio synchronization information matches the value indicated by the AV synchronization clock. Control the decoding unit.
  • a digital data recording / reproducing apparatus provides a first video bit stream generated by encoding video data and a first audio bit generated by encoding audio data.
  • the first AV (Audio Visual) bit stream in which the stream is multiplexed is processed.
  • the first video bitstream includes video synchronization information
  • the first audio bitstream includes audio synchronization information
  • the digital data recording / reproducing device receives the first AV bitstream from the first AV bitstream.
  • An AV separation unit that extracts the video bit stream and the first audio bit stream, a video synchronization information extraction unit that extracts the video synchronization information from the first video bit stream, and the first audio bit stream
  • An audio synchronization information extraction unit for extracting the audio synchronization information from the video data, a video decoding unit for obtaining the video data by decoding the first video bit stream, and outputting the video data;
  • an AV synchronization control unit for controlling the video data and the audio data to be processed in synchronization, and the video decoding unit decoding
  • An alternative video data generation unit that generates alternative video data that is an alternative to the decoded video data that is video data acquired by the method, and an alternative that is an alternative to the decoded audio data that is the audio data that the audio decoding unit acquires by decoding
  • An alternative audio data generation unit that generates audio data; a video encoding unit that generates a second video bitstream by encoding the decode
  • Each of the video synchronization information and the audio synchronization information is information for controlling the video encoding unit and the audio encoding unit
  • the AV synchronization control unit includes the video synchronization information, the audio synchronization information, And (a) according to the comparison result, the decoded video data and the encoded video data and the timing at which the video encoding unit performs encoding and the timing at which the audio encoding unit performs encoding are synchronized.
  • the video encoding unit is controlled to cause the video encoding unit to encode any of the alternative video data, and (b) either the decoded audio data or the alternative audio data according to the comparison result
  • the audio encoding unit is controlled so that the audio encoding unit encodes the above.
  • the AV synchronization control unit compares the video synchronization information with the audio synchronization information, and the timing at which the video encoding unit performs encoding and the timing at which the audio encoding unit performs encoding are synchronized. (A) controlling the video encoding unit to cause the video encoding unit to encode either the decoded video data or the alternative video data according to the comparison result, and (b) In accordance with the comparison result, the audio encoding unit is controlled to cause the audio encoding unit to encode either the decoded audio data or the alternative audio data.
  • the video encoding unit and the audio encoding unit encode data (for example, video data) obtained by decoding a stream (for example, the first video bit stream). That is, the video decoding unit, the audio decoding unit, the video encoding unit, and the audio encoding unit re-encode the stream.
  • each of the video decoding unit, the audio decoding unit, the video encoding unit, and the audio encoding unit is not controlled in synchronization with the timing of performing the corresponding processing (encoding, decoding, etc.) . That is, each of the video decoding unit, the audio decoding unit, the video encoding unit, and the audio encoding unit can operate asynchronously.
  • the speed of re-encoding for a stream can be changed by changing the speed of processing performed by each of the video decoding unit, the audio decoding unit, the video encoding unit, and the audio encoding unit. It becomes.
  • the digital data recording / reproducing apparatus has a configuration capable of changing the re-encoding speed of a stream while processing video data and audio data in synchronization.
  • each of the video synchronization information and the audio synchronization information indicates a value used for control by the AV synchronization control unit
  • the AV synchronization control unit includes a value indicated by the video synchronization information and the audio synchronization information.
  • the predetermined condition is a condition that an absolute value of a difference between a value indicated by the video synchronization information and a value indicated by the audio synchronization information is a predetermined synchronization threshold value or more, and the AV synchronization control unit (E) When the absolute value is equal to or greater than the synchronization threshold value and the value indicated by the video synchronization information is smaller than the value indicated by the audio synchronization information, the alternative video data is encoded in the video encoding unit. (F) if the absolute value is greater than or equal to the synchronization threshold and the value indicated by the audio synchronization information is smaller than the value indicated by the video synchronization information, The audio encoding unit is controlled to cause the unit to encode the alternative audio data.
  • all or some of a plurality of components constituting such a digital data recording / reproducing apparatus may be realized as a system LSI (Large Scale Integration).
  • the present invention may be realized as a digital data recording method in which the operation of characteristic components included in the digital data recording / reproducing apparatus is a step. Further, the present invention may be realized as a program that causes a computer to execute each step included in such a digital data recording method. Further, the present invention may be realized as a computer-readable recording medium that stores such a program. The program may be distributed via a transmission medium such as the Internet.
  • FIG. 1 is a block diagram showing a configuration of a digital data recording / reproducing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing a configuration of a digital data recording / reproducing apparatus according to the second embodiment.
  • FIG. 3 is a block diagram showing a characteristic first functional configuration of the digital data recording / reproducing apparatus.
  • FIG. 4 is a block diagram showing a characteristic second functional configuration of the digital data recording / reproducing apparatus.
  • FIG. 1 is a block diagram showing a configuration of a digital data recording / reproducing apparatus 1000 according to the first embodiment. For the sake of explanation, FIG. 1 also shows a storage medium 101 that is not included in the digital data recording / reproducing apparatus 1000.
  • the digital data recording / reproducing apparatus 1000 has a normal reproduction mode and a re-encoding mode as operation modes.
  • the normal playback mode is an operation mode for performing a process of reproducing (outputting) an encoded stream (data) by decoding (hereinafter also referred to as a normal playback process). That is, the normal reproduction mode is a first mode for reproducing the AV bit stream.
  • the re-encoding mode is an operation mode for performing a process of decoding the encoded stream (data) and re-encoding the decoded data (hereinafter referred to as a re-encoding process). That is, the re-encoding mode is a second mode for decoding the AV bit stream and encoding the data obtained by the decoding.
  • the digital data recording / reproducing apparatus 1000 is an AV reproducing apparatus such as an HDD recorder.
  • the digital data recording / reproducing apparatus 1000 is not limited to the HDD recorder, and may be any apparatus as long as it has a normal reproduction mode and a re-encoding mode.
  • a digital data recording / reproducing apparatus 1000 includes an AV separation unit 102, an input video bit stream buffer unit 103, an input audio bit stream buffer unit 104, a video decoding unit 105, and a video output data buffer unit.
  • 106 an audio decoding unit 107, an audio output data buffer unit 108, a video output unit 109, a video encoding input buffer unit 110, an audio output unit 111, and an audio encoding input buffer unit 112.
  • the digital data recording / reproducing apparatus 1000 further includes a video encoding unit 113, an encoded video bitstream buffer unit 114, an audio encoding unit 115, an encoded audio bitstream buffer unit 116, and an AV multiplexing unit 117. Is provided.
  • the storage medium 101 is a BD (Blu-ray Disc), a DVD (Digital Versatile Disc), or the like.
  • the storage medium 101 may be an HDD (Hard Disk Drive) or the like. In this case, the storage medium 101 may be included in the digital data recording / reproducing apparatus 1000.
  • HDD Hard Disk Drive
  • an AV bit stream AVST1 to be re-encoded is recorded.
  • the AV bit stream AVST1 is an encoded stream.
  • the AV bit stream AVST1 is a stream in which the video bit stream VST1 and the audio bit stream AST1 are multiplexed according to a predetermined encoding format.
  • the predetermined encoding format is, for example, MPEG-2 TS.
  • the predetermined encoding format is not limited to MPEG-2 TS, but may be other encoding formats.
  • Each of the video bit stream VST1 and the audio bit stream AST1 is an encoded stream.
  • the AV bitstream AVST1 is composed of a plurality of PES (Packetized Elementary Stream) packets.
  • the header of the PES packet indicates PTS (Presentation Time Stamp).
  • PTS is synchronization information used for synchronization processing.
  • the PTS is a counter whose value is counted up every time a predetermined time elapses.
  • each of the video bit stream VST1 and the audio bit stream AST1 is composed of a plurality of PESs. That is, each of the video bit stream VST1 and the audio bit stream AST1 includes a plurality of PTSs.
  • the PTS included in the video bitstream VST1 is referred to as VPTS (video synchronization information).
  • the PTS included in the audio bitstream AST1 is referred to as APTS (audio synchronization information).
  • each of VPTS and APTS is a counter whose value is counted up every predetermined time.
  • Each of VPTS (video synchronization information) and APTS (audio synchronization information) is information for processing video data and audio data in synchronization.
  • the video bit stream VST1 is a stream generated by encoding the video data VD1 according to a predetermined moving image encoding format.
  • the moving image encoding format is, for example, MPEG2 TS.
  • the video data VD1 is moving image data. That is, the video bit stream VST1 as the first video bit stream includes VPTS (video synchronization information).
  • moving image encoding format is not limited to MPEG2 TS, and may be other encoding formats.
  • the audio bit stream AST1 is a stream generated by encoding the audio data AD1 according to a predetermined audio encoding format.
  • the audio encoding format is AAC (Advanced Audio Audio Coding).
  • the audio data AD1 is audio data. That is, the audio bit stream AST1 as the first audio bit stream includes APTS (audio synchronization information).
  • the audio encoding format is not limited to AAC, and may be another audio encoding format.
  • the video decoding unit 105 decodes the video bitstream VST1 by performing a decoding process corresponding to the moving image encoding format used for encoding the video bitstream VST1.
  • the moving image encoding format is, for example, MPEG2 TS.
  • the audio decoding unit 107 decodes the audio bitstream AST1 by performing a decoding process corresponding to the audio encoding format used for encoding the audio bitstream AST1.
  • the speech encoding format is, for example, AAC.
  • the video encoding unit 113 encodes the decoded video data using a video encoding format (hereinafter referred to as a video re-encoding format) different from the video encoding format used for encoding the video bitstream VST1.
  • a video re-encoding format a video encoding format
  • the moving image re-encoding format is, for example, MPEG2 PS.
  • the moving image re-encoding format is not limited to MPEG2 PS, and may be another encoding format (for example, H.264 / AVC).
  • the video encoding unit 113 changes the encoding condition (for example, bit rate) according to the same video encoding format as the video encoding format used for encoding the video bitstream VST1, and performs encoding. Processing may be performed.
  • encoding condition for example, bit rate
  • the audio encoding unit 115 encodes the decoded audio data in accordance with an audio encoding format (hereinafter referred to as audio re-encoding format) different from the audio encoding format used for encoding the audio bitstream AST1.
  • the audio re-encoding format is, for example, MPEG2 PS.
  • the audio re-encoding format is not limited to MPEG2 PS, and may be another encoding format (for example, AAC (Advanced Audio Coding)).
  • AAC Advanced Audio Coding
  • the audio encoding unit 115 changes the encoding condition (for example, bit rate) according to the same audio encoding format used for encoding the audio bitstream AST1, and performs encoding processing. You may go.
  • the encoding condition for example, bit rate
  • each of the video output unit 109 and the audio output unit 111 outputs the processed data to a processing unit (not shown).
  • a data processing path (hereinafter referred to as a normal playback path) from the AV separation unit 102 to the video output unit 109 and the audio output unit 111 is formed.
  • the video output unit 109 and the audio output unit 111 output the processed data to the video encoding input buffer unit 110 and the audio encoding input buffer unit 112, respectively.
  • a data processing path (hereinafter referred to as a re-encoding process path) from the AV separation unit 102 to the AV multiplexing unit 117 is formed.
  • the re-encoding processing path includes a normal reproduction path. That is, the normal playback path is shared in the normal playback process and the re-encoding process.
  • Each of the stream buffer unit 114 and the encoded audio bitstream buffer unit 116 is a buffer for temporarily storing data.
  • the digital data recording / reproducing apparatus 1000 further includes a video synchronization information extraction unit 118, an audio synchronization information extraction unit 119, an AV synchronization control unit 120, and a clock generation unit 121.
  • the AV separation unit 102 reads the AV bit stream AVST1 stored in the storage medium 101.
  • the AV separation unit 102 extracts the video bit stream VST1 and the audio bit stream AST1 from the AV bit stream AVST1.
  • the AV separation unit 102 stores the video bitstream VST1 in the input video bitstream buffer unit 103 and stores the audio bitstream AST1 in the input audio bitstream buffer unit 104.
  • the video decoding unit 105 acquires the video data VD1 by decoding the video bitstream VST1 stored in the input video bitstream buffer unit 103 according to the control described later by the AV synchronization control unit 120.
  • the video data VD1 is decoded video data.
  • the video decoding unit 105 outputs the video data VD1 and stores the video data VD1 in the video output data buffer unit 106 according to control described later by the AV synchronization control unit 120.
  • the audio decoding unit 107 decodes the audio bitstream AST1 stored in the input audio bitstream buffer unit 104 according to the control of the AV synchronization control unit 120 described later, thereby Data AD1 is acquired.
  • the audio data AD1 is decoded audio data.
  • the audio decoding unit 107 outputs the audio data AD1 and stores the audio data AD1 in the audio output data buffer unit 108 according to the control described later by the AV synchronization control unit 120.
  • the video output unit 109 reads out and outputs the video data VD1 stored in the video output data buffer unit 106, and stores the video data VD1 in the video encoding input buffer unit 110. That is, the video data VD 1 is transferred from the video output data buffer unit 106 to the video encoding input buffer unit 110 by the video output unit 109.
  • the audio output unit 111 reads out and outputs the audio data AD1 stored in the audio output data buffer unit 108, and causes the audio encoding input buffer unit 112 to store the audio data AD1. That is, the audio data AD1 is transferred from the audio output data buffer unit 108 to the audio encoding input buffer unit 112 by the audio output unit 111.
  • the video encoding unit 113 generates the video bitstream VST2 by encoding the video data VD1 stored in the video encoding input buffer unit 110. That is, the video encoding unit 113 generates the video bit stream VST2 as the second video bit stream by encoding the video data VD1 output from the video output unit 109.
  • the video encoding unit 113 re-encodes the video data VD1 obtained by decoding.
  • the video encoding unit 113 stores the video bit stream VST2 in the encoded video bit stream buffer unit 114.
  • the audio encoding unit 115 generates the audio bitstream AST2 by encoding the audio data AD1 stored in the audio encoding input buffer unit 112. That is, the audio encoding unit 115 generates the audio bit stream AST2 as the second audio bit stream by encoding the audio data AD1 output from the audio output unit 111.
  • the audio encoding unit 115 re-encodes the audio data AD1 obtained by decoding.
  • the audio encoding unit 115 stores the audio bitstream AST2 in the encoded audio bitstream buffer unit 116.
  • the AV multiplexing unit 117 multiplexes the video bit stream VST2 stored in the encoded video bitstream buffer unit 114 and the audio bitstream AST2 stored in the encoded audio bitstream buffer unit 116.
  • the AV bit stream AVST2 is generated.
  • the AV multiplexing unit 117 performs multiplexing according to a format such as MPEG-2, for example. Then, the AV multiplexing unit 117 stores the AV bit stream AVST2 in the storage medium 101.
  • the video data VD1 and audio data AD1 included in the AV bit stream AVST1 are re-encoded.
  • the video synchronization information extraction unit 118 extracts VPTS as video synchronization information from the video bitstream VST1 stored in the input video bitstream buffer unit 103, and transmits the VPTS to the AV synchronization control unit 120.
  • the audio synchronization information extraction unit 119 extracts APTS as audio synchronization information from the audio bitstream AST1 stored in the input audio bitstream buffer unit 104, and transmits the APTS to the AV synchronization control unit 120.
  • the clock generation unit 121 generates an AV synchronization clock AVCK for processing video data and audio data in synchronization, and transmits the AV synchronization clock AVCK to the AV synchronization control unit 120.
  • the AV synchronization clock AVCK is a counter whose value increases every elapse of a predetermined time. That is, the value indicated by the AV synchronization clock AVCK increases with time.
  • the AV synchronization clock AVCK plays a role of STC (System Time Clock) at the time of data reproduction (decoding).
  • each of VPTS (video synchronization information), APTS (audio synchronization information), and AV synchronization clock AVCK indicates a value used by AV synchronization control unit 120 for control.
  • the AV synchronization control unit 120 performs control for processing the video data VD1 and the audio data AD1 in synchronization. Specifically, the AV synchronization control unit 120 uses the VPTS (video synchronization information), APTS (audio synchronization information), and AV synchronization clock AVCK to output the video data VD1 by the video decoding unit 105 and the audio decoding. The video decoding unit 105 and the audio decoding unit 107 are controlled so that the output timing of the audio data AD1 by the unit 107 is synchronized.
  • VPTS video synchronization information
  • APTS audio synchronization information
  • AV synchronization clock AVCK AV synchronization clock
  • the AV synchronization control unit 120 causes the video decoding unit 105 to output the video data VD1 at a timing when the value indicated by VPTS (video synchronization information) matches the value indicated by the AV synchronization clock AVCK.
  • the video decoding unit 105 is controlled.
  • the AV synchronization control unit 120 performs the audio decoding so that the audio decoding unit 107 outputs the audio data AD1 at the timing when the value indicated by APTS (audio synchronization information) matches the value indicated by the AV synchronization clock AVCK.
  • the unit 107 is controlled.
  • the AV synchronization control unit 120 causes the audio decoding unit 107 to stop the decoding process.
  • the AV synchronization control unit 120 skips the audio decoding unit 107 without decoding all the audio bitstreams AST1.
  • the value of the APTS of the audio bitstream AST1 is increased to the value of the AV synchronization clock AVCK.
  • the AV decoding control unit 120 performs the same control as the above control performed on the audio decoding unit 107 on the video decoding unit 105.
  • AV synchronization control unit 120 When the AV synchronization control unit 120 performs the control as described above, even when the AV bit stream before re-encoding has a defect and cannot normally acquire the PTS, when the normal AV bit stream is input, AV synchronization can be restored.
  • the video output unit 109 and the audio output unit 111 are used in common with the output unit for reproduction.
  • the clock generation unit 121 supplies the same clock generated from the same clock generation source to the video output unit 109 and the audio output unit 111.
  • the clock generation source is, for example, a crystal resonator.
  • the clock supplied from the clock generation unit 121 to the video output unit 109 is referred to as a video clock VCK.
  • the clock supplied from the clock generation unit 121 to the audio output unit 111 is referred to as an audio clock ACK.
  • the clock generator 121 generates the AV synchronization clock AVCK, which is a clock synchronized with the video clock VCK and the audio clock ACK. That is, the AV synchronization clock AVCK generated by the clock generation unit 121 is a clock synchronized with the video clock VCK and the audio clock ACK.
  • the video output unit 109 reads out and outputs the video data VD1 stored in the video output data buffer unit 106 according to the video clock VCK, and outputs the video data VD1 to the video encoding input buffer unit. 110 is stored.
  • the audio output unit 111 reads out and outputs the audio data AD1 stored in the audio output data buffer unit 108 according to the audio clock ACK, and outputs the audio data AD1 to the audio encoding input buffer unit. 112 is stored.
  • the video decoding unit 105 and the audio decoding unit 107 normally perform decoding processing, the video data VD1 and the audio data AD1 are output almost simultaneously. That is, in this case, the video data VD1 and the audio data AD1 are output in synchronization.
  • the video output unit 109 outputs the decoded data (video data VD1) and stores the video data VD1 in the video encoding input buffer unit 110 when the decoding process by the video decoding unit 105 is normally performed.
  • the video output unit 109 outputs alternative video data.
  • the alternative video data is, for example, data of the last video frame (latest video frame) before the decoding process is stopped.
  • the audio output unit 111 outputs decoded data (audio data AD1) when the decoding process by the audio decoding unit 107 is normally performed, and stores the audio data AD1 in the audio encoding input buffer unit 112.
  • the audio output unit 111 when the decoding process by the audio output unit 111 is stopped under the control of the AV synchronization control unit 120, the audio output unit 111 outputs alternative audio data.
  • the alternative audio data is, for example, silence data.
  • each of the video encoding unit 113 and the audio encoding unit 115 can maintain (synchronize) the AV synchronization only by sequentially encoding the supplied data without considering the AV synchronization.
  • the AV demultiplexing unit 102 and the AV multiplexing unit 117 do not require complicated arithmetic processing as compared with encoding processing and decoding processing, and therefore are excluded from the system bottlenecks. be able to.
  • the video decoding unit 105 and the video encoding unit 113 require complicated arithmetic processing on video data, the video decoding unit 105 and the video encoding unit 113 are configured by a high-speed arithmetic device or a circuit dedicated to arithmetic operations. It only has to be done.
  • the audio decoding unit 107 and the audio encoding unit 115 require complicated arithmetic processing on audio data, the audio decoding unit 107 and the audio encoding unit 115 are high-speed arithmetic devices or circuits dedicated to arithmetic operations. What is necessary is just to comprise.
  • high-speed re-encoding processing can be performed in accordance with the processing capabilities of the video decoding unit 105, the audio decoding unit 107, the audio decoding unit 107, and the audio encoding unit 115 while maintaining AV synchronization.
  • the AV synchronization clock AVCK, the video clock VCK, and the audio clock ACK generated by the clock generation unit 121 are faster than the clocks used in the normal reproduction process (frequency Clock).
  • the clock generation unit 121 generates a different clock in each of the normal reproduction process and the re-encoding process. That is, when the process performed by the digital data recording / reproducing apparatus 1000 is switched from the normal reproduction process to the re-encoding process, the clock generated by the clock generation unit 121 is switched to a faster clock.
  • the clock generation unit 121 determines the speed of the AV synchronization clock AVCK generated when the operation mode of the digital data recording / reproducing apparatus 1000 is the re-encoding mode as the second mode.
  • the speed is higher than the speed of the AV synchronization clock AVCK generated.
  • the clock generation unit 121 uses the frequency of the AV synchronization clock AVCK generated when the operation mode of the digital data recording / reproducing apparatus 1000 is the re-encoding mode as the second mode as the operation of the digital data recording / reproducing apparatus 1000.
  • the frequency is higher than the frequency of the AV synchronization clock AVCK generated when the mode is the normal reproduction mode as the first mode.
  • each of the video decoding unit 105 and the audio decoding unit 107 can decode the corresponding data faster than the decoding process in the normal reproduction process.
  • each of the video output unit 109 and the audio output unit 111 can increase the speed at which the corresponding data is output as compared with the normal reproduction process.
  • each of the video encoding unit 113 and the audio encoding unit 115 can increase the speed at which the corresponding data is re-encoded.
  • the clock generation unit 121 generates the speed of the AV synchronization clock AVCK that is generated when the operation mode of the digital data recording / reproducing apparatus 1000 is the re-encoding mode, when the operation mode is the normal reproduction mode.
  • the speed may be slower than the speed of the AV synchronization clock AVCK.
  • the clock generation unit 121 changes the speed (frequency) of the AV synchronization clock AVCK according to the type of operation mode of the digital data recording / reproducing apparatus 1000.
  • each of the video output unit 109 and the audio output unit 111 is operated using a clock that is faster than the clock used for the normal reproduction process.
  • the above-described normal reproduction path used for the normal reproduction process is used. That is, the normal playback path is shared in the normal playback process and the re-encoding process.
  • a high-speed re-encoding process can be realized with a slight change in the configuration of the recording / reproducing apparatus shown in the prior art. .
  • FIG. 2 is a block diagram showing a configuration of a digital data recording / reproducing apparatus 1000A according to the second embodiment. 2 also shows a storage medium 101 not included in the digital data recording / reproducing apparatus 1000A for the sake of explanation.
  • the digital data recording / reproducing apparatus 1000A includes a video decoding unit 105, an audio decoding unit 107, a video encoding unit 113, an audio encoding unit 115, and an AV synchronization control unit 120.
  • a video decoding unit 105A, an audio decoding unit 107A, a video encoding unit 113A, an audio encoding unit 115A, and an AV synchronization control unit 120A, and an alternative video data generation unit 211 and an alternative audio data generation unit 212 are further provided.
  • the difference is that the video output unit 109, the audio output unit 111, and the clock generation unit 121 are not provided.
  • the configuration of the digital data recording / reproducing apparatus 1000A is the same as that of the digital data recording / reproducing apparatus 1000, and the detailed description will not be repeated.
  • the video decoding unit 105A is different from the video decoding unit 105 in that it is not controlled from the outside (for example, the AV synchronization control unit 120A).
  • Other functions of the video decoding unit 105A are the same as those of the video decoding unit 105, and thus detailed description will not be repeated. That is, the video decoding unit 105 ⁇ / b> A has a function of performing the same decoding process as the video decoding unit 105.
  • the audio decoding unit 107A is different from the audio decoding unit 107 in that it is not controlled from the outside (for example, the AV synchronization control unit 120A). Other functions of the audio decoding unit 107A are the same as those of the audio decoding unit 107, and thus detailed description will not be repeated. That is, the audio decoding unit 107A has a function of performing the same decoding process as the audio decoding unit 107.
  • the video encoding unit 113A is different from the video encoding unit 113 in that it is controlled by the AV synchronization control unit 120A.
  • Other functions of the video encoding unit 113A are the same as those of the video encoding unit 113, and thus detailed description will not be repeated. That is, the video encoding unit 113A performs the same encoding process as the video encoding unit 113.
  • the audio encoding unit 115A is different from the audio encoding unit 115 in that it is controlled by the AV synchronization control unit 120A.
  • the other functions of the audio encoding unit 115A are the same as those of the audio encoding unit 115, and thus detailed description will not be repeated. That is, the audio encoding unit 115A performs the same encoding process as the audio encoding unit 115.
  • the alternative video data generation unit 211 generates alternative video data.
  • the substitute video data is video data that substitutes for the video data VD1.
  • the alternative video data generation unit 211 constantly monitors the state of the video decoding unit 105A, and generates alternative video data that is in the latest state of the video decoding unit 105A each time the state of the video decoding unit 105A changes. .
  • the alternative video data generation unit 211 when the decoding process by the video decoding unit 105A stops, the alternative video data generation unit 211 generates alternative video data indicating the final video frame (latest video frame) before the decoding process is stopped.
  • the alternative audio data generation unit 212 generates alternative audio data.
  • the alternative audio data is audio data that substitutes for the audio data AD1.
  • the alternative audio data generation unit 212 constantly monitors the state of the audio decoding unit 107A, and generates alternative audio data that is in the latest state of the audio decoding unit 107A each time the state of the audio decoding unit 107A changes. .
  • the alternative audio data generation unit 212 when the decoding process by the audio decoding unit 107A is stopped, the alternative audio data generation unit 212 generates alternative audio data that is silent data.
  • the digital data recording / reproducing apparatus 1000A has a normal reproduction mode and a re-encoding mode as operation modes.
  • the operation mode of the digital data recording / reproducing apparatus 1000A is also referred to as an apparatus operation mode.
  • the apparatus operation mode is the normal playback mode
  • the normal playback process A is performed.
  • the apparatus operation mode is the re-encoding mode
  • the re-encoding process A is performed.
  • a data processing path (hereinafter referred to as a re-encoding process path A) from the AV demultiplexing unit 102 to the AV multiplexing unit 117 is formed.
  • the AV separation unit 102 reads the AV bit stream AVST1 stored in the storage medium 101.
  • the AV separation unit 102 extracts the video bit stream VST1 and the audio bit stream AST1 from the AV bit stream AVST1.
  • the AV separation unit 102 stores the video bitstream VST1 in the input video bitstream buffer unit 103 and stores the audio bitstream AST1 in the input audio bitstream buffer unit 104.
  • the video decoding unit 105A acquires the video data VD1 by decoding the video bitstream VST1 stored in the input video bitstream buffer unit 103. That is, the video data VD1 is decoded video data that is video data acquired by the video decoding unit 105A by decoding.
  • the video decoding unit 105A outputs the video data VD1, and stores the video data VD1 in the video output data buffer unit 106.
  • the audio decoding unit 107A acquires the audio data AD1 by decoding the audio bitstream AST1 stored in the input audio bitstream buffer unit 104 in parallel with the processing of the video decoding unit 105A. That is, the audio data AD1 is decoded audio data that is audio data acquired by the audio decoding unit 107A by decoding.
  • the audio decoding unit 107A outputs the audio data AD1, and stores the audio data AD1 in the audio output data buffer unit 108.
  • the timing at which the video decoding unit 105A outputs the video data VD1 acquired by the above-described decoding process is referred to as a video output timing.
  • the timing at which the audio decoding unit 107A outputs the audio data AD1 acquired by the above-described decoding process is referred to as an audio output timing.
  • the video encoding unit 113A generates the video bit stream VST2 by encoding the video data VD1 stored in the video output data buffer unit 106 or the latest alternative video data according to the control described later by the AV synchronization control unit 120A. To do. That is, the video encoding unit 113A performs a process of re-encoding the video data VD1 obtained by decoding or a process of encoding the latest alternative video data.
  • the video encoding unit 113A stores the video bit stream VST2 in the encoded video bit stream buffer unit 114.
  • the audio encoding unit 115A generates the audio bit stream AST2 by encoding the audio data AD1 stored in the audio output data buffer unit 108 or the latest alternative audio data according to the control described later by the AV synchronization control unit 120A. To do. That is, the audio encoding unit 115A performs a process of re-encoding the audio data AD1 that has been encoded once, or a process of encoding the latest alternative audio data.
  • the audio encoding unit 115A stores the audio bitstream AST2 in the encoded audio bitstream buffer unit 116.
  • the AV multiplexing unit 117 multiplexes the video bit stream VST2 stored in the encoded video bitstream buffer unit 114 and the audio bitstream AST2 stored in the encoded audio bitstream buffer unit 116.
  • the AV bit stream AVST2 is generated.
  • the AV multiplexing unit 117 performs multiplexing according to a format such as MPEG-2. Then, the AV multiplexing unit 117 stores the AV bit stream AVST2 in the storage medium 101.
  • the video data VD1 and audio data AD1 included in the AV bitstream AVST1 are re-encoded.
  • each of the video synchronization information extraction unit 118 and the audio synchronization information extraction unit 119 is the same as the processing described in the first embodiment, detailed description will not be repeated. A brief description is given below.
  • the video synchronization information extraction unit 118 extracts VPTS as video synchronization information from the video bitstream VST1 stored in the input video bitstream buffer unit 103, and transmits the VPTS to the AV synchronization control unit 120A.
  • the audio synchronization information extraction unit 119 extracts APTS as audio synchronization information from the audio bitstream AST1 stored in the input audio bitstream buffer unit 104, and transmits the APTS to the AV synchronization control unit 120A.
  • the AV synchronization control unit 120A performs control for processing video data and audio data in synchronization. Specifically, the AV synchronization control unit 120A compares VPTS (video synchronization information) and APTS (audio synchronization information). Then, the AV synchronization control unit 120A sets the video encoding unit 113A and the audio encoding unit 115A so that the timing at which the video encoding unit 113A performs encoding and the timing at which the audio encoding unit 115A performs encoding are synchronized. Control.
  • VPTS video synchronization information
  • APTS audio synchronization information
  • the AV synchronization control unit 120A controls the video encoding unit 113A to cause the video encoding unit 113A to encode either decoded video data or alternative video data according to the comparison result.
  • the audio encoding unit 115A is controlled to cause the audio encoding unit to encode either the decoded audio data or the alternative audio data.
  • each of VPTS (video synchronization information) and APTS (audio synchronization information) is information for controlling the video encoding unit 113A and the audio encoding unit 115A.
  • Each of VPTS (video synchronization information) and APTS (audio synchronization information) indicates a value used for control by the AV synchronization control unit 120A.
  • the AV synchronization control unit 120A issues a control command to the video encoding unit 113A or the audio encoding unit 115A when the value indicated by the received VPTS and the value indicated by the received APTS are greatly different.
  • the AV synchronization control unit 120A compares the received VPTS value with the received APTS value, and the absolute value of the difference between the VPTS value and the APTS value is equal to or greater than a predetermined synchronization threshold value. If the VPTS value is smaller than the APTS value, a video encoding control command is transmitted to the video encoding unit 113A.
  • the synchronization threshold is a value for determining whether or not the video data VD1 and the audio data AD1 are processed in synchronization. If the absolute value of the difference between the value of the VPTS and the value of the APTS is equal to or greater than the synchronization threshold, the video data VD1 and the audio data AD1 are not processed in synchronization, that is, the video output described above This is a case where the timing and the audio output timing described above are shifted.
  • the video encoding control instruction is an instruction for causing the video encoding unit 113A to encode the latest alternative video data generated by the alternative video data generation unit 211.
  • the AV synchronization control unit 120A compares the received VPTS value with the received APTS value, and the absolute value of the difference between the VPTS value and the APTS value is equal to or greater than a predetermined synchronization threshold value. If the APTS value is smaller than the VPTS value, an audio encoding control command is transmitted to the audio encoding unit 115A.
  • the audio encoding control command is a command for causing the audio encoding unit 115A to encode the latest alternative audio data generated by the alternative audio data generation unit 212.
  • the absolute value of the difference between the VPTS value and the APTS value is also referred to as an absolute value for determination.
  • the AV synchronization control unit 120A The video encoding unit 113A is controlled to encode the alternative video data.
  • the AV synchronization control unit 120A determines that the audio encoding unit 115A The audio encoding unit 115A is controlled to encode the alternative audio data.
  • the AV synchronization control unit 120A causes the video encoding unit 113A to send alternative video data.
  • the predetermined condition is a condition that an absolute value of a difference between a value indicated by VPTS (video synchronization information) and a value indicated by APTS (audio synchronization information) is equal to or greater than a predetermined synchronization threshold.
  • condition for the AV synchronization control unit 120A to transmit the video encoding control instruction or the audio encoding control instruction is not limited to the above condition (condition using the absolute value for determination).
  • the AV synchronization control unit 120A may calculate a ratio between the value of the VPTS and the value of the APTS, and transmit a video encoding control command or an audio encoding control command based on the ratio.
  • the video encoding unit 113A When the video encoding unit 113A receives the video encoding control command, the video encoding unit 113A generates the video bitstream VST2 by encoding the latest alternative video data generated by the alternative video data generation unit 211.
  • the video encoding unit 113A when the video encoding unit 113A has not received the video encoding control command, the video encoding unit 113A generates the video bitstream VST2 by encoding the video data VD1 stored in the video output data buffer unit 106.
  • the video encoding unit 113A when the video encoding unit 113A receives a video encoding control command, the video encoding unit 113A switches the video data to be encoded from the video data VD1 to alternative video data.
  • the audio encoding unit 115A When the audio encoding unit 115A receives the audio encoding control command, the audio encoding unit 115A generates the video bitstream VST2 by encoding the latest alternative audio data generated by the alternative audio data generation unit 212.
  • the audio encoding unit 115A encodes the audio data AD1 stored in the audio output data buffer unit 108 to generate the video bitstream VST2.
  • the audio encoding unit 115A when the audio encoding unit 115A receives the audio encoding control command, the audio encoding unit 115A switches the audio data to be encoded from the audio data AD1 to alternative audio data.
  • the audio bitstream AST1 is a normal stream. That is, it is assumed that the audio decoding unit 107A has normally received the audio bitstream AST1. Further, it is assumed that the audio synchronization information extraction unit 119 extracts APTS as audio synchronization information from the audio bitstream AST1 and transmits the APTS to the AV synchronization control unit 120A.
  • the VPTS value does not change, only the APTS value increases, and the absolute value of the difference between the VPTS value and the APTS value is equal to or greater than a predetermined synchronization threshold. That is, it is assumed that the value of VPTS is smaller than the value of APTS and the value of APTS deviates greatly from the value of VPTS.
  • the AV synchronization control unit 120A transmits a video encoding control command to the video encoding unit 113A.
  • the video encoding control command is, for example, a control command for complementing encoded data.
  • the video encoding unit 113A When the video encoding unit 113A receives this video encoding control command, the video encoding unit 113A acquires the latest alternative video data generated by the alternative video data generation unit 211 and encodes the alternative video data. That is, in this case, since the video encoding unit 113A does not target the video data VD1 stored in the video output data buffer unit 106, the video encoding unit 113A does not read the video data VD1 from the video output data buffer unit 106.
  • the alternative video data is, for example, final decoded data at the time when the decoding process by the video decoding unit 105A is stopped.
  • the alternative video data is, for example, data of the last video frame (latest video frame) before the decoding process is stopped.
  • the audio bit stream AST1 has a defect, and the decoding process by the audio decoding unit 107A is stopped, so that the audio synchronization information extraction unit 119 cannot acquire APTS as audio synchronization information. .
  • the video bit stream VST1 is a normal stream. That is, it is assumed that the video decoding unit 105A has normally received the video bitstream VST1. Further, it is assumed that the video synchronization information extraction unit 118 extracts VPTS as video synchronization information from the video bitstream VST1, and transmits the VPTS to the AV synchronization control unit 120A.
  • the APTS value does not change, only the VPTS value increases, and the absolute value of the difference between the VPTS value and the APTS value is equal to or greater than a predetermined synchronization threshold. That is, it is assumed that the APTS value is smaller than the VPTS value, and the VPTS value deviates greatly from the APTS value.
  • the AV synchronization control unit 120A transmits an audio encoding control command to the audio encoding unit 115A.
  • the audio encoding control command is, for example, a control command for complementing encoded data.
  • the audio encoding unit 115A When the audio encoding unit 115A receives this audio encoding control command, the audio encoding unit 115A acquires the latest alternative audio data generated by the alternative audio data generation unit 212, and encodes the alternative audio data. That is, in this case, since the audio encoding unit 115A does not target the audio data AD1 stored in the audio output data buffer unit 108, the audio encoding unit 115A does not read the audio data AD1 from the audio output data buffer unit 108.
  • the alternative audio data is, for example, silence data (0 data).
  • the AV demultiplexing unit 102 and the AV multiplexing unit 117 do not require complicated arithmetic processing as compared with encoding processing and decoding processing, and therefore are excluded from the system bottlenecks. be able to.
  • the video decoding unit 105A and the video encoding unit 113A require complicated arithmetic processing on video data
  • the video decoding unit 105 and the video encoding unit 113 may be an arithmetic processor, a high-speed arithmetic device, or an arithmetic dedicated unit. What is necessary is just to be comprised with a circuit.
  • the audio decoding unit 107A and the audio encoding unit 115A require complicated arithmetic processing on audio data
  • the audio decoding unit 107A and the audio encoding unit 115A include an arithmetic processor, a high-speed arithmetic device, or an arithmetic operation. What is necessary is just to comprise by a circuit for exclusive use.
  • control is performed so that the video data VD1 and the audio data AD1 are processed in synchronization using VPTS and APTS. That is, in the re-encoding process A of the present embodiment, unlike the re-encoding process of the first embodiment, the process depending on the clock is not performed. That is, each of the video decoding unit 105A, the audio decoding unit 107A, the video encoding unit 113A, and the audio encoding unit 115A can operate asynchronously.
  • each arithmetic circuit (arithmetic processor) of video decoding unit 105A, video encoding unit 113A, audio decoding unit 107A, and audio encoding unit 115A. It is possible to realize a high-speed re-encoding process A that makes the best use of the above.
  • the AV synchronization control unit 120A may change the processing speed of each of the video decoding unit 105A, the video encoding unit 113A, the audio decoding unit 107A, and the audio encoding unit 115A according to the type of device operation mode. .
  • each of the video decoding unit 105A, the video encoding unit 113A, the audio decoding unit 107A, and the audio encoding unit 115A is referred to as a re-encoding related unit.
  • the AV synchronization control unit 120A determines the processing speed of each re-encoding related unit when the device operation mode is the re-encoding mode, and each re-encoding when the device operation mode is the normal playback mode.
  • Each re-encoding related unit is controlled so as to be faster than the processing speed of the encoding-related unit.
  • the speed of the re-encoding process A when the apparatus operation mode is the re-encoding mode can be made faster than the speed of the re-encoding process A when the apparatus operation mode is the re-encoding mode. That is, it is possible to change the re-encoding speed for the stream.
  • a recording medium other than the storage medium in which the AV bit stream before re-encoding is recorded may be used for recording the bit stream after re-encoding.
  • the AV bit stream recorded on the HDD may be re-encoded, and the AV bit stream obtained by the re-encoding may be recorded on the Blu-ray disc.
  • the video synchronization information extraction unit and the audio synchronization information extraction unit perform extraction of AV synchronization information
  • a configuration in which the AV separation unit has a function of extracting AV synchronization information is also possible.
  • the AV bit stream AVST1 to be re-encoded may not be recorded in the storage medium 101, and the AV bit stream AVST1 to be re-encoded may be received by broadcast waves, for example. . Further, the AV bit stream AVST1 to be re-encoded may be, for example, streamed from the Internet.
  • FIG. 3 is a block diagram showing a characteristic first functional configuration of the digital data recording / reproducing apparatus 2000.
  • the digital data recording / reproducing apparatus 2000 corresponds to the digital data recording / reproducing apparatus 1000 of FIG. That is, FIG. 3 is a block diagram showing main functions related to the present invention among the functions of the digital data recording / reproducing apparatus 1000.
  • the first video bit stream generated by encoding video data and the first audio bit stream generated by encoding audio data are multiplexed. Process the first AV bitstream.
  • the first video bit stream corresponds to the video bit stream VST1.
  • the first audio bitstream corresponds to the audio bitstream AST1.
  • the first AV bit stream corresponds to the AV bit stream AVST1.
  • the digital data recording / reproducing apparatus 2000 has at least two types of operation modes.
  • the two types of operation modes are the re-encoding mode and the normal reproduction mode, respectively.
  • the first video bitstream includes video synchronization information.
  • the video synchronization information corresponds to VPTS.
  • the first audio bitstream includes audio synchronization information.
  • the audio synchronization information corresponds to APTS.
  • Each of the video synchronization information and the audio synchronization information is information for processing video data and audio data in synchronization.
  • the digital data recording / reproducing apparatus 2000 includes an AV separation unit 2102, a video synchronization information extraction unit 2118, an audio synchronization information extraction unit 2119, a video decoding unit 2105, an audio decoding unit 2107, and a clock generation unit. 2121 and an AV synchronization control unit 2120.
  • the AV separation unit 2102 extracts the first video bit stream and the first audio bit stream from the first AV bit stream.
  • the video synchronization information extraction unit 2118 extracts the video synchronization information from the first video bitstream.
  • the audio synchronization information extraction unit 2119 extracts the audio synchronization information from the first audio bitstream.
  • the video decoding unit 2105 is a component for acquiring the video data by decoding the first video bitstream and outputting the video data.
  • the audio decoding unit 2107 is a component for acquiring the audio data by decoding the first audio bitstream and outputting the audio data.
  • the clock generation unit 2121 generates an AV synchronization clock for processing the video data and the audio data in synchronization.
  • the AV synchronization clock corresponds to the AV synchronization clock AVCK.
  • the AV synchronization control unit 2120 performs control for processing the video data and the audio data in synchronization.
  • AV separation section 2102 video synchronization information extraction section 2118, audio synchronization information extraction section 2119, video decoding section 2105, audio decoding section 2107, clock generation section 2121 and AV synchronization control section 2120 are respectively connected to AV separation section 102 and video synchronization section 2120.
  • the information extraction unit 118, the audio synchronization information extraction unit 119, the video decoding unit 105, the audio decoding unit 107, the clock generation unit 121, and the AV synchronization control unit 120 are equivalent to each other.
  • the AV synchronization control unit 2120 uses the video synchronization information, the audio synchronization information, and the AV synchronization clock to output the video data from the video decoding unit 2105, and the audio decoding unit 2107.
  • the video decoding unit 2105 and the audio decoding unit 2107 are controlled so that the output timing of the audio data is synchronized.
  • the digital data recording / reproducing apparatus 2000 further includes a video output unit 2109, an audio output unit 2111, a video encoding unit 2113, an audio encoding unit 2115, and an AV multiplexing unit 2117.
  • the video output unit 2109 outputs the video data in synchronization with the video output clock synchronized with the AV synchronization clock.
  • the video output clock corresponds to the video clock VCK.
  • the audio output unit 2111 outputs the audio data in synchronization with the audio output clock synchronized with the AV synchronization clock.
  • the audio output clock corresponds to the audio clock ACK.
  • the video encoding unit 2113 generates the second video bitstream by encoding the video data output from the video output unit 2109.
  • the second video bit stream corresponds to the video bit stream VST2.
  • the audio encoding unit 2115 generates a second audio bitstream by encoding the audio data output from the audio output unit 2111.
  • the second audio bitstream corresponds to the audio bitstream AST2.
  • the AV multiplexing unit 2117 generates the second AV bit stream by multiplexing the second video bit stream and the second audio bit stream.
  • the second AV bit stream corresponds to the AV bit stream AVST2.
  • the clock generator 2121 further changes the speed of the AV synchronization clock according to the type of operation mode of the digital data recording / reproducing apparatus 2000.
  • All or part of the 2111, the video encoding unit 2113, the audio encoding unit 2115, and the AV multiplexing unit 2117 may be configured by hardware such as an LSI (Large Scale Integration).
  • FIG. 4 is a block diagram showing a characteristic second functional configuration of the digital data recording / reproducing apparatus 3000.
  • the digital data recording / reproducing apparatus 3000 corresponds to the digital data recording / reproducing apparatus 1000A of FIG. That is, FIG. 4 is a block diagram showing main functions related to the present invention among the functions of the digital data recording / reproducing apparatus 1000A.
  • a first video bit stream generated by encoding video data and a first audio bit stream generated by encoding audio data are multiplexed. Process the first AV bitstream.
  • the first video bit stream corresponds to the video bit stream VST1.
  • the first audio bitstream corresponds to the audio bitstream AST1.
  • the first AV bit stream corresponds to the AV bit stream AVST1.
  • the first video bitstream includes video synchronization information.
  • the video synchronization information corresponds to VPTS.
  • the first audio bitstream includes audio synchronization information.
  • the audio synchronization information corresponds to APTS.
  • the digital data recording / reproducing apparatus 3000 has an AV separation unit 3102, a video synchronization information extraction unit 3118, an audio synchronization information extraction unit 3119, a video decoding unit 3105A, an audio decoding unit 3107A, and AV synchronization control.
  • Unit 3120A alternative video data generation unit 3211, alternative audio data generation unit 3212, video encoding unit 3113A, audio encoding unit 3115A, and AV multiplexing unit 3117.
  • the AV separation unit 3102 extracts the first video bit stream and the first audio bit stream from the first AV bit stream.
  • the video synchronization information extraction unit 3118 extracts the video synchronization information from the first video bitstream.
  • the audio synchronization information extraction unit 3119 extracts the audio synchronization information from the first audio bitstream.
  • the video decoding unit 3105A is a component for acquiring the video data by decoding the first video bitstream and outputting the video data.
  • the audio decoding unit 3107A is a component for acquiring the audio data by decoding the first audio bitstream and outputting the audio data.
  • the AV synchronization control unit 3120A performs control for processing the video data and the audio data in synchronization.
  • the alternative video data generation unit 3211 generates alternative video data that is an alternative to the decoded video data that is video data that the video decoding unit 3105A acquires by decoding.
  • the alternative audio data generation unit 3212 generates alternative audio data that substitutes for the decoded audio data that is audio data that the audio decoding unit 3107A acquires by decoding.
  • the video encoding unit 3113A generates a second video bitstream by encoding the decoded video data or the alternative video data.
  • the second video bit stream corresponds to the video bit stream VST2.
  • the audio encoding unit 3115A generates a second audio bitstream by encoding the decoded audio data or the alternative audio data.
  • the second audio bitstream corresponds to the audio bitstream AST2.
  • the AV multiplexing unit 3117 generates a second AV bit stream by multiplexing the second video bit stream and the second audio bit stream.
  • the second AV bit stream corresponds to the AV bit stream AVST2.
  • Each of the video synchronization information and the audio synchronization information is information for controlling the video encoding unit 3113A and the audio encoding unit 3115A.
  • the AV synchronization control unit 3120A compares the video synchronization information with the audio synchronization information, and the timing at which the video encoding unit 3113A performs encoding and the audio encoding unit 3115A perform encoding.
  • the video encoding unit 3113A is configured to cause the video encoding unit 3113A to encode either the decoded video data or the alternative video data.
  • the audio encoding unit 3115A controls the audio encoding unit 3115A to cause the audio encoding unit 3115A to encode either the decoded audio data or the alternative audio data according to the comparison result.
  • the AV separation unit 3102, the video synchronization information extraction unit 3118, the audio synchronization information extraction unit 3119, the video decoding unit 3105A, the audio decoding unit 3107A, and the AV synchronization control unit 3120A are respectively an AV separation unit 102, a video synchronization information extraction unit 118, This corresponds to the audio synchronization information extraction unit 119, the video decoding unit 105A, the audio decoding unit 107A, and the AV synchronization control unit 120A.
  • the alternative video data generation unit 3211, the alternative audio data generation unit 3212, the video encoding unit 3113A, the audio encoding unit 3115A, and the AV multiplexing unit 3117 respectively include an alternative video data generation unit 211 and an alternative audio data generation unit 212. These correspond to the video encoding unit 113A, the audio encoding unit 115A, and the AV multiplexing unit 117.
  • All or part of the video encoding unit 3113A, the audio encoding unit 3115A, and the AV multiplexing unit 3117 may be configured by hardware such as an LSI (Large Scale Integration).
  • the digital data recording / reproducing apparatus 1000 or the digital data recording / reproducing apparatus 1000A according to the present invention has been described based on the embodiments.
  • the present invention is not limited to these embodiments. Unless it deviates from the meaning of this invention, the form which carried out various deformation
  • all or some of the plurality of components constituting the digital data recording / reproducing apparatus 1000 or the digital data recording / reproducing apparatus 1000A may be configured by hardware. Further, all or part of the components constituting the digital data recording / reproducing apparatus 1000 or the digital data recording / reproducing apparatus 1000A may be a module of a program executed by a CPU (Central Processing Unit) or the like.
  • a CPU Central Processing Unit
  • all or a part of the plurality of components constituting the digital data recording / reproducing apparatus 1000 or the digital data recording / reproducing apparatus 1000A is configured by one system LSI (Large Scale Integration). Also good.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. It is a computer system comprised including.
  • the audio bit stream buffer unit 116 and the AV multiplexing unit 117 may be configured by one system LSI.
  • the present invention may be realized as a digital data recording method in which the operations of the characteristic components included in the digital data recording / reproducing apparatus 1000 or the digital data recording / reproducing apparatus 1000A are steps. Further, the present invention may be realized as a program that causes a computer to execute each step included in such a digital data recording method. Further, the present invention may be realized as a computer-readable recording medium that stores such a program. The program may be distributed via a transmission medium such as the Internet.
  • the present invention makes it possible to perform high-speed re-encoding processing in accordance with the processing capability of the AV decoding unit and the AV decoding unit while maintaining AV synchronization, and to improve user convenience It can be used as a recording / reproducing apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

 AV同期制御部(120)は、ビデオ復号部(105)によるビデオデータの出力タイミングと、オーディオ復号部(107)によるオーディオデータの出力タイミングとが同期するように、ビデオ復号部(105)およびオーディオ復号部(107)を制御する。クロック生成部(121)は、動作モードに応じて、AV同期用クロックの速度を変更する。

Description

デジタルデータ記録再生装置
 本発明は、符号化されたAV(Audio Visual)ストリームを再符号化するデジタルデータ記録再生装置に関する。
 (記録再生装置での直接記録と再符号化記録の説明)
 近年、デジタルテレビ放送に従ったストリーム(AV(Audio Visual)データ)を受信して再生するとともに、受信したAVデータを、記憶媒体に記録するデジタルデータ記録再生装置が普及してきている。当該記憶媒体は、HDD(Hard Disk Drive)、BD(Blu-ray Disc)、DVD(Digital Versatile Disc)等である。以下においては、デジタルデータ記録再生装置を、単に、記録再生装置ともいう。
 記録再生装置が受信したAVデータを記録する際に、記録するデータの扱いで分類すると2種類の記録方法がある。
 1つは受信したデータをそのまま記録する方法(以下、記録方法Aという)である。記録方法Aでは常に放送時の品質で記録できるというメリットがあるが、記録時にデータサイズを任意に調整できないというデメリットがある。
 もう1つは、受信したデータを一旦復号したのちに再符号化し、再符号化後のストリームを記録する方法(以下、記録方法Bという)である。記録方法Bでは記録時のデータサイズを調整できるメリットがあるが、ビデオおよびオーディオの品質が放送時より劣化するというデメリットがある。
 民生用の記録再生装置では、ユーザの目的に応じて、記録方法A,Bを切替えられるように、記録方法A,Bの両方の機能を搭載しているものが多い。
 (ダビング動作の説明)
 さらに記録再生装置によっては、受信した放送データに対して再符号化を行うのではなく、記憶媒体に記録されているデータに対して再符号化を行い記録する機能を持つものもある。
 例えば、DVDプレーヤ等で再生するためにDVDメディアにDVD-Video規格のフォーマットでAVデータを記録する場合がある。デジタルテレビ放送で採用されているストリーム形式はMPEG-2 TS(Transport Stream)であるが、DVD-Videoで採用されているストリーム形式はMPEG-2 PS(Program Stream)であり、ストリーム形式の変換が必要になる。
 特許文献1には、MPEG-TS形式のデータを、MPEG-PS形式のデータに変換する技術(以下、従来技術Aという)が開示されている。
 また、ビデオデータの記録画素数や、オーディオデータの圧縮形式(符号化形式)もデジタルテレビ放送とDVD-Video規格で異なるため、再符号化によるデータ変換が必要である。
 また、変換を行う他の理由としてデータサイズがある。ビットレート(映像単位時間当たりのデータサイズ)を低くして記録することでデータサイズを小さくし、限られた記憶容量の記憶媒体に、より長時間の映像を記録することができる。
 (再符号化時のAV同期合わせの説明)
 再符号化を行う際には、ビデオデータとオーディオデータとを個別に処理する必要がある。そのため、一旦、AV分離を行い、ビデオデータおよびオーディオデータの各々を復号し、再符号化した後に多重化を行う。多重化した時点でビデオデータとオーディオデータとがずれないようにするためには以下の処理が行われる。
 まず、ストリームに付随している同期情報を用いて、復号時点でのAV同期を揃える。ここで、AV同期とは、ビデオデータとオーディオデータとの同期である。また、AV同期を揃える、または、AV同期を合わせるとは、ビデオデータとオーディオデータとを同期して処理するということである。さらに、ビデオデータとオーディオデータとが同期したタイミングで、ビデオ符号化部およびオーディオ符号化へ、それぞれ、復号済のビデオデータおよび復号済のオーディオデータが供給される。
 AV同期を揃える必要がある理由について説明する。デジタルテレビ放送を受信する場合、ビデオデータおよびオーディオデータの一方もしくは両方が、正常に復号できない状況(以下、復号異常状況ともいう)が生じる場合がある。復号異常状況は、例えば、電波の受信状態が悪いといった何らかの障害によりデータの一部が欠落することにより生じる。
 復号異常状況において復号されたAVデータを、記録再生装置において同期を考慮せずに再生すると、ビデオデータとオーディオデータとが同期していない状態、いわゆる音ずれが発生する。
 同様に、復号異常状況において復号されたAVデータを、記録再生装置において同期を考慮せずに再符号化して多重化すると、同期がずれたままのAVストリームが生成されてしまう。もし、復号前のストリームのビデオデータおよびオーディオデータの各々にAV同期情報が含まれていれば、復号時点でデータが欠落した状態であっても、ビデオデータとオーディオデータとを、同期させて、再生および再符号化を行うことができる。
 障害によるデータ欠落以外にも、例えば、AVデータを部分分割および結合し、しかるのちに再符号化するような編集を行うと、ビデオデータとオーディオデータとにずれが生じる場合がある。これは、ビデオデータを構成する単位時間と、オーディオデータを構成する単位時間とが異なるためである。しかしながら、このようなケースであっても、AV同期情報を用いて同期ずれを防ぐことが可能となる。
 (再生時、再符号化時のAV同期合わせの説明)
 MPEG-2 TSまたはMPEG-2 PS方式のAVストリームでは、ストリームを構成する複数のPES(Packetized Elementary Stream)パケットのヘッダ内に時間情報としてのPTS(Presentation Time Stamp)が示される。
 PTSは、ビデオデータおよびオーディオデータの各々の表示時刻(表示タイミング)を示す。PTSを利用することにより、ビデオデータおよびオーディオデータの各々に対し、個別に復号処理しても、この時刻情報に従って、ビデオデータおよびオーディオデータをAV出力機器(TVやAVアンプ)に出力することにより、再生時の同期をあわせることが可能となる。
 出力するタイミングを取るためのシステム基準時間をSTC(System Time Clock)という。STCは所定時間経過毎に値がカウントアップされるカウンタである。
 以下においては、ビデオ用のPTSを、VPTSともいう。また、以下においては、オーディオ用のPTSを、APTSともいう。
 STCの値に対して、VPTSおよびAPTSの各々が一致したタイミングで、ビデオデータおよびオーディオデータの出力が行われるように復号部を制御することにより、ビデオデータとオーディオデータとはAV同期が合った状態となる。
 復号されたビデオデータおよびオーディオデータの各々は、一旦、対応する出力バッファに格納された後、ビデオ出力部およびオーディオ出力部により、各バッファより送出される。
 ビデオ出力部およびオーディオ出力部は、共通のクロック生成部から供給されるクロックに同期してデータを出力する。そのため、再生時にはビデオデータとオーディオデータの同期が揃った状態となる。
 再符号化の場合には、ビデオ出力部およびオーディオ出力部によりそれぞれ送出されたビデオデータおよびオーディオデータの各々は、対応する符号化部用バッファに記憶される。
 ビデオ符号化部およびオーディオ符号化部の各々は、対応する符号化部用バッファに供給されたデータを逐次符号化してゆき、対応する符号化出力用バッファに再符号化後のストリームを記憶させる。
 AV多重化部は、一方の符号化出力用バッファに記憶されたビデオストリームと他方の符号化出力用バッファに記憶されたオーディオストリームとを多重化して、MPEG-2のPSやTSストリームを生成する。前述の通り、符号化に入力される時点でのAV同期がとれているため、再符号化後に生成されたストリームもAV同期がとれていることになる。
特開2003-111023号公報
 しかしながら、従来技術Aでは、再生されているストリームに対する再符号化をリアルタイムで行う。そのため、従来技術Aを用いて、ビデオデータとオーディオデータとを同期して処理しつつ、再符号化を行う場合、再符号化に要する時間は、ストリームの再生時間とほぼ同じである。すなわち、再符号化の速度は固定である。
 再符号化の速度が固定であることにより、例えば、再符号化を高速に行う必要がある場合、または、装置の消費電力を抑えるために再符号化を低速で行う必要がある場合等に柔軟に対応できないという問題点がある。
 本発明は、上述の問題点を解決するためになされたものであって、その目的は、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を変更可能な構成を有するデジタルデータ記録再生装置を提供することである。
 上述の課題を解決するために、この発明のある局面に従うデジタルデータ記録再生装置は、ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAV(Audio Visual)ビットストリームを処理する。前記デジタルデータ記録再生装置は、少なくとも2種類の動作モードを有し、前記第1のビデオビットストリームは、ビデオ同期情報を含み、前記第1のオーディオビットストリームは、オーディオ同期情報を含み、前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記ビデオデータと前記オーディオデータとを同期して処理するための情報である。
 前記デジタルデータ記録再生装置は、前記第1のAVビットストリームから、前記第1のビデオビットストリームと前記第1のオーディオビットストリームとを抽出するAV分離部と、前記第1のビデオビットストリームから前記ビデオ同期情報を抽出するビデオ同期情報抽出部と、前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出するオーディオ同期情報抽出部と、前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するためのビデオ復号部と、前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するためのオーディオ復号部と、前記ビデオデータと前記オーディオデータとを同期して処理するためのAV同期用クロックを生成するクロック生成部と、前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行うAV同期制御部とを備え、前記AV同期制御部は、前記ビデオ同期情報、前記オーディオ同期情報および前記AV同期用クロックを用いて、前記ビデオ復号部による前記ビデオデータの出力タイミングと、前記オーディオ復号部による前記オーディオデータの出力タイミングとが同期するように、前記ビデオ復号部および前記オーディオ復号部を制御する。
 前記デジタルデータ記録再生装置は、さらに、前記AV同期用クロックに同期したビデオ出力用クロックに合わせて前記ビデオデータを出力するビデオ出力部と、前記AV同期用クロックに同期したオーディオ出力用クロックに合わせて前記オーディオデータを出力するオーディオ出力部と、前記ビデオ出力部から出力された前記ビデオデータを符号化することにより第2のビデオビットストリームを生成するビデオ符号化部と、前記オーディオ出力部から出力された前記オーディオデータを符号化することにより第2のオーディオビットストリームを生成するオーディオ符号化部と、前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成するAV多重化部とを備え、前記クロック生成部は、さらに、前記デジタルデータ記録再生装置の動作モードの種類に応じて、前記AV同期用クロックの速度を変更する。
 すなわち、前記AV同期制御部は、前記ビデオ復号部による前記ビデオデータの出力タイミングと、前記オーディオ復号部による前記オーディオデータの出力タイミングとが同期するように、前記ビデオ復号部および前記オーディオ復号部を制御する。
 つまり、ビデオデータとオーディオデータとが同期して処理される。
 また、ビデオ復号部は、第1のAVビットストリームに多重化された第1のビデオビットストリームを復号することによりビデオデータを取得し、オーディオ復号部は、第1のAVビットストリームに多重化された前記第1のオーディオビットストリームを復号することによりオーディオデータを取得する。
 ビデオ符号化部およびオーディオ符号化部により、それぞれ、前記ビデオデータおよびオーディオデータが符号化される。これにより、第2のビデオビットストリームおよび第2のオーディオビットストリームが生成される。
 つまり、前記ビデオ復号部、前記オーディオ復号部、ビデオ符号化部およびオーディオ符号化部により、ストリームが復号され、復号により得られたデータが符号化される。すなわち、ストリームに対し、再符号化が行われる。
 前記クロック生成部は、動作モードに応じて、前記AV同期用クロックの速度を変更する。ビデオ出力部は、AV同期用クロックに同期したビデオ出力用クロックに合わせて前記ビデオデータを出力する。また、オーディオ出力部は、AV同期用クロックに同期したオーディオ出力用クロックに合わせて前記オーディオデータを出力する。
 したがって、AV同期用クロックの速度の変更に伴い、ビデオデータおよびオーディオデータの出力タイミングが変化する。つまり、ビデオ符号化部およびオーディオ符号化部が、それぞれ、ビデオデータおよびオーディオデータを符号化するタイミングが変化する。すなわち、AV同期用クロックの速度の変更に伴い、ストリームに対する再符号化の速度が変更される。
 以上により、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を変更することができる。
 また、好ましくは、前記デジタルデータ記録再生装置は、動作モードとして、前記第1のAVビットストリームを再生するための第1モード、および、前記第1のAVビットストリームを復号し、該復号により得られたデータを符号化するための第2モードを有し、前記クロック生成部は、前記デジタルデータ記録再生装置の動作モードが前記第2モードである場合に生成する前記AV同期用クロックの速度を、前記デジタルデータ記録再生装置の動作モードが前記第1モードである場合に生成する前記AV同期用クロックの速度より速くする。
 また、好ましくは、前記ビデオ同期情報、前記オーディオ同期情報および前記AV同期用クロックの各々は、前記AV同期制御部が制御に利用する値を示し、前記AV同期用クロックが示す値は、時間経過に伴い増加し、前記AV同期制御部は、(a)前記ビデオ同期情報が示す値と前記AV同期用クロックが示す値とが一致するタイミングにおいて、前記ビデオ復号部が前記ビデオデータを出力するように前記ビデオ復号部を制御し、(b)前記オーディオ同期情報が示す値と前記AV同期用クロックが示す値とが一致するタイミングにおいて、前記オーディオ復号部が前記オーディオデータを出力するように前記オーディオ復号部を制御する。
 この発明の他の局面に従うデジタルデータ記録再生装置は、ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAV(Audio Visual)ビットストリームを処理する。前記第1のビデオビットストリームは、ビデオ同期情報を含み、前記第1のオーディオビットストリームは、オーディオ同期情報を含み、前記デジタルデータ記録再生装置は、前記第1のAVビットストリームから、前記第1のビデオビットストリームと前記第1のオーディオビットストリームとを抽出するAV分離部と、前記第1のビデオビットストリームから前記ビデオ同期情報を抽出するビデオ同期情報抽出部と、前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出するオーディオ同期情報抽出部と、前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するためのビデオ復号部と、前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するためのオーディオ復号部と、前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行うAV同期制御部と、前記ビデオ復号部が復号により取得するビデオデータである復号済ビデオデータの代替となる代替ビデオデータを生成する代替ビデオデータ生成部と、前記オーディオ復号部が復号により取得するオーディオデータである復号済オーディオデータの代替となる代替オーディオデータを生成する代替オーディオデータ生成部と、前記復号済ビデオデータまたは前記代替ビデオデータを符号化することにより第2のビデオビットストリームを生成するビデオ符号化部と、前記復号済オーディオデータまたは前記代替オーディオデータを符号化することにより第2のオーディオビットストリームを生成するオーディオ符号化部と、前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成するAV多重化部とを備える。
 前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記ビデオ符号化部および前記オーディオ符号化部を制御するための情報であり、前記AV同期制御部は、前記ビデオ同期情報と前記オーディオ同期情報とを比較し、前記ビデオ符号化部が符号化を行うタイミングと前記オーディオ符号化部が符号化を行うタイミングとが同期するように、(a)該比較結果に応じて、前記復号済ビデオデータおよび前記代替ビデオデータのいずれかを前記ビデオ符号化部に符号化させるよう前記ビデオ符号化部を制御するとともに、(b)該比較結果に応じて、前記復号済オーディオデータおよび前記代替オーディオデータのいずれかを前記オーディオ符号化部に符号化させるよう前記オーディオ符号化部を制御する。
 すなわち、前記AV同期制御部は、前記ビデオ同期情報と前記オーディオ同期情報とを比較し、前記ビデオ符号化部が符号化を行うタイミングと前記オーディオ符号化部が符号化を行うタイミングとが同期するように、(a)該比較結果に応じて、前記復号済ビデオデータおよび前記代替ビデオデータのいずれかを前記ビデオ符号化部に符号化させるよう前記ビデオ符号化部を制御するとともに、(b)該比較結果に応じて、前記復号済オーディオデータおよび前記代替オーディオデータのいずれかを前記オーディオ符号化部に符号化させるよう前記オーディオ符号化部を制御する。
 つまり、ビデオデータとオーディオデータとが同期して処理される。
 また、ビデオ符号化部およびオーディオ符号化部は、ストリーム(例えば、第1のビデオビットストリーム)が復号されることにより得られるデータ(例えば、ビデオデータ)を符号化する。すなわち、前記ビデオ復号部、前記オーディオ復号部、ビデオ符号化部およびオーディオ符号化部により、ストリームに対し、再符号化が行われる。
 また、この態様によれば、前記ビデオ復号部、前記オーディオ復号部、ビデオ符号化部およびオーディオ符号化部の各々は、対応する処理(符号化、復号等)を行うタイミングを同期して制御されない。すなわち、前記ビデオ復号部、前記オーディオ復号部、ビデオ符号化部およびオーディオ符号化部の各々は、非同期で動作可能である。
 そのため、例えば、前記ビデオ復号部、前記オーディオ復号部、ビデオ符号化部およびオーディオ符号化部の各々が行う処理の速度が変更されることにより、ストリームに対する再符号化の速度を変更することが可能となる。
 以上により、デジタルデータ記録再生装置は、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を変更可能な構成を有する。
 また、好ましくは、前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記AV同期制御部が制御に利用する値を示し、前記AV同期制御部は、前記ビデオ同期情報の示す値と前記オーディオ同期情報の示す値とから得られる値が所定の条件を満たす場合、(c)前記ビデオ符号化部に前記代替ビデオデータを符号化させるよう前記ビデオ符号化部を制御する処理、および、(d)前記オーディオ符号化部に前記代替オーディオデータを符号化させるよう前記オーディオ符号化部を制御する処理のいずれかを行う。
 また、好ましくは、前記所定の条件は、前記ビデオ同期情報の示す値と前記オーディオ同期情報の示す値との差の絶対値が所定の同期閾値以上であるという条件であり、前記AV同期制御部は、(e)前記絶対値が前記同期閾値以上であり、かつ、前記ビデオ同期情報の示す値が前記オーディオ同期情報の示す値より小さい場合、前記ビデオ符号化部に前記代替ビデオデータを符号化させるよう前記ビデオ符号化部を制御し、(f)前記絶対値が前記同期閾値以上であり、かつ、前記オーディオ同期情報の示す値が前記ビデオ同期情報の示す値より小さい場合、前記オーディオ符号化部に前記代替オーディオデータを符号化させるよう前記オーディオ符号化部を制御する。
 なお、本発明は、このようなデジタルデータ記録再生装置を構成する複数の構成要素の全てまたは一部を、システムLSI(Large Scale Integration:大規模集積回路)として実現してもよい。
 また、本発明は、デジタルデータ記録再生装置が備える特徴的な構成部の動作をステップとするデジタルデータ記録方法として実現してもよい。また、本発明は、そのようなデジタルデータ記録方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現してもよい。また、本発明は、そのようなプログラムを格納するコンピュータ読み取り可能な記録媒体として実現されてもよい。また、当該プログラムは、インターネット等の伝送媒体を介して配信されてもよい。
 本発明により、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を変更することができる。
図1は、第1の実施の形態に係るデジタルデータ記録再生装置の構成を示すブロック図である。 図2は、第2の実施の形態に係るデジタルデータ記録再生装置の構成を示すブロック図である。 図3は、デジタルデータ記録再生装置の特徴的な第1の機能構成を示すブロック図である。 図4は、デジタルデータ記録再生装置の特徴的な第2の機能構成を示すブロック図である。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 <第1の実施の形態>
 (デジタルデータ記録再生装置の構成)
 図1は、第1の実施の形態に係るデジタルデータ記録再生装置1000の構成を示すブロック図である。なお、図1には、説明のために、デジタルデータ記録再生装置1000に含まれない記憶媒体101も示される。
 デジタルデータ記録再生装置1000は、動作モードとして、通常再生モードと、再符号化モードとを有する。通常再生モードは、符号化されたストリーム(データ)を復号することにより再生(出力)する処理(以下、通常再生処理ともいう)を行うための動作モードである。すなわち、通常再生モードは、AVビットストリームを再生するための第1モードである。
 再符号化モードは、符号化されたストリーム(データ)を復号し、復号されたデータを、再度、符号化する処理(以下、再符号化処理という)を行うための動作モードである。すなわち、再符号化モードは、AVビットストリームを復号し、該復号により得られたデータを符号化するための第2モードである。
 デジタルデータ記録再生装置1000の動作モードが通常再生モードである場合、通常再生処理が行われる。デジタルデータ記録再生装置1000の動作モードが再符号化モードである場合、再符号化処理が行われる。
 デジタルデータ記録再生装置1000は、HDDレコーダ等のAV再生装置である。デジタルデータ記録再生装置1000は、HDDレコーダに限定されず、通常再生モードおよび再符号化モードを有する装置であればどのような装置であってもよい。
 図1を参照して、デジタルデータ記録再生装置1000は、AV分離部102と、入力ビデオビットストリームバッファ部103と、入力オーディオビットストリームバッファ部104と、ビデオ復号部105と、ビデオ出力データバッファ部106と、オーディオ復号部107と、オーディオ出力データバッファ部108と、ビデオ出力部109と、ビデオ符号化入力バッファ部110と、オーディオ出力部111と、オーディオ符号化入力バッファ部112とを備える。
 デジタルデータ記録再生装置1000は、さらに、ビデオ符号化部113と、符号化ビデオビットストリームバッファ部114と、オーディオ符号化部115と、符号化オーディオビットストリームバッファ部116と、AV多重化部117とを備える。
 記憶媒体101は、BD(Blu-ray Disc)、DVD(Digital Versatile Disc)などである。
 なお、記憶媒体101は、HDD(Hard Disk Drive)等であってもよい。この場合、記憶媒体101は、デジタルデータ記録再生装置1000に含まれてもよい。
 記憶媒体101には、再符号化の対象となるAVビットストリームAVST1が記録されている。AVビットストリームAVST1は、符号化されたストリームである。当該AVビットストリームAVST1は、所定の符号化形式に従って、ビデオビットストリームVST1とオーディオビットストリームAST1とが多重化されたストリームである。当該所定の符号化形式は、例えば、MPEG-2 TSである。
 なお、所定の符号化形式は、MPEG-2 TSに限定されることなく、他の符号化形式であってもよい。ビデオビットストリームVST1およびオーディオビットストリームAST1の各々は、符号化されたストリームである。
 AVビットストリームAVST1は、複数のPES(Packetized Elementary Stream)パケットから構成される。PESパケットのヘッダには、PTS(Presentation Time Stamp)が示される。PTSは、同期処理に使用される同期情報である。PTSは、所定時間経過毎に値がカウントアップされるカウンタである。
 すなわち、ビデオビットストリームVST1およびオーディオビットストリームAST1の各々は、複数のPESから構成される。つまり、ビデオビットストリームVST1およびオーディオビットストリームAST1の各々は、複数のPTSを含む。
 以下においては、ビデオビットストリームVST1に含まれるPTSを、VPTS(ビデオ同期情報)という。また、以下においては、オーディオビットストリームAST1に含まれるPTSを、APTS(オーディオ同期情報)という。
 すなわち、VPTSおよびAPTSの各々は、所定時間経過毎に値がカウントアップされるカウンタである。また、VPTS(ビデオ同期情報)およびAPTS(オーディオ同期情報)の各々は、ビデオデータとオーディオデータとを同期して処理するための情報である。
 ビデオビットストリームVST1は、所定の動画像符号化形式に従ってビデオデータVD1が符号化されることにより生成されたストリームである。当該動画像符号化形式は、例えば、MPEG2 TSである。ビデオデータVD1は、動画像データである。すなわち、第1のビデオビットストリームとしてのビデオビットストリームVST1は、VPTS(ビデオ同期情報)を含む。
 なお、動画像符号化形式は、MPEG2 TSに限定されず、他の符号化形式であってもよい。
 オーディオビットストリームAST1は、所定の音声符号化形式に従ってオーディオデータAD1が符号化されることにより生成されたストリームである。当該音声符号化形式は、AAC(Advanced Audio Coding)である。オーディオデータAD1は、音声データである。すなわち、第1のオーディオビットストリームとしてのオーディオビットストリームAST1は、APTS(オーディオ同期情報)を含む。
 なお、音声符号化形式は、AACに限定されず、他の音声符号化形式であってもよい。
 ビデオ復号部105は、ビデオビットストリームVST1の符号化に使用された動画像符号化形式に対応する復号処理を行うことにより、ビデオビットストリームVST1を復号する。当該動画像符号化形式は、例えば、MPEG2 TSである。
 オーディオ復号部107は、オーディオビットストリームAST1の符号化に使用された音声符号化形式に対応する復号処理を行うことにより、オーディオビットストリームAST1を復号する。当該音声符号化形式は、例えば、AACである。
 ビデオ符号化部113は、ビデオビットストリームVST1の符号化に使用された動画像符号化形式と異なる動画像符号化形式(以下、動画像再符号化形式という)により、復号済みのビデオデータを符号化する。動画像再符号化形式は、例えば、MPEG2 PSである。
 なお、動画像再符号化形式は、MPEG2 PSに限定されず、他の符号化形式(例えば、H.264/AVC)であってもよい。
 なお、ビデオ符号化部113は、ビデオビットストリームVST1の符号化に使用された動画像符号化形式と同じ動画像符号化形式に従って、符号化条件(例えば、ビットレート)を変更して、符号化処理を行ってもよい。
 オーディオ符号化部115は、オーディオビットストリームAST1の符号化に使用された音声符号化形式と異なる音声符号化形式(以下、音声再符号化形式という)に従って、復号済のオーディオデータを符号化する。音声再符号化形式は、例えば、MPEG2 PSである。
 なお、音声再符号化形式は、MPEG2 PSに限定されず、他の符号化形式(例えば、AAC(Advanced Audio Coding))であってもよい。
 なお、オーディオ符号化部115は、オーディオビットストリームAST1の符号化に使用された音声符号化形式と同じ音声符号化形式に従って、符号化条件(例えば、ビットレート)を変更して、符号化処理を行ってもよい。
 ビデオ出力部109およびオーディオ出力部111の各々が行う処理の詳細は後述する。通常再生処理では、ビデオ出力部109およびオーディオ出力部111の各々は、処理したデータを、図示しない処理部へ出力する。通常再生処理では、AV分離部102からビデオ出力部109およびオーディオ出力部111までのデータの処理経路(以下、通常再生経路という)が形成される。
 再符号化処理では、ビデオ出力部109およびオーディオ出力部111は、処理したデータを、それぞれ、ビデオ符号化入力バッファ部110およびオーディオ符号化入力バッファ部112へ出力する。再符号化処理では、AV分離部102からAV多重化部117までのデータの処理経路(以下、再符号化処理経路という)が形成される。
 再符号化処理経路は、通常再生経路を含む。すなわち、通常再生処理および再符号化処理では、通常再生経路が共用される。
 入力ビデオビットストリームバッファ部103、入力オーディオビットストリームバッファ部104、ビデオ出力データバッファ部106、オーディオ出力データバッファ部108、ビデオ符号化入力バッファ部110、オーディオ符号化入力バッファ部112、符号化ビデオビットストリームバッファ部114および符号化オーディオビットストリームバッファ部116の各々は、データを一時的に記憶するためのバッファである。
 なお、AV分離部102およびAV多重化部117の処理については、後述する。
 デジタルデータ記録再生装置1000は、さらに、ビデオ同期情報抽出部118と、オーディオ同期情報抽出部119と、AV同期制御部120と、クロック生成部121とを備える。
 ビデオ同期情報抽出部118、オーディオ同期情報抽出部119、AV同期制御部120およびクロック生成部121の各々が行う処理については後述する。
 (再符号化処理におけるAVデータパス(再符号化処理経路)の説明)
 次に、図1を用いて、再符号化処理の流れについて説明する。
 再符号化処理では、まず、AV分離部102は、記憶媒体101に記憶されているAVビットストリームAVST1を読み出す。AV分離部102は、AVビットストリームAVST1から、ビデオビットストリームVST1とオーディオビットストリームAST1とを抽出する。
 AV分離部102は、ビデオビットストリームVST1を、入力ビデオビットストリームバッファ部103に記憶させるとともに、オーディオビットストリームAST1を入力オーディオビットストリームバッファ部104に記憶させる。
 ビデオ復号部105は、AV同期制御部120による後述する制御に従って、入力ビデオビットストリームバッファ部103に記憶されたビデオビットストリームVST1を復号することにより、ビデオデータVD1を取得する。ビデオデータVD1は、復号済のビデオデータである。
 そして、ビデオ復号部105は、AV同期制御部120による後述する制御に従って、ビデオデータVD1を出力するとともに、当該ビデオデータVD1をビデオ出力データバッファ部106に記憶させる。
 オーディオ復号部107は、ビデオ復号部105の処理と並行して、後述するAV同期制御部120の制御に従って、入力オーディオビットストリームバッファ部104に記憶されたオーディオビットストリームAST1を復号することにより、オーディオデータAD1を取得する。オーディオデータAD1は、復号済のオーディオデータである。
 そして、オーディオ復号部107は、AV同期制御部120による後述する制御に従って、オーディオデータAD1を出力するとともに、当該オーディオデータAD1を、オーディオ出力データバッファ部108に記憶させる。
 ビデオ出力部109は、ビデオ出力データバッファ部106に記憶されたビデオデータVD1を読出して出力するとともに、当該ビデオデータVD1をビデオ符号化入力バッファ部110に記憶させる。すなわち、ビデオデータVD1は、ビデオ出力部109により、ビデオ出力データバッファ部106からビデオ符号化入力バッファ部110へ転送される。
 オーディオ出力部111は、オーディオ出力データバッファ部108に記憶されたオーディオデータAD1を読出して出力するとともに、当該オーディオデータAD1を、オーディオ符号化入力バッファ部112に記憶させる。すなわち、オーディオデータAD1は、オーディオ出力部111により、オーディオ出力データバッファ部108からオーディオ符号化入力バッファ部112へ転送される。
 ビデオ符号化部113は、ビデオ符号化入力バッファ部110に記憶されたビデオデータVD1を符号化することにより、ビデオビットストリームVST2を生成する。つまり、ビデオ符号化部113は、ビデオ出力部109から出力されたビデオデータVD1を符号化することにより第2のビデオビットストリームとしてのビデオビットストリームVST2を生成する。
 すなわち、ビデオ符号化部113は、復号により得られたビデオデータVD1を、再符号化する。
 そして、ビデオ符号化部113は、ビデオビットストリームVST2を、符号化ビデオビットストリームバッファ部114に記憶させる。
 オーディオ符号化部115は、オーディオ符号化入力バッファ部112に記憶されたオーディオデータAD1を符号化することにより、オーディオビットストリームAST2を生成する。つまり、オーディオ符号化部115は、オーディオ出力部111から出力されたオーディオデータAD1を符号化することにより第2のオーディオビットストリームとしてのオーディオビットストリームAST2を生成する。
 すなわち、オーディオ符号化部115は、復号により得られたオーディオデータAD1を、再符号化する。
 そして、オーディオ符号化部115は、オーディオビットストリームAST2を、符号化オーディオビットストリームバッファ部116に記憶させる。
 AV多重化部117は、符号化ビデオビットストリームバッファ部114に記憶されているビデオビットストリームVST2と、符号化オーディオビットストリームバッファ部116に記憶されているオーディオビットストリームAST2とを多重化することにより、AVビットストリームAVST2を生成する。
 AV多重化部117は、例えば、MPEG-2等の形式に従った多重化を行う。そして、AV多重化部117は、AVビットストリームAVST2を記憶媒体101に記憶させる。
 以上の再符号化処理により、AVビットストリームAVST1に含まれるビデオデータVD1およびオーディオデータAD1は、再符号化される。
 (AV同期の説明)
 上記で説明した再符号化処理において、同期情報(PTS)を用いたAV同期について説明する。
 ビデオ同期情報抽出部118は、入力ビデオビットストリームバッファ部103に記憶されたビデオビットストリームVST1から、ビデオ同期情報としてのVPTSを抽出し、当該VPTSを、AV同期制御部120へ送信する。
 また、オーディオ同期情報抽出部119は、入力オーディオビットストリームバッファ部104に記憶されたオーディオビットストリームAST1から、オーディオ同期情報としてのAPTSを抽出し、当該APTSを、AV同期制御部120へ送信する。
 クロック生成部121は、ビデオデータとオーディオデータとを同期して処理するためのAV同期用クロックAVCKを生成し、当該AV同期用クロックAVCKを、AV同期制御部120へ送信する。AV同期用クロックAVCKは、所定時間経過毎に値が増加するカウンタである。すなわち、AV同期用クロックAVCKが示す値は、時間経過に伴い増加する。AV同期用クロックAVCKは、データの再生(復号)時におけるSTC(System Time Clock)の役割を果たす。
 すなわち、VPTS(ビデオ同期情報)、APTS(オーディオ同期情報)およびAV同期用クロックAVCKの各々は、AV同期制御部120が制御に利用する値を示す。
 AV同期制御部120は、ビデオデータVD1とオーディオデータAD1とが同期して処理されるための制御を行う。具体的には、AV同期制御部120は、VPTS(ビデオ同期情報)、APTS(オーディオ同期情報)およびAV同期用クロックAVCKを用いて、ビデオ復号部105によるビデオデータVD1の出力タイミングと、オーディオ復号部107によるオーディオデータAD1の出力タイミングとが同期するように、ビデオ復号部105およびオーディオ復号部107を制御する。
 より具体的には、AV同期制御部120は、VPTS(ビデオ同期情報)が示す値とAV同期用クロックAVCKが示す値とが一致するタイミングにおいて、ビデオ復号部105がビデオデータVD1を出力するようにビデオ復号部105を制御する。
 また、AV同期制御部120は、APTS(オーディオ同期情報)が示す値とAV同期用クロックAVCKが示す値とが一致するタイミングにおいて、オーディオ復号部107がオーディオデータAD1を出力するように前記オーディオ復号部107を制御する。
 例えば、オーディオビットストリームAST1に異常があり、APTSの値がAV同期用クロックAVCKの値から乖離して大きい値である場合、AV同期用クロックAVCKの値が増加してAPTSの値と一致するまで、AV同期制御部120は、オーディオ復号部107に復号処理を停止させる。
 また、例えば、APTSの値がAV同期用クロックAVCKの値から乖離して小さい値である場合、AV同期制御部120は、オーディオ復号部107が全てのオーディオビットストリームAST1を復号せずに読み飛ばし(スキップ)するように、オーディオ復号部107を制御することにより、オーディオビットストリームAST1のAPTSの値がAV同期用クロックAVCKの値まで増加するようにする。
 なお、ビデオビットストリームVST1のVPTSの値に異常がある場合も、AV同期制御部120が、オーディオ復号部107に対して行う上記制御と同様な制御が、ビデオ復号部105に対し行われる。
 AV同期制御部120が、上記のような制御を行うことにより、再符号化前のAVビットストリームに欠損があり正常にPTSを取得できない場合でも、正常なAVビットストリームが入力された際にはAV同期を復帰することが可能となる。
 (AV出力部の説明)
 ビデオ出力部109およびオーディオ出力部111は再生用の出力部と共用して使用される。クロック生成部121は、同一のクロック生成源から生成される同一のクロックを、ビデオ出力部109およびオーディオ出力部111へ供給する。クロック生成源は、例えば、水晶振動子である。
 以下においては、クロック生成部121からビデオ出力部109へ供給されるクロックを、ビデオ用クロックVCKと表記する。また、以下においては、クロック生成部121からオーディオ出力部111へ供給されるクロックを、オーディオ用クロックACKと表記する。
 クロック生成部121は、ビデオ用クロックVCKおよびオーディオ用クロックACKに同期したクロックである前述のAV同期用クロックAVCKを生成する。すなわち、クロック生成部121が生成する前述のAV同期用クロックAVCKは、ビデオ用クロックVCKおよびオーディオ用クロックACKに同期したクロックである。
 ビデオ出力部109は、ビデオ用クロックVCKにしたがって(あわせて)、ビデオ出力データバッファ部106に記憶されているビデオデータVD1を読出して出力するとともに、該ビデオデータVD1を、ビデオ符号化入力バッファ部110に記憶させる。
 オーディオ出力部111は、オーディオ用クロックACKにしたがって(あわせて)、オーディオ出力データバッファ部108に記憶されているオーディオデータAD1を読出して出力するとともに、該オーディオデータAD1を、オーディオ符号化入力バッファ部112に記憶させる。
 ビデオ復号部105およびオーディオ復号部107が正常に復号処理を行っている場合、ビデオデータVD1およびオーディオデータAD1は、ほぼ同時に出力される。すなわち、この場合、ビデオデータVD1およびオーディオデータAD1は、同期して出力される。
 すなわち、ビデオ出力部109は、ビデオ復号部105による復号処理が正常に行われている場合、復号済のデータ(ビデオデータVD1)を出力し、ビデオデータVD1をビデオ符号化入力バッファ部110に記憶させる。
 一方、AV同期制御部120による制御により、ビデオ復号部105による復号処理が停止している場合、ビデオ出力部109は、代替ビデオデータを出力する。代替ビデオデータは、例えば、復号処理の停止前の最終ビデオフレーム(最新のビデオフレーム)のデータである。
 すなわち、オーディオ出力部111は、オーディオ復号部107による復号処理が正常に行われている場合、復号済のデータ(オーディオデータAD1)を出力し、オーディオデータAD1をオーディオ符号化入力バッファ部112に記憶させる。
 一方、AV同期制御部120による制御により、オーディオ出力部111による復号処理が停止している場合、オーディオ出力部111は、代替オーディオデータを出力する。代替オーディオデータは、例えば、無音データである。
 これにより、ビデオ出力部109およびオーディオ出力部111の各々からは、常にデータが出力される。これにより、復号中のデータであれば、AV同期がとれた状態が保たれる。したがって、ビデオ符号化部113およびオーディオ符号化部115の各々は、AV同期を考慮せずに供給されるデータを逐次符号化するだけでAV同期を保つ(合わせる)ことができる。
 (高速な再符号化処理を実現可能な構成の説明)
 上述した図1のデジタルデータ記録再生装置1000の構成において、再符号化を高速で行うためには、再符号化処理経路を構成する各部でのデータ処理が高速で行われ必要がある。当該各部は、AV分離部102、ビデオ復号部105、オーディオ復号部107、ビデオ出力部109、オーディオ出力部111、ビデオ符号化部113、オーディオ符号化部115、AV多重化部117である。
 なお、上記各部のうち、AV分離部102およびAV多重化部117は、符号化処理や復号処理と比較して、複雑な演算処理は必要とされないため、システムのボトルネックからは除外して考えることができる。
 ビデオ復号部105およびビデオ符号化部113に関しては、ビデオデータに対する複雑な演算処理が必要であるため、ビデオ復号部105およびビデオ符号化部113は、高速な演算装置、もしくは演算専用の回路で構成されればよい。
 また、オーディオ復号部107およびオーディオ符号化部115に関しては、オーディオデータに対する複雑な演算処理が必要であるため、オーディオ復号部107およびオーディオ符号化部115は、高速な演算装置、もしくは演算専用の回路で構成されればよい。
 これにより、AV同期を保持しつつ、ビデオ復号部105、オーディオ復号部107、オーディオ復号部107およびオーディオ符号化部115の処理能力に合わせて高速な再符号化処理を行うことができる。
 また、再符号化処理が行われる場合において、クロック生成部121が生成するAV同期用クロックAVCK、ビデオ用クロックVCK、およびオーディオ用クロックACKは、通常再生処理において用いられるクロックよりも高速な(周波数の高い)クロックである。
 すなわち、クロック生成部121は、通常再生処理および再符号化処理の各々において、異なるクロックを生成する。つまり、デジタルデータ記録再生装置1000が行う処理が、通常再生処理から再符号化処理に切替えられる場合、クロック生成部121により生成されるクロックは、より高速なクロックに切替えられる。
 言い換えれば、クロック生成部121は、デジタルデータ記録再生装置1000の動作モードが第2モードとしての再符号化モードである場合に生成するAV同期用クロックAVCKの速度を、デジタルデータ記録再生装置1000の動作モードが第1モードとしての通常再生モードである場合に生成するAV同期用クロックAVCKの速度より速くする。
 つまり、クロック生成部121は、デジタルデータ記録再生装置1000の動作モードが第2モードとしての再符号化モードである場合に生成するAV同期用クロックAVCKの周波数を、デジタルデータ記録再生装置1000の動作モードが第1モードとしての通常再生モードである場合に生成するAV同期用クロックAVCKの周波数より高くする。
 これにより、再符号化処理において、ビデオ復号部105およびオーディオ復号部107の各々が、対応するデータを復号する速度を、通常再生処理における復号処理の速度より高速化できる。その結果、再符号化処理において、ビデオ出力部109およびオーディオ出力部111の各々が、対応するデータを出力する速度を、通常再生処理の場合より向上させることができる。したがって、ビデオ符号化部113およびオーディオ符号化部115の各々が、対応するデータを再符号化する速度を高速化することができる。
 なお、クロック生成部121は、デジタルデータ記録再生装置1000の動作モードが再符号化モードである場合に生成するAV同期用クロックAVCKの速度を、当該動作モードが通常再生モードである場合に生成するAV同期用クロックAVCKの速度より遅くしてもよい。これにより、再符号化処理が行われる場合におけるデジタルデータ記録再生装置1000の消費電力を低くすることができる。
 すなわち、クロック生成部121は、デジタルデータ記録再生装置1000の動作モードの種類に応じて、AV同期用クロックAVCKの速度(周波数)を変更する。
 以上説明したように、本実施の形態の再符号化処理では、通常再生処理に使用されるクロックより高速なクロックを使用して、ビデオ出力部109およびオーディオ出力部111の各々を動作させる。
 したがって、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を高速化することができる。すなわち、ビデオデータとオーディオデータとを同期して処理しつつ、ストリームに対する再符号化の速度を変更することができる。
 また、前述したように、再符号化処理では、通常再生処理に使用される前述した通常再生経路を流用する。すなわち、通常再生処理および再符号化処理では、通常再生経路が共用される。
 そのため、本実施の形態のデジタルデータ記録再生装置1000によれば、従来技術で示した記録再生装置の構成に対し、僅かな構成の変更だけで、高速な再符号化処理を実現することができる。
 <第2の実施の形態>
 (デジタルデータ記録再生装置の構成)
 図2は、第2の実施の形態に係るデジタルデータ記録再生装置1000Aの構成を示すブロック図である。なお、図2には、説明のために、デジタルデータ記録再生装置1000Aに含まれない記憶媒体101も示される。
 デジタルデータ記録再生装置1000Aは、図1のデジタルデータ記録再生装置1000と比較して、ビデオ復号部105、オーディオ復号部107、ビデオ符号化部113、オーディオ符号化部115およびAV同期制御部120の代わりにビデオ復号部105A、オーディオ復号部107A、ビデオ符号化部113A、オーディオ符号化部115AおよびAV同期制御部120Aを備える点と、代替ビデオデータ生成部211および代替オーディオデータ生成部212をさらに備える点と、ビデオ出力部109、オーディオ出力部111およびクロック生成部121を備えない点とが異なる。
 それ以外のデジタルデータ記録再生装置1000Aの構成は、デジタルデータ記録再生装置1000と同様なので詳細な説明は繰り返さない。
 ビデオ復号部105Aは、ビデオ復号部105と比較して、外部(例えば、AV同期制御部120A)から制御されない点が異なる。それ以外のビデオ復号部105Aの機能は、ビデオ復号部105と同様なので詳細な説明は繰り返さない。すなわち、ビデオ復号部105Aは、ビデオ復号部105と同じ復号処理を行う機能を有する。
 オーディオ復号部107Aは、オーディオ復号部107と比較して、外部(例えば、AV同期制御部120A)から制御されない点が異なる。それ以外のオーディオ復号部107Aの機能は、オーディオ復号部107と同様なので詳細な説明は繰り返さない。すなわち、オーディオ復号部107Aは、オーディオ復号部107と同じ復号処理を行う機能を有する。
 ビデオ符号化部113Aは、ビデオ符号化部113と比較して、AV同期制御部120Aにより制御される点が異なる。それ以外のビデオ符号化部113Aの機能は、ビデオ符号化部113と同様なので詳細な説明は繰り返さない。すなわち、ビデオ符号化部113Aは、ビデオ符号化部113と同じ符号化の処理を行う。
 オーディオ符号化部115Aは、オーディオ符号化部115と比較して、AV同期制御部120Aにより制御される点が異なる。それ以外のオーディオ符号化部115Aの機能は、オーディオ符号化部115と同様なので詳細な説明は繰り返さない。すなわち、オーディオ符号化部115Aは、オーディオ符号化部115と同じ符号化の処理を行う。
 代替ビデオデータ生成部211は、代替ビデオデータを生成する。当該代替ビデオデータは、ビデオデータVD1の代替となるビデオデータである。代替ビデオデータ生成部211は、ビデオ復号部105Aの状態を常に監視しており、ビデオ復号部105Aの状態が変化する毎に、ビデオ復号部105Aの最新の状態にあった代替ビデオデータを生成する。
 例えば、ビデオ復号部105Aによる復号の処理が停止した場合、代替ビデオデータ生成部211は、当該復号の処理の停止前の最終ビデオフレーム(最新のビデオフレーム)を示す代替ビデオデータを生成する。
 代替オーディオデータ生成部212は、代替オーディオデータを生成する。当該代替オーディオデータは、オーディオデータAD1の代替となるオーディオデータである。代替オーディオデータ生成部212は、オーディオ復号部107Aの状態を常に監視しており、オーディオ復号部107Aの状態が変化する毎に、オーディオ復号部107Aの最新の状態にあった代替オーディオデータを生成する。
 例えば、オーディオ復号部107Aによる復号の処理が停止した場合、代替オーディオデータ生成部212は、無音データである代替オーディオデータを生成する。
 デジタルデータ記録再生装置1000Aは、デジタルデータ記録再生装置1000と同様に、動作モードとして、通常再生モードと、再符号化モードとを有する。
 以下においては、デジタルデータ記録再生装置1000Aの動作モードを、装置動作モードともいう。
 装置動作モードが通常再生モードである場合、通常再生処理Aが行われる。装置動作モードが再符号化モードである場合、再符号化処理Aが行われる。
 再符号化処理Aでは、デジタルデータ記録再生装置1000Aにおいて、AV分離部102からAV多重化部117までのデータの処理経路(以下、再符号化処理経路Aという)が形成される。
 (再符号化処理AにおけるAVデータパス(再符号化処理経路A)の説明)
 なお、再符号化処理Aにおいて、AV分離部102およびAV多重化部117の各々が行う処理は、第1の実施の形態で説明した処理と同様なので詳細な説明は繰り返さない。以下、簡単に説明する。
 再符号化処理Aでは、まず、AV分離部102が、記憶媒体101に記憶されているAVビットストリームAVST1を読み出す。AV分離部102は、AVビットストリームAVST1から、ビデオビットストリームVST1とオーディオビットストリームAST1とを抽出する。
 AV分離部102は、ビデオビットストリームVST1を、入力ビデオビットストリームバッファ部103に記憶させるとともに、オーディオビットストリームAST1を入力オーディオビットストリームバッファ部104に記憶させる。
 ビデオ復号部105Aは、入力ビデオビットストリームバッファ部103に記憶されたビデオビットストリームVST1を復号することにより、ビデオデータVD1を取得する。すなわち、ビデオデータVD1は、ビデオ復号部105Aが復号により取得するビデオデータである復号済ビデオデータである。
 そして、ビデオ復号部105Aは、ビデオデータVD1を出力するとともに、当該ビデオデータVD1をビデオ出力データバッファ部106に記憶させる。
 オーディオ復号部107Aは、ビデオ復号部105Aの処理と並行して、入力オーディオビットストリームバッファ部104に記憶されたオーディオビットストリームAST1を復号することにより、オーディオデータAD1を取得する。すなわち、オーディオデータAD1は、オーディオ復号部107Aが復号により取得するオーディオデータである復号済オーディオデータである。
 そして、オーディオ復号部107Aは、オーディオデータAD1を出力するとともに、当該オーディオデータAD1を、オーディオ出力データバッファ部108に記憶させる。
 以下においては、ビデオ復号部105Aが、前述の復号の処理により取得したビデオデータVD1を出力するタイミングを、ビデオ出力タイミングという。また、以下においては、オーディオ復号部107Aが、前述の復号の処理により取得したオーディオデータAD1を出力するタイミングを、オーディオ出力タイミングという。
 ビデオ符号化部113Aは、AV同期制御部120Aによる後述する制御に従って、ビデオ出力データバッファ部106に記憶されたビデオデータVD1または最新の代替ビデオデータを符号化することにより、ビデオビットストリームVST2を生成する。すなわち、ビデオ符号化部113Aは、復号により得られたビデオデータVD1を再符号化する処理、または、最新の代替ビデオデータを符号化する処理を行う。
 そして、ビデオ符号化部113Aは、ビデオビットストリームVST2を、符号化ビデオビットストリームバッファ部114に記憶させる。
 オーディオ符号化部115Aは、AV同期制御部120Aによる後述する制御に従って、オーディオ出力データバッファ部108に記憶されたオーディオデータAD1または最新の代替オーディオデータを符号化することにより、オーディオビットストリームAST2を生成する。すなわち、オーディオ符号化部115Aは、一度符号化されていたオーディオデータAD1を、再符号化する処理、または、最新の代替オーディオデータを符号化する処理を行う。
 そして、オーディオ符号化部115Aは、オーディオビットストリームAST2を、符号化オーディオビットストリームバッファ部116に記憶させる。
 AV多重化部117は、符号化ビデオビットストリームバッファ部114に記憶されているビデオビットストリームVST2と、符号化オーディオビットストリームバッファ部116に記憶されているオーディオビットストリームAST2とを多重化することにより、AVビットストリームAVST2を生成する。AV多重化部117は、例えば、MPEG-2等の形式に従った多重化を行う。そして、AV多重化部117は、AVビットストリームAVST2を記憶媒体101に記憶させる。
 以上の再符号化処理Aにより、AVビットストリームAVST1に含まれるビデオデータVD1およびオーディオデータAD1は、再符号化される。
 (AV同期の説明)
 上記で説明した再符号化処理Aにおいて、同期情報(PTS)を用いたAV同期について説明する。
 ビデオ同期情報抽出部118およびオーディオ同期情報抽出部119の各々が行う処理は、第1の実施の形態で説明した処理と同様なので詳細な説明は繰り返さない。以下、簡単に説明する。
 ビデオ同期情報抽出部118は、入力ビデオビットストリームバッファ部103に記憶されたビデオビットストリームVST1から、ビデオ同期情報としてのVPTSを抽出し、当該VPTSを、AV同期制御部120Aへ送信する。
 また、オーディオ同期情報抽出部119は、入力オーディオビットストリームバッファ部104に記憶されたオーディオビットストリームAST1から、オーディオ同期情報としてのAPTSを抽出し、当該APTSを、AV同期制御部120Aへ送信する。
 AV同期制御部120Aは、ビデオデータとオーディオデータとが同期して処理されるための制御を行う。具体的には、AV同期制御部120Aは、VPTS(ビデオ同期情報)とAPTS(オーディオ同期情報)とを比較する。そして、AV同期制御部120Aは、ビデオ符号化部113Aが符号化を行うタイミングとオーディオ符号化部115Aが符号化を行うタイミングとが同期するようにビデオ符号化部113Aおよびオーディオ符号化部115Aを制御する。
 より具体的には、AV同期制御部120Aは、該比較結果に応じて、復号済ビデオデータおよび代替ビデオデータのいずれかをビデオ符号化部113Aに符号化させるようビデオ符号化部113Aを制御するとともに、該比較結果に応じて、復号済オーディオデータおよび前記代替オーディオデータのいずれかをオーディオ符号化部に符号化させるようオーディオ符号化部115Aを制御する。
 すなわち、VPTS(ビデオ同期情報)およびAPTS(オーディオ同期情報)の各々は、ビデオ符号化部113Aおよびオーディオ符号化部115Aを制御するための情報である。VPTS(ビデオ同期情報)およびAPTS(オーディオ同期情報)の各々は、AV同期制御部120Aが制御に利用する値を示す。
 AV同期制御部120Aは、受信したVPTSが示す値と受信したAPTSが示す値とが大きく乖離している場合、ビデオ符号化部113Aまたはオーディオ符号化部115Aへ、制御命令を発行する。
 具体的には、AV同期制御部120Aは、受信したVPTSの値と受信したAPTSの値とを比較し、当該VPTSの値と当該APTSの値との差の絶対値が、所定の同期閾値以上であり、かつ、VPTSの値がAPTSの値より小さい場合、ビデオ符号化部113Aへ、ビデオ符号化制御命令を送信する。
 ここで、同期閾値とは、ビデオデータVD1と、オーディオデータAD1とが同期して処理されているか否かを判定するための値である。当該VPTSの値と当該APTSの値との差の絶対値が、同期閾値以上である場合は、ビデオデータVD1と、オーディオデータAD1とが同期して処理されていない場合、すなわち、前述のビデオ出力タイミングと、前述のオーディオ出力タイミングとがずれている場合である。
 当該ビデオ符号化制御命令は、代替ビデオデータ生成部211が生成した最新の代替ビデオデータを、ビデオ符号化部113Aに符号化させるための命令である。
 また、AV同期制御部120Aは、受信したVPTSの値と受信したAPTSの値とを比較し、当該VPTSの値と当該APTSの値との差の絶対値が、所定の同期閾値以上であり、かつ、APTSの値がVPTSの値より小さい場合、オーディオ符号化部115Aへ、オーディオ符号化制御命令を送信する。オーディオ符号化制御命令は、代替オーディオデータ生成部212が生成した最新の代替オーディオデータを、オーディオ符号化部115Aに符号化させるための命令である。
 以下においては、VPTSの値と当該APTSの値との差の絶対値を、判定用絶対値ともいう。
 すなわち、AV同期制御部120Aは、判定用絶対値が同期閾値以上であり、かつ、VPTS(ビデオ同期情報)の示す値がAPTS(オーディオ同期情報)の示す値より小さい場合、ビデオ符号化部113Aに代替ビデオデータを符号化させるよう前記ビデオ符号化部113Aを制御する。
 また、AV同期制御部120Aは、判定用絶対値が同期閾値以上であり、かつ、APTS(オーディオ同期情報)の示す値がVPTS(ビデオ同期情報)の示す値より小さい場合、オーディオ符号化部115Aに代替オーディオデータを符号化させるようオーディオ符号化部115Aを制御する。
 つまり、AV同期制御部120Aは、VPTS(ビデオ同期情報)の示す値とAPTS(オーディオ同期情報)の示す値とから得られる値が所定の条件を満たす場合、ビデオ符号化部113Aに代替ビデオデータを符号化させるようビデオ符号化部113Aを制御する処理、および、オーディオ符号化部115Aに代替オーディオデータを符号化させるようオーディオ符号化部115Aを制御する処理のいずれかを行う。この場合、所定の条件は、VPTS(ビデオ同期情報)の示す値とAPTS(オーディオ同期情報)の示す値との差の絶対値が所定の同期閾値以上であるという条件である。
 なお、AV同期制御部120Aが、ビデオ符号化制御命令またはオーディオ符号化制御命令を送信する条件は、上記条件(判定用絶対値を利用した条件)に限定されない。例えば、AV同期制御部120Aは、当該VPTSの値と当該APTSの値との比率を算出し、当該比率に基づいて、ビデオ符号化制御命令またはオーディオ符号化制御命令を送信してもよい。
 ビデオ符号化部113Aは、ビデオ符号化制御命令を受信した場合、代替ビデオデータ生成部211が生成した最新の代替ビデオデータを符号化することにより、ビデオビットストリームVST2を生成する。
 なお、ビデオ符号化部113Aは、ビデオ符号化制御命令を受信していない場合、ビデオ出力データバッファ部106に記憶されたビデオデータVD1を符号化することにより、ビデオビットストリームVST2を生成する。
 すなわち、ビデオ符号化部113Aは、ビデオ符号化制御命令を受信した場合、符号化対象となるビデオデータを、ビデオデータVD1から、代替ビデオデータに切替える。
 オーディオ符号化部115Aは、オーディオ符号化制御命令を受信した場合、代替オーディオデータ生成部212が生成した最新の代替オーディオデータを符号化することにより、ビデオビットストリームVST2を生成する。
 なお、オーディオ符号化部115Aは、オーディオ符号化制御命令を受信していない場合、オーディオ出力データバッファ部108に記憶されたオーディオデータAD1を符号化することにより、ビデオビットストリームVST2を生成する。
 すなわち、オーディオ符号化部115Aは、オーディオ符号化制御命令を受信した場合、符号化対象となるオーディオデータを、オーディオデータAD1から、代替オーディオデータに切替える。
 ここで、具体例をあげて説明する。例えば、ビデオビットストリームVST1に欠損が存在することにより、ビデオ復号部105Aによる復号の処理が停止し、ビデオ同期情報抽出部118がビデオ同期情報としてのVPTSを取得できない状態が発生したとする。
 また、オーディオビットストリームAST1は正常なストリームであるとする。すなわち、オーディオ復号部107Aは、オーディオビットストリームAST1を、正常に受信しているとする。また、オーディオ同期情報抽出部119は、オーディオビットストリームAST1から、オーディオ同期情報としてのAPTSを抽出し、当該APTSを、AV同期制御部120Aへ送信しているとする。
 この場合、VPTSの値は変化せず、APTSの値のみが増加し、VPTSの値とAPTSの値との差の絶対値は、所定の同期閾値以上となる。すなわち、VPTSの値は、APTSの値より小さく、VPTSの値に対しAPTSの値が大きく乖離したとする。この場合、AV同期制御部120Aは、ビデオ符号化制御命令を、ビデオ符号化部113Aへ送信する。ビデオ符号化制御命令は、例えば、符号化データを補完するための制御命令である。
 ビデオ符号化部113Aは、このビデオ符号化制御命令を受信した場合、代替ビデオデータ生成部211が生成した最新の代替ビデオデータを取得し、当該代替ビデオデータを符号化する。すなわち、この場合、ビデオ符号化部113Aは、ビデオ出力データバッファ部106に記憶されたビデオデータVD1を符号化対象としないため、ビデオ出力データバッファ部106からビデオデータVD1を読み出さない。
 この場合、代替ビデオデータは、例えば、ビデオ復号部105Aによる復号の処理が停止した時点での最終復号データである。また、代替ビデオデータは、例えば、復号の処理の停止前の最終ビデオフレーム(最新のビデオフレーム)のデータである。
 また、例えば、オーディオビットストリームAST1に欠損が存在することにより、オーディオ復号部107Aによる復号の処理が停止し、オーディオ同期情報抽出部119がオーディオ同期情報としてのAPTSを取得できない状態が発生したとする。
 また、ビデオビットストリームVST1は正常なストリームであるとする。すなわち、ビデオ復号部105Aは、ビデオビットストリームVST1を、正常に受信しているとする。また、ビデオ同期情報抽出部118は、ビデオビットストリームVST1から、ビデオ同期情報としてのVPTSを抽出し、当該VPTSを、AV同期制御部120Aへ送信しているとする。
 この場合、APTSの値は変化せず、VPTSの値のみが増加し、VPTSの値とAPTSの値との差の絶対値は、所定の同期閾値以上となる。すなわち、APTSの値はVPTSの値より小さく、APTSの値に対しVPTSの値が大きく乖離したとする。この場合、AV同期制御部120Aは、オーディオ符号化制御命令を、オーディオ符号化部115Aへ送信する。オーディオ符号化制御命令は、例えば、符号化データを補完するための制御命令である。
 オーディオ符号化部115Aは、このオーディオ符号化制御命令を受信した場合、代替オーディオデータ生成部212が生成した最新の代替オーディオデータを取得し、当該代替オーディオデータを符号化する。すなわち、この場合、オーディオ符号化部115Aは、オーディオ出力データバッファ部108に記憶されたオーディオデータAD1を符号化対象としないため、オーディオ出力データバッファ部108からオーディオデータAD1を読み出さない。代替オーディオデータは、例えば、無音データ(0データ)である。
 (高速な再符号化処理Aを実現可能な構成の説明)
 上述した図2のデジタルデータ記録再生装置1000Aの構成において、再符号化を高速で行うためには、再符号化処理経路Aを構成する各部でのデータ処理が高速で行われ必要がある。当該各部は、AV分離部102、ビデオ復号部105A、オーディオ復号部107A、ビデオ符号化部113A、オーディオ符号化部115A、AV多重化部117である。
 なお、上記各部のうち、AV分離部102およびAV多重化部117は、符号化処理や復号処理と比較して、複雑な演算処理は必要とされないため、システムのボトルネックからは除外して考えることができる。
 ビデオ復号部105Aおよびビデオ符号化部113Aに関しては、ビデオデータに対する複雑な演算処理が必要であるため、ビデオ復号部105およびビデオ符号化部113は、演算プロセッサ、高速な演算装置、もしくは演算専用の回路で構成されればよい。
 また、オーディオ復号部107Aおよびオーディオ符号化部115Aに関しては、オーディオデータに対する複雑な演算処理が必要であるため、オーディオ復号部107Aおよびオーディオ符号化部115Aは、演算プロセッサ、高速な演算装置、もしくは演算専用の回路で構成されればよい。
 以上説明したように、本実施の形態の再符号化処理Aでは、VPTSと、APTSとを利用して、ビデオデータVD1と、オーディオデータAD1とが同期して処理されるように制御される。すなわち、本実施の形態の再符号化処理Aでは、第1の実施の形態の再符号化処理とは異なり、クロックに依存した処理を行なわない。すなわち、ビデオ復号部105A、オーディオ復号部107A、ビデオ符号化部113Aおよびオーディオ符号化部115Aの各々は、非同期で動作可能である。
 したがって、本実施の形態に係るデジタルデータ記録再生装置1000Aによれば、ビデオ復号部105A、ビデオ符号化部113A、オーディオ復号部107A、オーディオ符号化部115Aの各々の演算回路(演算プロセッサ)の性能を最大限にいかした高速な再符号化処理Aを実現することができる。
 なお、AV同期制御部120Aが、装置動作モードの種類に応じて、ビデオ復号部105A、ビデオ符号化部113A、オーディオ復号部107Aおよびオーディオ符号化部115Aの各々の処理速度を変更してもよい。
 以下においては、ビデオ復号部105A、ビデオ符号化部113A、オーディオ復号部107Aおよびオーディオ符号化部115Aの各々を、再符号化関連部という。
 具体的には、AV同期制御部120Aが、例えば、装置動作モードが再符号化モードである場合における各再符号化関連部の処理速度を、装置動作モードが通常再生モードである場合における各再符号化関連部の処理速度より速くなるように、各再符号化関連部を制御する。
 これにより、装置動作モードが再符号化モードである場合における再符号化処理Aの速度を、装置動作モードが再符号化モードである場合における再符号化処理Aの速度より速くすることができる。すなわち、ストリームに対する再符号化の速度を変更することが可能となる。
 なお、上記実施の形態は本発明を実施するための一例であり、本発明の要旨を逸脱しない限りは種々の変更は可能である。例えば、記憶媒体に関して、再符号化後のビットストリームの記録には、再符号化前のAVビットストリームが記録されている記憶媒体とは別の記憶媒体を使用してもよい。一例として、HDDに記録されているAVビットストリームを再符号化し、当該再符号化により得られたAVビットストリームが、Blu-rayディスクに記録されてもよい。
 また、AV同期情報の抽出をビデオ同期情報抽出部およびオーディオ同期情報抽出部が行っているが、AV同期情報の抽出を行う機能をAV分離部に持たせるといった構成も可能である。
 また、再符号化の対象となるAVビットストリームAVST1は、記憶媒体101に記録されてなくてもよく、再符号化の対象となるAVビットストリームAVST1は、例えば、放送波により受信してもよい。また、再符号化の対象となるAVビットストリームAVST1は、例えば、インターネットからストリーミング配信されたものであってもよい。
 (機能ブロック図)
 図3は、デジタルデータ記録再生装置2000の特徴的な第1の機能構成を示すブロック図である。デジタルデータ記録再生装置2000は、図1のデジタルデータ記録再生装置1000に相当する。つまり、図3は、デジタルデータ記録再生装置1000の有する機能のうち、本発明に関わる主要な機能を示すブロック図である。
 デジタルデータ記録再生装置2000は、ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAVビットストリームを処理する。
 第1のビデオビットストリームは、ビデオビットストリームVST1に相当する。第1のオーディオビットストリームは、オーディオビットストリームAST1に相当する。第1のAVビットストリームは、AVビットストリームAVST1に相当する。
 デジタルデータ記録再生装置2000は、少なくとも2種類の動作モードを有する。2種類の動作モードは、それぞれ、前述の再符号化モードおよび通常再生モードである。
 第1のビデオビットストリームは、ビデオ同期情報を含む。ビデオ同期情報は、VPTSに相当する。第1のオーディオビットストリームは、オーディオ同期情報を含む。オーディオ同期情報は、APTSに相当する。ビデオ同期情報およびオーディオ同期情報の各々は、ビデオデータとオーディオデータとを同期して処理するための情報である。
 デジタルデータ記録再生装置2000は、機能的には、AV分離部2102と、ビデオ同期情報抽出部2118と、オーディオ同期情報抽出部2119と、ビデオ復号部2105と、オーディオ復号部2107と、クロック生成部2121と、AV同期制御部2120とを備える。
 AV分離部2102は、第1のAVビットストリームから、第1のビデオビットストリームと第1のオーディオビットストリームとを抽出する。ビデオ同期情報抽出部2118は、前記第1のビデオビットストリームから前記ビデオ同期情報を抽出する。オーディオ同期情報抽出部2119は、前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出する。
 ビデオ復号部2105は、前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するための構成要素である。オーディオ復号部2107は、前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するための構成要素である。
 クロック生成部2121は、前記ビデオデータと前記オーディオデータとを同期して処理するためのAV同期用クロックを生成する。AV同期用クロックは、AV同期用クロックAVCKに相当する。
 AV同期制御部2120は、前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行う。
 AV分離部2102、ビデオ同期情報抽出部2118、オーディオ同期情報抽出部2119、ビデオ復号部2105、オーディオ復号部2107、クロック生成部2121およびAV同期制御部2120は、それぞれ、AV分離部102、ビデオ同期情報抽出部118、オーディオ同期情報抽出部119、ビデオ復号部105、オーディオ復号部107、クロック生成部121およびAV同期制御部120に相当する。
 具体的には、AV同期制御部2120は、前記ビデオ同期情報、前記オーディオ同期情報および前記AV同期用クロックを用いて、前記ビデオ復号部2105による前記ビデオデータの出力タイミングと、前記オーディオ復号部2107による前記オーディオデータの出力タイミングとが同期するように、前記ビデオ復号部2105および前記オーディオ復号部2107を制御する。
 デジタルデータ記録再生装置2000は、機能的には、さらに、ビデオ出力部2109と、オーディオ出力部2111と、ビデオ符号化部2113と、オーディオ符号化部2115と、AV多重化部2117とを備える。
 ビデオ出力部2109は、前記AV同期用クロックに同期したビデオ出力用クロックに合わせて前記ビデオデータを出力する。ビデオ出力用クロックは、ビデオ用クロックVCKに相当する。
 オーディオ出力部2111は、前記AV同期用クロックに同期したオーディオ出力用クロックに合わせて前記オーディオデータを出力する。オーディオ出力用クロックは、オーディオ用クロックACKに相当する。
 ビデオ符号化部2113は、前記ビデオ出力部2109から出力された前記ビデオデータを符号化することにより第2のビデオビットストリームを生成する。第2のビデオビットストリームは、ビデオビットストリームVST2に相当する。
 オーディオ符号化部2115は、前記オーディオ出力部2111から出力された前記オーディオデータを符号化することにより第2のオーディオビットストリームを生成する。第2のオーディオビットストリームは、オーディオビットストリームAST2に相当する。
 AV多重化部2117は、前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成する。第2のAVビットストリームは、AVビットストリームAVST2に相当する。
 また、クロック生成部2121は、さらに、前記デジタルデータ記録再生装置2000の動作モードの種類に応じて、前記AV同期用クロックの速度を変更する。
 なお、AV分離部2102、ビデオ同期情報抽出部2118、オーディオ同期情報抽出部2119、ビデオ復号部2105、オーディオ復号部2107、クロック生成部2121、AV同期制御部2120、ビデオ出力部2109、オーディオ出力部2111、ビデオ符号化部2113、オーディオ符号化部2115およびAV多重化部2117の全てまたは一部は、LSI(Large Scale Integration:大規模集積回路)等のハードウエアで構成されてもよい。
 図4は、デジタルデータ記録再生装置3000の特徴的な第2の機能構成を示すブロック図である。デジタルデータ記録再生装置3000は、図2のデジタルデータ記録再生装置1000Aに相当する。つまり、図4は、デジタルデータ記録再生装置1000Aの有する機能のうち、本発明に関わる主要な機能を示すブロック図である。
 デジタルデータ記録再生装置3000は、ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAVビットストリームを処理する。
 第1のビデオビットストリームは、ビデオビットストリームVST1に相当する。第1のオーディオビットストリームは、オーディオビットストリームAST1に相当する。第1のAVビットストリームは、AVビットストリームAVST1に相当する。
 前記第1のビデオビットストリームは、ビデオ同期情報を含む。ビデオ同期情報は、VPTSに相当する。前記第1のオーディオビットストリームは、オーディオ同期情報を含む。オーディオ同期情報は、APTSに相当する。
 デジタルデータ記録再生装置3000は、機能的には、AV分離部3102と、ビデオ同期情報抽出部3118と、オーディオ同期情報抽出部3119と、ビデオ復号部3105Aと、オーディオ復号部3107Aと、AV同期制御部3120Aと、代替ビデオデータ生成部3211と、代替オーディオデータ生成部3212と、ビデオ符号化部3113Aと、オーディオ符号化部3115Aと、AV多重化部3117とを備える。
 AV分離部3102は、前記第1のAVビットストリームから、前記第1のビデオビットストリームと前記第1のオーディオビットストリームとを抽出する。ビデオ同期情報抽出部3118は、前記第1のビデオビットストリームから前記ビデオ同期情報を抽出する。オーディオ同期情報抽出部3119は、前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出する。
 ビデオ復号部3105Aは、前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するための構成要素である。オーディオ復号部3107Aは、前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するための構成要素である。AV同期制御部3120Aは、前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行う。
 代替ビデオデータ生成部3211は、前記ビデオ復号部3105Aが復号により取得するビデオデータである復号済ビデオデータの代替となる代替ビデオデータを生成する。代替オーディオデータ生成部3212は、前記オーディオ復号部3107Aが復号により取得するオーディオデータである復号済オーディオデータの代替となる代替オーディオデータを生成する。
 ビデオ符号化部3113Aは、前記復号済ビデオデータまたは前記代替ビデオデータを符号化することにより第2のビデオビットストリームを生成する。第2のビデオビットストリームは、ビデオビットストリームVST2に相当する。
 オーディオ符号化部3115Aは、前記復号済オーディオデータまたは前記代替オーディオデータを符号化することにより第2のオーディオビットストリームを生成する。第2のオーディオビットストリームは、オーディオビットストリームAST2に相当する。
 AV多重化部3117は、前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成する。第2のAVビットストリームは、AVビットストリームAVST2に相当する。
 前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記ビデオ符号化部3113Aおよび前記オーディオ符号化部3115Aを制御するための情報である。
 具体的には、AV同期制御部3120Aは、前記ビデオ同期情報と前記オーディオ同期情報とを比較し、前記ビデオ符号化部3113Aが符号化を行うタイミングと前記オーディオ符号化部3115Aが符号化を行うタイミングとが同期するように、(a)該比較結果に応じて、前記復号済ビデオデータおよび前記代替ビデオデータのいずれかを前記ビデオ符号化部3113Aに符号化させるよう前記ビデオ符号化部3113Aを制御するとともに、(b)該比較結果に応じて、前記復号済オーディオデータおよび前記代替オーディオデータのいずれかを前記オーディオ符号化部3115Aに符号化させるよう前記オーディオ符号化部3115Aを制御する。
 AV分離部3102、ビデオ同期情報抽出部3118、オーディオ同期情報抽出部3119、ビデオ復号部3105A、オーディオ復号部3107AおよびAV同期制御部3120Aは、それぞれ、AV分離部102、ビデオ同期情報抽出部118、オーディオ同期情報抽出部119、ビデオ復号部105A、オーディオ復号部107AおよびAV同期制御部120Aに相当する。
 また、代替ビデオデータ生成部3211、代替オーディオデータ生成部3212、ビデオ符号化部3113A、オーディオ符号化部3115AおよびAV多重化部3117は、それぞれ、代替ビデオデータ生成部211、代替オーディオデータ生成部212、ビデオ符号化部113A、オーディオ符号化部115AおよびAV多重化部117に相当する。
 なお、AV分離部3102、ビデオ同期情報抽出部3118、オーディオ同期情報抽出部3119、ビデオ復号部3105A、オーディオ復号部3107A、AV同期制御部3120A、代替ビデオデータ生成部3211、代替オーディオデータ生成部3212、ビデオ符号化部3113A、オーディオ符号化部3115AおよびAV多重化部3117の全てまたは一部は、LSI(Large Scale Integration:大規模集積回路)等のハードウエアで構成されてもよい。
 以上、本発明におけるデジタルデータ記録再生装置1000又はデジタルデータ記録再生装置1000Aについて、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、あるいは異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 また、上記のデジタルデータ記録再生装置1000又はデジタルデータ記録再生装置1000Aを構成する複数の構成要素の全てまたは一部は、ハードウエアで構成されてもよい。また、上記のデジタルデータ記録再生装置1000又はデジタルデータ記録再生装置1000Aを構成する構成要素の全てまたは一部は、CPU(Central Processing Unit)等により実行されるプログラムのモジュールであってもよい。
 また、上記のデジタルデータ記録再生装置1000又はデジタルデータ記録再生装置1000Aを構成する複数の構成要素の全てまたは一部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されてもよい。システムLSIは、複数の構成要素を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)及びRAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。
 例えば、図1において、AV分離部102、入力ビデオビットストリームバッファ部103、入力オーディオビットストリームバッファ部104、ビデオ復号部105、ビデオ出力データバッファ部106、オーディオ復号部107、オーディオ出力データバッファ部108、ビデオ出力部109、ビデオ符号化入力バッファ部110、オーディオ出力部111、オーディオ符号化入力バッファ部112、ビデオ符号化部113、符号化ビデオビットストリームバッファ部114、オーディオ符号化部115、符号化オーディオビットストリームバッファ部116およびAV多重化部117は、1個のシステムLSIから構成されてもよい。
 また、本発明は、デジタルデータ記録再生装置1000又はデジタルデータ記録再生装置1000Aが備える特徴的な構成部の動作をステップとするデジタルデータ記録方法として実現してもよい。また、本発明は、そのようなデジタルデータ記録方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現してもよい。また、本発明は、そのようなプログラムを格納するコンピュータ読み取り可能な記録媒体として実現されてもよい。また、当該プログラムは、インターネット等の伝送媒体を介して配信されてもよい。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 本発明は、AV同期を保持しつつ、かつAV復号化部およびAV復号化部の処理能力に合わせて高速な再符号化処理を行うことが可能となり、利用者の利便性を向上させるデジタルデータ記録再生装置として、利用することができる。
101 記憶媒体
102,2102,3102 AV分離部
103 入力ビデオビットストリームバッファ部
104 入力オーディオビットストリームバッファ部
105,105A,2105,3105A ビデオ復号部
106 ビデオ出力データバッファ部
107,107A,2107,3107A オーディオ復号部
108 オーディオ出力データバッファ部
109,2109 ビデオ出力部
110 ビデオ符号化入力バッファ部
111,2111 オーディオ出力部
112 オーディオ符号化入力バッファ部
113,113A,2113,3113A ビデオ符号化部
114 符号化ビデオビットストリームバッファ部
115,115A,2115,3115A オーディオ符号化部
116 符号化オーディオビットストリームバッファ部
117,2117,3117 AV多重化部
118,2118,3118 ビデオ同期情報抽出部
119,2119,3119 オーディオ同期情報抽出部
120,120A,2120,3120A AV同期制御部
121,2121 クロック生成部
211,3211 代替ビデオデータ生成部
212,3212 代替オーディオデータ生成部
1000,1000A,2000,3000 デジタルデータ記録再生装置

Claims (6)

  1.  ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAV(Audio Visual)ビットストリームを処理するデジタルデータ記録再生装置であって、
     前記デジタルデータ記録再生装置は、少なくとも2種類の動作モードを有し、
     前記第1のビデオビットストリームは、ビデオ同期情報を含み、
     前記第1のオーディオビットストリームは、オーディオ同期情報を含み、
     前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記ビデオデータと前記オーディオデータとを同期して処理するための情報であり、
     前記デジタルデータ記録再生装置は、
      前記第1のAVビットストリームから、前記第1のビデオビットストリームと前記第1のオーディオビットストリームとを抽出するAV分離部と、
      前記第1のビデオビットストリームから前記ビデオ同期情報を抽出するビデオ同期情報抽出部と、
      前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出するオーディオ同期情報抽出部と、
      前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するためのビデオ復号部と、
      前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するためのオーディオ復号部と、
      前記ビデオデータと前記オーディオデータとを同期して処理するためのAV同期用クロックを生成するクロック生成部と、
      前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行うAV同期制御部とを備え、
     前記AV同期制御部は、前記ビデオ同期情報、前記オーディオ同期情報および前記AV同期用クロックを用いて、前記ビデオ復号部による前記ビデオデータの出力タイミングと、前記オーディオ復号部による前記オーディオデータの出力タイミングとが同期するように、前記ビデオ復号部および前記オーディオ復号部を制御し、
     前記デジタルデータ記録再生装置は、さらに、
      前記AV同期用クロックに同期したビデオ出力用クロックに合わせて前記ビデオデータを出力するビデオ出力部と、
      前記AV同期用クロックに同期したオーディオ出力用クロックに合わせて前記オーディオデータを出力するオーディオ出力部と、
      前記ビデオ出力部から出力された前記ビデオデータを符号化することにより第2のビデオビットストリームを生成するビデオ符号化部と、
      前記オーディオ出力部から出力された前記オーディオデータを符号化することにより第2のオーディオビットストリームを生成するオーディオ符号化部と、
      前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成するAV多重化部とを備え、
     前記クロック生成部は、さらに、前記デジタルデータ記録再生装置の動作モードの種類に応じて、前記AV同期用クロックの速度を変更する、
     デジタルデータ記録再生装置。
  2.  前記デジタルデータ記録再生装置は、動作モードとして、前記第1のAVビットストリームを再生するための第1モード、および、前記第1のAVビットストリームを復号し、該復号により得られたデータを符号化するための第2モードを有し、
     前記クロック生成部は、前記デジタルデータ記録再生装置の動作モードが前記第2モードである場合に生成する前記AV同期用クロックの速度を、前記デジタルデータ記録再生装置の動作モードが前記第1モードである場合に生成する前記AV同期用クロックの速度より速くする、
     請求項1に記載のデジタルデータ記録再生装置。
  3.  前記ビデオ同期情報、前記オーディオ同期情報および前記AV同期用クロックの各々は、前記AV同期制御部が制御に利用する値を示し、
     前記AV同期用クロックが示す値は、時間経過に伴い増加し、
     前記AV同期制御部は、(a)前記ビデオ同期情報が示す値と前記AV同期用クロックが示す値とが一致するタイミングにおいて、前記ビデオ復号部が前記ビデオデータを出力するように前記ビデオ復号部を制御し、(b)前記オーディオ同期情報が示す値と前記AV同期用クロックが示す値とが一致するタイミングにおいて、前記オーディオ復号部が前記オーディオデータを出力するように前記オーディオ復号部を制御する、
     請求項1または2に記載のデジタルデータ記録再生装置。
  4.  ビデオデータが符号化されることにより生成された第1のビデオビットストリームおよびオーディオデータが符号化されることにより生成された第1のオーディオビットストリームが多重化された第1のAV(Audio Visual)ビットストリームを処理するデジタルデータ記録再生装置であって、
     前記第1のビデオビットストリームは、ビデオ同期情報を含み、
     前記第1のオーディオビットストリームは、オーディオ同期情報を含み、
     前記デジタルデータ記録再生装置は、
      前記第1のAVビットストリームから、前記第1のビデオビットストリームと前記第1のオーディオビットストリームとを抽出するAV分離部と、
      前記第1のビデオビットストリームから前記ビデオ同期情報を抽出するビデオ同期情報抽出部と、
      前記第1のオーディオビットストリームから前記オーディオ同期情報を抽出するオーディオ同期情報抽出部と、
      前記第1のビデオビットストリームを復号することにより前記ビデオデータを取得し、該ビデオデータを出力するためのビデオ復号部と、
      前記第1のオーディオビットストリームを復号することにより前記オーディオデータを取得し、該オーディオデータを出力するためのオーディオ復号部と、
      前記ビデオデータと前記オーディオデータとが同期して処理されるための制御を行うAV同期制御部と、
      前記ビデオ復号部が復号により取得するビデオデータである復号済ビデオデータの代替となる代替ビデオデータを生成する代替ビデオデータ生成部と、
      前記オーディオ復号部が復号により取得するオーディオデータである復号済オーディオデータの代替となる代替オーディオデータを生成する代替オーディオデータ生成部と、
      前記復号済ビデオデータまたは前記代替ビデオデータを符号化することにより第2のビデオビットストリームを生成するビデオ符号化部と、
      前記復号済オーディオデータまたは前記代替オーディオデータを符号化することにより第2のオーディオビットストリームを生成するオーディオ符号化部と、
      前記第2のビデオビットストリームと前記第2のオーディオビットストリームとを多重化することにより第2のAVビットストリームを生成するAV多重化部とを備え、
     前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記ビデオ符号化部および前記オーディオ符号化部を制御するための情報であり、
     前記AV同期制御部は、前記ビデオ同期情報と前記オーディオ同期情報とを比較し、前記ビデオ符号化部が符号化を行うタイミングと前記オーディオ符号化部が符号化を行うタイミングとが同期するように、(a)該比較結果に応じて、前記復号済ビデオデータおよび前記代替ビデオデータのいずれかを前記ビデオ符号化部に符号化させるよう前記ビデオ符号化部を制御するとともに、(b)該比較結果に応じて、前記復号済オーディオデータおよび前記代替オーディオデータのいずれかを前記オーディオ符号化部に符号化させるよう前記オーディオ符号化部を制御する、
     デジタルデータ記録再生装置。
  5.  前記ビデオ同期情報および前記オーディオ同期情報の各々は、前記AV同期制御部が制御に利用する値を示し、
     前記AV同期制御部は、前記ビデオ同期情報の示す値と前記オーディオ同期情報の示す値とから得られる値が所定の条件を満たす場合、(c)前記ビデオ符号化部に前記代替ビデオデータを符号化させるよう前記ビデオ符号化部を制御する処理、および、(d)前記オーディオ符号化部に前記代替オーディオデータを符号化させるよう前記オーディオ符号化部を制御する処理のいずれかを行う、
     請求項4に記載のデジタルデータ記録再生装置。
  6.  前記所定の条件は、前記ビデオ同期情報の示す値と前記オーディオ同期情報の示す値との差の絶対値が所定の同期閾値以上であるという条件であり、
     前記AV同期制御部は、
     (e)前記絶対値が前記同期閾値以上であり、かつ、前記ビデオ同期情報の示す値が前記オーディオ同期情報の示す値より小さい場合、前記ビデオ符号化部に前記代替ビデオデータを符号化させるよう前記ビデオ符号化部を制御し、
     (f)前記絶対値が前記同期閾値以上であり、かつ、前記オーディオ同期情報の示す値が前記ビデオ同期情報の示す値より小さい場合、前記オーディオ符号化部に前記代替オーディオデータを符号化させるよう前記オーディオ符号化部を制御する、
     請求項5に記載のデジタルデータ記録再生装置。
     
PCT/JP2011/003282 2010-06-16 2011-06-10 デジタルデータ記録再生装置 Ceased WO2011158474A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180028583.3A CN102934168B (zh) 2010-06-16 2011-06-10 数字数据记录再生装置
JP2012520281A JP5700853B2 (ja) 2010-06-16 2011-06-10 デジタルデータ記録再生装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-137751 2010-06-16
JP2010137751 2010-06-16

Publications (1)

Publication Number Publication Date
WO2011158474A1 true WO2011158474A1 (ja) 2011-12-22

Family

ID=45347890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003282 Ceased WO2011158474A1 (ja) 2010-06-16 2011-06-10 デジタルデータ記録再生装置

Country Status (3)

Country Link
JP (1) JP5700853B2 (ja)
CN (1) CN102934168B (ja)
WO (1) WO2011158474A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674480B2 (en) * 2014-10-01 2017-06-06 Teac Corporation Camera link recorder

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232840A (ja) * 1998-02-16 1999-08-27 Sony Corp 記憶装置
JP2000132914A (ja) * 1998-10-29 2000-05-12 Sony Corp データ処理装置およびデータ記録装置
JP2004280994A (ja) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd データ作成方法及びデータ記録装置
JP2006148679A (ja) * 2004-11-22 2006-06-08 Matsushita Electric Ind Co Ltd データ処理装置
WO2009054139A1 (ja) * 2007-10-24 2009-04-30 Panasonic Corporation 画像符号化方法、画像符号化装置、画像記録装置、及び集積回路

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4829800B2 (ja) * 2007-01-17 2011-12-07 株式会社日立製作所 記録再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232840A (ja) * 1998-02-16 1999-08-27 Sony Corp 記憶装置
JP2000132914A (ja) * 1998-10-29 2000-05-12 Sony Corp データ処理装置およびデータ記録装置
JP2004280994A (ja) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd データ作成方法及びデータ記録装置
JP2006148679A (ja) * 2004-11-22 2006-06-08 Matsushita Electric Ind Co Ltd データ処理装置
WO2009054139A1 (ja) * 2007-10-24 2009-04-30 Panasonic Corporation 画像符号化方法、画像符号化装置、画像記録装置、及び集積回路

Also Published As

Publication number Publication date
CN102934168A (zh) 2013-02-13
CN102934168B (zh) 2015-12-02
JPWO2011158474A1 (ja) 2013-08-19
JP5700853B2 (ja) 2015-04-15

Similar Documents

Publication Publication Date Title
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
KR20080076079A (ko) 디지털 방송 재생 방법 및 장치, 디지털 방송 녹화 방법
KR20050052717A (ko) 오디오 원본 보존 트랜스코딩 시스템 및 방법
JP4775208B2 (ja) 再生方法、再生プログラムおよび再生装置
JPWO2012160782A1 (ja) ビットストリーム送信装置、ビットストリーム送受信システム、ビットストリーム受信装置、ビットストリーム送信方法、ビットストリーム受信方法及びビットストリーム
JP5700853B2 (ja) デジタルデータ記録再生装置
JP4096915B2 (ja) デジタル情報再生装置及び方法
JP4013800B2 (ja) データ作成方法及びデータ記録装置
US20080310647A1 (en) Audio stream processing method, playback apparatus, and output apparatus
JP4270084B2 (ja) 記録再生装置
JP2009146550A (ja) 情報データストリームの同時記録再生装置、及び方法
JP4501854B2 (ja) 映像音声記録装置
JP5168105B2 (ja) 音声再生装置、及び音声再生方法
JP4850041B2 (ja) 映像再生システム、映像再生の同期方法および映像再生端末
JP2009218934A (ja) 映像再生装置及び映像再生方法
JP2008245122A (ja) データ符号化方法および装置、ならびにデータ符号化プログラム
US20180040348A1 (en) Signal processing device, signal processing system, signal processing method, and program
JP2007028212A (ja) 再生装置及び再生方法
US20080162899A1 (en) Compressed data transfer apparatus and method for transferring compressed data
JP2006352587A (ja) 情報処理装置
WO2002104017A1 (en) Image recordimg device and method
JP2005244303A (ja) データ遅延装置及び同期再生装置並びにデータ遅延方法
JP2004153631A (ja) デジタル映像音声記録装置
JP2009192944A (ja) 音声出力装置及び音声出力方法
JPWO2013125158A1 (ja) 映像出力装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180028583.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11795382

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012520281

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11795382

Country of ref document: EP

Kind code of ref document: A1