[go: up one dir, main page]

WO2006022308A1 - マルチチャネル信号符号化装置およびマルチチャネル信号復号装置 - Google Patents

マルチチャネル信号符号化装置およびマルチチャネル信号復号装置 Download PDF

Info

Publication number
WO2006022308A1
WO2006022308A1 PCT/JP2005/015375 JP2005015375W WO2006022308A1 WO 2006022308 A1 WO2006022308 A1 WO 2006022308A1 JP 2005015375 W JP2005015375 W JP 2005015375W WO 2006022308 A1 WO2006022308 A1 WO 2006022308A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
channel
reference signal
signals
power spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/015375
Other languages
English (en)
French (fr)
Inventor
Michiyo Goto
Chun Woei Teo
Sua Hong Neo
Koji Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to AT05774594T priority Critical patent/ATE442644T1/de
Priority to BRPI0514998-3A priority patent/BRPI0514998A/pt
Priority to US11/573,100 priority patent/US7630396B2/en
Priority to EP05774594A priority patent/EP1783745B1/en
Priority to DE602005016571T priority patent/DE602005016571D1/de
Priority to JP2006531958A priority patent/JP4963962B2/ja
Publication of WO2006022308A1 publication Critical patent/WO2006022308A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Definitions

  • the present invention relates to a multi-channel signal encoding device and a multi-channel signal decoding device, and more particularly to a multi-channel signal encoding device and a multi-channel used in a system for transmitting a multi-channel audio signal or audio signal. It relates to signal decoding equipment.
  • An example of an application where locating a speaker is useful is a high-quality multi-speaker teleconference device that can identify the speaker's location in the presence of multiple speakers at the same time. Spatial information is provided by expressing speech with multi-channel signals. It is also preferred that it be realized at the lowest possible bit rate.
  • Multi-channel codes in audio codes may use cross-correlation redundancy between channels.
  • cross-correlation redundancy is realized using the concept of joint stereo codes.
  • Joint stereo is a stereo technology that combines middle-side (MS) stereo mode and intensity (I) stereo mode. This By using these modes in combination, a better data compression rate is achieved, and the coding bit rate is reduced.
  • Patent Document 1 International Publication No. 03Z090208 Pamphlet
  • An object of the present invention is to provide a multi-channel signal coding apparatus and a multi-channel signal decoding apparatus capable of realizing high quality speech at a low bit rate. Means for solving the problem
  • a multi-channel signal encoding apparatus includes a generating unit that generates a single-channel reference signal for a signal of a plurality of channels, a coding unit that encodes the generated reference signal, and the plurality A configuration having an extraction means for extracting parameters indicating the characteristics of each signal of the channel and a multiplexing means for multiplexing the encoded reference signal and the extracted parameters with each other is adopted.
  • the multi-channel signal decoding apparatus of the present invention is an encoded reference signal, which is a single-channel reference signal for a plurality of channel signals and a parameter multiplexed on the reference signal. Separating means for separating parameters indicating each characteristic from each other, decoding means for decoding the separated reference signal, and generation for generating the signals of the plurality of channels from the decoded reference signal and the separated parameters And a means having a means.
  • the multi-channel signal transmission system of the present invention is an encoded reference signal, which includes a single-channel reference signal with respect to a multi-channel signal and a parameter indicating each characteristic of the multi-channel signal.
  • a structure having multiplexing means for multiplexing and separating means for separating the multiplexed reference signal and parameter from each other is adopted.
  • the multi-channel signal encoding method of the present invention includes a generation step of generating a single-channel reference signal for signals of a plurality of channels, a encoding step of encoding the generated reference signal, and the plurality of steps An extraction step for extracting parameters indicating the characteristics of each signal of the channel and a multiplexing step for multiplexing the encoded reference signal and the extracted parameters with each other are provided.
  • the multi-channel signal decoding method of the present invention is an encoded reference signal, which is a single-channel reference signal for a plurality of channel signals and a parameter multiplexed on the reference signal.
  • a separation step for separating parameters indicating each characteristic from each other, a decoding step for decoding the separated reference signal, and a generation for generating the signals of the plurality of channels from the decoded reference signal and the separated parameters Steps.
  • the invention's effect [0013] it is possible to realize high-quality sound at a low bit rate.
  • FIG. 1 is a block diagram showing a configuration of a multi-channel signal transmission system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of a signal analysis unit according to the present embodiment
  • FIG. 3 is a block diagram showing a configuration of a parameter extraction unit according to the present embodiment
  • FIG. 4 is a block diagram showing a configuration of a signal synthesis unit according to the present embodiment
  • FIG. 5 is a block diagram showing a configuration of a reference channel signal processing unit according to the present embodiment
  • FIG. 6 is a block diagram showing a configuration of a target channel signal generation unit according to the present embodiment
  • FIG. 7 is a block diagram showing a configuration of a power estimation unit in the target channel signal generation unit according to the present embodiment
  • FIG. 8 is a block diagram showing a configuration of a spectrum generation unit according to the present embodiment
  • FIG. 9 is a block diagram showing a configuration of a power calculation unit in the reference channel signal processing unit according to the present embodiment
  • FIG. 10 is a block diagram showing a modification of the configuration of the reference channel signal processing unit according to the present embodiment.
  • FIG. 11A is a diagram showing an example of an envelope of a power spectrum according to the present embodiment
  • FIG. 11B is a diagram showing another example of the power spectrum envelope according to the present embodiment
  • FIG. 1 is a block diagram showing a configuration of a multi-channel signal transmission system according to an embodiment of the present invention.
  • the multi-channel signal transmission system 1 includes a multi-channel signal encoder 2 that encodes an N (N is an integer of 2 or more) channel signal and an N-channel signal (hereinafter referred to as “N-channel signal”). And a transmission path 4 for transmitting a signal obtained by the multi-channel signal encoder 2 to the multi-channel signal decoder 3.
  • the multi-channel signal encoder 2 down-mixes the N-channel signal to monaural.
  • Down-mix unit 10 for obtaining a reference signal (hereinafter referred to as “reference channel signal”), an encoding unit 11 for encoding the reference channel signal, and an N-channel signal, respectively, and analyzing each of the N-channel signals.
  • the signal analysis unit 12 that extracts parameters indicating characteristics and obtains the extracted set of parameters and the encoded reference channel signal and the obtained parameter set are multiplexed with each other, and the multichannel is transmitted via the transmission path 4.
  • a MUX unit 13 for transmitting to the signal decoding device 3.
  • the reference channel signal is a signal that is output as a monaural signal (audio signal or audio signal) by being decoded by the multi-channel signal decoding device 3, and is also referred to when decoding the N-channel signal. It is also a signal to be transmitted.
  • the signal analysis unit 12 includes N parameter extraction units 21 provided corresponding to the N channels, as shown in FIG.
  • the parameter extraction unit 21 extracts parameters from each of the N channel signals.
  • FIG. 2 shows only the parameter extraction unit 21a corresponding to the first channel and the parameter extraction unit 21b corresponding to the Nth channel.
  • the nomometer extractor 21 divides the signal of the n-th channel (where n is an integer between 1 and N) into a plurality of frequency bands (in this embodiment, a high frequency and a low frequency).
  • Filter band analysis unit 31 that separates the signal into two frequency bands including the frequency band
  • LPC analysis unit 32a that performs LPC (Linear Predictive Coding) analysis on the high frequency signal components to obtain LPC coefficients and LPC gain
  • LPC analysis unit 32b which obtains LPC coefficients and LPC gain by performing LPC analysis on signal components in the high frequency range
  • pitch detection unit 33a that detects the pitch frequency of the high frequency signal components, and the pitch frequency of the low frequency signal components
  • a pitch detector 33b for detecting.
  • the multi-channel signal decoding device 3 receives the signal transmitted from the multi-channel signal encoding device 2 via the transmission path 4 and separates the reference channel signal and the parameter from each other, and the separated reference Using a decoding unit 15 that decodes the channel signal, and the decoded reference channel signal and the separated parameters, each of the N channels is referred to as a “target channel” on the decoding side.
  • FIG. 4 shows only the target channel signal generation unit 43a corresponding to the first target channel and the target channel signal generation unit 43b corresponding to the Nth target channel. It is shown.
  • reference channel signal processing unit 42 separates the decoded reference channel signal into a plurality of frequency bands (in this embodiment, two frequency bands including a high frequency band and a low frequency band).
  • Power calculation unit 53a, 53b that obtains the electric power vector for each signal component of the high frequency band and the low frequency band, and each signal of the high frequency band and the low frequency band Frequency component
  • the target channel signal generation unit 43 has a plurality of signal component parameters obtained by separating the parameters of the nth target channel (in this embodiment, the high-frequency signal Power estimation unit 6 la for estimating the power spectrum of the high frequency component and low frequency component of the nth target channel signal (hereinafter referred to as “n target channel signal”) based on the Spectral generators 62a and 62b that generate 6 lb and the spectrum values of the high and low frequency components of the n target channel signal, and the spectrum values of the high and low frequency components of the n target channel signal Inverters 63a and 63b that inversely convert the signals into time domain signals, and a filter band synthesizer 65 that synthesizes the spectrum values of the high-frequency components and low-frequency components that have been inversely transformed To do.
  • the above power calculation The combination of the units 53a and 53b and the power estimation units 61a and 6 lb constitutes a power spectrum estimation means.
  • the power estimation unit 61 (the power estimation units 61a and 61b in FIG. 6 have the same internal configuration as each other, and hence are collectively referred to as the power estimation unit 61) is input as shown in FIG. Based on the parameters of the channel corresponding to the parameter, the classification unit 71 classifies the sound signal or the silence signal for each frame, and the impulse response is configured based on the parameter of the signal classified as the silence signal.
  • the spectrum generation unit 62 (spectrum generation units 62a and 62b in Fig. 6 have the same internal configuration as each other, and hence are collectively referred to as the spectrum generation unit 62).
  • the power spectrum power obtained for the reference channel signal is subtracted from the power spectrum obtained for the reference channel signal to obtain a power spectrum difference, and the spectrum value of the reference channel signal is calculated based on the power spectrum difference.
  • a magnification calculator 82 that calculates a multiplication factor and a magnification multiplier 83 that multiplies the reference channel signal by the magnification.
  • the power calculation unit 53 (the power calculation units 53a and 53b in FIG. 5 have the same internal configuration as each other, and hence are collectively referred to as the power calculation unit 53), as shown in FIG.
  • a conversion unit 91 that converts an input signal from the response configuration unit 52a or 53b into a frequency domain signal
  • a logarithmic calculation unit 92 that performs a logarithmic operation on the converted signal
  • a predetermined coefficient for the logarithm calculation result A coefficient multiplier 93 for multiplying.
  • the N channel signals C to C are mixed in the downmix unit 10 to be a monaural reference channel.
  • the reference channel signal M is expressed by the following equation (1). Note that the N channel signals C to C are converted into a digital format by an AZD converter (not shown).
  • the reference channel signal M is encoded by the encoder 11 which is an existing or latest speech encoder or audio encoder, and a monaural bit stream is obtained.
  • the signal analysis unit 12 analyzes the N channel signals C to C and determines the signal parameters for each channel.
  • the output from the encoding unit 11 and the signal parameter from the signal analysis 12 are multiplexed by the MUX unit 13 and transmitted as one bit stream.
  • this bit stream is separated into a monaural bit stream and a signal parameter by the DEMUX unit 14.
  • the monaural bit stream is decoded by the decoding unit 15 to obtain a reconstructed reference channel signal M ′.
  • the decoding unit 15 corresponds to the reverse process of the encoding unit 11 used on the encoding side.
  • the decoded monaural reference channel signal M ′ is used as a reference signal together with the signal parameters of each target channel in the signal synthesis unit 16, and each target channel signal C ′ to C ′ force is generated or synthesized.
  • the channel signals C to C are filtered by the parameter extraction unit 21.
  • channel C is a parameter
  • the parameter p is obtained. This process is the Nth channel
  • the meter extraction is applied to each channel signal C.
  • the input channel signal C is separated into two bands, low band and high band, by nn, ln, h by the filter band analyzer 31 generating the low band signal C and the high band signal C.
  • Another method is to use a low-pass filter and a high-pass filter to separate the signal into two bands.
  • the low frequency signal C is L
  • LPC analysis unit 32a which is a PC analysis filter
  • LPC parameters are obtained. These parameters are LPC coefficient a and LPC gain G.
  • the pitch period P is obtained by the pitch detection unit 33a using the commonly used pitch period detection algorithm.
  • the high-frequency signal C is also an LPC analysis filter 32b and pi n, h which are LPC analysis filters.
  • the parameter extraction unit 21 uses the low-frequency signal C n Cn n and the high-frequency signal C in order to use them in the process in the signal synthesis unit 42 and the like.
  • the signal parameters that is, the parameters p to p, are changed in the MUX unit 13 by the reference check coded.
  • a bit stream multiplexed with the channel signal M and sent to the decoding side is formed.
  • the received bit stream power DEMUX unit 14 separates the encoded monaural bit stream and signal parameters.
  • the encoded monaural bit stream is decoded by the decoding unit 15 to obtain a reference channel signal M ′.
  • the signal synthesizer 16 generates N target channel signals C 'to C' force using the reference channel signal M and the parameters p to p from which the monaural bitstream force is also separated.
  • the processing unit 42 needs to calculate the spectrum value and power spectrum of the reference channel signal M ′.
  • Channel signals C ′ to C are generated or synthesized.
  • Target channel signals C 'to c are generated or synthesized.
  • FIG. 5 shows a preferred method for the above-described power spectrum and spectrum value calculation method.
  • a signal parameter representing the characteristics of the reference channel signal M ′ is calculated through the parameter extraction unit 51.
  • Parameter extraction returns low and high frequency signal parameters and low and high frequency signal values.
  • the parameters for the low range are LPC coefficient a and LPC gain G. This parameter
  • the data extraction method is the same as the method described for the parameter extraction unit 21, but the parameter extraction unit 21 is subject to parameter extraction for N channel signals C to C.
  • the processing target in the output unit 51 is the reference channel signal M ′. Therefore, the parameters extracted by the parameter extraction unit 21 and the parameter extraction unit 51 may be different from each other or may be the same value.
  • the impulse response h of the low-frequency signal is converted into a low-frequency signal by the power calculation unit 53a.
  • the low frequency signal M ' is converted by the converter 54a
  • the high-frequency signal parameter forms a high-frequency impulse response h representing the signal characteristics of the high-frequency signal in the impulse response configuration unit 52b.
  • the impulse response h of the high-frequency signal is used to calculate the estimated value of the high-frequency power spectrum P in the power calculation unit 53b.
  • the high frequency signal M ′ is converted by the converter 54b, and h is expressed as a frequency representation of the high frequency signal.
  • the input to the process, X can be an actual time domain signal or a function impulse response. That is, the calculation method shown in FIG. 9 can be applied not only to the power calculation unit 53 but also to the power calculation units 74a and 74b.
  • the input signal X is converted by the conversion unit 91 to obtain an equivalent expression in the frequency domain. This is called the frequency component or spectral value S.
  • the logarithm calculation unit 92 calculates the logarithmic value of each absolute spectrum value by the equation (2), and the coefficient multiplication unit 93 converts the coefficient “20” to the logarithmic value by the equation (3). Is multiplied.
  • the computed spectral value S may be returned as an optional output for use in other processes.
  • H (n) a k h [n-k] + Gd (n)... (4)
  • the logarithmic operation unit 92 takes the logarithmic amplitude of the transfer function ⁇ , and the coefficient multiplication unit 93 multiplies the coefficient “20” to estimate the signal power spectrum ⁇ .
  • This series of operations can be expressed by equation (6).
  • the power spectrum of the signal can be estimated from the LPC coefficient a and the gain G force of the signal derived from the transfer function.
  • FIG. 10 is a block diagram showing a modification of the configuration of the reference channel signal processing unit 42.
  • the actual signal is used for the calculation of the power spectrum of the signal.
  • the reference channel signal M ′ that is an input signal is separated into two bands, a low-frequency signal M ′ and a high-frequency signal M ′, by the filter band analysis unit 101. In the low frequency range, the power calculator
  • the power calculation at 102a returns the power spectrum P and the spectrum value S
  • the value S is returned.
  • the calculation is switched depending on whether the input sample is zero or zero. For example, if the input sample is not zero, the calculation using equation (8) is performed, while if the input sample is zero, the power spectrum P is
  • the target channel signal generation unit 43 generates an n target channel signal C 'as shown in FIG.
  • the input to the target channel signal generation unit 43 is the low-frequency power spectrum P and high-frequency power spectrum P of the reference channel signal M ′, and the low-frequency signal spectrum.
  • the parameter p p including the LPC parameter and the pitch period is set.
  • the spectrum generators 62a and 62b calculate the power spectra p and p of each region.
  • Cn, l is the power spectrum p and p of each band of the reference channel
  • Vector values S and S are generated by the operation. Generated spectral values S and S
  • n, l n, h n, l n, h are inversely transformed by inverse transform units 63a, 63b, and corresponding signals C ′ and C in the time domain
  • the time domain signals from each band are synthesized by the filter band synthesis unit 65, and n, h
  • n target channel signal C ′ which is a time domain signal, is obtained.
  • the classification unit 71 provided in 1 can classify each frame of a signal corresponding to an input parameter as a voiced signal V or an unvoiced signal uv. In other words, signals are classified as either stationary or non-stationary.
  • the voiced Z unvoiced detection of the classification unit 71 is based on the pitch period value of the pitch period Pp. In other words, if the pitch period Pp is not zero, the frame is classified as a voiced signal V. Alternatively, if the pitch period Pp is not zero, it is classified as a stationary signal or a quasi-stationary signal.
  • the frame is classified as an unvoiced signal uv.
  • the pitch period Pp is zero, it is classified as a nonstationary signal.
  • an impulse response h is configured using the LPC coefficient a and the gain G.
  • the power spectrum P is calculated using the impulse response h.
  • LPC coefficient a For a frame classified as a voiced signal, LPC coefficient a, gain G, and pitch period Pp are used.
  • the synthesized signal acquisition unit 73 synthesizes the synthesized signal s ′ using a method generally known as speech synthesis in the field of speech code. Then, the power calculation unit 74b calculates the power spectrum P of the combined signal s ′.
  • the subtraction unit 81 After obtaining the power spectrum P of the reference channel and the power spectrum P of the target channel, the subtraction unit 81
  • the calculation is switched depending on whether the sample of the input reference channel signal M 'is zero or zero. For example, if the input sample is not zero, the calculation using equation (9) is executed, while if the input sample is zero, the power spectrum difference D is set to zero.
  • the power spectrum difference D is expressed as a scalar value by the magnification calculation unit 82 as a formula (10).
  • the multiplication unit 83 scales the spectrum value S of the reference channel signal M 'by the magnification R according to the equation (11) to obtain the spectrum value S of the target channel.
  • the low-frequency spectrum value S is converted into the time domain by the inverse transform unit 63a.
  • the signal is converted back to the signal C ′, and the spectrum value S in the high band among the spectrum values S is converted back to the signal C ′ in the time domain by the inverse converter 63b n, l Cn n, h.
  • Signals C 'and C' are filter band synthesized
  • the n target channel signal C ′ is obtained by synthesizing by the unit 65.
  • the monaural reference channel signal M for the N channel signal and the signal parameters indicating the characteristics of the N channel signal are provided on the code side. Each is acquired and multiplexed together.
  • the reference channel signal M ′ obtained by decoding the reference channel signal M and the signal parameter are separated from each other and used to generate an N channel signal as an N target channel signal.
  • the code bit rate can be reduced, and the power spectrum P that approximates the energy distribution for each channel can be estimated on the decoding side.
  • the N channel signal C which is the original signal, can be restored as the N target channel signal C 'from the energy distribution for each channel and the reference channel signal M', thus realizing high quality audio at a low bit rate. Can do.
  • the entire system is connected via transmission line 4. Since the reference channel signal M ′ and signal parameters to be transmitted are multiplexed with each other, a signal that expresses high-quality speech at a low bit rate can be transmitted to the receiver side and at a low bit rate. High quality voice can be realized.
  • the multiplication factor R for multiplying the reference signal is calculated in association with each of the N channels.
  • the channel effect can be obtained.
  • the signal is separated into two frequency bands including a low band and a high band, but the bandwidths of the respective bands need not be equal.
  • An example of a suitable allocation is to set the low band to 2-4 kHz and allocate the remaining bandwidth to the high band.
  • parameters that is, LPC coefficients, LPC gains, and pitch periods are extracted for each band.
  • LPC filters with different orders for each band may be applied.
  • the order of the LPC filter can also be included in the signal parameters.
  • the envelope of the power spectrum P (P or P) is the transfer function H (z) of the all-pole filter.
  • FIG. 11A and FIG. 11B are diagrams showing two examples of the envelope of the power spectrum.
  • the dotted line represents the power spectrum of the actual signal
  • the solid line represents the envelope of the power spectrum estimated by the above estimation method.
  • bit rate reduction for a multi-channel system.
  • the signal parameters for each channel are sent as side information.
  • the bits used to store these signal parameters are usually less than the bits used to store the same signal sign.
  • the signal is separated into two bands. This allows the signal parameters to be adjusted to suit the signal characteristics of each band, thus providing better control over the recovered signal.
  • One such parameter is the LP C filter order, with a higher filter order for low-pass signals and a lower filter order for higher frequencies. It can be applied to a wideband signal.
  • Another possibility is to use higher filter orders for quasi-periodic or stationary bands and lower filter orders for bands classified as non-stationary signals.
  • accurate power spectrum estimation leads to improvements in the recovered signal, so introducing the pitch period as a parameter also helps improve the estimation of the power spectrum for stationary (voiced) signals.
  • the multi-channel signal transmission system 1 of the present embodiment is suitable for applications such as a multi-participation multi-channel teleconference system in which each speaker uses each microphone or channel. Since the multi-channel signal decoding apparatus 3 of the present embodiment can output both the reference channel signal M ′ and the N target channel signals C ′ to C ′), any one of these can be output.
  • the device or the system is provided with means for selecting and output means for outputting the selected signal as a sound wave.
  • the audience at the receiving end is a signal that down-states all the utterances of the speaker at the same time (ie, the reference channel signal ⁇ ') or a signal that expresses only the utterance of a specific speaker (that is, the deviation of the ⁇ -channel signal or C). You can selectively listen to either.
  • each functional block used in the description of each of the above embodiments is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. It is also possible to use a field programmable gate array (FPGA) that can be programmed after LSI manufacture and a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI.
  • FPGA field programmable gate array
  • the multi-channel signal encoding apparatus and multi-channel signal decoding apparatus of the present invention can be applied to a system for transmitting a multi-channel audio signal or audio signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Circuits Of Receivers In General (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Selective Calling Equipment (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

 低ビットレートで高品質の音声を実現することができるマルチチャネル信号符号化装置。マルチチャネル信号符号化装置(2)において、ダウンミックス部(10)は、N個のチャネルの信号に対するモノラルの基準チャネル信号を生成する。符号化部(11)は、生成された基準チャネル信号を符号化する。信号分析部(12)は、N個のチャネルの信号の各々の特性を示すパラメータを抽出する。MUX部(13)は、符号化された基準チャネル信号と抽出されたパラメータとを互いに多重する。

Description

明 細 書
マルチチャネル信号符号化装置およびマルチチャネル信号復号装置 技術分野
[0001] 本発明は、マルチチャネル信号符号化装置およびマルチチャネル信号復号装置 に関し、特に、マルチチャネルの音声信号またはオーディオ信号を伝送するシステム にて使用されるマルチチャネル信号符号ィ匕装置およびマルチチャネル信号復号装 置に関する。
背景技術
[0002] 大抵の音声コーデックは、音声のモノラル表現のみを符号化する。一般に、そのよ うなモノラルコーデックは、信号が例えば人間の発声など単一ソース力 得られるよう な通信機器 (例えば、携帯電話、テレコンファレンス機器など)において用いられる。 以前は、送信帯域幅や DSP (Digital Signal Processor)の処理速度に制限があった ため、そのようなモノラル信号でも十分であつたが、技術が進歩し帯域幅が改善され てきたことにより、音声の品質は、より重要な考慮すべきファクタとなった。この結果、 モノラルの音声に関する短所が顕在化してきた。例えば、空間的な情報 (例えば、サ ゥンドイメージング、発話者の位置など)が提供されないことが、モノラル音声の短所 として挙げられる。発話者の位置特定が有用となるアプリケーションの一例としては、 同時に複数の発話者が存在する状況の下で発話者の位置を識別できるような、高品 質のマルチスピーカテレコンファレンス機器が挙げられる。空間的情報の提供は、マ ルチチャネルの信号で音声を表現することによって、実現される。また、それは可能 な限り低 、ビットレートで実現されることが好ま 、。
[0003] 音声符号化に比べてオーディオ符号化では、マルチチャネルの符号化がより一般 的に行われている。オーディオ符号ィ匕におけるマルチチャネル符号ィ匕では、チヤネ ル間の相互相関冗長性を利用することがある。例えばステレオ (換言すれば、チヤネ ル数が 2つ)のオーディオ信号では、相互相関冗長性は、ジョイントステレオ符号ィ匕の 概念を用いて実現される。ジョイントステレオとは、ミドルサイド(MS)ステレオのモー ドおよびインテンシティ (I)ステレオのモードを組み合わせたステレオ技術である。こ れらのモードを組み合わせて用いることでより良いデータ圧縮率を達成し、符号化ビ ットレートを低減している。
[0004] ところが、 MSステレオでは、低ビットレートで符号ィ匕がなされる場合に、エイリアジン グ歪みが生じやすぐまた、信号のステレオイメージングも影響を受ける。また、 Iステ レオは、人間の聴覚系統の周波数成分の分解能が低下する高周波域では有効であ る力 低周波域では必ずしも有効ではない。大抵の音声コーデックは、線形予測の 一種を用いて人間の声道をパラメータでモデルィ匕することによって機能するもの(パ ラメトリック符号化)と考えられるので、ジョイントステレオ符号ィ匕を音声コーデックに適 用することは適切ではない。
[0005] 一方、オーディオ符号化に比べて音声符号化では、マルチチャネル符号ィ匕にっ ヽ ての十分な検討はなされていない。音声コーデックにおいて、マルチチャネルの信号 を符号ィ匕する従来の装置としては、例えば特許文献 1に記載されたものが挙げられる 。この文献に開示された技術の基本的な考え方は、パラメータを用いて音声信号を 表現することである。より具体的には、使用帯域が複数の周波数帯 (サブバンドと呼 ばれる)に分割され、パラメータがサブバンド毎に計算される。計算されるパラメータ の例としては、チャネル間レベル差、つまり、左(L)チャネルと右(R)チャネルとの間 の電力比が挙げられる。チャネル間レベル差は、復号側でスペクトル係数を修正する のに用いられる。
特許文献 1:国際公開第 03Z090208号パンフレット
発明の開示
発明が解決しょうとする課題
[0006] しかしながら、上記従来の装置においては、各サブバンドにおいて一つのチャネル 間レベル差が求められる。したがって、あるサブバンド内の全てのスペクトル係数に 対し同一のチャネル間レベル差が変更係数として適用される。すなわち、サブバンド 内で共通のパラメータを用いるため、復号側においてレベル調整をきめ細力べ行うこ とができな!/ヽと!ヽぅ問題があった。
[0007] 本発明の目的は、低ビットレートで高品質の音声を実現することができるマルチチヤ ネル信号符号ィ匕装置およびマルチチャネル信号復号装置を提供することである。 課題を解決するための手段
[0008] 本発明のマルチチャネル信号符号ィ匕装置は、複数チャネルの信号に対する一チヤ ネルの基準信号を生成する生成手段と、生成された基準信号を符号化する符号ィ匕 手段と、前記複数チャネルの信号の各々の特性を示すパラメータを抽出する抽出手 段と、符号化された基準信号と抽出されたパラメータとを互いに多重する多重手段と 、を有する構成を採る。
[0009] 本発明のマルチチャネル信号復号装置は、符号化された基準信号であって複数チ ャネルの信号に対する一チャネルの基準信号と基準信号に多重されたパラメータで あって前記複数チャネルの信号の各々の特性を示すパラメータとを互いに分離する 分離手段と、分離された基準信号を復号する復号手段と、復号された基準信号と分 離されたパラメータとから、前記複数チャネルの信号を生成する生成手段と、を有す る構成を採る。
[0010] 本発明のマルチチャネル信号伝送システムは、符号化された基準信号であって複 数チャネルの信号に対する一チャネルの基準信号と前記複数チャネルの信号の各 々の特性を示すパラメータとを互いに多重する多重手段と、多重された基準信号とパ ラメータとを互いに分離する分離手段と、を有する構成を採る。
[0011] 本発明のマルチチャネル信号符号ィ匕方法は、複数チャネルの信号に対する一チヤ ネルの基準信号を生成する生成ステップと、生成された基準信号を符号化する符号 ィ匕ステップと、前記複数チャネルの信号の各々の特性を示すパラメータを抽出する 抽出ステップと、符号化された基準信号と抽出されたパラメータとを互いに多重する 多重ステップと、を有するようにした。
[0012] 本発明のマルチチャネル信号復号方法は、符号化された基準信号であって複数チ ャネルの信号に対する一チャネルの基準信号と基準信号に多重されたパラメータで あって前記複数チャネルの信号の各々の特性を示すパラメータとを互いに分離する 分離ステップと、分離された基準信号を復号する復号ステップと、復号された基準信 号と分離されたパラメータとから、前記複数チャネルの信号を生成する生成ステップ と、を有するようにした。
発明の効果 [0013] 本発明によれば、低ビットレートで高品質の音声を実現することができる。
図面の簡単な説明
[0014] [図 1]本発明の一実施の形態に係るマルチチャネル信号伝送システムの構成を示す ブロック図
[図 2]本実施の形態に係る信号分析部の構成を示すブロック図
[図 3]本実施の形態に係るパラメータ抽出部の構成を示すブロック図
[図 4]本実施の形態に係る信号合成部の構成を示すブロック図
[図 5]本実施の形態に係る基準チャネル信号処理部の構成を示すブロック図
[図 6]本実施の形態に係るターゲットチャネル信号生成部の構成を示すブロック図
[図 7]本実施の形態に係るターゲットチャネル信号生成部における電力推定部の構 成を示すブロック図
[図 8]本実施の形態に係るスペクトル生成部の構成を示すブロック図
[図 9]本実施の形態に係る基準チャネル信号処理部における電力演算部の構成を 示すブロック図
[図 10]本実施の形態に係る基準チャネル信号処理部の構成の変形例を示すブロッ ク図
[図 11A]本実施の形態に係る電力スペクトルの包絡線の例を示す図
[図 11B]本実施の形態に係る電力スペクトルの包絡線の他の例を示す図
発明を実施するための最良の形態
[0015] 以下、本発明の実施の形態について、図面を用いて詳細に説明する。
[0016] (実施の形態 1)
図 1は、本発明の一実施の形態に係るマルチチャネル信号伝送システムの構成を 示すブロック図である。マルチチャネル信号伝送システム 1は、 N (Nは 2以上の整数 )チャネルの信号を符号ィ匕するマルチチャネル信号符号ィ匕装置 2と、 Nチャネルの信 号 (以下「Nチャネル信号」と言う)を復号するマルチチャネル信号復号装置 3と、マル チチャネル信号符号ィ匕装置 2によって得られた信号をマルチチャネル信号復号装置 3に伝送する伝送路 4と、を有する。
[0017] マルチチャネル信号符号ィ匕装置 2は、 Nチャネル信号をダウンミックスしてモノラル の基準信号 (以下「基準チャネル信号」と言う)を得るダウンミックス部 10と、基準チヤ ネル信号を符号化する符号化部 11と、 Nチャネル信号をそれぞれ分析し、 Nチヤネ ル信号の各々の特性を示すパラメータを抽出し、抽出されたパラメータのセットを取 得する信号分析部 12と、符号化された基準チャネル信号および取得されたパラメ一 タセットを互いに多重し、伝送路 4を介してマルチチャネル信号復号装置 3に送信す る MUX部 13と、を有する。なお、基準チャネル信号は、マルチチャネル信号復号装 置 3で復号されることによりモノラルの信号 (音声信号またはオーディオ信号)として出 力される信号であるとともに、 Nチャネル信号の復号を行う際に参照される信号でもあ る。
[0018] マルチチャネル符号ィ匕装置 2において、信号分析部 12は、図 2に示すように、 Nチ ャネルにそれぞれ対応して設けられた N個のパラメータ抽出部 21を有する。パラメ一 タ抽出部 21は、 Nチャネル信号のそれぞれからパラメータを抽出する。なお、構成を 明瞭化するために、図 2には、 1番目のチャネルに対応するパラメータ抽出部 21aお よび N番目のチャネルに対応するパラメータ抽出部 21bのみが図示されている。
[0019] ノ メータ抽出部 21は、図 3に示すように、 n (nは 1以上 N以下の整数)番目のチヤ ネルの信号を複数の周波数帯域 (本実施の形態では、高域および低域を含む 2つの 周波数帯域)に分離するフィルタバンド分析部 31と、高域の信号成分に対して LPC ( Linear Predictive Coding)分析を行って LPC係数および LPCゲインを得る LPC分析 部 32aと、低域の信号成分に対して LPC分析を行って LPC係数および LPCゲインを 得る LPC分析部 32bと、高域の信号成分のピッチ周期を検出するピッチ検出部 33a と、低域の信号成分のピッチ周期を検出するピッチ検出部 33bと、を有する。
[0020] 再び図 1を参照する。マルチチャネル信号復号装置 3は、伝送路 4を介してマルチ チャネル信号符号化装置 2から送信された信号を受信し、基準チャネル信号および パラメータを互 ヽに分離する DEMUX部 14と、分離された基準チャネル信号を復号 する復号部 15と、復号された基準チャネル信号および分離されたパラメータを用い て Nチャネル信号(以下、復号側に関しては、 N個のチャネルの各々を「ターゲットチ ャネル」と言 、、 Nチャネル信号を「Nターゲットチャネル信号」と言う)を生成する信号 合成部 16と、を有する。 [0021] 信号合成部 16は、図 4に示すように、復号された基準チャネル信号を処理して、基 準チャネル信号の電力スペクトルおよび基準チャネル信号の周波数領域スペクトル 値 (以下、単に「スペクトル値」と言う)を取得する基準チャネル信号処理部 42と、 Nタ 一ゲットチャネルにそれぞれ対応して設けられ、分離されたパラメータならびに取得さ れた電力スペクトルおよびスペクトル値に基づいて Nターゲットチャネル信号をそれ ぞれ生成する N個のターゲットチャネル信号生成部 43と、を有する。なお、構成を明 瞭ィ匕するために、図 4には、 1番目のターゲットチャネルに対応するターゲットチヤネ ル信号生成部 43aおよび N番目のターゲットチャネルに対応するターゲットチャネル 信号生成部 43bのみが図示されて 、る。
[0022] 基準チャネル信号処理部 42は、図 5に示すように、復号された基準チャネル信号を 複数の周波数帯域 (本実施の形態では、高域および低域を含む 2つの周波数帯域) に分離して複数の信号成分を得るとともに、基準チャネル信号の特性を示すパラメ一 タとして、高域の信号成分の LPC係数および LPCゲインならびに低域の信号成分の LPC係数および LPCゲインを取得するパラメータ抽出部 51と、高域および低域の各 信号成分にっ 、てのパラメータに基づ 、てインノルス応答を構成するインパルス応 答構成部 52a、 52bと、高域および低域の各信号成分について構成されたインパル ス応答に対して電力演算を行 、、高域および低域の各信号成分にっ 、ての電カス ベクトルを取得する電力演算部 53a、 53bと、高域および低域の各信号成分を周波 数領域の信号に変換する変換部 54a、 54bと、を有する。
[0023] ターゲットチャネル信号生成部 43は、図 6に示すように、 n番目のターゲットチヤネ ルのパラメータを分離することで得られた複数の信号成分パラメータ (本実施の形態 では、高域信号パラメータおよび低域信号パラメータ)に基づいて、 n番目のターゲッ トチャネル信号 (以下「nターゲットチャネル信号」と言う)の高域成分および低域成分 の各電力スペクトルを推定する電力推定部 6 la、 6 lbと、 nターゲットチャネル信号の 高域成分および低域成分の各スペクトル値を生成するスぺクトル生成部 62a、 62bと 、nターゲットチャネル信号の高域成分および低域成分の各スペクトル値を時間領域 の信号に逆変換する逆変換部 63a、 63bと、逆変換された高域成分および低域成分 の各スペクトル値を合成するフィルタバンド合成部 65と、を有する。前述の電力演算 部 53a、 53bおよび電力推定部 61a、 6 lbの組み合わせは電力スペクトル推定手段 を構成する。
[0024] 電力推定部 61 (図 6の電力推定部 61a、 61bは互いに同様の内部構成を有するた め、ここでは電力推定部 61と総称する)は、図 7に示すように、入力されたパラメータ に対応するチャネルの信号にっ 、てフレーム毎に有音信号または無音信号の 、ず れかに分類する分類部 71と、無音信号に分類された信号のパラメータに基づいてィ ンパルス応答を構成するインパルス応答構成部 72と、有音信号に分類された信号の パラメータに基づいて合成信号を取得する合成信号取得部 73と、構成されたインパ ルス応答を用いて電力演算を行 、、 nターゲットチャネル信号の電力スペクトルを得 る電力演算部 74aと、取得された合成信号を用いて電力演算を行い、 nターゲットチ ャネル信号の電力スペクトルを得る電力演算部 74bと、を有する。
[0025] スペクトル生成部 62 (図 6のスペクトル生成部 62a、 62bは互いに同様の内部構成 を有するため、ここではスペクトル生成部 62と総称する)は、図 8に示すように、 nター ゲットチャネルに対して求められた電力スペクトル力 基準チャネル信号に対して求 められた電力スペクトルを減算して電力スペクトル差を得る減算部 81と、電カスペタト ル差に基づいて、基準チャネル信号のスペクトル値に乗算する倍率を算出する倍率 算出部 82と、基準チャネル信号に倍率を乗算する倍率乗算部 83と、を有する。
[0026] 電力演算部 53 (図 5の電力演算部 53a、 53bは互いに同様の内部構成を有するた め、ここでは電力演算部 53と総称する)は、図 9に示すように、対応するインパルス応 答構成部 52aまたは 53bからの入力信号を周波数領域の信号に変換する変換部 91 と、変換された信号に対して対数演算を行う対数演算部 92と、対数演算結果に対し て所定の係数を乗算する係数乗算部 93と、を有する。
[0027] 次いで、上記構成を有するマルチチャネル信号伝送システムにおける動作につい て説明する。
[0028] Nチャネル信号 C〜Cは、ダウンミックス部 10で混合され、モノラルの基準チャネル
1 N
信号 Mとなる。基準チャネル信号 Mは次の式(1)によって表される。なお、 Nチャネル 信号 C〜Cは、図示されない AZD変換部によってデジタルフォーマットに変換され
1 N
ているものとする。以下の一連のプロセスはフレーム毎に実行される。 [数 1]
M =丄 C„ … (1 )
[0029] 基準チャネル信号 Mは、既存または最新の音声符号化器またはオーディオ符号ィ匕 器である符号化部 11で符号化され、モノラルビットストリームが得られる。同時に、信 号分析部 12では、 Nチャネル信号 C〜Cを分析して、各チャネル用の信号パラメ
1 N 一 タが抽出される。符号ィ匕部 11からの出力と信号分析 12からの信号パラメータは、 M UX部 13で多重され、 1つのビットストリームとして送信される。
[0030] 復号側では、このビットストリームは、 DEMUX部 14でモノラルビットストリームと信 号パラメータとのそれぞれに分離される。モノラルビットストリームは、復号部 15で復 号され、再構成された基準チャネル信号 M'が得られる。復号部 15は、符号化側で用 いられる符号化部 11の逆処理に対応する。復号されたモノラルの基準チャネル信号 M'は、信号合成部 16において、各ターゲットチャネルの信号パラメータと合わせて参 照信号として用いられ、各ターゲットチャネル信号 C'〜C'力 生成または合成され
1 N
る。
[0031] 信号分析部 12において、各チャネル信号 C
1〜Cのパラメータ p れ N CI〜p が抽出さ
CN
る。図 2において、各チャネル信号 C〜Cは、パラメータ抽出部 21にてフィルタリング
1 N
および分析され、一連のパラメータ p が得られる。例えば、チャネル Cがパラメータ
Cn 1
抽出部 21aで処理され、パラメータ p が得られる。このプロセスは、 N番目のチャネル
C1
が同様にパラメータ抽出部 21bで処理されパラメータ p が得られるまで、全てのチヤ
CN
ネルに対して実行される。各チャネルの全てのパラメータ p は、符号化側で生成され
Cn
る信号パラメータを構成する。
[0032] ノ メータ抽出は、各チャネル信号 Cに対して適用される。入力されたチャネル信 号 Cは、フィルタバンド分析部 31で、低域信号 C および高域信号 C を生成すること n n,l n,h により、低域と高域との 2つの帯域に分離される。別の方法としては、ローパスフィルタ およびハイパスフィルタを用いて、信号を 2つの帯域に分離する。低域信号 C は、 L
η,Ι
PC分析フィルタである LPC分析部 32aを用いて分析され、 LPCパラメータが得られ る。これらのパラメータは、 LPC係数 a および LPCゲイン Gである。音声符号化に一 般に見られるピッチ周期検出アルゴリズムを用いるピッチ検出部 33aでは、ピッチ周 期 Pが得られる。高域信号 C もまた、 LPC分析フィルタである LPC分析部 32bおよ pi n,h
びピッチ検出部 33bで分析され、もう 1つの LPCパラメータセットとして、 LPC係数 a k,h
、 LPCゲイン Gおよびピッチ周期 P が得られる。これらのパラメータは、入力されたチ h ph
ャネル信号 Cのパラメータ p を構成する。また、パラメータ抽出部 21は、低域信号 C n Cn n および高域信号 C を、信号合成部 42などでのプロセスで用いるためにォプショナ
,1 n,h
ノレに出力しても良い。
[0033] 信号パラメータつまりパラメータ p 〜p は、 MUX部 13で、符号ィ匕された基準チヤ
CI Cn
ネル信号 Mと多重され、復号側に送られるビットストリームが形成される。
[0034] 復号側にお 、ては、受信されたビットストリーム力 DEMUX部 14で、符号化され たモノラルビットストリームと信号パラメータとに分離される。符号ィ匕されたモノラルビッ トストリームは、復号部 15で復号され、基準チャネル信号 M'が得られる。
[0035] 信号合成部 16では、基準チャネル信号 M,とモノラルビットストリーム力も分離された ノ ラメータ p 〜p とを用いて、 N個のターゲットチャネル信号 C'〜C '力 生成また
Cl CN 1 N
は合成される。ターゲットチャネル信号 C'〜c, の生成において、基準チャネル信号
1 N
処理部 42では、基準チャネル信号 M'のスペクトル値および電力スペクトルが演算さ れる必要がある。低域の電力スペクトル P およびスペクトル値 S 、ならびに高域の電
M,l M,l
力スペクトル P およびスペクトル値 S が算出される。これらの算出結果は、ターゲッ
M,h 'h
トチャネル信号生成部 43において、パラメータ p 〜p とともに用いられ、 Nターゲッ
Cl CN
トチャネル信号 C'〜C,が生成または合成される。ターゲットチャネル信号 C'〜c,
I N I N
の生成につ!、ては後述する。
[0036] 図 5には、前述の電力スペクトルおよびスペクトル値の演算方法についての好適な 方法が示されている。入力信号すなわち基準チャネル信号 M'は、パラメータ抽出部 51を経て、基準チャネル信号 M'の特性を表わす信号パラメータが演算される。パラメ ータ抽出は、低域および高域の信号パラメータならびに低域および高域の信号値を 返す。低域のためのパラメータは、 LPC係数 aおよび LPCゲイン Gである。このパラメ
1 1
ータ抽出方法は、パラメータ抽出部 21について説明した方法と同様であるが、パラメ ータ抽出部 21での処理対象が Nチャネル信号 C〜Cであるのに対してパラメータ抽
1 N 出部 51での処理対象が基準チャネル信号 M'である。よって、パラメータ抽出部 21お よびパラメータ抽出部 51でそれぞれ抽出されるパラメータは、互いに異なる値になる こともあれば同じ値になることもある。
[0037] また、高域に対しても同様のパラメータ力 抽出される。それらは、 LPC係数 aおよ h び LPCゲイン Gである。低域の信号パラメータは、インパルス応答構成部 52aにおい h
て、低域信号の信号特性を表わす低域インパルス応答 hを構成するために用いられ
1
る。そして、低域信号のインパルス応答 hは、電力演算部 53aにおいて、低域電カス
1
ベクトル P の推定値を演算するのに用いられる。低域信号 M'は、変換部 54aで変換
M,l 1
され、低域時間信号の周波数表現である低域スペクトル値 S が得られる。同様に、
M,l
高域の信号パラメータは、インパルス応答構成部 52bにおいて、高域信号の信号特 性を表わす高域インパルス応答 hを構成する。高域信号のインパルス応答 hも同様 h h に、電力演算部 53bにおいて、高域電力スペクトル P の推定値を演算するのに用
M,h
いられる。高域信号 M'は、変換部 54bで変換され、高域時間信号の周波数表現で h
ある高域スペクトル値 s が得られる。
M'h
[0038] 信号の電力スペクトルを演算する方法は、図 9に示されている。本プロセスへの入 力である Xは、実際の時間領域信号または関数のインパルス応答であり得る。すなわ ち、図 9に図示された演算方法は、電力演算部 53だけでなく電力演算部 74a、 74b にも適用することができる。入力信号 Xは、変換部 91において変換され、周波数領域 における等価表現が得られる。これは、周波数成分またはスペクトル値 Sと呼ばれる。 電力 Pを演算するために、対数演算部 92では、各々の絶対スペクトル値の対数値が 式 (2)により演算され、係数乗算部 93では、式 (3)により係数「20」が対数値に乗算 される。演算されたスペクトル値 Sは、他のプロセスで用いるためにオプショナルな出 力として返しても良い。
[数 2]
Sx (z) = FT{x(n)} … ( 2 )
[数 3]
^ (ζ) = 201ο§ 10 |^ (^ … ( 3 ) [0039] 入力信号 xが式 (4)によって表されるインパルス応答 hである場合、変換部 91は伝 達関数 Hを返す。すなわち、 S = Hである。伝達関数 Hは、式(5)によって表すことが できる。
画 h(n) = akh[n - k] + Gd (n) … (4 )
[数 5]
H{z) = FT{x(n)} = FT{h(n)}
= ~ ~~ … (5 )
1 -ヌ
[0040] そして、対数演算部 92で伝達関数 Ηの対数振幅を取り、係数乗算部 93で係数「20 」を乗算して、信号の電力スペクトル Ρを推定することができる。この一連の演算は、 式 (6)で表すことができる。
[数 6]
Figure imgf000013_0001
… (6 )
[0041] つまり、信号の電力スペクトルは、 LPC係数 aおよびゲイン G力 導出される信号の 伝達関数力 推定することができる。
[0042] ここで、図 5を用いて説明した電力スペクトルおよびスペクトル値の演算方法の代替 方法について説明する。図 10は、基準チャネル信号処理部 42の構成の変形例を示 すブロック図である。図 10の基準チャネル信号処理部 42では、 LPCパラメータを用 いて信号スペクトルを推定する代わりに、信号の電力スペクトルの演算に実際の信号 が用いられる。入力信号である基準チャネル信号 M'は、フィルタバンド分析部 101で 低域信号 M'および高域信号 M'の 2つの帯域に分離される。低域では、電力演算部
1 h
102aでの電力演算によって、電力スペクトル P およびスペクトル値 S が返され、高
M,l M,l
域では、電力演算部 102bでの電力演算によって、電力スペクトル P およびスぺタト
M,h
ル値 S が返される。
M,h
[0043] したがって、基準チャネル信号 M'のスペクトル値 S および電力スペクトル P は、図
' M,
5または図 10のいずれかに示された方法を用いて推定される。すなわち、入力された 基準チャネル信号 M'のサンプルを式(7)によって時間周波数変換してスペクトル値 S
M,を得る。
S = FT{M'} · '· (7)
Μ,
[0044] また、入力された基準チャネル信号 Μ'のサンプルに対して式 (8)の演算を行うこと により、周波数領域の信号の対数振幅平方を取る。これによつて、電力スペクトル Ρ
Μ, が得られる。
[数 7]
Figure imgf000014_0001
[0045] なお、より好ましくは、入力されたサンプルがゼロかゼロでな 、かに応じて演算を切 り替えるようにする。例えば、入力されたサンプルがゼロでない場合は、式 (8)を用い た演算を実行する一方、入力されたサンプルがゼロの場合は、電力スペクトル P を
M, ゼロとする。
[0046] そして、ターゲットチャネル信号生成部 43では、図 6に示すように、 nターゲットチヤ ネル信号 C'を生成する。ターゲットチャネル信号生成部 43への入力は、基準チヤネ ル信号 M'の低域電力スペクトル P および高域電力スペクトル P 、低域信号スぺタト
M,l M,h
ル値 S および高域信号スペクトル値 S 、ならびに、パラメータ p である。パラメータ p
M,l M,h Cn
Cnは、低域のパラメータ P
Cn,lと高域のパラメータ p
Cn,hとを含む。各帯域について、以下 の演算が行われる。
[0047] まず、電力推定部 61a、 6 lbにて、 LPCパラメータおよびピッチ周期を含むパラメ一 タ p p
Cn,lおよび Cn,hを用いて、各帯域の電力スペクトル p
Cn,lおよび p
Cn,hが推定される。そ して、スペクトル生成部 62a、 62bにて、演算された各域の電力スペクトル p および p
Cn,l は、基準チャネルのそれぞれの帯域の電力スペクトル p および p ならびにスぺ
Cn,h M,l M,h
クトル値 S および S と合わせて用いられ、 n番目のターゲットチャネルの各帯域のス
M,l M,h
ベクトル値 S および S が演算により生成される。生成されたスペクトル値 S および S
n,l n,h n,l n,h は、逆変換部 63a、 63bで逆変換され、時間領域において対応する信号 C' および C
η,Ι
' が得られる。各帯域からの時間領域信号は、フィルタバンド合成部 65で合成され、 n,h
時間領域の信号である nターゲットチャネル信号 C'が得られる。
[0048] ここで、前述の電力スペクトル推定につ!、て、図 7を用いて詳述する。電力推定部 6 1に設けられた分類部 71では、入力されるパラメータに対応する信号の各フレームを 、有声信号 Vまたは無声信号 uvとして分類することができる。言い換えると、信号は定 常または非定常のいずれかに分類される。分類部 71の有声 Z無声検出は、ピッチ 周期 Ppのピッチ周期値に基づく。つまり、ピッチ周期 Ppがゼロでないならば、そのフレ ームは、有声信号 Vとして分類される。あるいは、ピッチ周期 Ppがゼロでない場合、定 常信号または準定常信号として分類される。一方、ピッチ周期 Ppがゼロであるならば 、そのフレームは、無声信号 uvとして分類される。あるいは、ピッチ周期 Ppがゼロの場 合、非定常信号として分類される。ピッチ周期 Ppを用いて有声 Z無声を表わすことに より、そのような表示のための余分の情報ビットを送る必要が無ぐ伝送する情報ビッ トの量を削減することができる。
[0049] 無声信号として分類されたフレームに対しては、図 5を参照しつつ説明したのと同 様に、電力スペクトル P 1S LPC係数 aおよびゲイン Gを用いて演算される。すなわち
Cn
、インパルス応答構成部 72では、 LPC係数 aおよびゲイン Gを用いてインパルス応答 hが構成される。電力演算部 74aでは、インパルス応答 hを用いて電力スペクトル P が
Cn 演算される。
[0050] 有声信号として分類されたフレームに対しては、 LPC係数 a、ゲイン Gおよびピッチ 周期 Ppが用いられる。合成信号取得部 73では、音声符号ィ匕の分野において一般に 音声合成として知られる方法を用いて、合成信号 s'が合成される。そして、電力演算 部 74bでは、合成信号 s'の電力スペクトル P が演算される。
Cn
[0051] インパルス応答のみを用いて電力スペクトルが推定された場合、その推定結果には 電力スペクトルの包絡線のみが保持されることとなるので、通常は、その推定結果に は電力スペクトルのピークは存在しない。しかし、特に音声信号の場合、電カスペタト ルのピークは、出力信号において正確なピッチを保持するのに非常に重要である。 本実施の形態では、有音区間に対する電力スペクトル推定においてピッチ周期 Ppが 用いられて 、るので、電力スペクトル推定精度を向上することができる。
[0052] 続!、て、前述のスペクトル生成につ!、て詳述する。基準チャネルの電力スペクトル P およびターゲットチャネルの電力スペクトル P を得た後、減算部 81では、電カスペ
M, Cn
クトル P と基準チャネルの電力スペクトル P との電力スペクトル差 D力 式(9)により 演算される。
D = P — P - -- (9)
P Cn M'
[0053] なお、より好ましくは、入力された基準チャネル信号 M'のサンプルがゼロかゼロでな いかに応じて演算を切り替えるようにする。例えば、入力されたサンプルがゼロでない 場合は、式(9)を用いた演算を実行する一方、入力されたサンプルがゼロの場合は、 電力スペクトル差 Dをゼロとする。
p
[0054] そして、電力スペクトル差 Dは、倍率算出部 82にて、スカラー値として式(10)で示
P
される倍率 R に変換される。入力されたサンプルがゼロのとき、倍率 R は「1」となる
Cn Cn
[数 8] = 102。 … ( 1 0 )
[0055] そして、倍率乗算部 83では、式(11)により、基準チャネル信号 M'のスペクトル値 S を倍率 R でスケーリングして、ターゲットチャネルのスペクトル値 S を得る。
' Cn Cn
S = R x M' ー(11)
Cn Cn
[0056] そして、スペクトル値 S のうち低域のスペクトル値 S は逆変換部 63aで時間領域の
Cn η,Ι
信号 C' に逆変換され、スペクトル値 S のうち高域のスペクトル値 S は逆変換部 63b n,l Cn n,h で時間領域の信号 C' に逆変換される。信号 C' および C' は、フィルタバンド合成
n,h n,l n,h
部 65で合成され、 nターゲットチャネル信号 C'が得られる。
[0057] このように、本実施の形態によれば、符号ィ匕側においては、 Nチャネル信号に対す るモノラルの基準チャネル信号 Mと Nチャネル信号の各々の特性を示す信号パラメ一 タとをそれぞれ取得し互いに多重する。また、復号側においては、基準チャネル信号 Mの復号によって得られる基準チャネル信号 M'と信号パラメータとを互いに分離しそ れらを用いて Nチャネル信号を Nターゲットチャネル信号として生成する。このため、 符号ィ匕ビットレートを低減することができるとともに、復号側において、チャネル毎のェ ネルギー分布を近似する電力スペクトル P を推定することができ、近似されたチヤネ
Cn
ル毎のエネルギー分布と基準チャネル信号 M'とから、原信号である Nチャネル信号 Cを Nターゲットチャネル信号 C'として復元することができ、よって、低ビットレートで 高品質の音声を実現することができる。また、システム全体としては、伝送路 4を介し て伝送する基準チャネル信号 M'と信号パラメータとを互いに多重するため、低ビット レートで高品質な音声を表現する信号を送信機側力 受信機側に伝送することがで き、低ビットレートで高品質な音声を実現することができる。
[0058] また、本実施の形態によれば、電力スペクトル P と電力スペクトル P とに基づいて
Cn M,
、基準信号に乗算する倍率 R を Nチャネルの各々に対応付けて算出するため、算
Cn
出された倍率 R を基準チャネル信号 M'のスペクトル値 S に乗算するだけでマルチ
Cn M,
チャネルの効果を得ることができる。
[0059] なお、本実施の形態では、信号が低域および高域を含む 2つの周波数帯域に分離 されているが、各帯域の帯域幅は、等しい必要はない。適切な割当の一例では、低 域を 2〜4kHzに設定し、残りの帯域幅を高域に割り当てる。
[0060] また、本実施の形態では、各帯域にっ 、て、パラメータつまり LPC係数、 LPCゲイ ンおよびピッチ周期を抽出している。各帯域の信号の特性によっては、帯域毎に異 なる次数の LPCフィルタを適用しても良い。この場合、 LPCフィルタの次数も信号パ ラメータに含まれ得る。
[0061] また、電力スペクトル P(P または P )の包絡線は、全極フィルタの伝達関数 H(z)を
Μ' Cn
プロットすることにより得られる。図 11Aおよび図 11Bは、電力スペクトルの包絡線の 2 つの例を示す図である。図 11Aおよび図 11Bにおいて、点線は、実際の信号の電力 スペクトルを表し、実線は、前述の推定方法によって推定された電力スペクトルの包 絡線を表している。
[0062] 以上説明したように、本実施の形態では、マルチチャネルシステムのためのビットレ ートの低減を実現することができる。各ターゲットチャネルのために符号ィ匕ビットストリ ームを送る代わりに、各チャネルの信号パラメータのみが付カ卩的情報として送られる 。これらの信号パラメータを格納するのに用いられるビットは、通常は、同一信号を符 号ィ匕したものを格納するのに用いられるビットに比べて少な 、。
[0063] また、本実施の形態では、信号を 2つの帯域に分離する。これにより、信号パラメ一 タは、各帯域の信号特性に適合するように調整することができるので、復元される信 号に対する、より良い制御を提供することができる。そのようなパラメータの 1つは、 LP Cフィルタ次数であり、より高いフィルタ次数を低域信号に、より低いフィルタ次数を高 域信号に適用することができる。別の可能性としては、より高いフィルタ次数を準周期 的または定常の帯域に用い、より低いフィルタ次数を非定常信号に分類される帯域 に用いることができる。また、正確な電力スペクトル推定は、復元される信号における 改善に繋がるため、ピッチ周期をパラメータに導入することは、定常 (有声)信号に対 する電力スペクトルの推定を改善するのにも役立つ。
[0064] 大抵の音声コーデック力 LPC分析を用いるように、本実施の形態も、 LPCの概念 を用いて信号パラメータを生成するので、本実施の形態はとりわけ、音声信号タイプ のシステムに適する。したがって、本実施の形態のマルチチャネル信号伝送システム 1は、各発話者が各々のマイクまたはチャネルを使用するような、多数参加型のマル チチャネルテレコンファレンスシステムなどのアプリケーションに適している。本実施 の形態のマルチチャネル信号復号装置 3は、基準チャネル信号 M'および Nターゲッ トチャネル信号 C' 〜C' )のどちらも出力することができるので、これらのうちいずれか
1 N
を選択する手段と選択された方の信号を音波として出力する出力手段とがこの装置 またはこのシステムに設けられた場合、さらなる利点がある。すなわち、受信側の聴衆 は、同時に全ての発話者の発言をダウンミタスした信号 (つまり基準チャネル信号 Μ') または特定の発話者の発言のみを表現した信号 (つまり Νチャネル信号の 、ずれか C )のどちらかを選択的に聴くことができる。
[0065] なお、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路 である LSIとして実現される。これらは個別に 1チップ化されても良いし、一部又は全 てを含むように 1チップィ匕されても良い。
[0066] ここでは、 LSIとした力 集積度の違いにより、 IC、システム LSI、スーパー LSI、ゥ ノレ卜ラ LSIと呼称されることちある。
[0067] また、集積回路化の手法は LSIに限るものではなぐ専用回路又は汎用プロセッサ で実現しても良い。 LSI製造後に、プログラムすることが可能な FPGA (Field Program mable Gate Array)や、 LSI内部の回路セルの接続や設定を再構成可能なリコンフィ ギュラブノレ ·プロセッサーを利用しても良 、。
[0068] さらには、半導体技術の進歩又は派生する別技術により LSIに置き換わる集積回 路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積ィ匕を行って も良い。バイオ技術の適応等が可能性としてありえる。
[0069] 本明細書は、 2004年 8月 26日出願の特願 2004— 247404に基づく。この内容は すべてここに含めておく。
産業上の利用可能性
[0070] 本発明のマルチチャネル信号符号化装置およびマルチチャネル信号復号装置は 、マルチチャネルの音声信号またはオーディオ信号を伝送するシステムなどに適用 することができる。

Claims

請求の範囲
[1] 複数チャネルの信号に対する一チャネルの基準信号を生成する生成手段と、 生成された基準信号を符号化する符号化手段と、
前記複数チャネルの信号の各々の特性を示すパラメータを抽出する抽出手段と、 符号化された基準信号と抽出されたパラメータとを互いに多重する多重手段と、 を有するマルチチャネル信号符号ィ匕装置。
[2] 前記抽出手段は、
前記複数チャネルの信号の各々から、線形予測符号化の係数およびゲインを含む ノ ラメータを抽出する、 請求項 1記載のマルチチャネル信号符号化装置。
[3] 前記抽出手段は、
前記複数チャネルの信号の各々から、ピッチ周期を含むパラメータを抽出する、 請求項 2記載のマルチチャネル信号符号化装置。
[4] 符号化された基準信号であって複数チャネルの信号に対する一チャネルの基準信 号と基準信号に多重されたパラメータであって前記複数チャネルの信号の各々の特 性を示すパラメータとを互いに分離する分離手段と、
分離された基準信号を復号する復号手段と、
復号された基準信号と分離されたパラメータとから、前記複数チャネルの信号を生 成する生成手段と、
を有するマルチチャネル信号復号装置。
[5] 前記分離手段は、
線形予測符号ィ匕の係数およびゲインを含むパラメータを基準信号力 分離し、 前記生成手段は、
前記係数および前記ゲインに基づいて、前記複数チャネルの信号の各々に対して 第一の電力スペクトルを推定する電力スペクトル推定手段を有し、
推定された第一の電力スペクトルを用いて、前記複数チャネルの信号を生成する、 請求項 4記載のマルチチャネル信号復号装置。
[6] 前記電力スペクトル推定手段は、 復号された基準信号に対して第二の電カスペ外ルを推定し、
前記生成手段は、
前記第一の電力スペクトルおよび前記第二の電力スペクトルに基づ 、て、前記基 準信号の倍率を、前記複数チャネルの各々に対応付けて算出する倍率算出手段を さらに有し、
算出された倍率を前記基準信号に乗算して前記複数チャネルの信号を生成する、 請求項 5記載のマルチチャネル信号復号装置。
[7] 前記分離手段は、
ピッチ周期を含むパラメータを基準信号力 分離し、
前記電力スペクトル推定手段は、
前記ピッチ周期に基づいて、前記第一の電力スペクトルを推定する、
請求項 6記載のマルチチャネル信号復号装置。
[8] 前記生成手段は、
分離されたパラメータに対応する信号の各フレームを有音信号または無音信号とし て分類する分類手段を有し、
前記電力スペクトル推定手段は、
フレームが無音信号として分類された場合、前記係数および前記ゲインを用いて、 前記第一の電力スペクトルを推定する一方、
フレームが有音信号として分類された場合、前記係数、前記ゲインおよび前記ピッ チ周期を用いて、前記第一の電力スペクトルを推定する、
請求項 7記載のマルチチャネル信号復号装置。
[9] 前記分類手段は、
前記ピッチ周期に基づいて、信号の分類を行う、
請求項 8記載のマルチチャネル信号復号装置。
[10] 符号化された基準信号であって複数チャネルの信号に対する一チャネルの基準信 号と前記複数チャネルの信号の各々の特性を示すパラメータとを互いに多重する多 重手段と、
多重された基準信号とパラメータとを互いに分離する分離手段と、 を有するマルチチャネル信号伝送システム。
[11] 複数チャネルの信号に対する一チャネルの基準信号を生成する生成ステップと、 生成された基準信号を符号化する符号化ステップと、
前記複数チャネルの信号の各々の特性を示すパラメータを抽出する抽出ステップ と、
符号化された基準信号と抽出されたパラメータとを互いに多重する多重ステップと、 を有するマルチチャネル信号符号化方法。
[12] 符号化された基準信号であって複数チャネルの信号に対する一チャネルの基準信 号と基準信号に多重されたパラメータであって前記複数チャネルの信号の各々の特 性を示すパラメータとを互 ヽに分離する分離ステップと、
分離された基準信号を復号する復号ステップと、
復号された基準信号と分離されたパラメータとから、前記複数チャネルの信号を生 成する生成ステップと、
を有するマルチチャネル信号復号方法。
PCT/JP2005/015375 2004-08-26 2005-08-24 マルチチャネル信号符号化装置およびマルチチャネル信号復号装置 Ceased WO2006022308A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
AT05774594T ATE442644T1 (de) 2004-08-26 2005-08-24 Mehrkanalige signal-dekodierung
BRPI0514998-3A BRPI0514998A (pt) 2004-08-26 2005-08-24 equipamento de codificação de sinal de canal múltiplo e equipamento de decodificação de sinal de canal múltiplo
US11/573,100 US7630396B2 (en) 2004-08-26 2005-08-24 Multichannel signal coding equipment and multichannel signal decoding equipment
EP05774594A EP1783745B1 (en) 2004-08-26 2005-08-24 Multichannel signal decoding
DE602005016571T DE602005016571D1 (de) 2004-08-26 2005-08-24 Mehrkanalige signal-dekodierung
JP2006531958A JP4963962B2 (ja) 2004-08-26 2005-08-24 マルチチャネル信号符号化装置およびマルチチャネル信号復号装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-247404 2004-08-26
JP2004247404 2004-08-26

Publications (1)

Publication Number Publication Date
WO2006022308A1 true WO2006022308A1 (ja) 2006-03-02

Family

ID=35967516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/015375 Ceased WO2006022308A1 (ja) 2004-08-26 2005-08-24 マルチチャネル信号符号化装置およびマルチチャネル信号復号装置

Country Status (9)

Country Link
US (1) US7630396B2 (ja)
EP (1) EP1783745B1 (ja)
JP (1) JP4963962B2 (ja)
KR (1) KR20070051864A (ja)
CN (1) CN101010725A (ja)
AT (1) ATE442644T1 (ja)
BR (1) BRPI0514998A (ja)
DE (1) DE602005016571D1 (ja)
WO (1) WO2006022308A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5556175B2 (ja) * 2007-06-27 2014-07-23 日本電気株式会社 信号分析装置と、信号制御装置と、そのシステム、方法及びプログラム
JP2017526956A (ja) * 2014-07-26 2017-09-14 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 時間ドメイン符号化と周波数ドメイン符号化の間の分類の改善

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69615826T2 (de) 1995-12-07 2002-04-04 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur kodierung,übertragung und dekodierung eines nicht-pcm-bitstromes zwischen einer vorrichtung mit digitaler vielseitiger platte und einer mehrkanal-wiedergabevorrichtung
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
WO2006121101A1 (ja) * 2005-05-13 2006-11-16 Matsushita Electric Industrial Co., Ltd. 音声符号化装置およびスペクトル変形方法
US7630882B2 (en) 2005-07-15 2009-12-08 Microsoft Corporation Frequency segmentation to obtain bands for efficient coding of digital media
US7562021B2 (en) 2005-07-15 2009-07-14 Microsoft Corporation Modification of codewords in dictionary used for efficient coding of digital media spectral data
EP1953736A4 (en) * 2005-10-31 2009-08-05 Panasonic Corp STEREO CODING DEVICE AND STEREOSIGNAL PREDICTION PROCESS
WO2007088853A1 (ja) * 2006-01-31 2007-08-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置、音声復号装置、音声符号化システム、音声符号化方法及び音声復号方法
KR101393298B1 (ko) * 2006-07-08 2014-05-12 삼성전자주식회사 적응적 부호화/복호화 방법 및 장치
CN101517921B (zh) * 2006-09-25 2013-07-03 松下电器产业株式会社 信号分离装置以及信号分离方法
JP2008089545A (ja) * 2006-10-05 2008-04-17 Matsushita Electric Ind Co Ltd 解析装置
US7761290B2 (en) 2007-06-15 2010-07-20 Microsoft Corporation Flexible frequency and time partitioning in perceptual transform coding of audio
CN101071570B (zh) * 2007-06-21 2011-02-16 北京中星微电子有限公司 耦合声道的编、解码处理方法、音频编码装置及解码装置
US8046214B2 (en) 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8249883B2 (en) 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
JP5413839B2 (ja) * 2007-10-31 2014-02-12 パナソニック株式会社 符号化装置および復号装置
EP2242046A4 (en) * 2008-01-11 2013-10-30 Nec Corp SYSTEM, APPARATUS, METHOD AND PROGRAM FOR CONTROL OF SIGNAL ANALYSIS, SIGNAL ANALYSIS AND SIGNAL CONTROL
US8665914B2 (en) * 2008-03-14 2014-03-04 Nec Corporation Signal analysis/control system and method, signal control apparatus and method, and program
JP5773124B2 (ja) * 2008-04-21 2015-09-02 日本電気株式会社 信号分析制御及び信号制御のシステム、装置、方法及びプログラム
JP5141542B2 (ja) * 2008-12-24 2013-02-13 富士通株式会社 雑音検出装置及び雑音検出方法
TWI426736B (zh) * 2009-07-07 2014-02-11 Issc Technologies Corp 一種無線電語音資料傳輸系統之語音品質改善方法
US8868432B2 (en) * 2010-10-15 2014-10-21 Motorola Mobility Llc Audio signal bandwidth extension in CELP-based speech coder
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
CN107771346B (zh) * 2015-06-17 2021-09-21 三星电子株式会社 实现低复杂度格式转换的内部声道处理方法和装置
US10553222B2 (en) * 2017-03-09 2020-02-04 Qualcomm Incorporated Inter-channel bandwidth extension spectral mapping and adjustment
CN107966698B (zh) * 2017-10-30 2021-12-28 四川九洲电器集团有限责任公司 二次雷达设备及信号处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556007A (ja) * 1991-08-23 1993-03-05 Nippon Hoso Kyokai <Nhk> 混合音声信号伝送方式
WO1995034956A1 (en) * 1994-06-13 1995-12-21 Sony Corporation Method and device for encoding signal, method and device for decoding signal, recording medium, and signal transmitting device
JPH07336234A (ja) * 1994-06-13 1995-12-22 Sony Corp 信号符号化方法及び装置並びに信号復号化方法及び装置
JPH0895599A (ja) * 1994-05-06 1996-04-12 Nippon Telegr & Teleph Corp <Ntt> 信号の符号化方法と復号方法及びそれを使った符号器及び復号器
JPH1051313A (ja) * 1996-03-22 1998-02-20 Lucent Technol Inc マルチチャネルオーディオ信号のジョイントステレオ符号化方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091946A (en) * 1988-12-23 1992-02-25 Nec Corporation Communication system capable of improving a speech quality by effectively calculating excitation multipulses
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
JP3099876B2 (ja) * 1997-02-05 2000-10-16 日本電信電話株式会社 多チャネル音声信号符号化方法及びその復号方法及びそれを使った符号化装置及び復号化装置
SE519981C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
SE519985C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
DE60311794T2 (de) * 2002-04-22 2007-10-31 Koninklijke Philips Electronics N.V. Signalsynthese
BRPI0304540B1 (pt) 2002-04-22 2017-12-12 Koninklijke Philips N. V Methods for coding an audio signal, and to decode an coded audio sign, encoder to codify an audio signal, codified audio sign, storage media, and, decoder to decode a coded audio sign
DE60306512T2 (de) * 2002-04-22 2007-06-21 Koninklijke Philips Electronics N.V. Parametrische beschreibung von mehrkanal-audio
US7155385B2 (en) * 2002-05-16 2006-12-26 Comerica Bank, As Administrative Agent Automatic gain control for adjusting gain during non-speech portions
JP2006503319A (ja) * 2002-10-14 2006-01-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 信号フィルタリング

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556007A (ja) * 1991-08-23 1993-03-05 Nippon Hoso Kyokai <Nhk> 混合音声信号伝送方式
JPH0895599A (ja) * 1994-05-06 1996-04-12 Nippon Telegr & Teleph Corp <Ntt> 信号の符号化方法と復号方法及びそれを使った符号器及び復号器
WO1995034956A1 (en) * 1994-06-13 1995-12-21 Sony Corporation Method and device for encoding signal, method and device for decoding signal, recording medium, and signal transmitting device
JPH07336234A (ja) * 1994-06-13 1995-12-22 Sony Corp 信号符号化方法及び装置並びに信号復号化方法及び装置
JPH1051313A (ja) * 1996-03-22 1998-02-20 Lucent Technol Inc マルチチャネルオーディオ信号のジョイントステレオ符号化方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5556175B2 (ja) * 2007-06-27 2014-07-23 日本電気株式会社 信号分析装置と、信号制御装置と、そのシステム、方法及びプログラム
US9905242B2 (en) 2007-06-27 2018-02-27 Nec Corporation Signal analysis device, signal control device, its system, method, and program
JP2017526956A (ja) * 2014-07-26 2017-09-14 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 時間ドメイン符号化と周波数ドメイン符号化の間の分類の改善
US10586547B2 (en) 2014-07-26 2020-03-10 Huawei Technologies Co., Ltd. Classification between time-domain coding and frequency domain coding
US10885926B2 (en) 2014-07-26 2021-01-05 Huawei Technologies Co., Ltd. Classification between time-domain coding and frequency domain coding for high bit rates

Also Published As

Publication number Publication date
EP1783745A1 (en) 2007-05-09
CN101010725A (zh) 2007-08-01
EP1783745B1 (en) 2009-09-09
ATE442644T1 (de) 2009-09-15
JPWO2006022308A1 (ja) 2008-05-08
EP1783745A4 (en) 2008-05-21
JP4963962B2 (ja) 2012-06-27
DE602005016571D1 (de) 2009-10-22
BRPI0514998A (pt) 2008-07-01
KR20070051864A (ko) 2007-05-18
US7630396B2 (en) 2009-12-08
US20070233470A1 (en) 2007-10-04

Similar Documents

Publication Publication Date Title
JP4963962B2 (ja) マルチチャネル信号符号化装置およびマルチチャネル信号復号装置
JP4934427B2 (ja) 音声信号復号化装置及び音声信号符号化装置
JP4832305B2 (ja) ステレオ信号生成装置およびステレオ信号生成方法
EP1798724B1 (en) Encoder, decoder, encoding method, and decoding method
JP6641018B2 (ja) チャネル間時間差を推定する装置及び方法
CN102160113B (zh) 多声道音频编码器和解码器
JP5340261B2 (ja) ステレオ信号符号化装置、ステレオ信号復号装置およびこれらの方法
EP1808684A1 (en) Scalable decoding apparatus and scalable encoding apparatus
JP5752134B2 (ja) 最適化された低スループットパラメトリック符号化/復号化
CN110998721B (zh) 用于使用宽频带滤波器生成的填充信号对已编码的多声道信号进行编码或解码的装置
US20090204397A1 (en) Linear predictive coding of an audio signal
JP5404412B2 (ja) 符号化装置、復号装置およびこれらの方法
CN101611442A (zh) 编码装置、解码装置以及其方法
WO2007026763A1 (ja) ステレオ符号化装置、ステレオ復号装置、及びステレオ符号化方法
EP2133872B1 (en) Encoding device and encoding method
AU2023254936B2 (en) Multi-channel signal generator, audio encoder and related methods relying on a mixing noise signal
JPWO2008132850A1 (ja) ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
WO2006041055A1 (ja) スケーラブル符号化装置、スケーラブル復号装置及びスケーラブル符号化方法
HK40088493A (en) Multi-channel signal generator, audio encoder and related methods relying on a mixing noise signal
HK40088493B (en) Multi-channel signal generator, audio encoder and related methods relying on a mixing noise signal

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006531958

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005774594

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 233/MUMNP/2007

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 1020077004267

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580028782.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11573100

Country of ref document: US

Ref document number: 2007233470

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005774594

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11573100

Country of ref document: US

ENP Entry into the national phase

Ref document number: PI0514998

Country of ref document: BR