KR20070108313A - Method and apparatus for encoding / decoding audio signal - Google Patents
Method and apparatus for encoding / decoding audio signal Download PDFInfo
- Publication number
- KR20070108313A KR20070108313A KR1020060079837A KR20060079837A KR20070108313A KR 20070108313 A KR20070108313 A KR 20070108313A KR 1020060079837 A KR1020060079837 A KR 1020060079837A KR 20060079837 A KR20060079837 A KR 20060079837A KR 20070108313 A KR20070108313 A KR 20070108313A
- Authority
- KR
- South Korea
- Prior art keywords
- coding
- pilot
- value
- spatial information
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000012545 processing Methods 0.000 abstract description 10
- 238000013139 quantization Methods 0.000 description 24
- 239000000284 extract Substances 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000001343 mnemonic effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 효율적인 오디오 신호의 처리를 위한 오디오 신호의 인코딩/디코딩 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for encoding / decoding audio signals for efficient processing of audio signals.
본 발명은 1차원 엔트로피 디코딩을 수행하여 파일럿 값을 추출하는 단계; 코딩 스킴에 따라 1차원 엔트로피 디코딩 또는 2차원 엔트로피 디코딩 중 어느 하나를 수행하여 파일럿 차이값을 추출하는 단계; 및 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 방법을 제공한다.The present invention includes the steps of extracting a pilot value by performing one-dimensional entropy decoding; Extracting a pilot difference value by performing either one-dimensional entropy decoding or two-dimensional entropy decoding according to a coding scheme; And generating spatial information using the pilot value and the pilot difference value.
Description
도 1은 본 발명에 따른 신호 처리 시스템의 일 실시예를 도시한 것이다.1 illustrates an embodiment of a signal processing system according to the present invention.
도 2a는 본 발명에 따른 공간정보 코딩부의 일 실시예를 도시한 것이다.2A illustrates an embodiment of a spatial information coding unit according to the present invention.
도 2b는 발명에 따른 공간정보 디코딩부의 일 실시예를 도시한 것이다.2B illustrates an embodiment of a spatial information decoding unit according to the present invention.
도 3은 본 발명에 따른 오디오 신호의 EcData() 신택스를 도시한 것이다.3 illustrates an EcData () syntax of an audio signal according to the present invention.
도 4a, 도 4b는 본 발명에 따른 오디오 신호의 EcDataPair() 신택스를 도시한 것이다.4A and 4B illustrate the EcDataPair () syntax of an audio signal according to the present invention.
도 5a, 도 5b는 본 발명에 따른 오디오 신호의 DiffHuffData() 신택스를 도시한 것이다.5A and 5B illustrate the DiffHuffData () syntax of an audio signal according to the present invention.
도 6은 본 발명에 따른 오디오 신호의 HuffData1D() 신택스를 도시한 것이다.6 illustrates the HuffData1D () syntax of an audio signal according to the present invention.
도 7은 본 발명에 따른 오디오 신호의 HuffData2DFreqPair() 신택스를 도시한 것이다.7 illustrates the HuffData2DFreqPair () syntax of an audio signal according to the present invention.
도 8은 본 발명에 따른 오디오 신호의 HuffData2DTimePair() 신택스를 도시한 것이다.8 illustrates a HuffData2DTimePair () syntax of an audio signal according to the present invention.
도 9는 본 발명에 따른 오디오 신호의 LsbData() 신택스를 도시한 것이다. 9 illustrates LsbData () syntax of an audio signal according to the present invention.
도 10은 본 발명에 따른 공간정보 디코딩부의 다른 실시예를 도시한 것이다. 10 illustrates another embodiment of the spatial information decoding unit according to the present invention.
도 11은 본 발명에 따른 공간정보 디코딩의 전처리 단계의 일 실시예를 설명하기 위해 도시한 것이다.FIG. 11 illustrates an embodiment of a preprocessing step of spatial information decoding according to the present invention.
도 12a ~ 도 12b는 본 발명에 따른 디코딩 과정을 예를 들어 설명하기 위해 도시한 것이다.12A to 12B illustrate examples of the decoding process according to the present invention.
도 13은 본 발명에 따른 공간정보 디코딩의 후처리 단계의 일 실시예를 설명하기 위해 도시한 것이다.13 is a diagram illustrating an embodiment of a post-processing step of spatial information decoding according to the present invention.
도 14a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제1실시예를 도시한 흐름도이다.14A is a flowchart illustrating a first embodiment of a method of encoding an audio signal according to the present invention.
도 14b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제1실시예를 도시한 흐름도이다.14B is a flowchart illustrating a first embodiment of a method of decoding an audio signal according to the present invention.
도 15a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제2실시예를 도시한 흐름도이다.15A is a flowchart illustrating a second embodiment of a method of encoding an audio signal according to the present invention.
도 15b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제2실시예를 도시한 흐름도이다.15B is a flowchart illustrating a second embodiment of a method of decoding an audio signal according to the present invention.
도 16a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제3실시예를 도시한 흐름도이다.16A is a flowchart illustrating a third embodiment of a method of encoding an audio signal according to the present invention.
도 16b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제3실시예를 도시한 흐름도이다.16B is a flowchart illustrating a third embodiment of a method of decoding an audio signal according to the present invention.
*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
1:코딩 장치 2:디코딩 장치1: coding device 2: decoding device
100:다운믹싱부 101:채널 다운믹싱부100: downmixing unit 101: channel downmixing unit
103:공간정보 생성부 110:코어 코딩부103: spatial information generation unit 110: core coding unit
120:공간정보 코딩부 130:다중화부120: spatial information coding unit 130: multiplexing unit
140:역다중화부 150:코어 디코딩부140: demultiplexer 150: core decoding section
160:공간정보 디코딩부 170:멀티채널 생성부160: spatial information decoding unit 170: multi-channel generation unit
210:PCM 코딩부 211:그룹 PCM 코딩부210: PCM coding unit 211: group PCM coding unit
213:파일럿 코딩부 220:디퍼렌셜 코딩부213: pilot coding unit 220: differential coding unit
221:주파수 디퍼렌셜 코딩부 223:전방위 타임 디퍼렌셜 코딩부221: frequency differential coding unit 223: omnidirectional time differential coding unit
225:후방위 타임 디퍼렌셜 코딩부 230:허프만 코딩부225: rear direction time differential coding unit 230: Huffman coding unit
231:1차원 허프만 코딩부 233:주파수 페어 2차원 허프만 코딩부231: 1D Huffman Coding Unit 233: Frequency Pair 2D Huffman Coding Unit
235:타임 페어 2차원 허프만 코딩부 250:식별자 추출부235: time pair two-dimensional Huffman coding unit 250: identifier extraction unit
260:PCM 디코딩부 261:그룹 PCM 디코딩부260: PCM decoding unit 261: Group PCM decoding unit
263:파일럿 디코딩부 270:허프만 디코딩부263: pilot decoding unit 270: Huffman decoding unit
271:1차원 허프만 디코딩부 271: 1 dimensional Huffman decoding unit
273:주파수 페어 2차원 허프만 디코딩부273: frequency pair two-dimensional Huffman decoding unit
275:타임 페어 2차원 허프만 디코딩부275: time pair two-dimensional Huffman decoding unit
280:디퍼렌셜 디코딩부 281:주파수 디퍼렌셜 디코딩부280: differential decoding unit 281: frequency differential decoding unit
283:전방위 타임 디퍼렌셜 디코딩부 285:후방위 타임 디퍼렌셜 디코딩부283: front direction time differential decoding unit 285: rear direction time differential decoding unit
1010:전처리부 1020:델타 디코딩부1010: preprocessor 1020: delta decoding unit
1030:후처리부1030: post-processing unit
본 발명은 오디오 신호의 처리에 관한 것으로, 보다 상세하게는 오디오 신호를 처리함에 있어서, 데이터의 파일럿 값을 이용하여 데이터를 인코딩/디코딩하는 방법 및 장치에 관한 것이다.The present invention relates to the processing of audio signals, and more particularly, to a method and apparatus for encoding / decoding data using pilot values of data in processing an audio signal.
디지털 비디오, 디지털 오디오에 대한 표준(standard)은 각각의 신호에 대한 압축(compression) 및 복원(decompression)에 대한 규격(standard)이다. 또한, 디지털 시스템에 대한 표준은 압축된 비디오와 오디오 각각을 일정한 크기의 패킷(Packet)으로 분할한 후 타이밍 정보(timing information), 스트림 관련 정보(stream information) 등을 추가하여 다중화(multiplexing)하여 전송하고, 그 반대로 역 다중화(demultiplexing) 과정을 통해 타이밍 정보, 스트림 관련 정보 등을 얻어내고, 또한 압축된 비디오와 오디오를 각각 분리해 내는데 필요한 규격이다.The standard for digital video and digital audio is the standard for compression and decompression for each signal. In addition, the standard for the digital system divides each of the compressed video and audio into packets of a certain size, and then multiplexes and adds timing information and stream information. On the contrary, it is a standard necessary to obtain timing information, stream related information, etc. through demultiplexing and to separate compressed video and audio, respectively.
최근에 디지털 오디오 신호에 대한 다양한 코딩기술(coding technology) 및 방법들이 개발되고 있으며, 이와 관련된 제품들이 생산되고 있다. 또한 심리음향 모델(psychoacoustic model)을 이용하여 멀티채널 오디오 신호의 코딩 방법들이 개발되고 있으며, 이에 대한 표준화 작업이 진행되고 있다. Recently, various coding technologies and methods for digital audio signals have been developed, and related products have been produced. In addition, coding methods for multichannel audio signals have been developed using a psychoacoustic model, and standardization thereof has been performed.
상기 심리음향 모델은 인간이 소리를 인식하는 방식, 예를 들면 큰 소리 다음에 오는 작은 소리는 들리지 않으며, 20Hz 내지 20000Hz의 주파수에 해당되는 소 리만 들을 수 있다는 사실을 이용하여, 코딩 과정에서 불필요한 부분에 대한 신호를 제거함으로써 필요한 데이터의 양을 효과적으로 줄일 수 있는 것이다. The psychoacoustic model uses unnecessary methods in the coding process by taking advantage of the way in which a human recognizes a sound, for example, a small sound following a loud sound and only a sound corresponding to a frequency of 20 Hz to 20000 Hz. By removing the signal for, we can effectively reduce the amount of data needed.
그리고, 현재 MPEG-4 AAC(advanced audio coding) 및 MPEG-4 HE-AAC(high-efficiency AAC)와 같은 오디오 표준 기술이 개발되어 상용화되고 있다. In addition, audio standard technologies such as MPEG-4 AAC (Advanced Audio Coding) and MPEG-4 high-efficiency AAC (HE-AAC) have been developed and commercialized.
한편, 멀티채널 오디오 신호를 처리하는 방법이 구체적으로 제시된바 없어, 오디오 신호를 효율적으로 처리하는데 많은 문제점이 있었다.On the other hand, a method of processing a multi-channel audio signal has not been specifically presented, there are many problems in efficiently processing the audio signal.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 멀티채널 오디오 신호를 처리함에 있어서, 공간정보를 효과적인 방식으로 표현하여 멀티채널 오디오 신호의 압축 및 전송효율을 향상시킬 수 있는 방법을 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems. In processing a multi-channel audio signal, an object of the present invention is to provide a method for improving the compression and transmission efficiency of a multi-channel audio signal by representing spatial information in an effective manner. There is this.
상기 목적을 달성하기 위하여, 본 발명은 1차원 엔트로피 디코딩을 수행하여 파일럿 값을 추출하는 단계; 코딩 스킴에 따라 1차원 엔트로피 디코딩 또는 2차원 엔트로피 디코딩 중 어느 하나를 수행하여 파일럿 차이값을 추출하는 단계; 및 상기 파일럿 값과 상기 파일럿 차이값을 이용하여 공간정보를 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 방법을 제공한다.In order to achieve the above object, the present invention comprises the steps of extracting a pilot value by performing one-dimensional entropy decoding; Extracting a pilot difference value by performing either one-dimensional entropy decoding or two-dimensional entropy decoding according to a coding scheme; And generating spatial information using the pilot value and the pilot difference value.
본 발명의 다른 실시 형태에 의하면, 본 발명은 1차원 엔트로피 디코딩을 수행하여 파일럿 값을 추출하고, 코딩 스킴에 따라 1차원 엔트로피 디코딩 또는 2차원 엔트로피 디코딩 중 어느 하나의 방법을 수행하여 파일럿 차이값을 추출하는 엔트로피 디코딩부; 및 상기 파일럿 값과 상기 파일럿 차이값을 이용하여 공간정보를 생성하는 파일럿 디코딩부를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 장치를 제공한다.According to another embodiment of the present invention, the present invention performs one-dimensional entropy decoding to extract the pilot value, and according to the coding scheme to perform any one method of one-dimensional entropy decoding or two-dimensional entropy decoding to obtain the pilot difference value An entropy decoding unit to extract; And a pilot decoding unit for generating spatial information using the pilot value and the pilot difference value.
본 발명의 또 다른 실시 형태에 의하면, 본 발명은 멀티채널 오디오 신호로부터 공간정보를 생성하는 단계; 상기 공간정보의 파일럿 값과 파일럿 차이값을 생성하는 단계; 및 상기 파일럿 값은 1차원 엔트로피 코딩을 수행하고, 상기 파일럿 차이값은 코딩 스킴에 따라 1차원 엔트로피 코딩 또는 2차원 엔트로피 코딩 중 하나를 수행하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 인코딩 방법을 제공한다.According to still another embodiment of the present invention, there is provided a method for generating spatial information from a multichannel audio signal; Generating a pilot value and a pilot difference value of the spatial information; And the pilot value performs one-dimensional entropy coding and the pilot difference value comprises one of one-dimensional entropy coding and two-dimensional entropy coding according to a coding scheme. to provide.
본 발명의 또 다른 실시 형태에 의하면, 본 발명은 멀티채널 오디오 신호로부터 공간정보를 생성하는 공간정보 생성부; 및 상기 공간정보의 파일럿 값과 파일럿 차이값을 생성하되, 상기 파일럿 값은 1차원 엔트로피 코딩을 수행하고, 상기 파일럿 차이값은 코딩 스킴에 따라 1차원 엔트로피 코딩 또는 2차원 엔트로피 코딩 중 하나의 방법을 수행하는 공간정보 코딩부를 포함하는 것을 특징으로 하는 오디오 신호의 인코딩 장치를 제공한다.According to another embodiment of the present invention, the present invention provides a spatial information generating unit for generating spatial information from a multichannel audio signal; And generating a pilot difference value and a pilot difference value of the spatial information, wherein the pilot value performs one-dimensional entropy coding, and the pilot difference value uses one of one-dimensional entropy coding or two-dimensional entropy coding according to a coding scheme. Provided is an encoding apparatus for an audio signal comprising a spatial information coding unit to perform.
본 발명의 또 다른 실시 형태에 의하면, 본 발명은 다운믹스된 오디오 프레임과 공간정보 프레임을 포함하고, 상기 공간정보 프레임은 공간정보로 이루어진 데이터 세트를 포함하고, 상기 데이터 세트내의 공간정보는 파일럿 값과 파일럿 차이값으로 표현되되, 상기 파일럿 값은 1차원 엔트로피 코딩을 수행하여 생성되고, 상기 파일럿 차이값은 코딩 스킴에 따라 1차원 엔트로피 코딩 또는 2차원 엔트로피 코딩 중 하나의 방법을 수행하여 생성되는 것을 특징으로 하는 오디오 신호의 데이 터 구조를 제공한다.According to another embodiment of the present invention, the present invention includes a downmixed audio frame and a spatial information frame, wherein the spatial information frame includes a data set consisting of spatial information, and the spatial information in the data set is a pilot value. And a pilot difference value, wherein the pilot value is generated by performing one-dimensional entropy coding, and the pilot difference value is generated by performing one of one-dimensional entropy coding or two-dimensional entropy coding according to a coding scheme. It provides a data structure of an audio signal characterized by.
따라서, 본 발명에 의하면, 타임 및 주파수에서 처리하고자 하는 데이터 세트 내의 미리 설정된 파일럿 값으로부터의 차이값을 인코딩하여 전송하고 이를 디코딩하여 효과적으로 오디오 신호를 처리하는 것이 가능하고, 오디오 신호를 처리함에 있어서, 코딩 방법과 디코딩 방법을 데이터 량에 따라서 선택적으로 하는 것이 가능하고, 공간정보가 포함되는 비트스트림을 효과적으로 구성하여 전송하는 데이터 량을 효과적으로 줄이는 것이 가능하다.Therefore, according to the present invention, it is possible to encode and transmit a difference value from a preset pilot value in a data set to be processed at a time and a frequency and to decode the difference to effectively process an audio signal. It is possible to selectively select a coding method and a decoding method according to the amount of data, and it is possible to effectively configure a bitstream including spatial information and effectively reduce the amount of data to be transmitted.
이하 상기의 목적으로 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can be specifically realized for the above purpose.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우는 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다.In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in some cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the description of the invention, It is to be understood that the present invention is to be understood as the meaning of terms rather than the names of terms.
본 발명에서 "공간정보(spatial information)"란 다운믹스(down-mix)된 오디오 신호에 대하여, 업믹스(up-mix)를 수행하여 멀티채널 오디오 신호를 생성하기 위한 정보를 의미한다. 상기 공간정보로 공간 파라미터를 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실임을 밝혀둔다. 관련하여, 공간 파라미터는 두 채널간의 에너지 차이를 의미하는 CLD(channel level difference), 두 채널간의 상관관계(correlation)를 의미하는 ICC(inter channel coherences), 두 채널 로부터 세 채널을 생성할 때 이용되는 예측 계수인 CPC(channel prediction coefficients) 및 임의의 다운믹스 과정에서 변형된 크기를 보정하는데 사용하는 개수인 ADG(artistic downmix gain) 등의 데이터 타입이 있다. 이때, 데이터 타입은 특정 데이터의 타입정보를 의미하는데, 예를 들어, 특정 데이터가 공간정보인 경우에는 데이터 타입을 공간정보 타입이라 명명할 수 있다.In the present invention, "spatial information" means information for generating a multi-channel audio signal by performing an up-mix on an down-mixed audio signal. Although the spatial information is described based on the spatial parameters, it should be understood that the present invention is not limited thereto. Relatedly, spatial parameters are used to generate three channels from two channels, CLD (channel level difference), which represents the energy difference between two channels, inter channel coherences (ICC), and correlation between two channels. There are data types such as channel prediction coefficients (CPC), which are prediction coefficients, and artistic downmix gain (ADG), which is a number used to correct a modified magnitude in an arbitrary downmix process. In this case, the data type means type information of specific data. For example, when specific data is spatial information, the data type may be referred to as spatial information type.
본 발명에서 "코어 코덱(core codec)"은 공간정보가 아닌 오디오 신호를 코딩하는 코덱을 지칭한다. 본 발명에서는 공간정보가 아닌 오디오 신호로 다운믹스 오디오 신호를 예로 하여 설명한다. 또한, 코어 코덱에는 MPEG Layer-Ⅱ, MP3, AC-3, DTS, WMA, AAC, 또는 HE-AAC가 포함될 수 있으며, 압축을 하지않은 PCM 신호인 경우도 가능하다. 오디오 신호에 대하여 코덱 기능을 수행한다면 기존에 개발된 코덱뿐만 아니라 향후 개발될 코덱을 포함할 수 있다.In the present invention, "core codec" refers to a codec that codes an audio signal rather than spatial information. In the present invention, the downmix audio signal is described as an audio signal instead of spatial information. In addition, the core codec may include MPEG Layer-II, MP3, AC-3, DTS, WMA, AAC, or HE-AAC, and may be a PCM signal without compression. If the codec function is performed on the audio signal, it may include a codec to be developed in the future as well as a codec previously developed.
본 발명에서 "파일럿(pilot) 값"이란 전송하고자 하는 데이터 세트에 대한 대표값을 의미한다. 상기 파일럿 값은 "P"로 나타낼 수 있고, 예를 들어, 평균값(mean), 중간값(medium), 최빈값(mode) 중 어느 하나를 이용가능하나, 본 발명에 이에 한정되지 않음은 자명하다. 또한, 본 발명에서 "파일럿 차이값"이란 전송하고자 하는 데이터 세트를 구성하는 각 데이터와 파일럿 값의 차이값을 의미한다.In the present invention, a "pilot value" means a representative value for a data set to be transmitted. The pilot value may be represented by "P", for example, any one of a mean value, a medium value, and a mode may be used, but the present invention is not limited thereto. In addition, in the present invention, "pilot difference value" means a difference value between each data constituting a data set to be transmitted and a pilot value.
본 발명에서 "최대값"은 특정 데이터 중에서 그 값이 가장 큰 값을 의미한다. 예를 들어, 상기 최대값으로 공간정보의 최대값을 공간정보 최대값이라 명명할 수 있으며, 상기 공간정보 최대값에 대응하여 엔트로피 코딩을 위한 최대값을 LAV값(largest absolute value: 이하 'LAV값'라 한다.)이라 명명할 수 있다. 이하, 본 발명에서는 최대값으로 공간정보 최대값과 LAV값을 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실임을 밝혀둔다. 관련하여, 본 발명에서 LAV값을 특정 인덱스로 표현할 수 있는데, LAV값을 특정 인덱스로 표현한 것을 LavIdx로 표현할 수 있다. In the present invention, the "maximum value" means a value having the largest value among specific data. For example, the maximum value of the spatial information may be referred to as the maximum value of the spatial information, and a maximum value for entropy coding corresponding to the maximum value of the spatial information is referred to as a LAV value (hereinafter, referred to as a 'LAV value'). '). Hereinafter, the present invention will be described based on the spatial information maximum value and the LAV value as the maximum value, but it is apparent that the present invention is not limited thereto. In this regard, in the present invention, the LAV value may be expressed by a specific index, and the expression of the LAV value by a specific index may be expressed by LavIdx.
도 1은 본 발명에 따른 신호 처리 시스템의 일 실시예를 도시한 것이다. 도 1을 참조하면, 신호 처리 시스템은 코딩 장치(1)와 디코딩 장치(2)를 포함한다. 다만, 본 발명에서 오디오 신호에 대해서 살펴보나, 본 발명은 오디오 신호 외에 모든 신호의 처리를 함에 있어서도 적용가능하다. 1 illustrates an embodiment of a signal processing system according to the present invention. Referring to FIG. 1, a signal processing system includes a
코딩 장치(1)는 다운믹싱부(downmixing part:100), 코어 코딩부(core coding part:110), 공간정보 코딩부(spatial information coding part:120) 및 다중화부(multiplexing part:130)를 포함할 수 있다. 상기 다운믹싱부(downmixing part:100)는 채널 다운믹싱부(channel downmixing part:101) 및 공간정보 생성부(spatial information estimating part:103)를 포함할 수 있다. The
오디오 신호가 N개의 멀티채널( , ,...,)로 입력되면, 다운믹싱부(100)는 미리 정해진 다운믹스 방법 또는 임의로 설정한 다운믹스 방법(artistic downmix method)에 따라, 입력 채널의 개수보다 작은 개수의 채널로 다운믹스 오디오 신호를 출력하면, 상기 출력된 다운믹스 오디오 신호는 코어 코딩부(110)로 입력한다. 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 추출하여, 상기 추출한 공간정보를 공간정보 코딩부(120)로 송신한다. 여기 서, 다운믹스 채널은 한 개의 채널 또는 두 개의 채널을 가지거나, 또는 다운믹스 명령에 따라 특정 개수의 채널을 가질 수 있다. 이때, 다운믹스 채널의 개수는 설정가능하다. 또한, 선택적으로 다운믹스 오디오 신호는 아티스틱 다운믹스 신호를 이용할 수 있다.The audio signal is N multichannel ( , , ..., If the
코어 코딩부(110)는 채널 다운믹싱부(101)의 출력인 다운믹스 오디오 신호에 대한 코어 코덱 코딩을 수행한다. 코딩된 다운믹스 오디오 신호는 다중화부(130)로 입력된다.The
공간정보 코딩부(120)는 공간정보 생성부(103)로부터 수신한 공간정보의 코딩을 수행한다. 공간정보 코딩부(120)는 PCM 코딩부, 디퍼렌셜 코딩부, 허프만 코딩부를 포함할 수 있다. 여기서, 공간정보의 코딩 방법은 설정에 따라서 여러 가지 방법이 가능하고, 공간정보 코딩부(120)에서 수행한 공간정보 코딩 방법에 대한 정보를 디코딩 장치(2)로 전송한다. The spatial
다중화부(130)는 코딩된 다운믹스 오디오 신호와 코딩된 공간정보를 다중화하여 비트스트림을 생성하고, 생성한 비트스트림을 디코딩 장치(2)로 송신한다. 이때, 비트스트림은 코어 코덱 비트스트림과 공간정보 비트스트림을 포함할 수 있다.The
디코딩 장치(2)는 역다중화부(demultiplexing part:140), 코어 디코딩부(core decoding part:150), 공간정보 디코딩부(spatial information decoding part:160) 및 멀티채널 생성부(multi-channel generation part:170)를 포함할 수 있다. 또한, 공간정보 디코딩부(160)는 식별자 추출부, PCM 디코딩부, 허프만 디코딩부, 디퍼렌셜 디코딩부를 포함할 수 있다.The
역다중화부(140)는 비트스트림을 수신하여, 수신된 비트스트림을 코딩된 다운믹스 오디오 신호와 코딩된 공간정보로 역다중화를 수행할 수 있다.The
코어 디코딩부(150)는 역다중화부(140)로부터 코딩된 다운믹스 오디오 신호를 수신하고, 상기 코딩된 다운믹스 오디오 신호의 디코딩을 수행하여 다운믹스 오디오 신호를 생성한다. 예를 들어, 코딩 장치(1)에서 멀티채널 오디오 신호를 다운믹스 할 때, 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호로 다운믹스한 경우에는 디코딩 장치(2)에서 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호가 출력되는 것이 가능하다. 다만, 본 발명의 실시예에서는 다운믹스 오디오 신호를 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호를 기준으로 설명하나, 본 발명은 이에 한정되지 않고, 다운믹스 채널 오디오 신호의 수에 관계없이 적용가능하다. 이때, 디코딩 장치(2)가 멀티채널 오디오 신호를 디코딩하지 못하는 경우에는 코딩된 다운믹스 오디오 신호의 디코딩을 수행하여 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호로 직접 출력할 수 있는데, 이는 오디오 신호의 디코딩 장치들 간에 호환성을 위해서 필요한 것이다.The
공간정보 디코딩부(160)는 역다중화부(140)로부터 코딩된 공간정보를 수신하고, 코딩된 공간정보의 디코딩을 수행하여 공간정보를 생성한다. 이때, 수신한 비트스트림에서 공간정보 코딩 방법을 나타내는 식별자를 추출하고, 상기 식별자에 따라 적어도 하나 이상의 디코딩 방법 중에 특정 디코딩 방법이 선택되어 공간정보를 디코딩하여 공간정보를 생성한다.The spatial
멀티채널 생성부(170)는 코어 디코딩부(150)로부터 다운믹스 신호를 수신하 고, 공간정보 디코딩부(160)로부터 공간정보를 수신하여, 멀티채널 오디오 신호를 생성하고, 생성된 멀티채널 오디오 신호를 출력한다. The
이와 같이, 본 발명은 멀티채널 오디오 신호를 직접 전송하는 대신에 스테레오 채널 오디오 신호 또는 모노 채널 오디오 신호로 다운믹스하여 전송하고, 멀티채널 오디오 신호의 공간정보를 함께 전송하는 방식을 통해서 신호의 압축 및 전송 효율의 관점에서 매우 우수한 방식이다.As described above, the present invention provides a method of compressing a signal through a method of downmixing a stereo channel audio signal or a mono channel audio signal instead of directly transmitting the multichannel audio signal, and transmitting spatial information of the multichannel audio signal together. It is a very good way in terms of transmission efficiency.
도 2a는 본 발명에 따른 공간정보 코딩부의 일 실시예를 도시한 것이다. 도 2a를 참조하면, 공간정보 코딩부(120)는 PCM 코딩부(210), 디퍼렌셜 코딩부(220), 허프만 코딩부(230)를 포함할 수 있다. 2A illustrates an embodiment of a spatial information coding unit according to the present invention. Referring to FIG. 2A, the spatial
PCM 코딩부(210)는 그룹 PCM 코딩부(211) 및 파일럿 코딩부(213)를 포함할 수 있다. 그룹 PCM 코딩부(211)는 수신된 공간정보를 그룹 단위로 그룹 PCM 코딩을 수행하여 그룹 PCM 코딩된 신호들을 다중화부(130)로 출력한다. 파일럿 코딩부(213)는 파일럿 값을 결정하고, 결정된 파일럿 값을 이용하여 각 데이터의 파일럿 코딩을 수행하여, 파일럿 값과 파일럿 코딩된 인덱스들인 파일럿 차이값들을 출력한다. 여기서, 그룹 PCM 코딩부(211)와 파일럿 코딩부(213)는 예를 들어 데이터 세트의 특성에 따라 선택적으로 동작한다. 이하, 파일럿 코딩부(212)에서 수행하는 파일럿 코딩 과정에 대해서 상세히 설명하면 다음과 같다.The
첫째, 전송하고자 하는 복수 개의 데이터를 포함한 데이터 세트(set)에 대한 파일럿 값(P)을 결정한다. 이때, 데이터 세트는 적어도 하나 이상으로 구성된다.First, a pilot value P for a data set including a plurality of data to be transmitted is determined. At this time, the data set is composed of at least one.
둘째, 각 데이터와 파일럿 값과의 차이를 나타내는 파일럿 차이값을 생성한 다. 이를 수식으로 나타내면 수학식 1과 같다.Second, a pilot difference value representing the difference between each data and the pilot value is generated. This is represented by the equation (1).
여기서, 상기 x[n]은 데이터, P는 파일럿 값, d2[n]는 파일럿 차이값, N은 데이터의 개수를 의미한다. Here, x [n] is data, P is a pilot value, d2 [n] is a pilot difference value, and N is the number of data.
셋째, 파일럿 차이값과 파일럿 값을 전송한다. 여기서, 파일럿 값은 평균값, 중간값, 최빈값 등이 사용될 수 있으나, 어떤 임의의 값이든지 선택할 수 있으며, 코딩 과정에서 결정하여 디코딩 장치로 전송하는 값이다. 또한, 코딩 과정에서 파일럿 값으로 가능한 여러 값들을 적용하여 코딩을 수행한 뒤, 가장 효율적으로 코딩될 때의 값으로 선택하는 것도 가능하다. 관련하여, 파일럿 코딩에서 파일럿 값 자체에 대한 전송을 위해서 비트가 필요하므로, 파일럿 값 코딩을 위한 별도의 테이블을 만들어 사용할 수도 있다. 또는, 파일럿 값을 하나의 값으로 고정함으로써 전송하지 않는 방법을 통해 파일럿 값 전송에 필요한 비트를 최소화하는 것이 가능하다.Third, the pilot difference value and the pilot value are transmitted. Here, the pilot value may be an average value, a median value, a mode value, or the like, but any arbitrary value may be selected, which is determined in the coding process and transmitted to the decoding apparatus. In addition, after coding is performed by applying various possible values as pilot values in the coding process, it is possible to select a value when coding is most efficiently. In this regard, since bits are required for transmission of the pilot value itself in pilot coding, a separate table for pilot value coding may be created and used. Alternatively, by fixing the pilot value to one value, it is possible to minimize the bits necessary for transmitting the pilot value through a method not transmitting.
파일럿 차이값과 파일럿 값을 수신한 디코딩 장치에서는 다음 수학식 2에 의해서 데이터를 복원하는 것이 가능하다.In the decoding apparatus having received the pilot difference value and the pilot value, it is possible to recover data by the following equation (2).
여기서, y[n]는 복원된 데이터를 의미한다. Here, y [n] means restored data.
디퍼렌셜 코딩부(220)는 주파수 디퍼렌셜 코딩부(221), 전방위 타임 디퍼렌셜 코딩부(223), 및 후방위 타임 디퍼렌셜 코딩부(225)를 포함할 수 있다. 주파수 디퍼렌셜 코딩부(221)는 공간정보의 주파수 디퍼렌셜 코딩을 수행하는데, 이는 같은 데이터 세트 안에서 이웃 주파수 사이의 디퍼렌셜 코딩을 수행한다.The
전방위 타임 디퍼렌셜 코딩부(223)는 공간정보에 대한 타임 디퍼렌셜 코딩을 수행하는데, 특히, 시간적으로 이웃하는 데이터 세트 사이에서 전방위(forward)로 디퍼렌셜 코딩을 수행한다. 후방위 타임 디퍼렌셜 코딩부(225)는 공간정보에 대한 타임 디퍼렌셜 코딩을 수행하는데, 이는 시간적으로 이웃하는 데이터 세트 사이에서 후방위(backward)로 디퍼렌셜 코딩을 수행한다. 여기서, 주파수 디퍼렌셜 코딩부(221), 전방위 타임 디퍼렌셜 코딩부(223), 및 후방위 타임 디퍼렌셜 코딩부(225)는 선택적으로 동작될 수 있다.The omnidirectional time
또한, 디퍼렌셜 코딩부(220)에서 수행하는 디퍼렌셜 코딩의 경우, 차이를 계산하는 기준값이 시간 또는 주파수에서의 이웃 샘플이 된다. 이때, 타임 디퍼렌셜 코딩이 사용되는 경우는 각 샘플에 대응하는 기준 샘플이 항시 존재할 수 있으나, 주파수 디퍼렌셜 코딩의 경우, 첫번째 샘플은 디퍼런스할 기준값이 존재하지 않기 때문에 디퍼렌셜 코딩의 실시에 어려움이 있다. 따라서, 주파수 디퍼렌셜 코딩시의 첫번째 샘플에 대해서는 디퍼렌셜 코딩을 실시하지 않고, 원래 샘플 그대로를 선형 PCM 샘플 형태로 허프만 코딩부(230)로 출력한다.In addition, in the case of differential coding performed by the
허프만 코딩부(230)는 파일럿 코딩부(213)에서 출력된 파일럿 값과 파일럿 차이값, 디퍼렌셜 코딩부(220)에서 출력된 디퍼렌셜 코딩된 공간정보에 대해 엔트로피 코딩(entropy coding)을 수행한다. 엔트로피 코딩의 수행은 전송 데이터의 압축 효율을 높이기 위함이다. 본 실시예에서는 엔트로피 코딩(entropy coding)의 일 실시예로 허프만 코딩을 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실이다. 관련하여, 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행하지 않고 파이럿 값과 파일럿 차이값을 다중화부(130)에 전송할 수 있다.The
상기 허프만 코딩부(230)는 1차원 허프만 코딩부(231), 주파수 페어 2차원 허프만 코딩부(232), 및 타임 페어 2차원 허프만 코딩부(235)를 포함할 수 있다. 1차원 허프만 코딩부(231)는 수신된 샘플을 한 샘플씩 허프만 코딩을 수행하며, 주파수 페어 2차원 허프만 코딩부(233)는 수신된 샘플을 주파수 쌍으로 두 샘플씩 묶어서 허프만 코딩을 수행하며, 타임 페어 2차원 허프만 코딩부(235)는 수신된 샘플을 타임 쌍으로 두 샘플씩 묶어서 허프만 코딩을 수행한다. 허프만 코딩부(230)에서 허프만 코딩된 신호들을 출력하면, 다중화부(130)에서 다중화를 수행하고, 다중화된 신호를 출력한다. 이때, 다중화된 신호는 비트스트림이 가능하다. 관련하여, 허프만 코딩부(230)에서의 허프만 코딩시 주파수 디퍼렌셜 코딩의 첫번째 샘플은 다른 디퍼렌셜 코딩된 샘플들과는 통계적 특성이 다르므로, 디퍼렌셜 코딩된 샘플들과 다른 허프만 테이블을 사용하여 코딩할 수 있다. 이는 파일럿 코딩시에 생성된 출력인 파일럿 값에 대해서도 마찬가지이다.The
이하, 공간정보 코딩부(120)에서 공간정보를 코딩한 방법에 대한 정보를 나타내는 식별자에 대해 예를 들어 설명하도록 한다. 이때, 식별자(flag)는 비트스트림에 나타내기 위해 비트가 필요하다.Hereinafter, an identifier indicating information on a method of coding spatial information by the spatial
공간정보 코딩부(120)의 입력(IN1)인 공간정보를 PCM 코딩을 수행할 것인지, 또는 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. PCM 코딩과 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제1식별자(201)라 명명한다. 제1식별자(201)는 예를 들어, "bsPcmCoding"로 나타낼 수 있다.It is possible to select whether to perform PCM coding or differential coding on the spatial information input IN1 of the spatial
PCM 코딩을 수행하는 것으로 선택되면, 상기 PCM 코딩 중 그룹 PCM 코딩을 수행할 것인지, 파일럿 코딩을 수행할 것인지 선택할 수 있다. 그룹 PCM 코딩과 파일럿 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제2식별자(202)라 명명한다. 제2식별자(202)는 예를 들어, "bsPilotCoding"로 나타낼 수 있다.If it is selected to perform PCM coding, it is possible to select whether to perform group PCM coding or pilot coding among the PCM coding. An identifier including information on a coding method selected between group PCM coding and pilot coding is called a
PCM 코딩과 디퍼렌셜 코딩 중 디퍼렌셜 코딩을 수행하는 것으로 선택되면, 상기 디퍼렌셜 코딩 중 주파수 디퍼렌셜 코딩을 수행할 것인지, 타임 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. 주파수 디퍼렌셜 코딩과 타임 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제3식별자(203)라 명명한다. 제3식별자(203)는 예를 들어, "bsDiffType"로 나타낼 수 있다.If it is selected to perform differential coding among PCM coding and differential coding, it is possible to select whether to perform frequency differential coding or time differential coding among the differential coding. An identifier including information on a coding method selected among frequency differential coding and time differential coding is called a
또한, 디퍼렌셜 코딩 중 타임 디퍼렌셜 코딩을 수행하는 것으로 선택되면, 타임 디퍼렌셜 코딩 중 전방위 타임 디퍼렌셜 코딩을 수행할 것인지, 후방위 타임 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. 전방위 타임 디퍼렌셜 코딩과 후방위 타임 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제4식별자(204)라 명명한다. 제4식별자(204)는 예를 들어, "bsDiffTimeDirection"로 나타낼 수 있다.In addition, if it is selected to perform time differential coding among the differential coding, it is possible to select whether to perform the omnidirectional time differential coding or the backward position differential coding among the time differential coding. An identifier including information about a coding method selected among omnidirectional time differential coding and backward time differential coding is called a
그리고, 파일럿 코딩부(213)에서 코딩된 신호들과 디퍼렌셜 코딩부(220)에서 코딩된 신호들의 전송 효율을 높이기 위해서 허프만 코딩을 수행하는 경우를 살펴본다.In addition, a case in which Huffman coding is performed to increase transmission efficiency of signals coded by the
허프만 코딩부(230)에서 수신된 신호를 한 샘플씩 허프만 코딩을 하는 1차원 허프만 코딩을 수행할 것인지, 두 샘플씩 묶어서 허프만 코딩을 하는 2차원 허프만 코딩을 수행할 것인지 선택할 수 있다. 1차원 허프만 코딩과 2차원 허프만 코딩 중 선택된 코딩 방법에 대한 정보인 코딩 스킴을 포함하는 식별자를 제5식별자(205)라 명명한다. 제5식별자는 예를 들어, "bsCodingScheme"로 나타낼 수 있다.The
상기 1차원 허프만 코딩과 2차원 허프만 코딩 중 2차원 허프만 코딩을 수행한 것으로 선택되면, 2차원 허프만 코딩을 주파수 페어 2차원 허프만 코딩을 수행할 것인지, 타임 페어 2차원 허프만 코딩을 수행할 것인지 선택한다. 주파수 페어 2차원 허프만 코딩과 타임 페어 2차원 허프만 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제6식별자(206)라 명명한다. 제6식별자(206)는 예를 들어, "bsPairing"로 나타낼 수 있다.If it is selected that two-dimensional Huffman coding is performed between the one-dimensional Huffman coding and the two-dimensional Huffman coding, select whether to perform frequency pair two-dimensional Huffman coding or time pair two-dimensional Huffman coding. . An identifier including information on a coding method selected among frequency pair two-dimensional Huffman coding and time pair two-dimensional Huffman coding is called a
따라서, 코딩 장치(1)에서는 상기 여러 가지 코딩 방법 중에서 선택하여 코딩을 수행하는 것이 가능하다. 이때, 코딩 장치(1)는 선택된 코딩 방법들을 나타내는 식별자를 생성하며, 상기 생성된 식별자에 대한 정보를 비트스트림에 삽입하여 디코딩 장치로 전송하게 된다. 디코딩 장치(2)에서는 코딩 방법들을 나타내는 상기 식별자를 확인하여, 디코딩 방법을 결정하게 된다. 이때, 코딩 장치(1)에서는 상기 여러 가지 코딩 방법 중에서 입력된 공간정보를 코딩하는데 가장 유리한 방법을 선택하여 사용할 수 있다.Therefore, in the
예를 들어, 입력 데이터의 특성에 따라서 파일럿 코딩과 디퍼렌셜 코딩 중 어느 방법이 더 효율적인지가 달라지므로 코딩 장치(1)의 선택에 따라서 상기 두 코딩 방법 중 하나를 사용할 수 있다. 좀 더 상세히 설명하면, 파일럿 코딩 방법은 파일럿 값 정보를 전송해야하기 때문에 디퍼렌셜 코딩 방법과 비교하여, 전송되는 데이터의 개수가 1개 늘어난다. 이는, 디퍼렌셜 코딩을 수행하여 전송해야 하는 데이터의 개수가 N개이면, 파일럿 코딩을 수행하여 전송해야 하는 데이터의 개수는 N+1개가 된다. 이때, 상기 N값이 큰 경우는 파일럿 코딩을 수행하는 것이 디퍼렌셜 코딩을 수행하는 것보다 효율적일 수 있고, 상기 N값이 작은 경우는 파일럿 코딩을 수행하는 이득보다 파일럿 값을 전송하는데 필요한 비트 수가 커서, 디퍼렌셜 코딩을 수행하는 것이 파일럿 코딩을 수행하는 것보다 효율적일 수 있다. For example, it is possible to use one of the two coding methods according to the selection of the
도 2b는 발명에 따른 공간정보 디코딩부의 일 실시예를 도시한 것이다. 도 2b를 참조하면, 공간정보 디코딩부(160)는 PCM 디코딩부(260), 허프만 디코딩부(270), 및 디퍼렌셜 디코딩부(280)를 포함할 수 있다. 또한, 공간정보 디코딩부(160)는 식별자 추출부(250)를 더 포함할 수 있다.2B illustrates an embodiment of a spatial information decoding unit according to the present invention. Referring to FIG. 2B, the spatial
식별자 추출부(250)는 비트스트림(IN2)으로부터 식별자를 추출한다. 식별자 추출부(250)에서 추출하는 식별자는 예를 들어, 전술한 제1식별자 ~ 제6식별자이다. 상기 식별자는 코딩 방법에 대한 정보를 포함하고 있으므로 식별자를 확인하여 디코딩 방법을 결정한다. 디코딩 방법이 결정되면 공간정보 디코딩부(160)에서는 결정된 디코딩 방법에 따라 상기 코딩된 공간정보의 디코딩을 수행하게 된다. 관련하여, 디코딩 장치(2)의 역다중화부(140)에서 식별자를 추출할 수도 있다. The
PCM 디코딩부(260)는 그룹 PCM 디코딩부(261) 및/또는 파일럿 디코딩부(263)를 포함할 수 있다. 그룹 PCM 디코딩부(261)는 그룹 PCM 코딩되어 전송된 코딩된 공간정보의 그룹 PCM 디코딩을 수행하여 공간정보(OUT2)를 생성하고, 파일럿 디코딩부(263)는 파일럿 코딩되어 전송된 파일럿 값과 파일럿 차이값의 파일럿 디코딩을 수행하여 공간정보(OUT2)를 생성한다. 이때, 파일럿 디코딩부(263)로 입력되는 신호인 파일럿 값과 파일럿 차이값은 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행한 경우에는 허프만 디코딩부(270)에서 허프만 디코딩 후의 출력값인데 반해, 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행하지 않은 경우에는 역다중화부(140)에서 전송된 값일 수 있다. The
허프만 디코딩부(270)는 1차원 허프만 디코딩부(271), 주파수 페어 2차원 허프만 디코딩부(273), 및 타임 페어 2차원 허프만 디코딩부(275)를 포함할 수 있다. 1차원 허프만 디코딩부(271)는 1차원 허프만 코딩되어 전송된 코딩된 공간정보를 1차원 허프만 디코딩을 수행하고, 주파수 페어 2차원 허프만 디코딩부(273)는 주파수 페어로 2차원 허프만 코딩되어 전송된 코딩된 공간정보를 주파수 페어로 2차원 허프만 디코딩을 수행하고, 타임 페어 2차원 허프만 디코딩부(275)는 타임 페어로 2차원 허프만 코딩되어 전송된 코딩된 공간정보를 타임 페어로 2차원 허프만 디코딩을 수행한다. The
허프만 디코딩부(270)에서 출력된 신호는 식별자에 따라서 파일럿 디코딩부(263)에 입력되어 파일럿 디코딩을 수행하거나, 디퍼렌셜 디코딩부(280)에 입력되어 디퍼렌셜 디코딩을 수행하여 공간정보를 생성하게 된다. 이때, 허프만 디코딩부(270)에서 출력된 신호는 코딩 장치(1)에서 파일럿 코딩이 수행된 경우에는 파일럿 값과 파일럿 차이값이 될 수 있고, 코딩 장치(1)에서 디퍼렌셜 코딩이 수행된 경우에는 디퍼렌셜값이 될 수 있다.The signal output from the
파일럿 디코딩부(263)는 수신된 신호로부터 파일럿 값을 추출하는 파일럿 추출부를 포함할 수 있다. 또한, 파일럿 디코딩부(263)는 허프만 디코딩부(270)로부터 수신한 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 생성한다. 예를 들어, 코딩 장치(1)에서 파일럿 코딩과 허프만 코딩을 수행하여 공간정보 비트스트림이 전송된 경우, 디코딩 장치(2)에서는 파일럿 값을 위한 허프만 디코딩을 수행하고, 파일럿 차이값을 위한 허프만 디코딩을 수행한 후, 파일럿 값과 파일럿 차이값을 이용하여 파일럿 디코딩을 수행한다. 이때, 어떤 디코딩을 수행할지 여부에 대한 정보는 추출된 식별자를 통해서 결정되고, 파일럿 값은 1차원 허프만 디코딩된 값이다.The
디퍼렌셜 디코딩부(280)는 허프만 디코딩부(270)에서 허프만 디코딩되어 출력된 신호를 식별자에 따라 디퍼렌셜 디코딩 방법 중 하나를 수행하여 공간정보를 생성하고, 상기 생성된 공간정보를 출력하는데, 주파수 디퍼렌셜 디코딩부(281), 전방위 타임 디퍼렌셜 디코딩부(283), 및 후방위 타임 디퍼렌셜 디코딩부(285)를 포함할 수 있다. 주파수 디퍼렌셜 디코딩부(281)는 주파수 디러렌셜 디코딩을 수행 하고, 전방위 타임 디퍼렌셜 디코딩부(283)는 전방위 타임 디퍼렌셜 디코딩을 수행하고, 후방위 타임 디퍼렌셜 디코딩부(285)는 후방위 타임 디퍼렌셜 디코딩을 수행한다.The
이하, 도 3 ~ 도 9는 본 발명에 따른 오디오 신호의 신택스들을 설명하기 위한 도면으로, 본 발명에서 'XXX'는 데이터 타입의 값으로 대체될 수 있다. 3 to 9 are diagrams for describing syntaxes of an audio signal according to the present invention. In the present invention, 'XXX' may be replaced with a value of a data type.
도 3은 본 발명에 따른 오디오 신호의 EcData() 신택스를 도시한 것이다. EcData() 신택스는 공간정보 프레임에서 CLD, ICC, CPC, ACG 등의 각 공간정보별로 인코딩된 모든 데이터 세트를 포함하는 비트스트림내의 요소이다. 또한, EcData() 신택스는 'bsXXXdataMode' 필드(310), 'bsDataPairXXX' 필드(320), 'bsQuantCoarseXXX' 필드(330), 'bsFreqResStrideXXX' 필드(340) 등을 포함하는데, 이하에서는 상기 필드들을 위주로 살펴보도록 한다.3 illustrates an EcData () syntax of an audio signal according to the present invention. The EcData () syntax is an element in the bitstream that includes all data sets encoded for each spatial information such as CLD, ICC, CPC, ACG, etc. in the spatial information frame. In addition, the EcData () syntax includes a 'bsXXXdataMode' field 310, a 'bsDataPairXXX'
'bsXXXdataMode' 필드(310)는 데이터 세트에 대한 특정 데이터 모드의 정보를 포함하는 요소이다. 'bsXXXdataMode' 필드(310)로부터 EcData()내에 존재하는 데이터 세트의 개수를 얻을 수 있다. 이때, 아래 표 1은 'bsXXXdataMode' 필드(310)의 일 예를 나타낸 것이으로, 'bsXXXdataMode' 필드(310)가 '3'인 경우에만 실제 데이터 세트가 전송되므로 해당 데이터 세트의 개수를 계산할 수 있다.The 'bsXXXdataMode' field 310 is an element that contains information of a specific data mode for a data set. The number of data sets existing in EcData () may be obtained from the 'bsXXXdataMode' field 310. In this case, Table 1 below shows an example of the 'bsXXXdataMode' field 310. Since the actual data set is transmitted only when the 'bsXXXdataMode' field 310 is '3', the number of corresponding data sets can be calculated. .
표 1을 참조하면, 'bsXXXdataMode' 필드 값이 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 'bsXXXdataMode' 필드 값이 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 'bsXXXdataMode' 필드 값이 '2'인 경우는 파라미터 값들을 보간(interpolate) 하며, 'bsXXXdataMode' 필드 값이 '3'인 경우는 손실 없이 코딩된 파라미터 값들을 읽는다. 관련하여, 상기 데이터가 신규 전송인 경우는 'bsXXXdataMode' 필드 값이 '3'인 경우를 의미하고, 'bsXXXdataMode' 필드(310)는 2비트로 표현할 수 있다.Referring to Table 1, if the value of the 'bsXXXdataMode' field is '0', the default parameter values are set. If the value of the 'bsXXXdataMode' field is '1', the previous parameter values are kept unchanged. If the field value is '2', the parameter values are interpolated. If the 'bsXXXdataMode' field value is '3', the coded parameter values are read without loss. In this regard, when the data is a new transmission, it means that the value of the 'bsXXXdataMode' field is '3', and the 'bsXXXdataMode' field 310 may be represented by 2 bits.
'bsDataPairXXX' 필드(320)는 데이터 페어 여부를 나타내는 정보를 포함하며, 두 개의 연속하는 파라미터 서브셋(two subsequent parameter subsets)이 페어로서 함께(jointly) 코딩되었는지를 의미한다. 상기 'bsDataPairXXX' 필드(320)를 해독하면, 수신한 데이터가 페어로 구성되어 있는지를 확인할 수 있다. 이때, 'bsDataPairXXX' 필드(320)는 1비트로 표현할 수 있다. 관련하여, 본 발명에서는 파라미터 서브셋(parameter subsets)은 데이터 세트와 같은 의미로 사용됨을 밝혀둔다.The 'bsDataPairXXX'
'bsQuantCoarseXXX' 필드(330)는 특정 데이터가 거친 양자화(coarse quantization)가 적용되었는지 여부를 나타내는 거친 양자화(coarse quantization) 정보를 포함한다. 아래 표 2는 'bsQuantCoarseXXX' 필드(330)의 일 예를 나타낸 것이다.The 'bsQuantCoarseXXX'
표 2를 참조하면, 'bsQuantCoarseXXX' 필드 값이 '0'인 경우는 전해상도 양자화(full quantizer resolution)을 가지고 코딩된 파라미터 값들을 의미하며, 'bsQuantCoarseXXX' 필드 값이 '1'인 경우는 반해상도 양자화(half quantizer resolution)을 가지고 코딩된 파라미터 값들을 의미할 수 있다. 또한, 'bsQuantCoarseXXX' 필드(330)는 1비트로 표현할 수 있다.Referring to Table 2, when the value of the 'bsQuantCoarseXXX' field is '0', the parameter values are coded with full quantizer resolution, and the half resolution when the value of the 'bsQuantCoarseXXX' field is '1'. It may refer to parameter values coded with half quantizer resolution. In addition, the 'bsQuantCoarseXXX'
'bsFreqResStrideXXX' 필드(340)는 파라미터 밴드들(parameter bands)이 XXX 데이터의 엔트로피 코딩(entropy coding)을 위해 그룹화되었는지를 나타내는 정보를 포함하며, XXX 데이터가 어떻게 그룹화되었는지를 나타낼 수 있다. 아래 표 3은 'bsFreqResStrideXXX' 필드(340)에 따른 pbStride의 일 예를 나타낸 것이다.The 'bsFreqResStrideXXX' field 340 includes information indicating whether parameter bands are grouped for entropy coding of XXX data and may indicate how XXX data is grouped. Table 3 below shows an example of pbStride according to the 'bsFreqResStrideXXX' field 340.
표 3을 참조하면, 'bsFreqResStrideXXX' 필드 값이 '0'인 경우는 pbStride가 '1'로 노 그룹핑(no grouping)을 의미하고, 'bsFreqResStrideXXX' 필드 값이 '1'인 경우는 pbStride가 '2'를 의미하고, 'bsFreqResStrideXXX' 필드 값이 '2'인 경우는 pbStride가 '5'를 의미하고, 'bsFreqResStrideXXX' 필드 값이 '3'인 경우는 pbStride가 '10'을 의미할 수 있다. 관련하여, 'bsFreqResStrideXXX' 필드(340)는 데이터밴드(dataBand) 수를 결정하는 하나의 요인이 될 수 있고, 2비트로 표현할 수 있다. Referring to Table 3, if the value of the 'bsFreqResStrideXXX' field is '0', pbStride is '1', which means no grouping. If the value of the 'bsFreqResStrideXXX' field is '1', pbStride is '2'. ',' BsFreqResStrideXXX 'field value' 2 'means pbStride' 5 ',' bsFreqResStrideXXX 'field value' 3 'may mean pbStride' 10 '. In this regard, the 'bsFreqResStrideXXX' field 340 may be one factor for determining the number of data bands and may be represented by 2 bits.
이후 데이트 밴드들(dataBands)을 구하는 방법은 수학식 3과 같다.Since the data bands (dataBands) to obtain the equation (3).
또한, EcDataPair()는 bsDataPairXXX 식별자에 따라 디코딩할 데이터 세트의 페어 여부를 판단하여, 하나 혹은 두 개의 데이터 세트를 디코딩한다. 또한, 데이트 세트가 페어인 경우, 2번째 데이터 세트에 대한 'bsXXXQuantCoarse'와 'bsFreqResStrideXXX' 값은 첫번째 데이터 세트에 대한 값으로 대체된다.Also, EcDataPair () determines whether to pair a data set to be decoded according to a bsDataPairXXX identifier, and decodes one or two data sets. Also, if the data set is a pair, the 'bsXXXQuantCoarse' and 'bsFreqResStrideXXX' values for the second data set are replaced with the values for the first data set.
도 4a, 도 4b는 본 발명에 따른 오디오 신호의 EcDataPair() 신택스를 도시한 것이다. EcDataPair() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets)을 포함하는 요소이다. 또한, EcDataPair() 신택스는 'bsPcmCodingXXX' 필드(410), 'bsPilotCodingXXX' 필드(420) 등을 포함하는데, 이하에서는 상기 필드들을 위주로 살펴보도록 한다.4A and 4B illustrate the EcDataPair () syntax of an audio signal according to the present invention. The EcDataPair () syntax is an element that contains one or two temporarily subsequent parameter subsets given as parameters in a SAC frame. In addition, the EcDataPair () syntax includes a 'bsPcmCodingXXX'
'bsPcmCodingXXX' 필드(410)는 코딩 장치에서 PCM 코딩이 적용되었는지 여부를 나타내는 정보를 포함하는 제1식별자이다.The 'bsPcmCodingXXX'
상기 'bsPcmCodingXXX' 필드(410) 해독 결과, 코딩 장치에서 PCM 코딩이 적용되고, 데이터 밴드를 나타내는 dataBands가 특정값보다 큰지를 확인한다. 이때, 상기 특정값은 파일럿 코딩과 디퍼렌셜 코딩 중 어떤 코딩 방법을 선택적으로 사용할지를 나타내는 임계값이 될 수 있다. 또한, 상기 특정 값은 4로 할 수 있으나, 본 발명이 상기 특정 값을 4로 한정하지는 않는다. 상기 확인결과, 코딩 장치에서 공간정보를 코딩할 때, PCM 코딩이 적용되었으며, dataBands가 특정값 이상일 경우 'bsPilotCodingXXX' 필드(420)를 해독한다. 'bsPilotCodingXXX' 필드(420)는 하나 또는 두 개의 임시적으로 연속적인 데이터 세트에 파일럿 코딩(pilot-based coding)이 적용되었는지를 나타내는 제2식별자이다.As a result of decoding the 'bsPcmCodingXXX'
도 5a, 도 5b는 본 발명에 따른 오디오 신호의 DiffHuffData() 신택스를 도시한 것이다. DiffHuffData() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets)을 포함하는 요소이다. 이때, SAC 프레임에는 디퍼렌셜 코딩 또는 허프만 코딩의 조합을 이용하여 코딩된 양자화된 값들(quantized values)을 포함할 수 있다.5A and 5B illustrate the DiffHuffData () syntax of an audio signal according to the present invention. The DiffHuffData () syntax is an element that contains one or two temporarily subsequent parameter subsets given as parameters in a SAC frame. In this case, the SAC frame may include quantized values coded using a combination of differential coding or Huffman coding.
본 발명에서 'bsCodeW' 필드는 허프만 코드워드(huffman code word) 또는 이스케이프 코드(escape code)를 나타낸다. 'bsCodeW' 필드(510)는 허프만 테이블hcodPilot_XXX 정보를 포함하는 허프만 코드워드이다. hcodPilot_XXX에 따라 1차원 허프만 디코딩을 수행하여 파일럿 값을 추출할 수 있다. hcodPilot_XXX는 XXX값에 의해 결정되어지는 데이터 타입의 파일럿 코딩을 위해 사용되는 1차원 허프만 코드 로, 공간정보를 코딩하는 경우 파일럿 코딩이 적용되면 파일럿 값의 코딩을 위해 적용된다. 여기서, hcodPilot_XXX 정보를 포함하는 'bsCodeW' 필드(510)는 1..x비트로 표현할 수 있다.In the present invention, the 'bsCodeW' field indicates a Huffman code word or an escape code. The 'bsCodeW'
'bsDiffType' 필드는 하나 또는 두 개의 임시적으로 연속적인 데이트 세트(temporally successive data sets)가 주파수 방향 또는 타임 방향으로의 디퍼렌셜 코딩인지를 나타내는 정보의 제3식별자이다. 'bsDiffType' 필드는 1 또는 2비트로 표현할 수 있다. 여기서, 먼저 데이터가 페어인지를 나타내는 페어 식별자인 pairFlag 또는 allowDiffTimeBackFlag를 확인하여, 데이터 세트가 페어이거나 후방위 타임 디퍼렌셜 코딩이 수행된 경우에는 'bsDiffType[0]' 필드(520)를 해독한다. 이후, pairFlag를 통해 데이터 세트가 페어인 제1조건과, bsDiffType[0]==DIFF_FREQ이거나 allowDiffTimeBackFlag를 통해 데이터 세트가 후방위 타임 디퍼렌셜 코딩이 수행된 경우라는 제2조건을 모두 만족하면 'bsDiffType[1]' 필드(530)를 해독한다.The 'bsDiffType' field is a third identifier of information indicating whether one or two temporarily successive data sets are differential coding in the frequency direction or the time direction. The 'bsDiffType' field may be represented by 1 or 2 bits. Here, first, pairFlag or allowDiffTimeBackFlag, which is a pair identifier indicating whether the data is a pair, is checked. When the data set is a pair or after backward time differential coding is performed, the 'bsDiffType [0]' field 520 is decoded. Subsequently, if both of the first condition that the data set is paired through pairFlag and the second condition that bsDiffType [0] == DIFF_FREQ or the second condition that the data set is backward-differentiated time differential coding are performed through allowDiffTimeBackFlag are met, 'bsDiffType [1]. ] '
'bsCodingScheme' 필드(540)는 코딩 장치에서 1차원 허프만 코딩과 2차원 허프만 코딩 중 어느 코딩이 사용되었는지를 결정하는 코딩 스킴의 정보를 포함하는 제5식별자이며, 1비트로 표현할 수 있다. 표 4는 'bsCodingScheme' 필드(540)의 일 예를 나타낸 것이다. The 'bsCodingScheme'
표 4를 참조하면, 'HUFF 1D' 값이 '0'이면 코딩 장치에서 1차원 허프만 코딩이 수행된 경우를 나타내고, 'HUFF 2D' 값이 '1'이면 코딩 장치에서 2차원 허프만 코딩이 수행된 경우를 나타낼 수 있다.Referring to Table 4, when the 'HUFF 1D' value is '0', it indicates that one-dimensional Huffman coding is performed in the coding apparatus. When the 'HUFF 2D' value is '1', two-dimensional Huffman coding is performed in the coding apparatus. It may indicate a case.
여기서, 제5식별자인 코딩 스킴에 따라 파일럿 차이값 추출하되, 상기 코딩 스킴이 1차원 허프만 코딩이면 1차원 허프만 디코딩을 수행하고, 데이터 세트가 페어이면 1차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출할 수 있다.Here, the pilot difference value is extracted according to the coding scheme of the fifth identifier. If the coding scheme is one-dimensional Huffman coding, one-dimensional Huffman decoding is performed. Can be extracted.
bsCodingScheme==HUFF_1D이 아닌 경우, 즉 bsCodingScheme==HUFF_2D인 경우 pairFlag를 확인하여 데이터가 페어이면 'baPairing' 필드(550)를 해독한다. 상기 'baPairing' 필드(550)는 2차원 허프만 코드(2D huffman code)의 페어링 방향(pairing direction)을 결정하는 정보를 포함하며, 1비트로 표현할 수 있다. 표 5는 'baPairing' 필드(550)의 일 예를 나타낸 것이다.If bsCodingScheme == HUFF_1D, that is, if bsCodingScheme == HUFF_2D, the pairFlag is checked, and if the data is a pair, the 'baPairing'
표 5를 참조하면, FREQ_PAIR는 '0'값을 가지는 경우로 주파수 방향에서 페어링된 경우를 나타내고, TIME_PAIR는 '1'값을 가지는 경우로 타임 방향에서 페어링된 경우를 나타낼 수 있다.Referring to Table 5, FREQ_PAIR has a value of '0' and indicates a case of pairing in the frequency direction, and TIME_PAIR has a value of '1' and may indicate a case of pairing in the time direction.
여기서, 상기 코딩 스킴이 2차원 허프만 코딩이면 2차원 허프만 디코딩을 수행하되, 데이터 세트가 주파수 방향으로 페어링이면, 주파수 페어 2차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출할 수 있다. 또한, 데이트 세트가 주파수 방향으로 페어링이고, 데이터 세트가 페어이면 2차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출할 수 있다. 또한, 코딩 스킴이 2차원 허프만 코딩이면 2차원 허프만 디코딩을 수행하되, 데이터 세트가 타임 방향으로 페어링이면, 타임 페어 2차원 허프만 디코딩을 페어 여부와 상관없이 페어 데이터 세트까지 수행하여 파일럿 차이값을 추출할 수 있다.If the coding scheme is two-dimensional Huffman coding, two-dimensional Huffman decoding may be performed. If the data set is paired in the frequency direction, a pilot difference value may be extracted by performing frequency pair two-dimensional Huffman decoding. In addition, when the data set is paired in the frequency direction and the data set is paired, two-dimensional Huffman decoding may be performed once more to extract a pilot difference value. If the coding scheme is two-dimensional Huffman coding, two-dimensional Huffman decoding is performed. If the data set is paired in the time direction, the pilot difference value is extracted by performing the time pair two-dimensional Huffman decoding up to the pair data set regardless of pairing. can do.
'bsDiffTimeDirection' 필드(560)는 타임 방향에서 디퍼렌셜 코딩(differential coding)이 이전 프레임(predecessor frame) 또는 이후 프레임(successor frame) 중 어느 프레임과 비교하여 계산되었는지를 나타내는 정보를 포함하는데, 1비트로 표현할 수 있다. 표 6은 'bsDiffTimeDirection' 필드(560)의 일 예를 나타낸 것이다.The 'bsDiffTimeDirection'
표 6을 참조하면, BACKWARDS는 '0'값을 가지는 경우로 이전 파라미터 타임 슬롯 데이터와 비교하여 차이를 나타내고, FORWARDS는 '1'값을 가지는 경우로 뒤따르는 파라미터 타임 슬롯 데이터와 비교하여 차이를 나타낼 수 있다.Referring to Table 6, BACKWARDS has a value of '0' and shows a difference compared to previous parameter time slot data, and FORWARDS has a '1' value and shows a difference with subsequent parameter time slot data. Can be.
도 6은 본 발명에 따른 오디오 신호의 HuffData1D() 신택스를 도시한 것이다. 이때, HuffData1D() 신택스는 1차원 허프만 코드를 사용하여 허프만 데이터를 생성하는 과정을 포함할 수 있다.6 illustrates the HuffData1D () syntax of an audio signal according to the present invention. In this case, the HuffData1D () syntax may include generating Huffman data using a one-dimensional Huffman code.
'bsCodeW' 필드(610)는 허프만 테이블 hcodFirstBand_XXX 정보를 포함하는 허프만 코드 워드이다. hcodFirstBand_XXX에 따라 1차원 허프만 디코딩을 수행하여 1차원 허프만 데이터(aHuffData1D[0])를 생성한다. hcodFirstBand_XXX는 XXX값에 의해 결정되는 데이터 타입의 데이터 코딩을 위해 사용되는 1차원 허프만 코드로, 주파수 방향으로 디퍼렌셜 코딩이 적용될 때, 가장 낮은 주파수 밴드(lowest frequency band)의 코딩을 위해 적용된다. 여기서, hcodFirstBand_XXX 정보를 포함하는 'bsCodeW' 필드(610)는 1..x비트로 표현할 수 있다.The 'bsCodeW' field 610 is a Huffman code word containing Huffman table hcodFirstBand_XXX information. One-dimensional Huffman decoding is performed according to hcodFirstBand_XXX to generate one-dimensional Huffman data aHuffData1D [0]. hcodFirstBand_XXX is a one-dimensional Huffman code used for data coding of the data type determined by the XXX value. When differential coding is applied in the frequency direction, hcodFirstBand_XXX is applied for coding of the lowest frequency band. Here, the 'bsCodeW' field 610 including hcodFirstBand_XXX information may be represented by 1..x bits.
'bsCodeW' 필드(620)는 허프만 테이블 hcod1D_XXX_YY 정보를 포함하는 허프만 코드 워드이다. hcod1D_XXX_YY에 따라 1차원 허프만 디코딩을 수행하여 1차원 허프만 데이터(aHuffData1D[i])를 생성한다. hcod1D_XXX_YY는 XXX값에 의해 결정되는 데이터 타입의 데이터 코딩을 위해 사용되는 1차원 허프만 코드이고, YY는 파일럿 코딩 또는 디퍼런스 계산의 방향을 결정한다. 예를 들어, YY가 PC이면 파일럿 코딩이고, YY가 DF이면 주파수 방향의 차이값들, YY가 DT이면 타임 방향의 차이값들을 나타낸다. 또한, hcod1D_XXX_PC와 hcod1D_XXX_DT를 위한 허프만 테이블은 동일할 수 있다. 여기서, hcod1D_XXX_YY 정보를 포함하는 'bsCodeW' 필드(620)는 1..x비트로 표현할 수 있다.The 'bsCodeW' field 620 is a Huffman code word containing Huffman table hcod1D_XXX_YY information. One-dimensional Huffman decoding is performed according to hcod1D_XXX_YY to generate one-dimensional Huffman data aHuffData1D [i]. hcod1D_XXX_YY is a one-dimensional Huffman code used for data coding of a data type determined by XXX value, and YY determines the direction of pilot coding or difference calculation. For example, if YY is PC, pilot coding, if YY is DF, difference values in the frequency direction, and if YY is DT, the difference values in the time direction are represented. In addition, Huffman tables for hcod1D_XXX_PC and hcod1D_XXX_DT may be the same. Here, the 'bsCodeW' field 620 including the hcod1D_XXX_YY information may be represented by 1..x bits.
'bsSign' 필드(630)는 1차원 허프만 코딩된 값의 부호(sign)을 결정하는 것으로 1비트로 표현할 수 있다. 예를 들어, bsSign이 '0'인 경우는 1차원 허프만 코딩된 값이 포지티브(positive)이며, bsSign이 '1'인 경우는 1차원 허프만 코딩된 값이 네거티버(negative)를 나타낼 수 있다.The 'bsSign'
도 7은 본 발명에 따른 오디오 신호의 HuffData2DFreqPair() 신택스를 도시한 것이다. 이때, HuffData2DFreqPair() 신택스는 주파수 방향에서 이웃하는 값들의 페어들을 표현하는 2차원 허프만 코드들(two-dimensional Huffman codes)을 사용하여 생성한 허프만 데이터를 포함할 수 있다.7 illustrates the HuffData2DFreqPair () syntax of an audio signal according to the present invention. In this case, the HuffData2DFreqPair () syntax may include Huffman data generated using two-dimensional Huffman codes representing pairs of neighboring values in the frequency direction.
'bsCodeW' 필드(710)는 허프만 테이블 hcodLavIdx 정보를 포함하는 허프만 코드 워드이다. hcodLavIdx에 따라 1차원 허프만 디코딩을 수행하여 최대값 인덱스(LavIdx)를 생성한다. hcodLavIdx는 LavIdx 데이터 코딩을 위해 사용하는 1차원 허프만 코드(one-dimensional Huffman code)를 의미한다. 또한, 상기 hcodLavIdx는 아래 표 7에 따라 2차원 허프만 코드(two-dimensional Huffman codes)로 코딩된 하나 또는 두 개의 데이터 세트에서 최대값(largest absolute value)을 결정할 수 있다.The 'bsCodeW'
표 7을 참조하면, lavTabCLD = 3, lavTabICC = 1, lavTabCPC = 3에 대해서 LavIdx = 0, lavTabCLD = 5, lavTabICC = 3, lavTabCPC = 6에 대해서 LavIdx = 1, lavTabCLD = 7, lavTabICC = 5, lavTabCPC = 9에 대해서 LavIdx = 2, lavTabCLD = 9, lavTabICC = 7, lavTabCPC = 12에 대해서 LavIdx = 3을 사용할 수 있다. 상기 표 7을 이용하여 데이터 타입에 따른 LavIdx를 먼저 구하고, LavIdx를 가지고 허프만 코딩을 하므로, 이때는 데이터 타입에 관계없이 코딩을 할 수 있다. 따라서, lavTabXXX를 적용하여 LAV값을 구할 수 있다. 여기서, hcodLavIdx 정보를 포함하는 'bsCodeW' 필드(710)는 1..3비트로 표현할 수 있다.Referring to Table 7, LavIdx = 0, lavTabCLD = 5, lavTabICC = 3, lavTabCPC = 6, LavIdx = 1, lavTabCLD = 7, lavTabICC = 5, lavTabICC = 5, and lavTabICC = 5 for lavTabCLD = 3, lavTabICC = 1 For LavIdx = 2, lavTabCLD = 9, lavTabICC = 7, and lavTabCPC = 12, LavIdx = 3 can be used. Since LavIdx according to the data type is first obtained using Table 7 and Huffman coding is performed with LavIdx, coding can be performed regardless of the data type at this time. Therefore, the LAV value can be obtained by applying lavTabXXX. Here, the 'bsCodeW'
도 8은 본 발명에 따른 오디오 신호의 HuffData2DTimePair() 신택스를 도시한 것이다. 이때, HuffData2DTimePair() 신택스는 타임 방향에서 이웃하는 값들의 페어들을 표현하는 2차원 허프만 코드들(two-dimensional Huffman codes)을 사용하여 생성한 허프만 데이터를 포함할 수 있다.8 illustrates a HuffData2DTimePair () syntax of an audio signal according to the present invention. In this case, the HuffData2DTimePair () syntax may include Huffman data generated using two-dimensional Huffman codes representing pairs of neighboring values in the time direction.
'bsCodeW' 필드(810)는 허프만 테이블 hcodLavIdx 정보를 포함하는 허프만 코드 워드이다. hcodLavIdx에 따라 1차원 허프만 디코딩을 수행하여 최대값 인덱스(LavIdx)를 생성하는 과정은 도 7에서 살펴보았는바, 여기서는 생략하도록 한다. 'bsCodeW'
도 9는 본 발명에 따른 오디오 신호의 LsbData() 신택스를 도시한 것이다. 이때, LsbData() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets) 내의 각 값의 하위비트영역(least significant bits)을 포함하는 요소이다.9 illustrates LsbData () syntax of an audio signal according to the present invention. In this case, the LsbData () syntax is an element including a least significant bit of each value in one or two temporarily subsequent parameter subsets given as parameters in a SAC frame.
'bsLsb' 필드(910)는 거친 양자화(coarse quantization) 또는 조밀 양자화(fine quantization) 각각을 적용한 결과에 따른 양자화 인덱스들(quantization indices) 사이에 매핑을 결정하는 정보이다. 여기서, 'bsLsb' 필드(910)는 데이터 타입이 채널 예측 상수(CPC)이고, 거친 양자화(coarse quantization)가 적용되지 않은 경우에 해독하는 값이고, 1비트로 표현가능하다.The 'bsLsb' field 910 is information for determining mapping between quantization indices resulting from applying coarse quantization or fine quantization, respectively. Here, the 'bsLsb' field 910 is a value decoded when the data type is a channel prediction constant (CPC) and coarse quantization is not applied, and can be expressed by 1 bit.
도 10은 본 발명에 따른 공간정보 디코딩부의 다른 실시예를 도시한 것이다. 10 illustrates another embodiment of the spatial information decoding unit according to the present invention.
코딩된 공간정보의 디코딩을 수행하면 양자화된 CLD, ADG, ICC, CPC 파라미터들의 파라미터 인덱스들(parameter indices)를 나타내는 idxXXX[][][]를 생성한다. 이때, 각 파라미터 인덱스들이 가지는 값의 범위는 다음과 같다.Decoding the coded spatial information generates idxXXX [] [] [] representing parameter indices of the quantized CLD, ADG, ICC, and CPC parameters. At this time, the range of values of each parameter index is as follows.
idxCLD[pi][ps][pb]는 -15 .. 15 범위의 값을 가지고, idxATD[pi][ps][pb]는 -15 .. 15 범위의 값을 가지고, idxICC[pi][ps][pb]는 0 .. 7 범위의 값을 가지고, idxCPC[pi][ps][pb]는 -20 .. 30 범위의 값을 가질 수 있다. 이때, ATD 파라미터들은 CLD 데이터처럼 다루어진다. 여기서, pi는 파라미터 인스턴스(parameter instance)를 나타내고, pi의 범위는 CLD, ICC, CPC인 경우 0 ..numOttBoxes+4*numTttBoxs+numInChan-1이며 ATD인 경우 0 .. numOttBoxesAT-1이다. ps는 파라미터 세트(parameter set)를 나타내고, ps의 범위는 0 .. numParamSets-1이다. pb는 파라미터 밴드(parameter band)를 나타내고, pb의 범위는 0 .. numBand-1이다. pg는 파라미터 그룹(parameter group)을 나타내고, pg의 범위는 0 .. dataBands-1이다.idxCLD [pi] [ps] [pb] has a value in the range -15 .. 15, idxATD [pi] [ps] [pb] has a value in the range -15 .. 15, idxICC [pi] [ps ] [pb] can have a value in the
공간정보 디코딩부는 전처리부(1010), 델타 디코딩부(1020), 후처리부(1030)를 포함할 수 있다. 델타 디코딩부(1020)는 파일럿 디코딩부와 디퍼렌셜 디코딩부를 포함할 수 있다. 전처리부(1010)는 이전 파라미터 세트의 인덱스를 입력받아 전처리를 수행하는데, 예를 들어, 이전 인덱스들을 현재 주파수 해상도(current frequency resolution)에 매핑하고, 오프셋 인덱스들(offset indices)이 네거티브(negative)가 되지않게 하고, 필요한 경우 거친 양자화(coarse quantization)로 변환할 수 있다. 델타 디코딩부(1020)는 bsXXXPilot, bsXXXlsb, bsXXXmsbDiff, bsXXXpcm를 수신하고, 전처리부(1010)로부터 idxXXXmsb를 수신하여 코딩된 공간정보의 디코딩을 수행하여 매핑되지 않은 공간정보 인덱스를 의미하는 idxXXXnotMapped를 출력한다. 후처리부(1030)는 델타 디코딩부(1020)로부터 idxXXXnotMapped를 수신하여 후처리를 수행하여 공간정보 인덱스인 idxXXX를 출력하는데, 예를 들어, 최고 주파수 해상도(highest frequency resolution)로 매핑하고, 오프셋을 제거하고, 조밀 양자화(fine quantization)로 변환할 수 있다. 여기서, bsXXXPilot는 허프만 디코딩된 파일럿 값, bsXXXlsb는 델타 디코딩된 인덱스들과 결합을 위해 사용될 수 있는 하위비트영역(least significant bit), bsXXXmsbDiff는 상위비트영역(most significant bit)의 허프만 디코딩된 델타 인덱스, bsXXXpcm는 PCM 디코딩된 인덱스를 의미한다. 이때, 델타 인덱스란 파일럿 차이값 및/또는 디퍼런스 값을 의미한다.The spatial information decoding unit may include a
도 11은 본 발명에 따른 공간정보 디코딩의 전처리 단계의 일 실시예를 설명하기 위해 도시한 것이다. 도 11을 참조하면, 타임 디퍼렌셜 디코딩을 위해서는 이전 프레임의 마지막 값이 필요하므로, 마지막 값을 불러와서 현재 프레임의 거친 양자화(coarse quantization) 여부에 따라 값을 맞추어준다. 이때, 데이터 타입에 따라 값을 맞추는 방법이 다르다.FIG. 11 illustrates an embodiment of a preprocessing step of spatial information decoding according to the present invention. Referring to FIG. 11, since the last value of the previous frame is required for time differential decoding, the last value is retrieved and adjusted according to whether coarse quantization of the current frame is performed. At this time, the method of matching the value depends on the data type.
만약, 이전 프레임의 값이 이미 2배가 된 값인 경우, 거친 양자화를 사용하면, 상기 2배가 된 값을 미리 2로 나누어서 현재 프레임에 나올 값과의 연산을 위해 스케일을 맞추어준다. 또한, 데이터 타입에 따라 값이 표현된 방법이 다르기 때문에 오프셋(offset)을 더하기도 한다.If the value of the previous frame is already doubled, when coarse quantization is used, the doubled value is divided by 2 in advance to adjust the scale for calculation with the value of the current frame. In addition, an offset may be added because the value is expressed in accordance with the data type.
도 12a ~ 도 12b는 본 발명에 따른 디코딩 과정을 예를 들어 설명하기 위해 도시한 것이다. 여기서, 디코딩 과정의 일 예로 델타 디코딩을 정의하는데, 델타 디코딩이란 공간정보가 주파수 디퍼렌셜 코딩, 타임 디퍼렌셜 코딩, 파일럿 코딩이 적용되어 코딩된 경우, 이를 디코딩하는 과정을 말한다. 이때, 본 발명에 따른 델타 디코딩은 제1비트영역과 제2비트영역으로 나누어 전송된 값을 이어주는 작업을 수행할 수 있다. 본 발명에서 제1비트영역은 상위비트영역(most significant bit:msb)을 의미하고, 제2비트영역은 하위비트영역(least significant bit:lsb)을 의미한다.12A to 12B illustrate examples of the decoding process according to the present invention. Here, as an example of the decoding process, delta decoding is defined. When delta decoding is coded by applying spatial differential coding, time differential coding, and pilot coding, spatial information is decoded. In this case, the delta decoding according to the present invention may divide the first bit region and the second bit region and connect the transmitted values. In the present invention, the first bit region means most significant bit (msb), and the second bit region means least significant bit (lsb).
도 12a를 참조하면, 코딩 장치에서 공간정보 코딩을 위해 파일럿 코딩이 사용된 경우, decodePilotDeltaData()를 이용하는데, 데이터가 페어를 이루는 경우 데이터 세트가 두 세트이므로 상기 decodePilotDeltaData()를 두 번 이용한다. 만약, 코딩 장치에서 공간정보 코딩을 위해 파일럿 코딩이 사용되지 않고, PCM 코딩이 사용되지 않은 경우, 데이터가 페어인지를 확인하여 decodePilotDeltaData()를 두 번 또는 한번 이용할 수 있다.Referring to FIG. 12A, when pilot coding is used for coding spatial information in a coding apparatus, decodePilotDeltaData () is used. When data is paired, data sets are two sets, and thus decodePilotDeltaData () is used twice. If pilot coding is not used for spatial information coding in the coding device and PCM coding is not used, decodePilotDeltaData () may be used twice or once by checking whether data is a pair.
도 12b를 참조하면, decodePilotDeltaData()를 이용하여 델타 디코딩을 수행하는데, pg는 0부터 dataBands까지 수행하며 이를 수식으로 나타내면 수학식 4와 같다. 예를 들어, 한 데이터 세트 내에 모든 값이 20개이면 pg는 0부터 19까지 수행할 수 있다.Referring to FIG. 12B, delta decoding is performed using decodePilotDeltaData (). Pg is performed from 0 to dataBands, which is expressed by Equation 4 below. For example, if all values are 20 in a data set, pg can run from 0 to 19.
여기서, bsXXXmsbDiff는 디코딩된 파일럿 차이값을 의미하고, bsXXXpilot는 디코딩된 파일럿 값을 의미하고, idxXXXmsb는 파일럿 디코딩된 공간정보 인덱스를 의미한다.Here, bsXXXmsbDiff means a decoded pilot difference value, bsXXXpilot means a decoded pilot value, and idxXXXmsb means a pilot decoded spatial information index.
상기 decodePilotDeltaData()에서 bsQuantCoarse이거나 데이터 타입이 CPC가 아닌 경우는 수학식 4에서 계산된 값인 idxXXXmsb를 그대로 매핑되기 전의 공간정보 인덱스인 idxXXXnotMapped로 출력한다. 다만, bsQuantCoarse가 아니고 데이터 타입이 CPC인 경우 idxXXXnotMapped는 idxXXXmsb에 2를 곱하고 하위비트영역(lsb)을 더해주는 과정을 수행하는데 이를 수식으로 나타내면 다음 수학식 5와 같다.If bsQuantCoarse or the data type is not CPC, the decodePilotDeltaData () outputs idxXXXmsb, which is a value calculated in Equation 4, as idxXXXnotMapped, which is a spatial information index before being mapped. However, if bsQuantCoarse and the data type is CPC, idxXXXnotMapped multiplies idxXXXmsb with 2 and adds the lower bit area lsb. This is expressed by Equation 5 below.
따라서, 데이터 타입이 CPC이고, 거친 양자화인 경우에만 하위비트영역(lsb)를 코딩 장치에서 별도 전송이 필요하고, 상기 하위비트영역(lsb)을 이용하여 idxXXXnotMapped를 구할 수 있다.Therefore, only when the data type is CPC and coarse quantization, the coding apparatus needs to separately transmit the lower bit region lsb, and idxXXXnotMapped can be obtained using the lower bit region lsb.
도 13은 본 발명에 따른 공간정보 디코딩의 후처리 단계의 일 실시예를 설명하기 위해 도시한 것이다. 도 13을 참조하면, 델타 디코딩 수행 후 생성된 idxXXXnotMapped를 각 파라미터 특성에 맞게 매핑을 하는 과정이다.13 is a diagram illustrating an embodiment of a post-processing step of spatial information decoding according to the present invention. Referring to FIG. 13, a process of mapping idxXXXnotMapped generated after performing delta decoding according to each parameter characteristic is performed.
예를 들어, 상기 idxXXXnotMapped를 데이터 타입 CLD는 -15 ~ 15 범위의 값, ICC는 0 ~ 7 범위의 값, CPC는 -20 ~ 20 범위의 값으로 매핑 시켜준다. 이때, 거친 양자화가 사용된 경우에는 2배를 해주는 과정이 필요하다. 또한, 데이터가 그룹핑이 되어 있는 경우이면, 그룹의 값을 펴서 각 밴드의 인덱스에 매칭시키는 과정도 필요하다.For example, the idxXXXnotMapped maps the data type CLD to a value in the range of -15 to 15, an ICC to a value in the range of 0 to 7, and a CPC to a value in the range of -20 to 20. In this case, when coarse quantization is used, a process of doubling is required. In addition, when data is grouped, a process of expanding a group value and matching the index of each band is also required.
도 14a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제1실시예를 도시한 흐름도이다. 14A is a flowchart illustrating a first embodiment of a method of encoding an audio signal according to the present invention.
코딩 장치(1)의 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 생성한다(S10). The spatial
공간정보 코딩부(120)는 공간정보의 양자화 방식을 결정하고, 공간정보의 파일럿 값과 파일럿 차이값을 생성한다(S11). 이때, 양자화 방식의 예를 들면, 거친 양자화(coarse quantization)와 조밀 양자화(fine quantization)이 가능하다.The spatial
공간정보 코딩부(120)는 S11단계에서 결정된 양자화 방식과 공간정보 타입에 따라 공간정보의 하위비트영역을 생성한다(S12). 이때, 멀티채널 오디오 신호는 데이터 세트를 포함하고, 공간정보 코딩부(120)는 데이터 세트로부터 파일럿 값과 파일럿 차이값을 생성한다. 예를 들어, 공간정보 코딩부(120)는 데이터 세트의 공간정보 타입이 채널 예측 상수(CPC)이고, 양자화 방식이 거친 양자화(coarse quantization)가 적용되지 않고 조밀 양자화(fine quantization)가 적용된 경우에 공간정보의 하위비트영역을 생성할 수 있다.The spatial
또한, 공간정보 코딩부(120)는 파일럿 코딩이 적용된 경우에 파일럿 코딩 식별자를 생성하여 디코딩 장치(2)로 전송할 수 있다.In addition, when the pilot coding is applied, the spatial
도 14b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제1실시예를 도시한 흐름도이다. 14B is a flowchart illustrating a first embodiment of a method of decoding an audio signal according to the present invention.
디코딩 장치(2)의 허프만 디코딩부(270)는 수신한 오디오 신호로부터 파일럿 값과 파일럿 차이값을 추출한다(S20).The
파일럿 디코딩부(263)는 파일럿 값과 파일럿 차이값을 이용하여 공간정보의제1비트영역을 생성한다(S21). The
허프만 디코딩부(270)는 데이터 세트의 공간정보 타입이 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 판단한다(S22). The
S22단계 판단결과, 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 만족하지 않으면, 파일럿 디코딩부(263)는 공간정보의 제1비트영역으로 공간정보를 생성한다(S23).If it is determined in step S22 that the channel prediction constant (CPC) does not satisfy the condition that coarse quantization is not applied among the quantization schemes, then the
S22단계 판단결과, 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 만족하면, 허프만 디코딩부(270)는 공간정보의 제2비트영역을 생성한다(S24). 이후, 파일럿 디코딩부(263)는 공간정보의 제1비트영역과 공간정보의 제2비트영역을 이용하여 공간정보를 생성 하는데, 예를 들어, 제1비트영역을 2배하고, 제2비트영역을 더해서 공간정보를 생성한다(S25).As a result of the determination in step S22, when the channel prediction constant (CPC) is satisfied and the condition of coarse quantization is not applied among the quantization schemes, the
S23, S25단계 후, 멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S26).After the steps S23 and S25, the
도 15a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제2실시예를 도시한 흐름도이다. 15A is a flowchart illustrating a second embodiment of a method of encoding an audio signal according to the present invention.
코딩 장치(1)의 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 생성한다(S30). The spatial
공간정보 코딩부(120)는 공간정보의 파일럿 값과 파일럿 차이값을 생성한다(S31). 또한, 공간정보 코딩부(120)는 파일럿 값은 1차원 허프만 코딩을 수행하고, 파일럿 차이값은 코딩 스킴에 따라 1차원 허프만 코딩 또는 2차원 허프만 코딩 중 하나를 수행한다(S32).The spatial
도 15b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제2실시예를 도시한 흐름도이다. 15B is a flowchart illustrating a second embodiment of a method of decoding an audio signal according to the present invention.
디코딩 장치(2)의 허프만 디코딩부(270)는 수신한 오디오 신호로부터 1차원 허프만 디코딩을 수행하여 파일럿 값을 추출한다(S40). The
허프만 디코딩부(270)는 코딩 스킴을 확인한다(S41). The
코딩 스킴 확인결과, 코딩 장치(1)에서 파일럿 차이값에 대해서 1차원 허프만 코딩이 수행된 경우에는 허프만 디코딩부(270)는 1차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출한다(S42). 이때, 데이터 세트가 페어이면, 허프만 디코딩 부(270)는 1차원 엔트로피 디코딩을 한번 더 수행하여 파일럿 차이값을 추출한다.As a result of confirming the coding scheme, when the one-dimensional Huffman coding is performed on the pilot difference value in the
이와 달리, 코딩 스킴 확인결과, 코딩 장치(1)에서 파일럿 차이값에 대해서 2차원 허프만 코딩이 수행된 경우에는 허프만 디코딩부(270)는 2차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출한다(S43). 예를 들어, 허프만 디코딩부(270)는 데이터 세트가 주파수 방향으로 페어링이면, 주파수 페어 2차원 허프만 디코딩을 수행하고, 데이터 세트가 주파수 방향으로 페어링이고, 데이터 세트가 페어이면 2차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출한다. 또한, 허프만 디코딩부(270)는 데이터 세트가 타임 방향으로 페어링이면, 타임 페어 2차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출한다. 관련하여, 허프만 디코딩시 파일럿 값에 대한 허프만 테이블은 첫번째 샘플에 대한 허프만 테이블과 같은 것을 사용하고, 파일럿 차이값에 대한 허프만 테이블은 디퍼렌셜 값에 대한 허프만 테이블과 같은 것을 사용할 수 있다. On the contrary, when the coding scheme confirms that the two-dimensional Huffman coding is performed on the pilot difference value in the
그리고, 허프만 디코딩부(270)는 1차원 허프만 디코딩을 수행하여 최대값을 추출할 수 있다.The
S42, S43 단계 이후, 파일럿 디코딩부(263)는 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 생성한다(S44). 이때, 데이터 세트가 페어인 경우, 파일럿 디코딩부(263)는 두 개의 데이터 세트에 대해 하나의 파이럿 값을 이용하여 공간정보를 생성할 수 있다.After the steps S42 and S43, the
멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S45).The
도 16a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제3실시예를 도시한 흐름도이다. 16A is a flowchart illustrating a third embodiment of a method of encoding an audio signal according to the present invention.
코딩 장치(1)의 공간정보 코딩부(120)는 복수의 데이터 세트를 포함하는 오디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성한다(S50). The spatial
공간정보 코딩부(120)는 복수의 데이터 세트별 데이터 모드를 생성한다(S51). 이후, 다중화부(130)는 파일럿 값과 파일럿 차이값의 다중화를 수행한다.The spatial
도 16b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제3실시예를 도시한 흐름도이다. 16B is a flowchart illustrating a third embodiment of a method of decoding an audio signal according to the present invention.
디코딩 장치(2)의 역다중화부(140)는 수신한 오디오 신호의 역다중화를 수행하고, 공간정보 디코딩부(160)는 데이터 모드를 해독하여 데이터 세트를 생성한다(S60). 예를 들어, 공간정보 디코딩부(S160)는 데이터 모드가 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 데이터 모드가 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 데이터 모드가 '2'인 경우는 파라미터 값들을 보간하며, 데이터 모드가 '3'인 경우는 코딩된 파라미터 값을 읽어 데이터 세트를 생성할 수 있다. 이때, 데이터 모드가 '3'인 경우는 데이터가 신규 전송된 것을 의미한다. The
공간정보 디코딩부(160)는 데이터 세트의 파일럿 값과 파일럿 차이값을 디코딩하고(S61), 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 디코딩한다(S62). 이때, 파일럿 값은 1차원 허프만 디코딩을 수행하여 추출할 수 있다. 관련하여, 본 실시예에서는 공간정보 디코딩부(160)가 데이터 페어 식별자를 해독하여 페어 여부 를 확인하고, 데이터 세트가 페어를 이루는 경우, 페어를 이루는 두 데이터 세트에서 하나의 파일럿 값을 추출하는 것이 가능하다.The spatial
멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S63).The
본 발명을 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다. The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.
상기에서 설명한 본 발명에 따른 오디오 신호의 디코딩 방법 및 장치의 효과를 설명하면 다음과 같다. The effects of the method and apparatus for decoding an audio signal according to the present invention described above are as follows.
첫째, 타임 및 주파수에서 처리하고자하는 데이터 세트 내의 미리 설정된 파일럿 값과 파일럿 차이값을 인코딩하여 전송하고 이를 디코딩하여 효과적으로 오디오 신호를 처리하는 것이 가능하다.First, it is possible to efficiently process an audio signal by encoding and transmitting a preset pilot value and a pilot difference value in a data set to be processed at time and frequency.
둘째, 데이터의 특성에 따라 복수의 디코딩 방법 중에 특정 디코딩 방법을 선택하여 오디오 신호를 처리하는 것이 가능하다.Second, it is possible to process a audio signal by selecting a specific decoding method among a plurality of decoding methods according to the characteristics of the data.
셋째, 공간 파라미터가 포함되는 비트 스트림을 효과적으로 구성하여 전송하는 데이터 량을 효과적으로 줄이는 것이 가능하다.Third, it is possible to effectively configure the bit stream including the spatial parameters to effectively reduce the amount of data to be transmitted.
Claims (18)
Priority Applications (158)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06799101A EP1946302A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799094A EP1946062A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534450A JP2009511947A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
KR1020060097646A KR20070038439A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus |
CN2006800371734A CN101283249B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
US12/088,868 US7675977B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for processing audio signal |
CN2006800371128A CN101283398B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
EP06799098A EP1949366A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534457A JP2009511952A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
PCT/KR2006/004016 WO2007040356A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004018 WO2007040358A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
BRPI0616945-7A BRPI0616945A2 (en) | 2005-10-05 | 2006-10-04 | method and apparatus for signal processing |
JP2008534455A JP5254798B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
PCT/KR2006/004017 WO2007040357A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004024 WO2007040364A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799089A EP1946298A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
PCT/KR2006/004015 WO2007040355A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534447A JP2009511944A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
JP2008534451A JP2009511948A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
KR1020087005855A KR100857115B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799093A EP1946300A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
JP2008534458A JP5405828B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus |
CN200680037202.7A CN101283400B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
KR1020087005858A KR100857118B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799095A EP1946063A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799103A EP1946304A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087025595A KR101169281B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for audio signal processing and encoding and decoding method, and apparatus therefor |
KR1020087009202A KR100857120B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005851A KR100857112B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534449A JP2009511946A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
JP2008534448A JP5111381B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and signal processing apparatus |
KR1020060097647A KR101356480B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
PCT/KR2006/004014 WO2007040354A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004025 WO2007040365A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
CN2006800373138A CN101283254B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
US12/089,385 US7672379B2 (en) | 2005-10-05 | 2006-10-04 | Audio signal processing, encoding, and decoding |
CN2006800372830A CN101283252B (en) | 2005-10-05 | 2006-10-04 | Signal processing method and device, encoding and decoding method and device |
JP2008534452A JP2009520212A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
US12/089,383 US7752053B2 (en) | 2006-01-13 | 2006-10-04 | Audio signal processing using pilot based coding |
KR1020087005836A KR100878828B1 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
CN2006800372737A CN101283402B (en) | 2005-10-05 | 2006-10-04 | Signal processing method and device, encoding and decoding method and device |
JP2008534456A JP2009511951A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
BRPI0616941-4A BRPI0616941A2 (en) | 2005-10-05 | 2006-10-04 | method and apparatus for signal processing |
EP06799102A EP1946303A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/083,081 US8203930B2 (en) | 2005-10-05 | 2006-10-04 | Method of processing a signal and apparatus for processing a signal |
EP09011732A EP2131356B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for audio signal processing |
JP2008534459A JP5319286B2 (en) | 2005-10-05 | 2006-10-04 | Data processing method and apparatus, encoding and decoding method, and apparatus therefor |
US12/088,871 US7660358B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing using pilot based coding |
US12/083,082 US8755442B2 (en) | 2005-10-05 | 2006-10-04 | Method of processing a signal and apparatus for processing a signal |
US12/088,865 US7680194B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing, encoding, and decoding |
CN200680037151.8A CN101283248B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
EP06799097A EP1946301A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004013 WO2007040353A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
CN200680037161.1A CN101283399B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
CN2006800373142A CN101283255B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
ES09011732T ES2390103T3 (en) | 2005-10-05 | 2006-10-04 | Procedure and apparatus for processing audio signals |
JP2008534453A JP5329963B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
KR1020087005860A KR100878833B1 (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
CN2006800372633A CN101283251B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
PCT/KR2006/004019 WO2007040359A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005853A KR100857114B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/088,958 US7756701B2 (en) | 2005-10-05 | 2006-10-04 | Audio signal processing using pilot based coding |
EP06799100A EP1949368A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
CN2006800372506A CN101283250B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
PCT/KR2006/004021 WO2007040361A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/089,105 US7646319B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005856A KR100857116B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005857A KR100857117B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799099.4A EP1949367B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for audio signal processing |
CA2624633A CA2624633C (en) | 2005-10-05 | 2006-10-04 | Signal processing using pilot based coding |
KR1020087009203A KR100857121B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005852A KR100857113B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
CN2006800373814A CN101283406B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
US12/088,872 US7671766B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
ES06799107.5T ES2478004T3 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for decoding an audio signal |
KR1020087005843A KR100857111B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799106A EP1931958A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005841A KR100857109B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/089,380 US7684498B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing using pilot based coding |
JP2008534446A JP2009511943A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
AU2006297950A AU2006297950B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004020 WO2007040360A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004010 WO2007040350A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
HK09103351.8A HK1125172B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/089,102 US7756702B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing using pilot based coding |
KR1020060097648A KR20070038441A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus |
US12/088,959 US8068569B2 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding |
PCT/KR2006/004022 WO2007040362A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005859A KR100857119B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534454A JP2009512271A (en) | 2005-10-05 | 2006-10-04 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
PCT/KR2006/004009 WO2007040349A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
PCT/KR2006/004027 WO2007040367A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/088,866 US7643562B2 (en) | 2005-10-05 | 2006-10-04 | Signal processing using pilot based coding |
EP06799090A EP1946299A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing |
EP06799096A EP1952112A4 (en) | 2005-10-05 | 2006-10-04 | SIGNAL PROCESSING METHOD AND APPARATUS, ENCODING AND DECODING METHOD, AND ASSOCIATED APPARATUS |
CN2006800373212A CN101283405B (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
PCT/KR2006/004026 WO2007040366A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799107.5A EP1949062B1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for decoding an audio signal |
EP06799104A EP1949061A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799105A EP1952113A4 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/083,059 US7813380B2 (en) | 2005-10-05 | 2006-10-04 | Method of processing a signal and apparatus for processing a signal |
PCT/KR2006/004023 WO2007040363A1 (en) | 2005-10-05 | 2006-10-04 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004033 WO2007040373A1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/089,091 US7774199B2 (en) | 2005-10-05 | 2006-10-09 | Signal processing using pilot based coding |
KR1020087005838A KR100878830B1 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
US12/089,370 US7751485B2 (en) | 2005-10-05 | 2006-10-09 | Signal processing using pilot based coding |
PCT/KR2006/004031 WO2007040371A1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004034 WO2007040374A1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005842A KR100857110B1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
KR1020087005837A KR100878829B1 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
JP2008534460A JP2009520382A (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
US12/088,962 US7663513B2 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
PCT/KR2006/004032 WO2007040372A1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534463A JP5329964B2 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
PCT/KR2006/004028 WO2007040368A1 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799113A EP1941499A4 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
EP06799111.7A EP1952114B1 (en) | 2005-10-05 | 2006-10-09 | Method for decoding an audio signal |
EP06799108A EP1949063A4 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534464A JP5329965B2 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
KR1020087005840A KR100878832B1 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
JP2008534465A JP2009520384A (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
CN2006800371043A CN101283397B (en) | 2005-10-05 | 2006-10-09 | Signal processing method and device, encoding and decoding method and device |
KR1020087005839A KR100878831B1 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus thereof, and encoding and decoding method and apparatus thereof |
ES06799111.7T ES2513816T3 (en) | 2005-10-05 | 2006-10-09 | Procedure to decode an audio signal |
CN2006800373034A CN101283253B (en) | 2005-10-05 | 2006-10-09 | Signal processing method and device, encoding and decoding method and device |
EP06799114A EP1946306A4 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
JP2008534462A JP5524484B2 (en) | 2005-10-05 | 2006-10-09 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
EP06799112A EP1946305A4 (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US12/089,368 US7865369B2 (en) | 2006-01-13 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
CN200680037351.3A CN101283256B (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
CN2006800373119A CN101283404B (en) | 2005-10-05 | 2006-10-09 | Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof |
CN2006800372934A CN101283403B (en) | 2005-10-05 | 2006-10-09 | Signal processing method and device, encoding and decoding method and device |
KR1020060099882A KR20070041398A (en) | 2005-10-13 | 2006-10-13 | Signal processing method and signal processing device |
AU2006300103A AU2006300103B2 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
EP06799225A EP1949698A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
PCT/KR2006/004152 WO2007043844A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
US12/083,465 US8019611B2 (en) | 2005-10-13 | 2006-10-13 | Method of processing a signal and apparatus for processing a signal |
US12/083,460 US8199828B2 (en) | 2005-10-13 | 2006-10-13 | Method of processing a signal and apparatus for processing a signal |
PCT/KR2006/004151 WO2007043843A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
EP06799228A EP1946556A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
EP06799231A EP1946309A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
EP06799227A EP1946555A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
EP06799230A EP1946308A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
AU2006300102A AU2006300102B2 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
US12/083,459 US8199827B2 (en) | 2005-10-13 | 2006-10-13 | Method of processing a signal and apparatus for processing a signal |
EP06799229A EP1946307A4 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
PCT/KR2006/004149 WO2007043841A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
US12/083,461 US7970072B2 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
PCT/KR2006/004147 WO2007043840A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
PCT/KR2006/004153 WO2007043845A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for processing a signal |
US12/083,457 US8179977B2 (en) | 2005-10-13 | 2006-10-13 | Method of apparatus for processing a signal |
US12/083,458 US8194754B2 (en) | 2005-10-13 | 2006-10-13 | Method for processing a signal and apparatus for processing a signal |
AU2006300101A AU2006300101B2 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
PCT/KR2006/004150 WO2007043842A1 (en) | 2005-10-13 | 2006-10-13 | Method and apparatus for signal processing |
JP2011010444A JP2011130470A (en) | 2005-10-05 | 2011-01-21 | Method and apparatus for signal processing, encoding and decoding method, and apparatus for the same |
JP2011115621A JP5270717B2 (en) | 2005-10-05 | 2011-05-24 | Audio signal decoding method, audio signal decoding apparatus, and system for processing audio signal |
JP2011115954A JP5330453B2 (en) | 2005-10-05 | 2011-05-24 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
JP2011167446A JP5016129B2 (en) | 2005-10-05 | 2011-07-29 | Signal processing method and apparatus, encoding and decoding method, and apparatus therefor |
Applications Claiming Priority (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US72363105P | 2005-10-05 | 2005-10-05 | |
US60/723,631 | 2005-10-05 | ||
US72565405P | 2005-10-13 | 2005-10-13 | |
US60/725,654 | 2005-10-13 | ||
US72971305P | 2005-10-25 | 2005-10-25 | |
US60/729,713 | 2005-10-25 | ||
US73039305P | 2005-10-27 | 2005-10-27 | |
US60/730,393 | 2005-10-27 | ||
US73776005P | 2005-11-18 | 2005-11-18 | |
US60/737,760 | 2005-11-18 | ||
US75340805P | 2005-12-27 | 2005-12-27 | |
US60/753,408 | 2005-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20070108313A true KR20070108313A (en) | 2007-11-09 |
Family
ID=39063205
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060079836A Pending KR20070108312A (en) | 2005-10-05 | 2006-08-23 | Method and apparatus for encoding / decoding audio signal |
KR1020060079837A Pending KR20070108313A (en) | 2005-10-05 | 2006-08-23 | Method and apparatus for encoding / decoding audio signal |
KR1020060079838A Pending KR20070108314A (en) | 2005-10-05 | 2006-08-23 | Method and apparatus for encoding / decoding audio signal |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060079836A Pending KR20070108312A (en) | 2005-10-05 | 2006-08-23 | Method and apparatus for encoding / decoding audio signal |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060079838A Pending KR20070108314A (en) | 2005-10-05 | 2006-08-23 | Method and apparatus for encoding / decoding audio signal |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR20070108312A (en) |
-
2006
- 2006-08-23 KR KR1020060079836A patent/KR20070108312A/en active Pending
- 2006-08-23 KR KR1020060079837A patent/KR20070108313A/en active Pending
- 2006-08-23 KR KR1020060079838A patent/KR20070108314A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20070108312A (en) | 2007-11-09 |
KR20070108314A (en) | 2007-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101823279B1 (en) | Audio Decoder, Audio Encoder, Method for Providing at Least Four Audio Channel Signals on the Basis of an Encoded Representation, Method for Providing an Encoded Representation on the basis of at Least Four Audio Channel Signals and Computer Program Using a Bandwidth Extension | |
RU2368074C2 (en) | Adaptive grouping of parametres for improved efficiency of coding | |
JP5292498B2 (en) | Time envelope shaping for spatial audio coding using frequency domain Wiener filters | |
JP4601669B2 (en) | Apparatus and method for generating a multi-channel signal or parameter data set | |
WO2008100099A1 (en) | Methods and apparatuses for encoding and decoding object-based audio signals | |
EP1479071A2 (en) | Parametric audio coding | |
KR20070003593A (en) | Method for Encoding and Decoding Multichannel Audio Signals | |
JP4685165B2 (en) | Interchannel level difference quantization and inverse quantization method based on virtual sound source position information | |
EP1932239A1 (en) | Method and apparatus for encoding/decoding | |
WO2009048239A2 (en) | Encoding and decoding method using variable subband analysis and apparatus thereof | |
KR20070003546A (en) | Clipping Restoration Method Using Clipping Restoration Information in Multichannel Audio Coding | |
KR20070001139A (en) | Audio Distribution System, Audio Encoder, Audio Decoder and Their Operating Methods | |
KR100891666B1 (en) | Apparatus for processing audio signal and method thereof | |
KR20070108313A (en) | Method and apparatus for encoding / decoding audio signal | |
KR20070075237A (en) | Method for Encoding and Decoding Multichannel Audio Signals | |
KR20070014936A (en) | Method and apparatus for encoding / decoding audio signal | |
KR20070025904A (en) | Parameter Channel Number Bitstream Configuration of LFF Channel Effective in Multichannel Audio Coding | |
KR20070037974A (en) | How to configure the number of parameter bands in a non-guided coding bitstream in multichannel audio coding | |
HK1132576B (en) | Method and apparatus for encoding/decoding multi-channel audio signal | |
HK1125750B (en) | Method and apparatus for encoding/decoding | |
KR20070041335A (en) | How to encode and decode audio signals | |
HK1132576A1 (en) | Method and apparatus for encoding/decoding multi-channel audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20060823 |
|
PG1501 | Laying open of application |